La UE quiere asegurar que las tecnológicas se sometan a su Ley de IA y ya tiene un plan para lograrlo
La Comisión Europea ha publicado el primer borrador del Código de Prácticas para la Inteligencia Artificial (IA) de Propósito General. El documento señala una serie de requisitos, normas y mecanismos para garantizar que compañías como OpenAI, Meta o Google cumplan con los establecido en la Ley de IA vigente en el bloque.
El órgano ejecutivo explica que la primera versión de este instrumento de cumplimiento ha sido desarrollada por expertos independientes, en colaboración con la Oficina Europea de IA y con base en información proporcionada por los principales proveedores de modelos de inteligencia artificial de propósito general (GPAI, por sus siglas en inglés).
La propuesta será revisada por casi 1,000 interesadas en los próximos días. El organismo regulador espera obtener comentarios y opiniones para perfeccionar el código. El escrito definitivo estará listo antes del 1 de mayo del próximo año. “La versión final establecerá objetivos, medidas y, cuando sea pertinente, indicadores clave de desempeño (KPI). Desempeñará un papel crucial en la orientación del desarrollo y la implementación futura de GPAI seguros y confiables. Deberá detallar reglas relacionadas con los derechos de autor y definir los riesgos sistémicos así como medidas de evaluación y de mitigación”, afirma la Comisión.
¿Qué propone el nuevo código sobre la IA de la Unión Europea?
El boceto de 36 páginas aborda cuatro aspectos fundamentales: transparencia, cumplimiento de los derechos de autor, identificación de riesgos y la moderación de peligros técnicos y de gobernanza. Enfatiza que las corporaciones detrás de los grandes modelos de propósito general deberán de informar sobre los rastreadores web, fuentes de información y bases de datos que han utilizado para entrenar, probar y verificar los algoritmos.
Las empresas también tendrán que exponer los términos de los acuerdos de licencia que les permiten acceder a contenidos protegidos. Estarán obligadas a implementar un punto de contacto único para gestionar las quejas y comentarios de los titulares de la propiedad intelectual.
El código enlista diversos tipos de amenazas que las organizaciones sujetas a la normativa se comprometen a considerar y abordar como riesgos sistemáticos. Entre ellos destacan los delitos cibernéticos, la discriminación a gran escala, la persuasión y manipulación, así como el uso indebido de la IA para crear armas químicas, biológicas y nucleares.
Los creadores de GPAI estarán comprometidos a adoptar un Marco de Seguridad y Protección (SSF, por sus siglas en inglés). La política pretende garantizar la seguridad y la responsabilidad en el desarrollo de IA. Será necesario que los proveedores desglosen sus protocolos de gestión y mitigación de contingencias, considerando aspectos técnicos, de manejo de datos, de detección de fallas y de evaluación de la eficiencia de sus productos.
El anteproyecto exige a las entidades tecnológicas relacionadas con la IA entregar informes periódicos sobre sus lineamientos de gobernanza internos, realizar análisis continuos sobre las posibles amenazas de sus sistemas y la incorporación de evaluadores externos cuando sea necesario.
La normativa no tiene un carácter obligatorio. Las firmas que diseñan GPAI pueden acoger medidas alternativas siempre y cuando puedan justificar su eficacia en virtud de la Ley de IA europea. Pese a ello, se espera que organizaciones como OpenAI, Google, Meta, Anthropic y Mistral se ajusten a las nuevas directrices de la Unión Europea.
La Ley de IA entró en vigor en agosto con la intención moderar la producción, comercialización y uso de sistemas de IA. Contempla criterios que autorizan o prohíben la utilización y venta de estos programas informáticos en función del “potencial que tienen para causar daño a la sociedad”. Los agentes públicos y privados tanto locales como internacionales con operaciones dentro del bloque están sujetos a las disposiciones. Las entidades que incumplan las disposiciones previstas en la normativa enfrentarán multas de hasta 35 millones de euros o el equivalente al 7% de su facturación anual a nivel mundial.
Share this content:
Publicar comentario