Primera ley a nivel mundial sobre AI.
El Consejo de la UE aprobó la innovadora Ley de Inteligencia Artificial, que establece normas integrales para la tecnología de inteligencia artificial.
La Comisión Europea podría imponer sanciones de hasta 35 millones de euros (38 millones de dólares) o el 7% de sus ingresos globales anuales a las empresas que transgredan la Ley de IA.
Mientras instituciones de todo el mundo se apresuran a imponer restricciones a la tecnología, los estados miembros de la Unión Europea llegaron a un acuerdo final para la primera ley importante del mundo para regular la inteligencia artificial.
El Consejo de la UE aprobó la innovadora Ley de Inteligencia Artificial, que establece normas integrales para la tecnología de inteligencia artificial.
“La adopción de la ley sobre IA es un hito importante para la Unión Europea”, dijo el martes Mathieu Michel, secretario de Estado de Digitalización de Bélgica.
“Con la ley de IA, Europa enfatiza la importancia de la confianza, la transparencia y la responsabilidad cuando se trata de nuevas tecnologías y, al mismo tiempo, garantiza que esta tecnología en rápida evolución pueda florecer e impulsar la innovación europea”, añadió Michel.
La Ley de IA usa un enfoque basado en el riesgo para la inteligencia artificial, lo que significa que las aplicaciones de la tecnología se tratan de manera diferente según las amenazas percibidas que representan para la sociedad.
Las aplicaciones de IA que se consideran "inaceptables" en términos de su nivel de riesgo están prohibidas por la ley. Dichas aplicaciones incluyen sistemas de "puntuación social" que clasifican a los ciudadanos mediante la agregación y el análisis de sus datos, vigilancia policial predictiva y reconocimiento emocional en el lugar de trabajo y las escuelas.
Los sistemas de IA de alto riesgo se evalúan en función de los riesgos para la salud, la seguridad y los derechos fundamentales de los ciudadanos. Además, se incluyen aplicaciones de IA en los servicios financieros y educativos, donde los algoritmos de IA pueden conllevar un riesgo de sesgo, además contempla aplicaciones de IA de alto riesgo. Estos incluyen dispositivos médicos y vehículos autónomos, que serán evaluados en función de los riesgos que representan para la salud, la seguridad y los derechos fundamentales de los ciudadanos.
Las principales empresas tecnológicas de Estados Unidos en el foco.
Según Matthew Holman, socio del bufete de abogados Cripps, las reglas tendrán implicaciones significativas para cualquier individuo o organización que desarrolle, crea, utilice o revende IA en la UE, con las empresas tecnológicas estadounidenses en el centro de atención.
“La IA de la UE no se parece a ninguna ley de ningún otro lugar del mundo”, afirmó Holman. “Crea por primera vez un régimen regulatorio detallado para la IA”.
“Los gigantes tecnológicos estadounidenses han estado siguiendo de cerca el desarrollo de esta ley”, añadió Holman. “Ha habido una gran cantidad de financiación para sistemas de IA generativa de cara al público que deberán garantizar el cumplimiento de la nueva ley que, en algunos lugares, es bastante onerosa”.
La Comisión Europea podría imponer sanciones de hasta 35 millones de euros (38 millones de dólares) o el 7% de sus ingresos globales anuales a las empresas que transgredan la Ley de IA.
La ley de la UE cambia después del lanzamiento de ChatGPT de OpenAI en noviembre de 2022. En ese momento, los funcionarios se dieron cuenta de que la legislación actual carecía de los detalles necesarios para abordar las capacidades avanzadas de la tecnología emergente de IA generativa, así como los riesgos asociados con el uso de material protegido por derechos de autor.
Implementación, un largo camino.
La ley impone estrictas restricciones a los sistemas de IA generativa, a los que la UE se refiere como IA de "propósito general". Estos incluyen cumplir con la ley de derechos de autor de la UE, proporcionar transparencia sobre el proceso de entrenamiento de modelos, pruebas de rutina y protecciones de ciberseguridad adecuadas.
Dessi Savova, socia de Clifford Chance, dice que pasará algún tiempo antes de que estos requisitos realmente entren en vigor. La Ley de IA no se aplicará a los sistemas de propósito general hasta después de doce meses.
Incluso después de eso, los sistemas de IA generativa actualmente disponibles comercialmente, como ChatGPT de OpenAI, Gemini de Google y Copilot de Microsoft, tienen un "período de transición" de 36 meses para que su tecnología cumpla con la ley.
“Se ha llegado a un acuerdo sobre la Ley de IA, y ese reglamento está a punto de convertirse en realidad”, dijo Savova.
“Ahora, la atención debe centrarse en la implementación y aplicación efectiva de la Ley de IA”.
Fuentes:
TN, Infobae, CNBC, DW Español, RTVE Noticias.