La inédita pero también criticada Ley de Inteligencia Artificial de la Unión Europea
La nueva legislación para regular la IA entró en vigencia. Busca fomentar la innovación pero también limitar los posibles abusos de esta nueva tecnología.
El inicio de agosto trajo consigo la entrada en vigencia de la Ley de Inteligencia Artificial de la Unión Europea. Se trata de una legislación inédita- pero no por eso menos criticada- a nivel mundial para regular la IA. La medida tiene como objetivo fomentar la innovación en Europa pero también limitar los posibles abusos de esta nueva tecnología. Para los críticos, la legislación no impide la “proliferación de tecnologías abusivas”.
“Entra en vigor la Ley de Inteligencia Artificial”, escribió el primer día del mes Ursula von der Leyen, la presidenta de la Comisión Europea, en la red social X, antes conocida como Twitter. Se trata de un “marco pionero” en Europa para una IA “innovadora y segura”, añadió la dirigente que, además, aseguró que la nueva normativa “impulsará el desarrollo de una IA en la que los europeos puedan confiar”. “Brindará apoyo a las pymes y a las empresas emergentes europeas para llevar al mercado soluciones de IA de vanguardia”, agregó. La mayor parte de la legislación se aplicará a partir de 2026 pero algunas disposiciones ya serán vinculantes el año que viene, explicó la agencia AFP.
Ley de IA en la Unión Europea: el nivel de riesgo
La norma, que rige para los 27 estados miembros, adopta un planteamiento “basado en el riesgo” e impone a los diversos sistemas de IA limitaciones proporcionales a los peligros que plantean a la sociedad. Así, los sistemas que sólo presenten un riesgo limitado estarán sujetos a obligaciones de transparencia muy leves.
Las tecnologías de alto riesgo, utilizados por ejemplo en infraestructuras críticas, educación, recursos humanos o aplicación de la ley, estarán sujetos a requisitos reforzados antes de ser autorizados, reportó la agencia internacional. Estos requisitos incluirán por ejemplo un control humano, el establecimiento de una documentación técnica o la puesta en marcha de un sistema de gestión del riesgo.
La legislación también prohíbe la vigilancia masiva en espacios públicos, aunque hace excepciones para el uso de tecnologías como la identificación biométrica por parte de las fuerzas del orden, siempre que cuenten con la autorización judicial previa. Esta medida fue uno de los aspectos más controvertidos durante las negociaciones entre la Eurocámara y los Estados miembros, reportó DW. El nuevo reglamento fue adoptado por los 27 Estados miembros de la UE luego del visto bueno del Parlamento Europeo.
Los legisladores habían llegado a un acuerdo sobre el texto en diciembre del año pasado, luego de ásperas negociaciones porque algunos países creían que una regulación excesiva podía amenazar el desarrollo del sector.
Sin dudas, la aparición en 2022 de ChatGPT de OpenAI le otorgó a esta medida otra dimensión. El sistema reveló el enorme potencial de la IA pero también expuso sus riesgos. La difusión de fotografías o vídeos falsos, por ejemplo, puso de relieve el peligro de la manipulación de la opinión pública.
Las críticas a la Ley de IA de la Unión Europea
“Aunque las personas responsables de elaborar políticas saludan la Ley de IA como un modelo mundial para la regulación de la IA, la legislación no contiene principios básicos de derechos humanos”, había criticado Amnistía Internacional cuando la normativa se encaminaba a transformarse en ley.
“Pese a que la adopción de las primeras normas del mundo sobre el desarrollo y el uso de tecnologías de IA es un hito, resulta decepcionante que la UE y sus 27 Estados miembros hayan decidido dar prioridad al interés de la industria y de los organismos encargados de hacer cumplir la ley por encima de proteger a las personas y sus derechos humanos”, había agregado el organismo en marzo de este año, al advertir que la legislación no impedía la “proliferación de tecnologías abusivas”.
“La Ley de IA ofrece sólo unas protecciones limitadas a las personas afectadas y marginadas. No prohíbe el uso temerario ni la exportación de draconianas tecnologías de IA al mismo tiempo que tampoco garantiza una protección igual a las personas migrantes, refugiadas y solicitantes de asilo. Del mismo modo, carece de disposiciones adecuadas sobre rendición de cuentas y transparencia, lo que probablemente exacerbará los abusos contra los derechos humanos”, había denunciado Mher Hakobyan, asesor de Amnistía para el trabajo de incidencia sobre inteligencia artificial.
Para esta organización, los países no pertenecientes a la UE “deberían aprender de la incapacidad de la Unión para regular adecuadamente las tecnologías de IA y no deben ceder a las presiones de la industria tecnológica y de las autoridades de aplicación de la ley cuando desarrollen la normativa. “Los Estados deberían introducir una legislación sobre IA sólida y vinculante que dé prioridad a las personas y sus derechos”, había declarado su asesor. A modo de recordatorio, días atrás Meta introdujo en Latinoamérica su IA en WhatsApp y nadie sabe exactamente cómo eso impactará.
Comentarios