Ley de IA entrará en vigor este jueves en la Unión Europea
La Ley de Inteligencia Artificial entrará en vigor el próximo jueves en la Unión Europea, para garantizar la seguridad de los ciudadanos del ente geopolítico ante los riesgos emanados del desarrollo de esta tecnología. El documento en cuestión sería la primera legislación que busca regular los sistemas, la inteligencia artificial (IA). Esta norma regulará el uso de esta tecnología bajo un marco jurídico uniforme, lo cual facilitará con ello su comercialización y circulación, sin olvidar la ciberseguridad y el desarrollo tecnológico con un enfoque ético.
Pretende que la adopción de esta tecnología se efectúe con un enfoque centrado en el bienestar humano, para que “garantice un elevado nivel de protección de la salud, la seguridad y los derechos fundamentales consagrados en la Carta de los Derechos Fundamentales de la Unión Europea, incluidos la democracia, el Estado de derecho y la protección del medio ambiente”, para protegerlos de los “efectos perjudiciales” que puedan derivar de los sistemas de IA. Sin embargo, su aplicación obligatoria comenzará en dos años.
La normativa pretende evitar el uso de la IA con fines malintencionados, como la creación de deepfakes o la automatización de ciberataques, mediante la regulación de ciertos usos de esta tecnología. Esto ayuda a reducir el riesgo de que se utilice como una herramienta de ciberguerra.
Niveles de riesgo
La legislación se desarrolla bajo un enfoque basado en los niveles de riesgo que presenta la IA, que se recogen en tres categorías: riesgo inaceptable, alto riesgo y riesgo limitado.
Las aplicaciones y sistemas de IA que “suponen un riesgo inaceptable” están prohibidos. Aunque el listado es amplio, esta categoría engloba los casos en los que se utilizan sistemas de categorización biométrica que infieren atributos sensibles como la raza, las opiniones políticas y la orientación sexual.
También los sistemas de puntuación social, que clasifica a los usuarios para otorgar ciertos derechos o sancionar el mal comportamiento, y a técnicas subliminales, manipuladoras o engañosas que buscan distorsionar el comportamiento y perjudicar la toma de decisiones.
Bajo esta descripción se engloban sistemas tan variados como los de identificación biométrica remota, los utilizados para el seguimiento y la detección de comportamientos prohibidos en estudiantes durante exámenes, los que evalúan la solvencia de personas físicas, los polígrafos y herramientas similares y los diseñados para influir en el resultado de una elección o en el comportamiento electoral de personas.
Chat-GPT y Gemini serán regulados, por definición
El reglamento también considera los modelos de uso general, aquellos que se entrenan con grandes volúmenes de datos y a través de métodos como el aprendizaje autosupervisado, no supervisado o por refuerzo. Matiza que, aunque los modelos son componentes esenciales de los sistemas y forman parte de ellos, no constituyen por sí mismos sistemas de IA.
Entre estos modelos, figura la inteligencia artificial generativa, que permite crear nuevos contenidos como texto, imagen, vídeo y audio; con ejemplos como Gemini de Google o Chat-GPT de OpenAI.
La ley reconoce que pueden tener componentes de IA libres y de código abierto o incluso divulgarse bajo una licencia libre y de código abierto, y destaca en este caso su alto grado de transparencia, pero incide en la obligación de proteger los derechos de autor en las partes que corresponden a la información sustancial y a los contenidos de las bases de datos con los que se entrenan.
Asimismo, señala que estos modelos de IA de uso general pueden plantear riesgos sistémicos, como el descubrimiento y exploración de vulnerabilidades en sistemas informáticos, la interferencia en el funcionamiento de infraestructuras críticas, o incluso el hecho de que algunos modelos puedan autorreplicarse y entrenar otros modelos.
Se actualizará según el avance tecnológico
Esta ley se enfoca en el proveedor de los sistemas y los modelos de IA, que puede ser el distribuidor, el importador, el responsable del despliegue u otro tercero, y en quien recae la responsabilidad sobre esta tecnología a lo largo de su cadena de valor.
De manera general, exige evaluaciones del nivel de riesgo de sus productos, así como que la imposición de las medidas necesarias para evitar o mitigar dichos riesgos. También el seguimiento de un código de prácticas correctas, que supervisará una Oficina de IA, y que estará en la base del cumplimiento de las obligaciones pertinentes.
Finalmente, se considera la velocidad con la que avanza el desarrollo de esta tecnología, y prevé evaluaciones y revisiones periódicas del reglamento y de los sistemas de IA, para su actualización.
Fuente: Medios internacionales
VTV/DC/MQ