Guiando la innovación: Cómo la Ley de IA impacta el desarrollo tecnológico
Europa ha dado a conocer la Ley de Inteligencia Artificial, una iniciativa destinada a regular el uso de la IA para gestionar de manera adecuada tanto sus beneficios como sus riesgos en toda la Unión.
Esta normativa busca establecer un entorno seguro para la innovación en IA, asegurando un alto nivel de protección del interés público, la seguridad y los derechos y libertades fundamentales. Además, pretende crear las condiciones para un ecosistema de confianza que impulse la adopción de servicios de IA.
Con esto en mente, y con el propósito de que conozcas más del tema, sigue leyendo el siguiente artículo para descubrir el impacto de esta ley en la tecnología.
¿En qué consiste la Ley de IA?
La Ley de Inteligencia Artificial de Europa es una regulación diseñada para gestionar el uso de la IA, enfocándose en los beneficios y riesgos que esta tecnología presenta. Clasifica los usos de la IA en cuatro niveles de riesgo, con regulaciones más estrictas para aquellos que impactan significativamente los derechos fundamentales.
Prohíbe el reconocimiento de emociones en empresas y escuelas, aunque permite la vigilancia biométrica. La normativa busca asegurar la protección del interés público, la seguridad y los derechos fundamentales, al tiempo que fomenta un entorno de confianza que promueva la adopción segura de servicios de IA.
¿Para quiénes aplica la Ley de IA?
La Ley de Inteligencia Artificial se aplica a los proveedores que implementen sistemas de IA dentro de la Unión Europea. Además, abarca a los usuarios de IA que operen en el territorio de la UE.
Asimismo, esta normativa también afecta a los proveedores y usuarios de IA que se encuentren fuera de la Unión Europea, siempre que la información generada por sus sistemas se utilice dentro de la UE.
Muchas pequeñas y medianas empresas utilizan la Inteligencia Artificial, por lo que se debe identificar cómo y dónde emplear la IA. Esto les permitirá planificar y ajustar sus procesos para cumplir con la nueva normativa antes de que entre en vigor. Es crucial estar preparados para este nuevo escenario legislativo.
¿Cuáles son los niveles de riesgo de la Ley de IA?
1. Nivel de riesgo inaceptable
Los sistemas de inteligencia artificial que presentan un riesgo inaceptable para las personas se consideran una amenaza grave y, por lo tanto, estarán prohibidos. Esto incluye tecnologías que manipulan el comportamiento de individuos o grupos vulnerables, clasifican a personas según su comportamiento, estatus socioeconómico o características personales, y realizan identificación biométrica en tiempo real y a distancia, como el reconocimiento facial.
Sin embargo, existen excepciones a esta prohibición. Por ejemplo, la identificación biométrica a distancia podrá ser utilizada para la persecución de delitos graves, siempre y cuando se obtenga una aprobación judicial previa.
2. Nivel de riesgo alto
Los sistemas de IA clasificados como de alto riesgo son aquellos que tienen un impacto negativo significativo en la seguridad o en los derechos fundamentales. Esto incluye IA empleada en productos regulados por la legislación de la Unión Europea sobre seguridad de productos, como juguetes, aviación, automóviles, dispositivos médicos y ascensores.
Además, los sistemas de IA que operan en ocho áreas específicas deberán registrarse en una base de datos de la UE. Estas áreas incluyen la identificación biométrica y la categorización de personas, la gestión de infraestructuras críticas, la educación y formación profesional, el empleo y la gestión de trabajadores, el acceso a servicios esenciales, la aplicación de la ley, la gestión de la migración y el control de fronteras, y la asistencia en la interpretación jurídica.
Todos estos sistemas de IA de alto riesgo deberán ser evaluados tanto antes de su comercialización como a lo largo de su ciclo de vida.
3. Nivel de riesgo limitado
Los sistemas de IA que se clasifican como de riesgo limitado deben cumplir con requisitos mínimos de transparencia que permiten a los usuarios tomar decisiones informadas. Esto significa que los usuarios deben ser conscientes de cuándo están interactuando con una inteligencia artificial para decidir si desean continuar utilizándola. Este requisito se aplica también a los sistemas de inteligencia artificial generativa que crean o manipulan contenidos de imagen, audio o vídeo, como los deepfakes.
4. Nivel de riesgo mínimo
Para los sistemas de IA clasificados con un riesgo mínimo, no existen obligaciones regulatorias específicas, lo que proporciona total libertad en su uso. Sin embargo, los sistemas de inteligencia artificial generativa, como ChatGPT, Bing, Dall-E o Stumble Diffusion, deben cumplir ciertos requisitos de transparencia.
Estos incluyen la obligación de revelar que el contenido ha sido generado por IA, evitar la creación de contenidos ilegales, y publicar resúmenes de los datos protegidos por derechos de autor que se hayan utilizado para entrenar la IA.
¿Cuándo comenzará a aplicarse la Ley de IA?
Aunque representa un avance significativo en la regulación de la inteligencia artificial a nivel global, por ahora no es una ley definitiva, sino un acuerdo provisional. Este consenso necesita ser aprobado por el Parlamento Europeo antes de que finalice el año y antes de las próximas elecciones europeas.
De acuerdo con el calendario de los procedimientos parlamentarios europeos, la regulación de la IA no podrá entrar en vigor antes de 2026.
Traducido y adaptado de: Una regulación europea de la Inteligencia Artificial adecuada y sin fronteras y La Unión Europea acuerda la primera Ley de Inteligencia Artificial del mundo