Inteligencia Artificial

La UE aprueba una ley de control para el supuesto "peligro" que pueda generar una Inteligencia Artificial

La normativa será debatida por los Estados miembros. Se espera que haya una aprobación plena a fines del año 2023.

La ley de Inteligencia Artificial (IA) de la Unión Europea (UE) está un paso más cerca de convertirse en realidad. El proyecto de reglamento fue aprobado por el Parlamento Europeo y ahora se discutirá con los Estados miembros antes de la ratificación, que se espera que llegue finalmente a fines de este año.

Con 499 votos a favor, 28 en contra y 93 abstenciones, la normativa que regularía la IA en función de los niveles de riesgo fue aprobada.

En otras palabras, cuanto más peligro represente para los derechos o la salud de las personas, mayores serán las obligaciones impuestas al sistema en cuestión. Algunos mecanismos, incluso, estarán completamente prohibidos, como aquellos que puedan ser utilizados para "manipular cognitivamente el comportamiento de personas o grupos vulnerables", o los que categoricen a las personas "según su comportamiento, estatus socioeconómico o características personales".

La categoría de alto riesgo, que es el segundo nivel de peligrosidad, engloba el uso de la IA en áreas críticas como infraestructura, educación, recursos humanos, orden público y gestión migratoria. El Parlamento Europeo ha añadido condiciones adicionales para que una aplicación sea clasificada como de alto riesgo, incluyendo la posibilidad de poner en peligro la salud, la seguridad, los derechos fundamentales o el medio ambiente.

Reconocimiento facial 

La utilización generalizada de sistemas automáticos de reconocimiento facial en espacios públicos ha sido incluida en la prohibición por parte de los legisladores europeos. Este tema en particular ha generado intensos debates y es posible que aún sufra modificaciones durante las discusiones entre los estados miembros con respecto al proyecto final de la ley.

Durante los últimos meses, el Partido Popular Europeo ha destacado la importancia de garantizar que la legislación permita el uso de herramientas de reconocimiento facial, tanto en tiempo real como en grabaciones, en la lucha contra el terrorismo y la búsqueda de personas desaparecidas, especialmente cuando se trata de menores.

ChatGPT

La normativa también establece requisitos específicos para los sistemas de inteligencia artificial generativa, como ChatGPT y DALL-E, que tienen la capacidad de generar texto e imágenes bajo demanda. El proyecto establece que estos sistemas, así como las empresas responsables de ellos, deben revelar claramente que el contenido que generan ha sido creado por IA, y deben publicar resúmenes de los datos protegidos por derechos de autor utilizados durante su entrenamiento. Los desarrolladores también deben diseñar los modelos de manera que eviten la generación de contenido ilegal.

El plan original de la UE para regular el uso de la inteligencia artificial data de 2021. Sin embargo, debido al notable surgimiento de ChatGPT, esta acción regulatoria se movió rápidamente, lo que subraya el rápido desarrollo de la tecnología. A partir de ahora, las negociaciones directas con los 27 estados miembros de la Unión Europea se iniciarán de inmediato y se alcanzará un acuerdo final antes de que finalice este año.

Incluso si se logra ese objetivo, la regulación no entrará en vigencia hasta el año 2026. Por lo tanto, es probable que la UE necesite negociar un marco voluntario provisional con las empresas tecnológicas que desarrollan Inteligencia Artificial.