Unión Europea.- Este viernes 8 de diciembre, tras más de 35 horas de negociación, los miembros del Parlamento Europeo y del Consejo han logrado cerrar un acuerdo histórico para fijar las primeras reglas con las que limitar los riesgos de la Inteligencia Artificial (IA). Dicha normativa permite o prohíbe el uso de la tecnología en función del peligro que suponga para las personas.
La manera de regular este tipo de sistemas ha sido uno de los principales puntos de fricción entre las instituciones comunitarias a la hora de pactar la ley de inteligencia artificial de la UE, una de las primeras normas mundiales sobre esta tecnología.
Te puede interesar: WhatsApp: ¿Cómo puedo personalizar mi fondo de pantalla en la versión web?
El Consejo de la UE, el Parlamento Europeo y la Comisión Europea empezaron su reunión el miércoles para tratar de pactar la normativa y se dieron de margen hasta este jueves para cerrar el acuerdo.
Uno de los puntos sensibles ha sido el uso que las fuerzas del orden podrán hacer de las cámaras de identificación biométrica para garantizar la seguridad nacional y prevenir delitos como el terrorismo o la protección de infraestructuras. La norma prohíbe las cámaras de reconocimiento facial en espacios públicos, pero los gobiernos han presionado para permitirlas en casos concretos, siempre con previa autorización judicial.
Ursula von der Leyen, presidenta de la Comisión Europea, señaló en su cuenta de X:
La ley de inteligencia artificial de la UE es pionera en el mundo. Un marco legal único para el desarrollo de la inteligencia artificial el que se puede confiar.
El otro gran asunto que ha centrado las negociaciones es la regulación de los modelos fundacionales de inteligencia artificial, los sistemas en los que se basan programas con ChatGPT, de la empresa OpeanAI, o Bard, de Google.
Sigue más noticias como esta en nuestra sección de Tecnología
Inicialmente, la ley no estaba pensada para regular este tipo de sistemas, porque aún no se habían popularizado cuando Bruselas propuso la ley en abril de 2021, pero las instituciones comunitarias han visto la necesidad de legislarlos desde el estallido de ChatGPT el año pasado.