La Unión Europea ha dado un paso más en la regulación de la inteligencia artificial (IA) después de coordinar la prohibición de ChatGPT en Italia y analizar la situación en España. Los legisladores europeos están preocupados por el mal uso de esta tecnología, por lo que han votado a favor de la Ley de Inteligencia Artificial de la UE o AI Act.
La votación de esta normativa se llevó a cabo hace unos días por parte del comité del Parlamento Europeo que votó a favor de reforzar el borrador de una propuesta anterior del 2016 sobre la regulación de la IA.
Y es que Europa lleva años tratando de conseguir un marco regulatorio para imponer límites a la inteligencia artificial. El auge de ChatPT y el aumento de esta tecnología ha acelerado este proceso conocido como «AI Act» o Acta de la Inteligencia Europea.
La Ley de Inteligencia Artificial de la UE o «AI Act»
El objetivo del proceso legislativo de la AI Act o la Acta Europea de la Inteligencia Artificial es “evitar una sociedad controlada basada en la IA”, explicaba en una rueda de prensa el pasado 10 de mayo, Brando Benifei, legislador italiano, uno de los impulsores de la iniciativa.
Este legislador junto a otros miembros europeos han optado por una postura considerada de «alto riesgo» en la regulación de la IA, buscando abordar sus posibles riesgos antes de que se conviertan en problemas concretos.
Esta nueva normativa propone un enfoque de «alto riesgo» para esta tecnología y establece más restricciones y controles para evitar el mal uso de la tecnología.
La propuesta de la UE se centra en la confianza en la tecnología y en su potencial impacto tanto en los ciudadanos a nivel individual como en la sociedad y economía.
La IA es una tecnología de «alto riesgo»
Las categorías de «alto riesgo» de la UE incluyen el uso de la IA en las siguientes situaciones:
- En la vigilancia masiva y los sistemas de puntuación social, al igual que sucede en China.
- Los sistemas de reconocimiento facial y otras tecnologías que podrían amenazar los derechos humanos fundamentales.
Por este motivo, estas aplicaciones de IA ahora estarán sujetas a requisitos de transparencia y responsabilidad, incluyendo la necesidad de realizar evaluaciones de riesgo y auditorías independientes.
Además, la nueva normativa también incluye disposiciones para la IA en áreas como la publicidad y la contratación de personal, donde la falta de transparencia y los sesgos potenciales han sido objeto de críticas.
Las empresas que utilizan IA para estos propósitos ahora tendrán que garantizar que sus sistemas sean justos, transparentes y no discriminatorios.
El informe también busca promover la innovación y, al mismo tiempo, garantiza la seguridad jurídica a las empresas.
El eurodiputado alemán Axel Voss, comentó en Twitter que el objetivo del texto dedicado a la responsabilidad civil es generar confianza al proteger a los ciudadanos.
Europa quiere proteger a sus ciudadanos
La regulación de la IA en la UE se ha convertido en una prioridad en los últimos años. En 2021, Europa propuso nuevas y más estrictas reglas para regular el uso de la inteligencia artificial.
El Reglamento sobre un planteamiento europeo en materia de inteligencia artificial y la actualización del Plan Coordinado sobre la IA garantizarán la seguridad y los derechos fundamentales de las personas y las empresas, reforzando al mismo tiempo la inversión y la innovación en todos los países de la UE.
Esta ley va en línea con la política de control a las grandes plataformas digitales, como Facebook, Amazon y Google dentro de normativas como la DMA y la DSA.
Por ejemplo, la DSA exige a las plataformas digitales que tengan más 45 millones de usuarios activos al mes (como Twitter, Facebook, Google o Amazon, entre otras) tomar medidas para evitar la difusión de contenidos ilegales, así como etiquetar todos los anuncios e informar sobre quién los pone.
Por otro lado, la DMA impone normas más estrictas a las grandes plataformas digitales, entre ellas TikTok, y Wikipedia, para que moderen sus contenidos.
A estas normas ahora se suma la IA, que la UE busca regular para evitar que se convierta en una amenaza para la sociedad.
Y es que la IA tiene un gran potencial para mejorar la vida de las personas, pero también puede ser utilizada para fines malintencionados. De hecho, el mal uso de la IA es uno de los temores de expertos y gente como Elon Musk o el fundador de Apple, Steve Wozniak, que firmaron una carta hace unas semanas pidiendo regular esta tecnología.
En este sentido, la UE es uno de los primeros gobiernos que ha hecho caso a estos expertos y ya está trabajando con esta Ley de Inteligencia Artificial de la UE que verá la luz en los próximos meses.
¡NEWS es un portal de noticias a iniciativa de UNIDEMA, Escuela de Formación para estar informado sin perder el tiempo. Si buscas información de calidad sobre economía, geopolítica, negocios y empresas, NEWS Unidema es exactamente lo que necesitas!