
Ibán García del Blanco
Diputado Socialista en el Parlamento Europeo. Ponente de la Ley de Inteligencia Artificial de la UE.
Bajo la Presidencia Española del Consejo de la UE, tras seis meses de negociaciones con los estados miembros, se alcanzó un acuerdo político entre los co-legisladores europeos para la aprobación del Reglamento del Parlamento Europeo y del Consejo estableciendo normas armonizadas en materia de Inteligencia Artificial (Ley Europea de IA). La aprobación de la Ley Europea de Inteligencia Artificial es el colofón del sistema normativo en el ámbito digital europeo, fruto del intenso trabajo que, en estos cinco años, se ha venido realizando para dotar a la Unión Europea de un marco jurídico completo, justo y eficaz, para dirigir la digitalización y liderar la regulación de la Inteligencia Artificial (IA) en el mundo.
Dotar a la Unión Europea de un marco jurídico completo, justo y eficaz, para dirigir la digitalización y liderar la regulación de la Inteligencia Artificial (IA) en el mundo.
Para la Unión Europea dicha regulación debía de hacerse respetando nuestros principios y valores europeos, consagrados en los Tratados y en la Carta Europea de Derechos y Libertades Fundamentales de la Unión, para alumbrar una norma que sitúa en el centro a las personas.
La ley europea es aplicable a todas las tecnologías que incorporan IA y cuenta con un amplio ámbito geográfico. El efecto extraterritorial de la ley garantiza que toda la IA que se desarrolla o se usa en Europa, incluso cuando son sus resultados – decisiones, recomendaciones, sugerencias o contenidos producidos por la IA- los que tienen un impacto en la Unión, deben cumplir con las obligaciones previstas en la norma, aunque se hayan desarrollado o entrenado en terceros países.
Se trata de una ley basada en el riesgo. Las obligaciones giran alrededor de la necesidad de garantizar los derechos fundamentales, asegurar que no se produce ningún daño a las personas ni una quiebra en nuestra sociedad democrática. Gracias a los esfuerzos del Parlamento Europeo también se incluyen la protección de la democracia, el estado de derecho y el medioambiente como intereses generales a proteger durante la aplicación de la Ley.
Se establece una escala de riesgos para la IA clasificando los usos como prohibidos, alto riesgo, riesgos que requieren requisitos adicionales de transparencia y riesgo bajo o nulo.
Entre los prohibidos, se encuentran todos aquellos usos de IA que generan riesgos inasumibles por nuestras democracias. Se prohíbe de este modo el uso de la IA como calificadores sociales; la manipulación subliminal y la explotación de vulnerabilidades; la policía predictiva; los sistemas de reconocimiento de emociones en el trabajo o en la educación; el rastreo indiscriminado de rostros en la internet; los sistemas de categorización biométricas para deducir las opiniones políticas, religiosas o filosóficas, la pertenencia a sindicatos o partidos políticos, la vida u orientación sexual o la raza de las personas, es decir, todos aquellos datos privados sensibles; también se ha prohibido el uso de IA para control biométrico en tiempo real en lugares públicos. Con este último, Europa prohíbe la vigilancia masiva biométrica por parte de las autoridades públicas, aunque la ley indica que podrá utilizarse en casos muy excepcionales para delitos graves, buscar una persona secuestrada o en caso de atentado terrorista inminente, siempre que se cumpla con las exigentes salvaguardas y estrictas garantías legales y se cuente con autorización judicial previa.
Se consideran de alto riesgo aquellos usos de la IA que pueden tener un impacto significativo en la seguridad, la salud o los derechos fundamentales de las personas. Esto puede producirse, bien porque se integra la IA en productos altamente regulados -como dispositivos médicos o juguetes- o bien porque se vayan a utilizar en áreas consideradas sensibles. De este modo, se consideran de alto riesgo las herramientas de IA biométricas, las infraestructuras críticas, usos de IA relacionados con el empleo o la educación, el uso de IA en la aplicación de la ley o en el control de fronteras, el acceso a servicios públicos esenciales – incluidos los créditos financieros o seguros y en la administración de justicia. El Parlamento incluyó como alto riesgo la IA que puede influir en los resultados de procesos electorales.
Los desarrolladores deberán declarar el alto riesgo y asumir una serie de obligaciones con carácter previo a su comercialización y despliegue: realizar una evaluación de los riesgos y poner en marcha planes de prevención, garantizar la buena gobernanza de los datos utilizados en el entrenamiento para evitar sesgos y discriminación, asegurar información y transparencia en el funcionamiento de la IA, una continua supervisión humana que evite errores o desviaciones, requisitos de ciberseguridad y controles técnicos exhaustivos para conseguir una IA robusta, y la obligación de inscribir la IA de alto riesgo en un registro europeo.
Pero además, cuando la IA se use en el marco de la prestación de un servicio público se deberá realizar una evaluación de impacto de derechos fundamentales. Para ello, las administraciones o empresas que despliegan estos sistemas de IA de alto riesgo deberán identificar a las personas o grupos de personas que pueden verse afectadas por sesgos o discriminación, evaluar los riesgos potenciales y poner en marcha planes concretos de prevención que eviten la quiebra en los derechos fundamentales.
Las IAs diseñadas para interactuar con personas naturales deberán siempre informar a los usuarios, como un requisito adicional de transparencia. Además, se exige una transparencia total para la producción y difusión de imágenes, voces, videos, pero también de textos, que sean creados o manipulados por IA y que pueden pasar por auténticos, los conocidos como “deepfakes” o ultrafalsificaciones. Los desarrolladores de aplicaciones que permitan estas falsificaciones y las plataformas que las difunden, deberán marcar las creaciones e informar que se trata de contenidos generados por IA. El objetivo es limitar la difusión de desinformación y otro tipo de abusos en la difusión de estos contenidos manipulados por IA.
El objetivo es limitar la difusión de desinformación y otro tipo de abusos en la difusión de estos contenidos manipulados por IA.
Y es que la irrupción y el impacto de las IA generativas puso de manifiesto la necesidad de una regulación específica para los modelos de IA de uso general. La Ley establece un enfoque en dos niveles. Un primer nivel establece obligaciones de transparencia, incluyendo el respeto de los derechos de autor y la elaboración de un índice con las bases de datos utilizadas en el entrenamiento de la IA. Con estas medidas se pretende poner límite al uso indiscriminado de obras protegidas por derechos de autor en el entrenamiento de los modelos generales como Chat GPT o Dall-e o tantos otros, que han hecho saltar las alarmas en el sector cultural y creativo.
En un segundo nivel se integran aquellas que por su alta capacidad presentan un “riesgo sistémico”. Sistemas como Open AI, ahora están cubiertos por la ley europea, ya que tienen un impacto en el mercado de la Unión capaz de provocar repercusiones considerables debido a su alcance o a los efectos negativos reales o razonablemente previsibles en la salud pública, la seguridad, la seguridad pública, los derechos fundamentales o la sociedad en su conjunto, que puede propagarse a gran escala a lo largo de toda la cadena de valor. Para estos modelos se prevén obligaciones adicionales de prevención y reducción de riesgos, seguridad y ciberseguridad. Y también una obligación de informar sobre el consumo energético, ya que se trata de modelos altamente energívoros.
Para asegurar el cumplimiento de estas obligaciones se ha previsto en la Ley el desarrollo de códigos de buenas prácticas con metodologías concretas y se ha creado una Oficina Europea de IA en el seno de la Comisión Europea, para la supervisión y el control de estos modelos de usos general. La Oficina Europea también prestará apoyo técnico a las autoridades nacionales de los países miembros, que tendrán que supervisar y vigilar el cumplimiento de la ley y serán las encargadas de sancionar los incumplimientos, con multas que pueden llegar hasta los 35 mil millones o el 7% de la facturación global de la compañía.
Para asegurar el cumplimiento de estas obligaciones se ha previsto en la Ley el desarrollo de códigos de buenas prácticas con metodologías concretas y se ha creado una Oficina Europea de IA en el seno de la Comisión Europea, para la supervisión y el control de estos modelos de usos general.
El acuerdo también incluye nuevos derechos para las personas, como el derecho a ser informado, el derecho a recibir una explicación razonable cuando se vean afectadas por el uso de IA y a plantear quejas cuando resulten perjudicadas. Y del mismo modo, se ha velado por los derechos sociales y laborales de los trabajadores, y se debe consultar a sus representantes antes de la implantación de la IA en el lugar de trabajo.
Cuando se estima que la IA no presenta riesgos se incentiva el establecimiento de códigos de conducta voluntarios. En cualquier caso, la IA europea deberá guiarse por unos principios éticos y se recomienda desarrollar códigos de conducta para favorecer una IA europea que sea más justa, segura, transparente, robusta, democrática, sostenible y socialmente responsable.
La IA europea deberá guiarse por unos principios éticos y se recomienda desarrollar códigos de conducta para favorecer una IA europea que sea más justa, segura, transparente, robusta, democrática, sostenible y socialmente responsable.
Para favorecer el desarrollo de esta IA europea se incluye en la Ley un sistema de incentivos, a través de los espacios de pruebas. España ha sido el primer país en poner en marcha estos espacios donde se puede probar el impacto de la IA y se apoya su desarrollo de acuerdo con las obligaciones incluidas en la Ley. La idea es crear al menos un espacio de pruebas en cada país de la UE.
Su objetivo es velar por los intereses generales sin impedir el desarrollo tecnológico
El acento humano-céntrico y los principios éticos han guiado la Ley Europea de IA. Su objetivo es velar por los intereses generales sin impedir el desarrollo tecnológico. Frente a los modelos tecnológicos que se imponen en otras partes del mundo, en Europa queremos fomentar la confianza en el uso de las tecnologías y garantizar los derechos fundamentales y los valores democráticos, como señas de identidad de la Unión Europea, marcando de este modo una dirección clara para el desarrollo de la Inteligencia Artificial en el mundo de acuerdo con nuestros principios.
Deja tu comentario