La regulación de la IA deja las cosas claras con el famoso y extendido uso de Chat GPT y otros sistemas. Esta norma aplicará a fabricantes, distribuidores y usuarios que exploten esta tecnología con alcance extraterritorial.

El acuerdo provisional alcanzado en diciembre de 2023 por el Parlamento Europeo y el Consejo de la UE representa un hito en la regulación de la IA a nivel mundial. El objetivo principal del Reglamento EU de Inteligencia Artificial es establecer estándares de seguridad y protección de derechos fundamentales para evitar el uso indebido de la IA en actividades represivas, de manipulación o discriminatorias.

Ahora toca esperar su refrendo nacional y su entrada en vigor dos años después, pero ya hay luz y una guía de protección.

Se establecen las primeras reglas que limitarán los riesgos de la Inteligencia Artificial (IA) fijando estándares de seguridad.

  • Cuatro Categorías Basadas en el Riesgo: Clasifica los sistemas de IA en cuatro categorías según su nivel de riesgo: riesgo mínimo o nulo (videojuegos), riesgo limitado (chatbots, Chat GPT), riesgo alto (riesgo sobre la salud, seguridad o vulneración de derechos fundamentales) y riesgo inaceptable (manipulación cognitiva, rastreo indiscriminado, reconocimiento de emociones ,…) . Esto es esencial para determinar el grado de regulación que se aplicará a cada tipo de sistema de IA.
  • Vigilancia en Tiempo Real: Uno de los puntos críticos de las negociaciones se centró en el uso de cámaras de identificación biométrica por parte de las fuerzas del orden en espacios públicos para garantizar la seguridad nacional. Las cámaras podrán utilizarse con autorización judicial para prevenir amenazas terroristas genuinas y previsibles o actuales. También se permitirá su uso en la identificación y localización de personas involucradas en delitos graves, como el tráfico de personas o crímenes medioambientales. Este enfoque garantiza un equilibrio entre la seguridad y la privacidad.
  • Sistemas Prohibidos: La regulación prohíbe categóricamente el uso de sistemas de categorización biométrica basados en creencias políticas, religiosas, filosóficas, raza y orientación sexual. También se prohíben sistemas que puntúen a las personas en función de su comportamiento o características personales, así como la IA capaz de manipular el comportamiento humano. Estas prohibiciones protegen la privacidad y evitan la discriminación.
  • Regulación de Sistemas de IA Generativa: Uno de los aspectos destacados de las negociaciones fue la regulación de los sistemas de IA generativa, como ChatGPT de OpenAI y Bard de Google. Estos sistemas deberán cumplir criterios de transparencia, indicando claramente si un texto, canción o imagen ha sido generado por IA. Además, se exige que los datos utilizados para entrenar estos sistemas respeten los derechos de propiedad intelectual.

En mi opinión, la categorización de los sistemas de IA según el nivel de riesgo es un enfoque inteligente, ya que permite una regulación proporcionada, permitiendo que los sistemas de riesgo mínimo o nulo pueden seguir funcionando sin una regulación excesiva, lo que fomenta la innovación. Por otro lado, los sistemas de alto riesgo estarán sujetos a requisitos y obligaciones más estrictas y la prohibición de sistemas de IA que puedan utilizarse como, por ejemplo, para la discriminación basada en creencias o características personales es un paso importante hacia la protección de los derechos fundamentales. La IA no debe utilizarse para perpetuar la discriminación o el sesgo, y esta regulación establece un límite claro.

En cuanto a los sistemas de IA generativa, la transparencia es esencial. Los usuarios deben saber si están interactuando con contenido generado por máquinas, y los derechos de autor deben respetarse en todo momento. ¡Las cosas claras!

Por último, mucho se habla de la necesidad de controlar esta tecnología IA con respecto a la protección de los datos personales, los secretos empresariales o la protección de la propiedad intelectual o incluso industrial. Debo recordar que la tecnología es neutra con respecto a las legislaciones que protegen estos derechos y que es responsabilidad de los fabricantes, comercializadores y usuarios exploradores el cumplir con la normativa vigente. Preveo que habrá reformas legislativas para matizar y ajustar las leyes de aplicación a la casuística de uso de la IA, pero al final, todo el peso de la ley se apoya en la “debida diligencia”, el deber de debida diligencia ¡como casi siempre!

Oscar López, Presidente del Grupo de Regulación de AUTELSI, presidente del Observatorio AUTELSI de Privacidad y Derechos Digitales  y CEO UBT Legal & Compliance