Desde hace años, la sociedad se ha adentrado en un constante proceso de transformación digital afrontando nuevos retos tecnológicos y evolucionando a gran velocidad para ofrecer numerosos avances, beneficios y, en definitiva, una nueva revolución industrial: la digital. En este contexto, la aparición de la inteligencia artificial ha supuesto un mar de posibilidades por explorar y desafíos a abordar no exentos de riesgos ya que incorpora métodos más invasivos respecto de la privacidad de las personas, la transparencia, la ciberseguridad y los derechos fundamentales.

Inteligencia artificial y su impacto en la sociedad

La implantación de la inteligencia artificial supone que las personas físicas sean objeto de decisiones automatizadas que, al no ser conocidas ni tampoco comprensibles, impiden disponer de la información necesaria para impugnarlas.

El Libro Blanco sobre la inteligencia artificial elaborado por la Comisión Europea ha puesto de manifiesto la necesidad de evaluar si la legislación de la Unión Europea puede abordar los riesgos que genera o si, por el contrario, es necesario adaptar el marco jurídico para incorporar el uso de la inteligencia artificial, garantizando su correcta aplicación. La inteligencia artificial debe desarrollarse, en palabras de la Comisión Europea, bajo «un ecosistema de excelencia» que genere confianza.

En este sentido, el legislador español no es ajeno a esta nueva realidad y ya ha modificado ciertas normas como el Estatuto de los Trabajadores, mediante el Real Decreto-ley 9/2021, de 11 de mayo, (convalidado con posterioridad y tramitado con rango de Ley mediante la Ley 2/2021, de 28 de septiembre) en el que se recoge el nuevo derecho del comité de empresa a «ser informado por la empresa de los parámetros, reglas e instrucciones en los que se basan los algoritmos o sistemas de inteligencia artificial que afectan a la toma de decisiones que pueden incidir en las condiciones de trabajo, el acceso y mantenimiento del empleo, incluida la elaboración de perfiles».

Con ello, se pretende dotar a este sistema de mayor accesibilidad en cuanto a la automatización empleada en la toma de decisiones, reducir la opacidad, evitar la discriminación y que la automatización no repercuta en el incumplimiento de otras normas aplicables. Recordemos que el Reglamento General de protección de Datos ya había focalizado su atención en ello, prohibiendo, con carácter general, la toma de decisiones basadas «únicamente en el tratamiento automatizado, incluida la elaboración de perfiles» cuando produzca «efectos jurídicos en el interesado o le afecte significativamente de modo similar», salvo cuando concurran alguna de las excepciones recogidas en el artículo 22.2 del mismo cuerpo legal, como la celebración o la ejecución de un contrato. En ese supuesto, el considerando 71 del Reglamento General de protección de datos  señala que «En cualquier caso, dicho tratamiento debe estar sujeto a las garantías apropiadas, entre las que se deben incluir la información específica al interesado y el derecho a obtener intervención humana, a expresar su punto de vista, a recibir una explicación de la decisión tomada después de tal evaluación y a impugnar la decisión».

Cuando puede llevarse a cabo la automatización cumpliendo la protección de datos

A este respecto, la Agencia Española de Protección de Datos, en su guía “La protección de datos en las relaciones laborales” recoge la posibilidad de que las decisiones automatizadas puedan llevarse a cabo cuando fueran necesarias para la celebración o ejecución de un contrato, si bien la intervención humana debe constituir una supervisión significativa y no solamente un gesto simbólico y debe ser llevada a cabo por una persona autorizada y competente para modificar la decisión adoptada.

La Carta de Derechos Digitales, elaborada a partir del trabajo realizado por el Grupo asesor constituido por la Secretaría de Estado de Digitalización e Inteligencia Artificial, reconoce los desafíos mencionados anteriormente relativos a la aplicación e interpretación que plantea la adaptación de los derechos al entorno digital, entre los que se encuentran los surgidos como consecuencia de la inteligencia artificial.

La Carta, a pesar de no tener carácter normativo y de no crear nuevos derechos fundamentales, perfila los más relevantes en el entorno y el espacio digital, como la garantía frente a la discriminación, utilización de datos y procesos basados en la implementación de algoritmos automatizados que dificulten la transparencia, auditabilidad, explicabilidad, trazabilidad, supervisión humana y gobernanza.

Nos encontramos, por tanto, ante nuevos retos de futuro que, sin perjuicio de lo logrado hasta el momento, requerirán la necesidad de una adaptación normativa continua. En conclusión, el desarrollo tecnológico, la inteligencia artificial y las decisiones automatizadas, en ningún caso deben suponer un retroceso en los derechos fundamentales de las personas físicas. Por ello, es necesaria la colaboración de entidades públicas y privadas y de todos los ciudadanos al objeto de que el desarrollo de la inteligencia artificial se lleve a cabo valorando su repercusión en todos los ámbitos sociales en los que resulte aplicable, en especial, en el ámbito laboral.

 

Javier Martínez Illescas, Abogado experto en Nuevas Tecnologías de Canal de Isabel II, S.A y Natalia Jiménez Jiménez, Jefa de Área de Protección de Datos, Transparencia y Nuevas Tecnologías de Canal de Isabel II, S.A. Ambos miembros del Grupo de Regulación de Autelsi.