Cuando oímos la palabra Inteligencia Artificial (IA) seguro que nos vienen imágenes del cine de ciencia ficción. Pero este pilar de la llamada ciencia cognitiva está muy cerca de nosotros, en los asistentes domésticos en casa; en los traductores de idioma de bolsillo; en la generación automática de subtítulos en las presentaciones; en los sistemas de reconocimiento de patrones en el móvil; en los coches sin conductor; en los sistemas de diagnóstico de enfermedades; los sistemas anti-spam en el correo electrónico y en los sistemas de Ciberseguridad. En el ámbito de la medicina, últimamente, conocemos algunas aplicaciones casi milagrosas, como la recuperación de la capacidad para caminar de tetrapléjicos gracias a electrodo conectados a una app de inteligencia artificial.

Aunque la meta sea tener una IA de propósito general, el estado actual de la tecnología nos remite a una IA limitada a resolver un tipo específico de problemas. Y aun así, la IA tiene un potencial transformador que cambiará muchas cosas de nuestras vidas.

Uso de la IA en el sector público

En el sector público, el uso de la IA va en aumento, si bien, no a la misma velocidad que en el sector privado. La primera aplicación en el sector público han sido los asistentes virtuales en forma de chatbots. Un ejemplo de éxito es ISSA, un chatbot de la Seguridad Social que facilita a los ciudadanos información sobre los servicios más demandados de la Seguridad Social.

La segunda aplicación es la lucha contra el fraude. Nuestro ejemplo, en este caso, es de la Agencia Tributaria y concretamente en la lucha contra el fraude de facturas falsas. La Agencia ha desarrollado un modelo predictivo que trata de elaborar patrones de conducta que puedan producirse en el presente, estudiando y analizando las infracciones por facturas falsas de ejercicios anteriores. El objetivo es detectar facturas falsas.

Un tercer va sobre la automatización de las inspecciones de trabajo del Ministerio de Trabajo y Seguridad Social. Será también un modelo predictivo pero su interés es que el sistema podrá abrir expedientes de sanción automáticamente, sin intervención de ningún inspector.

Si en el primer caso no hay mucho riesgo, en los dos últimos podemos adivinar que una mala predicción podría causar un perjuicio para el interesado. Es decir, “si bien los beneficios de la IA son múltiples su uso puede ser una amenaza”.

Pero, ¿es la IA la amenaza? ¿O estamos evitando poner el foco en sitio adecuado?

La IA sólo es una herramienta que escribe código en función de unos datos. Así que los riesgos no provienen de los algoritmos de IA sino de los datos. Las técnicas de aprendizaje automático o reconocimiento de patrones, utilizan los datos como combustible para entrenar los algoritmos. Si estos datos no son de calidad o son incompletos o no son suficientes o no están depurados, esperar que el resultado sea bueno es una lotería. Saber gestionar, limpiar, integrar y transformar la información se está convirtiendo en una tarea fundamental.

Por otro lado, si bien la Comisión ha propuesto una normativa en materia de IA para garantizar la protección de los derechos fundamentales y la seguridad de los usuarios, deja fuera cuestiones relacionadas con los datos que, antes o después, impondrán cambios en la legislación. Por citar algunos:

  • La transparencia. A mi entender, debería ser público si en un procedimiento administrativo se está usando un algoritmo de IA.
  • La explicabilidad. No siempre es posible. Los algoritmos a veces son opacos y esto afecta a la motivación de la actuación administrativa (artículo 35 de la Ley 39/2015).
  • El régimen de responsabilidad. ¿Cuál es responsabilidad de un presunto funcionamiento defectuoso de un algoritmo o más bien de los datos? Ya hay un conflicto, pendiente de resolución, planteado por CIVIO sobre la decisión de un algoritmo de negar las subvenciones del bono energético a personas mayores y vulnerables.
  • La responsabilidad del empleado público. ¿Y si un empleado público ignora el resultado obtenido por un algoritmo que ayuda en la toma de decisiones? Por lo pronto debería indicarse en la resolución que la decisión es contraria al criterio del algoritmo. Pero podría exigirse responsabilidad al funcionario si descartar el resultado del algoritmo se considera que “hubiera incurrido por dolo, o culpa o negligencia grave” (art 36,1 de la Ley40/2015).
  • Y se puede dar la posibilidad del caso contrario. El riesgo de que nadie se atreva a cuestionar ninguna de las decisiones de un algoritmo, dejando al ciudadano indefenso ante la decisión de una máquina mal entrenada.

Es un camino atrayente a recorrer con la IA, en el que técnicos y juristas vamos a trabajar juntos.

Montaña Merchán, coordinadora de área informática. Tecnlogia emergentes. Secretaría General de Administración Digital. Ministerio de Asuntos Económicos y Transformación  digital y miembro del Grupo de IT Digital de Autelsi.