La liberación el 14 de marzo de 2023 de GPT-4, un sistema de inteligencia artificial (IA) con unas capacidades sorprendentes, ha sacudido la conciencia tanto del común de las personas como la de muchos expertos en IA, que piensan que podríamos estar en uno de esos momentos “críticos” de la historia, esos acontecimientos profundamente trasformadores de la realidad en los años y décadas venideros.

¿A qué tipo de acontecimientos me refiero? Por ejemplo, al asesinato de Francisco Fernando, heredero al trono del imperio austrohúngaro, que inició, oficialmente, la primera guerra mundial. Sin este asesinato del heredero austrohúngaro tal vez esta guerra no se hubiera producido, o lo hubiera hecho algo más tarde con bloques de aliados distintos.  De la misma  manera, la aparición de GPT-4 ha cambiado la percepción de las capacidades actuales de las IA y ha desencadenado un interés extraordinario por toda la familia de los así llamados modelos grandes del lenguaje (LLM). ¿Por qué GPT-4? Lo cierto es que existe una amplia variedad de LLM que no han tenido esta repercusión. Es posible que, como en el caso de Francisco Fernando, una combinación única de hechos haya sido capaz de captar la atención de la opinión pública.

Por un lado, la potencia y capacidad de comprensión del mundo que demuestra derivada de su arquitectura basada en los transformadores y de su gigantesco tamaño (sedel orden de billones -1012– de parámetros); por otro lado, la interfaz conversacional ChatGPT que permite a los usuarios la escritura de preguntas en lenguaje natural y facilita una respuestas rápidas y extremadamente plausibles gracias a técnicas de aprendizaje por refuerzo de sus respuestas con instructores humanos; finalmente la decisión de su creadora, OpenAI, de hacerla accesible a todo el mundo y dotarla de una interfaz de programación para convertirla en algo más que un oráculo e interactuar con el mundo y modificarlo.

El 22 de marzo de 2023, sólo ocho días después de la liberación al público de GPT-4, se publicó una carta auspiciada por muy destacadas figuras del mundo de la investigación en IA entre sus firmantes, como Stuart Russell, uno de los pioneros de la IA y Yoshua Bengio, premio Turing (el Nobel de la informática), por sus contribuciones al aprendizaje profundo. En esta carta, destinada al puñado de laboratorios de IA en el mundo que disponen de los medios económicos, tecnológicos para construir un modelo de esas dimensiones, se abogaba por una moratoria de seis meses al menos, para evaluar los riesgos de seguridad de estos modelos gigantescos, sin la presión del mercado de tener que mantenerse competitivos frente a terceros.

La idea subyacente es que, dadas las capacidades demostradas por GPT-4, cualquier versión posterior con un mayor número de parámetros, digamos una GPT-5, podría hacernos entrar, en algún momento indeterminado del futuro, en un riesgo existencial para la humanidad derivados de la pérdida del control de ésta, simplemente porque están diseñadas para optimizar un objetivo. Esta optimización puede producir un desalineamiento con nuestros valores de los objetivos iniciales implantados en la IA al ser inevitable que, como toda entidad con cierto nivel de inteligencia, desarrolle de forma autónoma objetivos instrumentales para conseguir el objetivo fijado inicialmente, (no permitir que la apaguen, acumular dinero, recursos computacionales, materias primas, etc.) no importa lo cuidadosamente seleccionado que sea este objetivo  y el número de “reglas” de que la dotemos (recordemos el desafortunado mito del rey Midas, que todo lo que tocaba lo convertía en oro -ese fue su objetivo-, incluido su hijo y murió de inanición -moraleja: cuidado con lo que deseas). Si este fuera el caso, podría entrar en competencia directa con nosotros, llevando a la IA a  la conclusión de que somos una amenaza para conseguir el objetivo con que la hemos programado. Todo ello sin necesitar para nada de la aparición de una consciencia en las máquinas como erróneamente cree gran parte del imaginario popular. Al fin y al cabo, como dice Max Tegmark profesor del célebre MIT y autor de Vida 3.0, la consciencia no es un requisito para la inteligencia, de la misma manera que esta es independiente del sustrato físico sobre la que se manifiesta (tejido biológico u oblea de silicio) aunque la existencia de un sustrato sea necesaria.

Otro grupo de investigadores de IA, entre los que se encuentran figuras como Geoffrey Hinton, premio Turing  y uno de los padres de la IA, en concreto, del algoritmo gracias al cual las IA aprenden, no han firmado la carta, por considerarla ingenua. Su razonamiento es como sigue: incluso aunque las grandes empresas occidentales aceptasen la moratoria, ¿qué pasa con las empresas chinas que también están en condiciones de abordar un GPT-5? (la UE en esto ni está ni se le espera). Nadie puede pensar que estas empresas tienen un criterio independiente del que tiene el gobierno chino y en esta materia ya hay una vertiginosa carrera entre los grandes países por la supremacía militar basada en la IA, lo que equivale a imponer su modelo del mundo y sistema de valores al resto (Putin 2017: “quien domine la IA, dominará el mundo”). Es inútil pues, la moratoria, porque los intereses puestos en juego son demasiado altos y nuestra competencia, empresarial o entre países, no parará.

Este grupo de “no firmantes” consideran que GPT-4 y otros modelos parecidos han superado con mucho sus expectativas para dentro de varias décadas y que realmente conseguir una IA con una inteligencia comparable a la humana entra dentro de lo factible incluso en su tiempo de vida laboral (ya no es una cuestión del tipo “la superpoblación en Marte”). Su principal temor es, precisamente el derivado de su potencia actual y de la velocidad a la que está incrementando sus prestaciones, es decir, la IA no es buena ni mala, el peligro deriva del uso que algunos puedan hacer de ella.

Un último bloque de personas, liderado por Yann Lecun otro pionero de la IA, premio Turing junto con Hinton y Bengio y director científico de IA en Meta y Andrew Ng, investigador de IA y fundador de Coursera, la plataforma de enseñanza online, ni siquiera considera que GPT-4 sea un paso suficientemente significativo hacia una así llamada “Inteligencia Artificial General”. Esta “inteligencia general” sería similar a la de los seres humanos en una muy amplia variedad de tareas, pero estos investigadores no ven que exista un riesgo existencial en el horizonte porque aún hay una lista más o menos larga de cosas que (aún) no puede hacer para equipararse a nosotros. Por ello se oponen a la moratoria ya que esto ralentizaría los enormes beneficios que ya está reportando la IA, por citar uno solo muy reciente para evaluar las posibles pérdidas de una moratoria, el diseño ultra rápido (semanas) de antibióticos capaces de doblegar a las bacterias super-resistentes, un problema sanitario de primera magnitud que cuesta miles de vidas cada año en todo el mundo.

Pero el campo de la IA se está moviendo a una velocidad tal, que la moratoria propuesta ya está desfasada por la realidad poco más de tres meses después de su publicación (de hecho, ya lo estaba a los dos meses) y el debate debería ampliarse más allá de este puñado de grandes laboratorios de IA en el mundo. El 3 de marzo se filtró el código fuente de LLaMA, la IA de Meta más o menos equivalente en prestaciones a GPT-4. De repente cualquiera podía experimentar con ella si quería accediendo a los pesos de los nodos de la red neuronal (el resultado del costosísimo entrenamiento). Desde aquí en adelante, la así llamada comunidad de software libre (la Comunidad), formada por miles de programadores e investigadores independientes de todo el mundo, ha desarrollado de forma vertiginosa una serie de innovaciones (sin ninguna o poca consideración a la seguridad) que han permitido reducir extraordinariamente el número de parámetros de entrenamiento necesarios, el coste (ahora unos centenares de dólares, no decenas de millones) y aumentado las capacidades, como para hacerlas comparables en buena medida con GPT-4.

Así que, el problema ahora es doble y presenta sinergias entre sí: por un lado, determinar de qué pueden llegar a ser capaces las IA de los grandes laboratorios haciendo uso de estos nuevos avances desarrollados por la Comunidad combinado con los recursos técnicos y económicos de que disponen y, por el lado de la Comunidad, la gran bajada de la barrera de entrada para disponer de una de estas IA, lo que podría permitir el acceso, entre otros, a grupos terroristas, mafiosos o con morales completamente extremistas. Ya hoy, en un día o poco más se puede entrenar para tareas específicas una potente IA, a partir de uno de estos modelos de base de la Comunidad, con un portátil con los medios hardware adecuados (tarjeta gráfica GPU) y con ciertos conocimientos técnicos ¿Y si alguien en vez de minar bitcoin como en el pasado reciente, usa estas potentes infraestructuras -a la manera de los restos del arsenal nuclear soviético-  con decenas o centenares de GPU para albergar potentes modelos de IA con objetivos poco confesables? Y los riesgos existenciales, en el caso de que realmente pudieran actualizarse, son una de las poquísimas categorías en las que no es conveniente un acceso libre a la información, como tampoco lo es hacer accesible cómo crear un virus biológico de nivel 4 o cómo fabricar una bomba atómica casera.

Tampoco ayuda a generar tranquilidad que, por un lado, la propia OpenAI sea la que pida a un comité del senado de los EE.UU., que regule el uso de estas IA tan potentes, algo inédito en la historia de la regulación como hizo notar uno de los senadores. Tampoco ayuda que los fundadores de OpenAI hayan publicado en su blog que creen que en diez años podrían tener lista una superinteligencia, con una capacidad similar a las que tienen las grandes empresas, es decir, mucho más allá de una “simple” inteligencia humana. ¿Y cuál sería la situación en veinte años?

La naturaleza irreversible de los riesgos existenciales, el posible mal uso de la tecnología al bajar tanto las barreras de acceso o la excesiva concentración de poder en manos de unos pocos laboratorios de IA, nos obligan a incluir ya mismo la seguridad y la ética de la IA y su adecuada regulación en la agenda de grandes empresas y gobiernos, a ser posible a escala global. De la misma manera que lo importante en su día no fue hacer volar los aviones como los pájaros, sino entender los principios de la aerodinámica, ahora lo importante no es si se puede o no conseguir la moratoria, sino la acción decidida, inmediata y coordinada en materia de seguridad, transparencia y ética de las IA o, ¿estaremos ante un caso como el planteado en la película “No mires arriba” con Jennifer Lawrence y Leonardo DiCaprio?

Como sucede invariablemente con la historia, las personas viven los acontecimientos, no los interpretan, al menos mientras estos se están desarrollando.  No podremos saber que grupo tenía razón sobre GPT-4 hasta cuando tengamos la suficiente perspectiva de estos acontecimientos y dadas las características de esta nueva tecnología, que,  como señala el historiador Yuval Harari, autor entre otros del best seller “Homo Deus”, tiene la capacidad de tomar decisiones, de creación de nuevos relatos culturales, a través del dominio de nuestra gran creación, el lenguaje y de manipularnos para volvernos predecibles (ver caso de las redes sociales con unas IA “rudimentarias”), quizás no haya una segunda oportunidad.

En palabras de Stuart Russell, es posible diseñar una IA necesariamente beneficiosa (provably beneficial) para humanidad no basada en la optimización de un objetivo y reducir el problema del control de la IA a un “juego” (matemático) de asistencia a los seres humanos, donde sólo los casos más sencillos están resueltos (una persona-una IA). ¿Cómo tenemos en cuenta los objetivos contradictorios de muchos seres humanos? ¿hemos de considerar el bienestar de las personas de generaciones futuras por las decisiones tomadas en el presente? ¿Cómo deben tratar las IA a los sádicos y otras desviaciones del comportamiento? ¿En qué medida debemos tomar en consideración el bienestar animal? ….. preguntas  que llevan ocupando a los filósofos desde hace miles de años que, por primera vez en vez de ser una elucubración teórica, tienen una posibilidad real de llegar a ser una implementación práctica  de una tecnología. Hay, pues, mucho que investigar.

Para ello -añado yo- hemos de repensar todo el campo de la IA, desde las búsquedas, pasando por el aprendizaje especialmente la versión por refuerzo (actuar y aprender mediante premios y castigos) hasta llegar al razonamiento que debe ser bajo incertidumbre. Esto significa tirar a la basura la biblia del campo de la IA de la que Rusell es coautor, con más de 1.100 páginas, lo que tomará su tiempo, mucho más que los seis meses de la moratoria. Todo un ejercicio de humildad en que el propio Rusell está de acuerdo.

Asimismo, es claro que los enfoques puramente deontológicos como las tres leyes de la robótica de Asimov o el Reglamento de IA la UE basado en niveles de riesgo, o no funcionan con la complejidad del mundo real -primer caso-, en el que Asimov hizo fortuna poniendo de manifiesto literariamente las contradicciones que estas leyes provocan, por ejemplo en Yo Robot, o, en el segundo caso (la UE), son insuficientes y se corre el riesgo de dañar seriamente la innovación y no se corresponden con las posibilidades de la tecnología de las IA tal y como están implementadas actualmente.

Para ello hay que mejorar las técnicas existentes para dotar de transparencia de las decisiones haciendo que sea la propia IA la que las explique “aproximadamente”; la aspiración a la eliminación absoluta de la información personal es inalcanzable gracias al big data y la llamada privacidad estadística, que revierte la anonimización de los datos personales a base de adicionar nuevas fuentes de información aunque aparentemente no estén relacionadas con la información personal; supresión potencial de una parte significativa de sus grandes utilidades, con el enfoque de “prohíbo casi todo por defecto y luego voy permitiendo caso por caso” , etc. Y además se olvida las medidas que pueden ejercerse sobre el hardware para que las unidades gráficas de procesamiento (GPU) y las específicas unidades tensoriales de Google (TPU), responsables del proceso de entrenamiento de las más potentes IA, sólo puedan ejecutar código certificado que haya podido ser examinado por agencias independientes tanto algorítmicamente, como sus datos de entrenamiento. Pero para esto último necesitamos a EEUU y a China, claro, porque no hay ningún actor significativo que sea de la UE.

Pongámonos ya a trabajar en ello, el tiempo está corriendo y las apuestas no pueden ser más altas. Este es, tal vez, el debate más importante de nuestro tiempo.

 

“La tecnología no es buena ni mala, pero tampoco es neutral.” Melvin Kranzberg, primera ley de los estamentos de la tecnología

Santiago Ferrís Gil, jefe del Servicio de Telecomunicaciones de la Generalitat Valenciana y miembro del Grupo de Telecomunicaciones de AUTELSI.