«Puerta a las estrellas»: ¿a dónde lleva realmente esa puerta?

En febrero de 2023, en plena viralidad del fenómeno ChatGPT, Stephen Wolfram presentó un extenso artículo sobre el funcionamiento de esta herramienta titulado What Is ChatGPT Doing … and Why Does It Work? (¿Qué está haciendo ChatGPT… y por qué funciona?). Con este trabajo, además de introducirnos en multitud de conceptos clave para comprender los GPT (Generative Pre-trained Transformer), refrenda la tesis central del libro «A New Kind of Science» (ver Gestionando riesgos de la IA generativa – Parte 1: Los sistemas complejos): «un gran número de elementos computacionales simples pueden hacer cosas extraordinarias e inesperadas».

stargate

ChatGPT parece un sistema poco prometedor. Se trata de una simple red neuronal alimentada con grandes cantidades de texto de internet, libros y otras fuentes. A partir de un texto dado sopesará cuál es la siguiente palabra con mayor probabilidad de aparecer según el sentido del conjunto: y esto lo hará recursivamente hasta que dé por completada su tarea. Sin embargo, su capacidad para generar lenguaje coherente y con sentido a partir de estas premisas es sorprendente, advierte Wolfram: «Que ChatGPT sea capaz de generar automáticamente algo que se parezca, aunque sólo sea superficialmente, a un texto escrito por un ser humano es sorprendente e inesperado».

«Inesperado» y «sorprendente» son términos que aparecen varias veces a lo largo del artículo, y sin embargo, no son los que esperamos encontrar cuando hablamos «científicamente» de una herramienta que usan centenares de miles de personas, y que tiene una potencia, e influencia, jamás antes vista. El uso de estas palabras podría ser una licencia poética de Wolfram, y no describen de manera objetiva el comportamiento de ChatGPT; pero no es así. El artículo deja muy claro que «ChatGPT ‘sólo’ extrae un ‘hilo coherente de texto’ de las ‘estadísticas de sabiduría convencional’ que ha acumulado», y continúa diciendo, «pero es sorprendente lo humanos que son los resultados». 

Wolfram es plenamente consciente de la posibilidad de que en sistemas complejos surjan fenómenos emergentes. Sin embargo, se sorprendió por el particular comportamiento emergente de la red neuronal que constituye ChatGPT, generando respuestas que parecen muy humanas. A pesar de comprender los fundamentos de esta herramienta, el hecho de que pueda producir lenguaje coherente y natural a partir de meras estadísticas acumuladas parece haber superado sus expectativas. Esta sorpresa es la misma que subyace al estudio «Habilidades Emergentes de Modelos de Lenguaje Grandes» (ver Gentionando riesgos de la IA generativa – Parte 1: Los sistemas complejos), y mucho me temo que esta sorpresa también es la que esperan experimentar los técnicos de las grandes tecnológicas implicadas cuando conecten sus modelos de IA a lo que resulte de Stargate

El proyecto, con nombre de película (y novela) de ciencia ficción, promete una fuente de datos y potencia de computación nunca vista hasta el momento, y seguramente inimaginada. Su presupuesto es de más de 500.000 millones de dólares y se espera que esté funcionando en unos cuatro años. Requerirá una fuente de energía dedicada exclusivamente para él, seguramente nuclear. Y no es necesaria mucha especulación para saber lo que buscan estos socios: forzar la aparición de habilidades emergentes en sus modelos de IA. 

No parece que estas compañías estén muy preocupadas por la gran fuente de incertidumbres que representa la aparición de estas habilidades, muy al contrario, van en busca de ellas a pesar de todo el conocimiento que tienen, y el que no tienen. Parece que tampoco les preocupan los posibles juegos argumentales de una historia en la que se unen inteligencia artificial, supercomputadoras, habilidades sorpresivas y energía nuclear.

Deja un comentario

Tu dirección de correo electrónico no será publicada. Los campos obligatorios están marcados con *