Muchas organizaciones están adoptando la IA generativa para asistir a algunos de sus procesos. En la mayoría de los casos, esta adopción se está llevando a cabo de la manera habitual, es decir, del mismo modo que se haría con cualquier otra tecnología. Aunque pueda parecer que la implementación exitosa de la IA generativa requiere lo mismo que cualquier otra transformación digital, esta tecnología tiene una serie de características muy particulares que la hacen especial: conocerlas no garantiza nada, pero sí puede darnos pistas a la hora de gestionar los riesgos.

En su libro «A New Kind of Science» (Un Nuevo Tipo de Ciencia) publicado en 2002, Stephen Wolfram presentó una original teoría con el propósito de facilitar una comprensión más profunda de la complejidad de la naturaleza. Esta complejidad podría ser explicada mediante reglas y patrones computacionales muy simples que se combinan entre sí.
Aunque el concepto de «emergencia» es muy anterior a Wolfram, éste lo trata necesariamente en su libro: a partir de sistemas sencillos que siguen reglas simples, pueden «emerger» fenómenos complejos y patrones sorprendentes. Un ejemplo es el juego de la vida celular, donde a partir de un conjunto sencillo de reglas surgen patrones complicados, que a su vez pueden irse complicando más aún hasta llegar, por ejemplo, al fenómeno de la inteligencia humana.
Existe una relación conceptual entre la idea de emergencia y el concepto de «caja negra», aunque provienen de contextos diferentes. Este último se utiliza cuando se estudia un sistema sin conocer los detalles internos de su funcionamiento, es decir, solo se observan las entradas y salidas del sistema, pero sus procesos internos permanecen opacos u ocultos.
La relación entre emergencia y caja negra radica en que cuando un sistema complejo exhibe comportamientos emergentes lo hace siempre de manera sorpresiva, y además hace que aumente la dificultad para comprender dicho sistema. Un sistema tiene un comportamiento de caja negra, tanto más cuanto más inesperadas y abundantes son sus habilidades emergentes.
La inteligencia humana es un ejemplo muy pertinente de la mencionada relación. Si bien el cerebro está compuesto por millones de neuronas que siguen reglas electroquímicas básicas, de sus interacciones emerge misteriosamente toda la riqueza de la cognición humana: conciencia, pensamiento abstracto, emociones, creatividad, etc. La mente humana se comporta efectivamente como una caja negra, donde podemos observar sus entradas sensoriales y salidas conductuales, pero los procesos internos que generan nuestra experiencia consciente permanecen en gran medida ocultos.
Hay ciertos tipos de IA, principalmente las que denominamos generativas, donde también se pueden observar fenómenos emergentes, así como el comportamiento de caja negra. Esto es particularmente cierto para los enfoques de aprendizaje profundo y redes neuronales artificiales complejas, como las utilizadas en el procesamiento de lenguaje natural, o la generación de imágenes, audios o vídeos.
Las redes neuronales están compuestas por múltiples capas de neuronas artificiales interconectadas. Si bien las operaciones de cada neurona pueden describirse con reglas matemáticas sencillas, la enorme cantidad de conexiones y la profundidad de las redes hace que su comportamiento conjunto sea increíblemente complejo: podemos ver las entradas que reciben y las salidas que producen, pero los procesos intermedios por los que llegan a esos resultados son opacos y difíciles de interpretar para los humanos.
En agosto de 2022 apareció un paper en el que habían participado Google Research, la Universidad de Stanford, la Universidad de Carolina del Norte y DeepMind. El trabajo se titula «Habilidades Emergentes de Modelos de Lenguaje Grandes» y explora cómo los modelos de lenguaje adquieren habilidades emergentes cuando se hacen computacionalmente muy grandes (por ejemplo, por un gran aumento del número de parámetros del modelo), desarrollando capacidades que no tenían cuando eran más pequeños, ni tampoco era posible predecir su aparición ni su naturaleza.
Los modelos de GPT-3 iniciales no podían responder de manera precisa y veraz a las preguntas que se les formulaba. Lo que estos modelos respondían cuando se les preguntaba era algo adivinatorio y al azar, por expresarlo de algún modo. Fue al agigantar el músculo computacional de estos modelos cuando comenzaron, inesperadamente, a dar respuestas más fiables.
La adopción de la IA generativa en las organizaciones, aunque pueda parecer similar a la implementación de otras tecnologías, presenta particularidades únicas debido a sus características emergentes y comportamientos de caja negra. Éstas hacen de la IA generativa una tecnología con una marcada tendencia a albergar incertidumbres, y ya sabemos todos que en el contexto de las organizaciones y sus proyectos las incertidumbres son riesgos:
- ¿Por qué es un riesgo que una nueva versión de una herramienta impulsada por IA generativa adquiera de repente la capacidad de dar respuestas más fiables?
- Nuestra empresa opera en el sector de las TIC, estamos naturalmente familiarizados con la adopción y adaptación continua a nuevas tecnologías, ¿acaso no es de herramientas TIC de lo que estamos hablando, por muy especiales que parezcan ser?
- ¿No se encargan las empresas que desarrollan las IAs generativas de afinarlas muy bien para que sus resultados, aunque siempre novedosos y sorpresivos, sean pertinentes, precisos y seguros?
- Aunque no sepamos por qué la herramienta funciona como funciona nos da los resultados que esperamos y necesitamos, ¿de qué debemos preocuparnos?
- Tenemos muy controlado todo lo que tiene que ver con la protección de datos, y nuestros usuarios finales dan su consentimiento expreso cuando usan nuestras herramientas. ¿Cambia algo cuando hablamos de IA generativa?
- Seamos francos, no somos una ONG, la cuestión ética sólo la llevamos hasta donde llegan nuestros intereses más directos, y aunque solemos tenerla en cuenta como riesgo en nuestros proyectos, no las clasificamos con un grado alto. ¿Tal vez con la IA generativa lo ético puede ser un riesgo crítico?
- ¿El uso continuado de IA generativa puede impactar negativamente en el rendimiento de nuestros empleados?
