100% correcto, o por qué la IA no es infalible, afortunadamente

“Cuando creíamos que teníamos todas las respuestas, de pronto cambiaron todas las preguntas”

Mario Benedetti

Una de las preguntas recurrentes que me hacen cuando en los últimos meses explico el impacto de las herramientas de IA generativa a equipos de negocio es: “¿Pero y cómo sabemos que la respuesta del algoritmo es 100% correcta?”.

Parece una inocente pregunta, pero representa una piedra angular del reto de #adopción y gestión del cambio en el contexto de la inteligencia artificial. En efecto, esa pregunta encierra varias creencias, entre otras:

⭐️ Que vivimos en un mundo determinista, donde A+B=C y en el cual, siguiendo una receta, obtendré resultados siempre idénticos.

⭐️ Que nos importan más las respuestas que las preguntas.

⭐️ Que existe alguna forma certera de determinar si algo es correcto ó incorrecto.

⭐️ Que asumimos que la máquina debe de ser infalible, cuando todos aceptamos que el humano no lo es.

A las empresas no nos gusta la incertidumbre

Recuerdo mi primera experiencia laboral en 3M, donde había un Director obsesionado por entender por qué caían las ventas de un producto industrial. Dediqué meses a hacer correlaciones entre variables hasta generar una serie de hipótesis sobre cuáles podrían ser los motivos. Cuando se las presenté, él me preguntaba insistentemente: “Pero Alberto, ¿estás 100% seguro de que esas son las verdaderas razones?”. El problema es que podía dedicar muchos más meses a trazar nuevas conjeturas, pero jamás tendría una verdadera certeza, y lo más importante de todo, si hubiera sido capaz de llegar a un índice de incertidumbre menor, tampoco hubiéramos tomado medidas muy diferentes de las que yo proponía tomar en aquel momento.

Aquella fue mi primera “caída del caballo” sobre lo mal que nos solemos manejar en entornos de incertidumbre en entornos profesionales y la importancia de promover otros mecanismos en la toma de decisiones más parecidos a como aprenden los niños en entornos de gran variabilidad:

1.      Probar

2.      Observar

3.      Medir

4.      Ajustar

5.      Volver a probar

6.      … y así sucesivamente

Liminalidad e Innovación

Cuanto más esté pegada nuestra actividad empresarial a las Operaciones, al Project Finance, a la gestión de riesgo,… mayores índices de certidumbre necesitamos en nuestro día a día. En esos casos, la IA Generativa necesita operar en entornos con guardarraíles que permitan un control mayor de los corpus de conocimiento con los que trabajan y de la variabilidad de las respuestas.

Sin embargo, si nuestra actividad empresarial requiere de Innovación y explorar y crear el futuro, necesitamos operar con otros parámetros.

Como decía J.R.Tolkien: “no todos los que vagan están perdidos”. Hay multitud de trabajos que requieren de una mentalidad de exploración continua, de un “espíritu de boyscout” como dice Julia Galef en su muy recomendable libro homónimo. Y es que si un “boyscout” es especialmente efectivo resolviendo retos en entornos de incertidumbre, no es solo por sus conocimientos o por ser más listo, sino por observar el mundo con una mentalidad curiosa e identificar opcionalidad por todas partes.

El reto, es que debemos de ser capaces de “desprogramar” nuestras mentes, acostumbradas desde la educación básica a que las preguntas nos venían dadas por el maestro y nuestra labor era determinar y responder con la única respuesta correcta.

El reto, como siempre, está en las transiciones

Mi padre, de formación arquitecto, siempre me recuerda que las goteras en un edificio nunca ocurren en una superficie continua sino en las juntas. Del mismo modo, el óxido aparece en los puntos de soldadura y los materiales se resquebrajan por las uniones. Y es que la gestión empresarial es especialmente complicada en espacios liminales, aquellos a caballo entre un pasado que se desmorona y un futuro que está por construir y muy impredecible.

De mi época de ingeniero estudiando dinámica de fluidos siempre recuerdo la enorme dificultad al pasar de “régimen continuo” a “régimen turbulento”. O del temido “golpe de ariete” o sobrecarga de presión que sufre una tubería en su interior cuando una columna de líquido se mueve dentro de ella con cierta inercia y, de repente, ese flujo cesa de forma repentina.

La turbulencia, genera incertidumbre e impredecibilidad, y en esas estamos.

Y en esto que empezamos a trabajar con Inteligencias Artificiales

Aunque la IA lleva con nosotros ya décadas, en los últimos dos años la democratización de las herramientas de IA generativa ha introducido un nuevo factor en nuestra ecuación como gestores empresariales.

Si ya era complejo manejar equipos humanos, con el grado de incertidumbre que la gestión de personas incorpora, llegan las “máquinas” y tenemos que reconfigurar el tablero.

En primer lugar, debemos de definir qué rol les asignamos y cuál pasa a ser el nuestro. A partir de ahí, surgen infinidad de preguntas, entre otras:

⭐️ ¿Con qué reglas de negocio configuramos el algoritmo?

⭐️ ¿Cómo incorporamos el conocimiento de compañía que reside en las personas en esas reglas de negocio?

⭐️ ¿Quién tiene la responsabilidad sobre las decisiones que el algoritmo tome?

⭐️ ¿Cómo preparamos a las organizaciones para trabajar con IAs?

Bueno, pero es sencillo, porque la IA introduce predictibilidad y órden

Algún incauto podía pensar que el algoritmo nos aporta mayor certidumbre, al fin y al cabo ¿no era gestionar personas lo que introducía variabilidad a la labor del manager?

Sin embargo, el funcionamiento de la Inteligencia Artificial Generativa no es determinista sino probabilista. Ante una misma pregunta, y debido a su diseño aprovechando arquitecturas de redes neuronales, la respuesta nunca va a ser exactamente la misma.

De ahí las preocupaciones de los equipos cuando les hablo de cómo tienen que trabajar con el algoritmo. Cuando esperaban que por fin su labor cómo managers iba a ser más predecible porque ante un estímulo de entrada, la salida iba a ser siempre la misma, ven que no es así.

Congreso anual DEC

Afortunadamente, la transformación que aporta la IA generativa no es determinista

Un viejo proverbio chino dice algo así como “ojalá vivas tiempos interesantes”, ante lo que yo reformulo: “ojalá vivas tiempos probabilistas”.

Creo sinceramente que la oportunidad que ofrece la creación de un binomio humano + máquina nos mete de lleno en el mundo de la creación y en un nuevo florecimiento de la labor del manager.

Es cierto que supone una amenaza para todos aquellos trabajadores del conocimiento que, aunque se creían “white collar”, no dejaban de ser un “blue collar” pero de oficina. Y es que apretar tornillos u ordenar documentos no dejan de ser actividades conceptualmente muy próximas.

Sin embargo, es precisamente la impredecibilidad del algoritmo lo que hace que siga existiendo, como dice Javier G. Recuenco, el “último santuario humano”. De otra forma, si toda nuestra labor como gestores fuera determinista y replicable, seríamos absolutamente prescindibles.

En términos muy parecidos se desarrolló esta semana el debate en el congreso de los amigos de la Asociación DEC para el Desarrollo de la Experiencia de Cliente en donde tuve el placer de intervenir invitado por Nanes Martínez-Arroyo , Accenture y Avanade. ¿Cuál es el rol del humano y cuál el del algoritmo cuando diseñamos y ejecutamos procesos de operaciones de cliente en nuestras organizaciones?

Es la era de la Co-Inteligencia

Pero volvamos por un momento a mis sesiones con los equipos promoviendo el uso de la IA Generativa.

Creo que un reto fundamental es hacerles conscientes de que la IA no sustituye al humano. Que de lo que se trata es de establecer procesos de trabajo híbrido humano-máquina en los que cada uno aporta una serie de capacidades.

Todas las actividades relacionadas con el procesamiento de información podrán quedar relegadas al algoritmo, que lo hace de forma mucho más exhaustiva y eficaz. Y aquello relacionado con contextualizar el trabajo, darle sentido y definir una hoja de ruta, caerá del lado del humano.

En términos prácticos, yo recomiendo a los equipos a la hora de trabajar con IA:

⭐️ Definir el objetivo, el contexto, las fuentes de información y el formato de salida.

⭐️ No delegar en el algoritmo la responsabilidad sobre los resultados que nos proporciona.

⭐️ Entender que la IA generativa es un “copiloto”, y que nosotros los humanos debemos seguir al mando como “pilotos”.

⭐️ Comprender que el algoritmo no es “determinista” y que ante pequeños cambios de contexto o de la información de entrada, ofrece resultados ciertamente diferentes.

⭐️ Utilizar flujos de retroalimentación con el algoritmo, contribuyendo a su aprendizaje en aquellas herramientas donde esto es posible.

⭐️ Ofrecer a la IA información de entrada completa, exhaustiva y relevante.

En el fondo, la oportunidad que la IA nos brinda es extraordinaria. Si todo fuera cuestión de seguir un manual, sería aburridísimo. Sin embargo, tenemos la oportunidad de delegar en ella aquellas tareas de menor valor añadido y elevarnos y florecer en aquellas capas de conocimiento en las que la componente creativa y de darle sentido a las cosas es relevante.

Ethan Mollick, profesor de The Wharton School y co-director del laboratorio de IA generativa , nos cuenta en su reciente libro “Co-Inteligencia” cómo la democratización de la IA a partir de Noviembre de 2022 y la expansión de los modelos de propósito general, nos obliga a desarrollar la capacidad de sentirnos cómodos en un mundo de colaboración humano-máquina.

Comparto su optimismo y su apuesta por no perder la identidad humana. Dejemos a la máquina ayudarnos en resolver preguntas, y centrémonos en determinar qué preguntas son relevantes resolver.

No nos preocupemos tanto de si el resultado del algoritmo es o no 100% correcto, y apoyémonos en su resultando aportando criterio y sentido común. No vivimos en un mundo determinista sino probabilista, y habrá que estar cómodo con el riesgo y la incertidumbre.

Bienvenidos a la era de las capacidades aumentadas.

El camino menos transitado

El poema “The road not taken” de Robert Frost es sencillamente maravilloso.

Nos habla de la libertad de elección, de la incertidumbre y de la bondad de tomar el camino menos transitado. Tiene un marcado tono melancólico, porque reconoce que elegir es renunciar y que no es posible vivir todas las oportunidades que se presentan y que no se han tomado. El poema cuestiona la idea de que nuestras decisiones sean racionales, e incide en el hecho de que es imposible saber a ciencia cierta el resultado de nuestras acciones.

Two roads diverged in a yellow wood,

And sorry I could not travel both

And be one traveler, long I stood

And looked down one as far as I could

To where it bent in the undergrowth;

Then took the other, as just as fair,

And having perhaps the better claim,

Because it was grassy and wanted wear;

Though as for that the passing there

Had worn them really about the same,

And both that morning equally lay

In leaves no step had trodden black.

Oh, I kept the first for another day!

Yet knowing how way leads on to way,

I doubted if I should ever come back.

I shall be telling this with a sigh

Somewhere ages and ages hence:

Two roads diverged in a wood, and I—

I took the one less traveled by,

And that has made all the difference.

Pensaba el otro día en este poema al reflexionar sobre el valor que aporta la #IA en procesos creativos, en aquellas ocasiones donde precisamente se persigue caminar por territorios inciertos y caminos poco explorados.

He de reconocer que utilizo muy frecuentemente herramientas de IA para romper el “lienzo en blanco” y “calentar motores”. Es una forma muy efectiva de realizar “estiramientos” mentales y empezar a desperezar neuronas.

Sin embargo, creo que puedo contar con los dedos de una mano las veces que en el último año el uso de la #IA me ha sorprendido sugiriendo un camino radicalmente diferente al que ya transitaba. Si bien en los primeros meses se percibía cierta anarquía y locura en los resultados, los LLMs producen ahora en general resultados “muy aseaditos” pero poco inspiradores, y mi hipótesis es que lo hacen por dos motivos fundamentales:

  • Los grandes modelos de lenguaje no son sino mecanismos estadísticos que juegan con las piezas con las que han sido entrenados. Del mismo modo que un set de LEGO permite variaciones a partir únicamente de las piezas que lo componen, la IA en procesos creativos transita por caminos ya abonados, aplicando probabilidades sobre el conocimiento previamente generado. Y es que cuando se habla del peligro de los «sesgos» en la #IA, frecuentemente se centra el debate en los sesgos de género ó raza. Sin embargo, existen muchas otras derivadas de la limitación del corpus de conocimiento usado en el entrenamiento. En un divertido experimento, se trató de que una IA fuera capaz de desescalar un conflicto en una suerte de “Juegos de guerra”. Sin embargo, según el estudio, los LLM no se mostraron especialmente hábiles buscando consensos, porque la humanidad se ha dedicado a luchar, y no existe abundante literatura sobre cómo resolver rencillas.

  • La IA está optimizada para reducir la pérdida y no para maximizar la ganancia. De esta forma trata de reducir el riesgo y no “romper nada”. De hecho, es evidente que los principales modelos trabajan en el contexto de unos enormes “guardarraíles” que impiden abandonar una ruta que podría llevar a resultados que pudieran causar alarma social, incorrección política ó grandes dilemas morales.

De hecho, para introducir variabilidad y pensamiento lateral al proceso creativo, se necesita al humano. De otro modo, circularemos como esas interminables hileras de hormigas que discurren siguiendo el rastro de feromonas de las que les preceden.

Leía hace poco un estudio que indagaba en la paradoja de la exploración científica. Cuando un grupo numeroso de científicos comparte datos y metodología, aumenta su comprensión sobre el trabajo de sus colegas y su confianza sobre el mismo. Sin embargo, se generan “burbujas epistémicas” derivadas de un pensamiento grupal que penaliza sobremanera la exploración de territorios de conocimiento adyacentes. La IA trabaja de forma parecida, promoviendo una suerte de “endogamia creativa”.

Escuchaba hoy el podcast de Jaime Rodríguez de Santiago : «vivimos en la mediocridad» y no paraba de pensar que la tecnología y los algoritmos no han hecho sino promover “la media” y el encaje en una cierta distribución estadística, evitando las “colas”.

Sin embargo, para el desarrollo de procesos creativos, debemos apostar por ser “centauros” cabalgando a lomos de inteligencias artificiales y no autómatas sometidos a ellas. El día que nos demos cuenta de que esto no va de «sustituir por» IA sino de «acompañar con» IA, habremos avanzado muchísimo.

De momento, la capacidad de conectar ideas aparentemente no relacionadas, de crear categorías o conceptos no basados en nada anteriormente desarrollado, parece ser territorio intrínsecamente del hombre, ó como dice Javier G. Recuenco, “santuarios humanos”.

Disfrutemos del camino de la #IA, y abandonémonos al menos transitado.