Decía el biólogo americano Edward Wilson que el gran reto de la humanidad es que “somos seres que arrastramos una gestión de las emociones propia del Paleolítico, con unas instituciones adecuadas para el Medievo, y que sin embargo disponemos de tecnología digna de dioses”.
Recordaba esta semana aquella frase, que utilizo a menudo en sesiones de formación sobre #GestiónDelCambio, en el ámbito de la celebración de la gala de los Premios CIONET que reúnen las iniciativas más destacadas de la comunidad tecnológica y #digital.
Y es que en esta edición hemos tenido la gran fortuna de ser finalistas en la categoría de “PEOPLE, MODEL ORGANIZATION & FUTURE OF WORK”, por nuestro proyecto de #adopción de Microsoft Copilot en toda la organización.
Me alegra especialmente el que el jurado reconociera la importancia de la #tecnología centrada en las personas, aportando valor desde el caso de uso y las necesidades en este caso del #empleado.
En un mundo en el que debemos centrarnos en las capacidades aumentadas y las #cointeligencias, ver el binomio Personas + Tecnología tan presente en los proyectos presentados en la edición de este año, resultaba alentador.
Motivo de orgullo especial ha sido el celebrar con el resto de colegas el éxito de los galardones a Ferrovial en cuatro categorías:
💎 Best company of the year 🌄 Best green IT project: Smart grid management platform 🚀 Best digital channel project: Infraverse 🏆 Best CTO of the year: Laura Garrido (magnífica profesional y mejor persona)
Muchas gracias a CIONET, a los partners (Microsoft y Accenture) que nos ayudáis en este viaje y a todos los que día a día abrazan la tecnología desde el propósito y el valor para el empleado 👩 👱.
“Cuando creíamos que teníamos todas las respuestas, de pronto cambiaron todas las preguntas”
Mario Benedetti
Una de las preguntas recurrentes que me hacen cuando en los últimos meses explico el impacto de las herramientas de IA generativa a equipos de negocio es: “¿Pero y cómo sabemos que la respuesta del algoritmo es 100% correcta?”.
Parece una inocente pregunta, pero representa una piedra angular del reto de #adopción y gestión del cambio en el contexto de la inteligencia artificial. En efecto, esa pregunta encierra varias creencias, entre otras:
⭐️ Que vivimos en un mundo determinista, donde A+B=C y en el cual, siguiendo una receta, obtendré resultados siempre idénticos.
⭐️ Que nos importan más las respuestas que las preguntas.
⭐️ Que existe alguna forma certera de determinar si algo es correcto ó incorrecto.
⭐️ Que asumimos que la máquina debe de ser infalible, cuando todos aceptamos que el humano no lo es.
A las empresas no nos gusta la incertidumbre
Recuerdo mi primera experiencia laboral en 3M, donde había un Director obsesionado por entender por qué caían las ventas de un producto industrial. Dediqué meses a hacer correlaciones entre variables hasta generar una serie de hipótesis sobre cuáles podrían ser los motivos. Cuando se las presenté, él me preguntaba insistentemente: “Pero Alberto, ¿estás 100% seguro de que esas son las verdaderas razones?”. El problema es que podía dedicar muchos más meses a trazar nuevas conjeturas, pero jamás tendría una verdadera certeza, y lo más importante de todo, si hubiera sido capaz de llegar a un índice de incertidumbre menor, tampoco hubiéramos tomado medidas muy diferentes de las que yo proponía tomar en aquel momento.
Aquella fue mi primera “caída del caballo” sobre lo mal que nos solemos manejar en entornos de incertidumbre en entornos profesionales y la importancia de promover otros mecanismos en la toma de decisiones más parecidos a como aprenden los niños en entornos de gran variabilidad:
1. Probar
2. Observar
3. Medir
4. Ajustar
5. Volver a probar
6. … y así sucesivamente
Liminalidad e Innovación
Cuanto más esté pegada nuestra actividad empresarial a las Operaciones, al Project Finance, a la gestión de riesgo,… mayores índices de certidumbre necesitamos en nuestro día a día. En esos casos, la IA Generativa necesita operar en entornos con guardarraíles que permitan un control mayor de los corpus de conocimiento con los que trabajan y de la variabilidad de las respuestas.
Sin embargo, si nuestra actividad empresarial requiere de Innovación y explorar y crear el futuro, necesitamos operar con otros parámetros.
Como decía J.R.Tolkien: “no todos los que vagan están perdidos”. Hay multitud de trabajos que requieren de una mentalidad de exploración continua, de un “espíritu de boyscout” como dice Julia Galef en su muy recomendable libro homónimo. Y es que si un “boyscout” es especialmente efectivo resolviendo retos en entornos de incertidumbre, no es solo por sus conocimientos o por ser más listo, sino por observar el mundo con una mentalidad curiosa e identificar opcionalidad por todas partes.
El reto, es que debemos de ser capaces de “desprogramar”nuestras mentes, acostumbradas desde la educación básica a que las preguntas nos venían dadas por el maestro y nuestra labor era determinar y responder con la única respuesta correcta.
El reto, como siempre, está en las transiciones
Mi padre, de formación arquitecto, siempre me recuerda que las goteras en un edificio nunca ocurren en una superficie continua sino en las juntas. Del mismo modo, el óxido aparece en los puntos de soldadura y los materiales se resquebrajan por las uniones. Y es que la gestión empresarial es especialmente complicada en espacios liminales, aquellos a caballo entre un pasado que se desmorona y un futuro que está por construir y muy impredecible.
De mi época de ingeniero estudiando dinámica de fluidos siempre recuerdo la enorme dificultad al pasar de “régimen continuo” a “régimen turbulento”. O del temido “golpe de ariete” o sobrecarga de presión que sufre una tubería en su interior cuando una columna de líquido se mueve dentro de ella con cierta inercia y, de repente, ese flujo cesa de forma repentina.
La turbulencia, genera incertidumbre e impredecibilidad, y en esas estamos.
Y en esto que empezamos a trabajar con Inteligencias Artificiales
Aunque la IA lleva con nosotros ya décadas, en los últimos dos años la democratización de las herramientas de IA generativa ha introducido un nuevo factor en nuestra ecuación como gestores empresariales.
Si ya era complejo manejar equipos humanos, con el grado de incertidumbre que la gestión de personas incorpora, llegan las “máquinas” y tenemos que reconfigurar el tablero.
En primer lugar, debemos de definir qué rol les asignamos y cuál pasa a ser el nuestro. A partir de ahí, surgen infinidad de preguntas, entre otras:
⭐️ ¿Con qué reglas de negocio configuramos el algoritmo?
⭐️ ¿Cómo incorporamos el conocimiento de compañía que reside en las personas en esas reglas de negocio?
⭐️ ¿Quién tiene la responsabilidad sobre las decisiones que el algoritmo tome?
⭐️ ¿Cómo preparamos a las organizaciones para trabajar con IAs?
Bueno, pero es sencillo, porque la IA introduce predictibilidad y órden
Algún incauto podía pensar que el algoritmo nos aporta mayor certidumbre, al fin y al cabo ¿no era gestionar personas lo que introducía variabilidad a la labor del manager?
Sin embargo, el funcionamiento de la Inteligencia Artificial Generativa no es determinista sino probabilista. Ante una misma pregunta, y debido a su diseño aprovechando arquitecturas de redes neuronales, la respuesta nunca va a ser exactamente la misma.
De ahí las preocupaciones de los equipos cuando les hablo de cómo tienen que trabajar con el algoritmo. Cuando esperaban que por fin su labor cómo managers iba a ser más predecible porque ante un estímulo de entrada, la salida iba a ser siempre la misma, ven que no es así.
Congreso anual DEC
Afortunadamente, la transformación que aporta la IA generativa no es determinista
Un viejo proverbio chino dice algo así como “ojalá vivas tiempos interesantes”, ante lo que yo reformulo: “ojalá vivas tiempos probabilistas”.
Creo sinceramente que la oportunidad que ofrece la creación de un binomio humano + máquina nos mete de lleno en el mundo de la creación y en un nuevo florecimiento de la labor del manager.
Es cierto que supone una amenaza para todos aquellos trabajadores del conocimiento que, aunque se creían “white collar”, no dejaban de ser un “blue collar” pero de oficina. Y es que apretar tornillos u ordenar documentos no dejan de ser actividades conceptualmente muy próximas.
Sin embargo, es precisamente la impredecibilidad del algoritmo lo que hace que siga existiendo, como dice Javier G. Recuenco, el “último santuario humano”. De otra forma, si toda nuestra labor como gestores fuera determinista y replicable, seríamos absolutamente prescindibles.
En términos muy parecidos se desarrolló esta semana el debate en el congreso de los amigos de la Asociación DECpara el Desarrollo de la Experiencia de Cliente en donde tuve el placer de intervenir invitado por Nanes Martínez-Arroyo , Accenture y Avanade. ¿Cuál es el rol del humano y cuál el del algoritmo cuando diseñamos y ejecutamos procesos de operaciones de cliente en nuestras organizaciones?
Es la era de la Co-Inteligencia
Pero volvamos por un momento a mis sesiones con los equipos promoviendo el uso de la IA Generativa.
Creo que un reto fundamental es hacerles conscientes de que la IA no sustituye al humano. Que de lo que se trata es de establecer procesos de trabajo híbrido humano-máquina en los que cada uno aporta una serie de capacidades.
Todas las actividades relacionadas con el procesamiento de información podrán quedar relegadas al algoritmo, que lo hace de forma mucho más exhaustiva y eficaz. Y aquello relacionado con contextualizar el trabajo, darle sentido y definir una hoja de ruta, caerá del lado del humano.
En términos prácticos, yo recomiendo a los equipos a la hora de trabajar con IA:
⭐️ Definir el objetivo, el contexto, las fuentes de información y el formato de salida.
⭐️ No delegar en el algoritmo la responsabilidad sobre los resultados que nos proporciona.
⭐️ Entender que la IA generativa es un “copiloto”, y que nosotros los humanos debemos seguir al mando como “pilotos”.
⭐️ Comprender que el algoritmo no es “determinista” y que ante pequeños cambios de contexto o de la información de entrada, ofrece resultados ciertamente diferentes.
⭐️ Utilizar flujos de retroalimentación con el algoritmo, contribuyendo a su aprendizaje en aquellas herramientas donde esto es posible.
⭐️ Ofrecer a la IA información de entrada completa, exhaustiva y relevante.
En el fondo, la oportunidad que la IA nos brinda es extraordinaria. Si todo fuera cuestión de seguir un manual, sería aburridísimo. Sin embargo, tenemos la oportunidad de delegar en ella aquellas tareas de menor valor añadido y elevarnos y florecer en aquellas capas de conocimiento en las que la componente creativa y de darle sentido a las cosas es relevante.
Ethan Mollick, profesor de The Wharton School y co-director del laboratorio de IA generativa , nos cuenta en su reciente libro “Co-Inteligencia” cómo la democratización de la IA a partir de Noviembre de 2022 y la expansión de los modelos de propósito general, nos obliga a desarrollar la capacidad de sentirnos cómodos en un mundo de colaboración humano-máquina.
Comparto su optimismo y su apuesta por no perder la identidad humana. Dejemos a la máquina ayudarnos en resolver preguntas, y centrémonos en determinar qué preguntas son relevantes resolver.
No nos preocupemos tanto de si el resultado del algoritmo es o no 100% correcto, y apoyémonos en su resultando aportando criterio y sentido común. No vivimos en un mundo determinista sino probabilista, y habrá que estar cómodo con el riesgo y la incertidumbre.
Bienvenidos a la era de las capacidades aumentadas.
Decía Woody Allen que le importaba el futuro, porque era donde iba a vivir el resto de su vida.
A nada que aspires a ser algo más que un pequeño primate pensante, el futuro debe de interesarte. Pensar en el futuro nos permite diseñar, planificar, preparar, tomar decisiones y dar forma al porvenir, beneficiándonos a nosotros mismos y a los que nos rodean. Si además eres padre, saber la realidad que le dejarás a tus hijos aumenta el apetito por asomarse a la ventana del futuro.
Creo firmemente en aquella frase atribuida a Confucio que decía algo así como “si eres la persona más inteligente en una habitación, debías de cambiar de habitación”. Y lo que Isabel me proponía era trasladarme no ya a una nueva habitación, sino a un verdadero palacio de ideas.
Así que de aquella idea cocinada a raíz de un encuentro entre amigos en una casa de campo en tierras de la Alcarria, surge hoy el podcast “Futuroscopia”. Como todo en sus comienzos, es un espacio de reflexión que todavía gatea, y que habrá que mimar y cuidarlo para que crezca. Pero ¡y lo que nos estamos divirtiendo!
Para esta primera edición, nos pusimos de gala y decidimos invitar a Jesús Zamora Bonilla, catedrático de Lógica y Filosofía de la Ciencia en la UNED, y autor del libro “Progreso, ma non troppo”. Así que el maestro García-Quismondo nos preparó una “jam sesión” en la que fuimos poniendo a prueba las tesis de Jesús sobre el progreso y que pueden resumirse en que, si bien la evolución en áreas como la Ciencia, la Tecnología, la Economía y la Espiritualidad han sido notorias en las últimas décadas, se quedan cortas comparadas con su florecimiento en siglos anteriores, y parecen condenadas a quedarse estancadas en una suerte de curva logística.
Tratando de escapar de las etiquetas de “tecno-cenizos” ó “tecno-optimistas”, retamos con argumentos las tesis de Jesús y creo que surgió una charla entretenida en la que yo al menos no paré de aprender.
Sin intención de hacerte “spoiler” pero para abrirte el apetito y animarte a escuchar el podcast, planteo aquí algunas de las preguntas sobre las que transitamos:
🎭 ¿Por qué si la Tecnología prometía liberarnos de las tareas más penosas y permitirnos dedicarnos al florecimiento de lo humano, no parece que hayamos avanzado tanto respecto a los Griegos hace más de 3.000 años?
💊 ¿Y si la verdadera oportunidad de progreso no fuera el desarrollo vertical de tecnologías estancas sino conectarlas (ej: la computación y la biomedicina)?
🎓 ¿Por qué si dedicamos 10 veces más recursos, personas y presupuesto a la Ciencia que hace 50 años, los avances no parecen cualitativamente habernos mejorado la vida?
💻 ¿Cómo es que siendo los ordenadores de hoy en día billones de veces más poderosos que los de los inicios de la computación, no somos capaces aún de resolver las grandes preguntas de la Humanidad?
❔ ¿Y si en vez de dedicar tanto esfuerzo tecnológico a la obtención de respuestas lo hiciéramos para asegurar que resolvemos las preguntas adecuadas?
✒️ ¿Tiene más valor la ingente producción artística actual ó una pretendida mayor calidad pasada?
⚖️ ¿Ha permitido la Tecnología dotarnos de mayor transparencia y calidad democrática?
😕 ¿La “Ilusión de Pareto” nos condena a que a medida que aumentan las capacidades técnicas lo hagan también nuestras expectativas y eso nos provoque permanente frustración?
🔬 ¿Ha avanzado la Ciencia más allá de la “Introducción a la Ciencia” de Asimov en 1973?
🔆 ¿Es la disponibilidad de energía marginalmente ilimitada condición sine qua non para descubrir tecnologías hoy inalcanzables?
En fin, te invito a acompañarnos en este nuevo viaje explorando el futuro, y te animo a dejar en los comentarios algún asunto sobre el que quieras que reflexionemos en las próximas ediciones.
Isabel, César, Paco y Fernando, conoceros es un verdadero regalo.
A los seres humanos no nos gusta por lo general tomar decisiones. Decimos que sí, que queremos elegir siempre que sea posible, pero la realidad nos suele demostrar que preferimos exactamente todo lo contrario: la comodidad de que nos den las cosas hechas, el refugio de la predictibilidad, la rutina y la certidumbre. Y es lógico, porque si conseguimos que un heurístico u otra persona elija por nosotros, minimizamos el gasto energético. Y es que pensar consume cantidades ingentes de energía. Aunque supone solo el 2% del peso medio de una persona adulta, el cerebro consume más del 20% de la energía que generamos (unos 20 watios al día con una dieta de 2.400 kilocalorías).
¿Puede la IA crear Arte?
Crear arte es un proceso en el que debemos tomar decisiones constantemente. A un trazo le sigue otro, una estrofa continúa con la posterior, a un acorde le acompaña el subsecuente.
¿Puede una IA tomar decisiones?. La forma que tenemos de dar instrucciones a una IA es mediante un «prompt», de forma que con unas someras indicaciones, ésta pueda «centrar el tiro». Pero irremediablemente, el modelo tendrá muchos huecos que rellenar en aspectos que no hemos determinado nosotros en nuestras instrucciones iniciales. Y para cubrir esos vacíos, utilizará información de su modelo de entrenamiento. En el caso de aplicaciones artísticas, esos datos vendrán necesariamente de otras obras anteriores. ¿Y qué referentes artísticos elegirá el modelo?. Tal y como funcionan los LLM en la actualidad, aplicará un cálculo estadístico determinando que la referencia en la que inspirarse sea aquella más popular ó más frecuente en su modelo de entrenamiento.
¿Podrá emocionarnos una creación que ha sido generada usando «valores medios» de referencias del pasado? Creo que la IA podrá generar obras que nos encajen fácilmente dentro de los referentes que consideramos familiares, pero difícilmente podrá sorprendernos. Formalmente, estarán muy bien construidas de acuerdo a unos cánones, pero será complicado que lleguen a generarnos emociones nuevas.
El arte es una cadena de «arrepentimientos»
Un creador toma decisiones típicamente de forma secuencial a medida que avanza en el proceso de elaboración de su obra, mientras que para alimentar una IA el prompt hay que proporcionarlo ex-ante. La IA funciona como si una vez liberado el pincel, no hubiera forma de reenfocar su trazo.
Si has visitado el Museo del Prado en Madrid, habrás observado los «arrepentimientos» en los cuadros de Velázquez. Son aquellos trazos iniciales y bocetos que finalmente el pintor ocultó en capas subsecuentes de pintura.
¿Imaginas el arte sin borrones, sin notas al márgen, sin «arrepentimientos»?
Interpolando en un mundo autorreferente
Los modelos actuales son extraordinarios a la hora de interpolar en un campo de conocimiento específico. De este modo, generan resultados realmente coherentes. No es que sean capaces de «entender» el mundo en el que vivimos, pero saben generar datos que encajan como un guante en ese mundo. Además, por una cuestión de diseño, están sesgados según el corpus de conocimiento con el que han sido entrenados.
Como el filósofo Grady Booch nos recuerda, decía Sagan que «la mente humana hace mucho más que predecir«. Es capaz de generar abstracciones, construir teorías sobre el funcionamiento del mundo, y sobre todo, interpretarlo desde el contexto de la propia experiencia, de nuestros objetivos, deseos y sentimientos.
¿Y por que la IA debe reemplazarnos?
La IA no parece que vaya a reemplazar la capacidad creativa de un ser humano en el corto plazo. Pero la pregunta es «¿por qué demonios debería de hacerlo?».
Parecemos obsesionados por predecir cuándo los modelos de lenguaje llegarán a alcanzar la Inteligencia Artificial General (AGI), en vez de enfocarnos en aplicar la IA intensivamente en aquello para lo que ya ha demostrado que es extremadamente útil.
Como habitualmente nos recuerda César Astudillo, el desarrollo tecnológico no es bueno per sé, pero es ingenuo pensar que se puede parar y poner en pausa por el miedo a potenciales eventos futuros. ¿Qué habría pasado si hubiéramos pausado a Newton, Darwin ó Einstein?
Entre el pesimismo de los tecnocenizos del progreso que creen que la IA nos llevará irremediablemente al desastre y el aceleracionismo tecnológico según el cual la tecnología no es un medio sino un fin y hay que aceptarla sin filtro, hay un término medio mucho más interesante.
Frecuentemente en mi contexto profesional hago a los equipos de Tecnología la pregunta de «¿para qué quieres desarrollar eso?«. Porque no todo lo que se puede hacer técnicamente, debe de ser hecho. Porque debemos empezar desde el primer momento con el impacto en nuestra organización que tendrá aquel desarrollo tecnológico que promovamos.
Necesitamos la «mirada del filósofo», la que se pregunte el «por qué» y el «para qué», poniendo al humano en el centro.
Minotauros ó Centauros
El líder en las organizaciones debe impulsar la adopción tecnológica desde una perspectiva de «Centauro«, donde la toma de decisiones ocurre en la capa humana y la tecnología impulsa con toda su potencia. El liderazgo desde el mero enamoramiento tecnológico con un enfoque de «Minotauro» donde delegamos la cognición al algoritmo y dedicamos al humano a la pura fuerza tractora, lleva irremediablemente al desastre como sociedad.
Siendo responsable de Diseño de Experiencia Cliente en Iberia,siempre nos obsesionaba en el proceso de diseño el dedicar el tiempo suficiente a decidir sobre qué problemas u oportunidades nos estábamos enfocando («design the right things»), antes de zambullirnos de lleno en la ejecución desde la excelencia («design things right»). En esta época de aceleración gracias a la IA, creo que el humano debe dedicar gran parte de su reflexión a asegurarse de diseñar las cosas correctas, y dejar a la IA que una vez decidido qué diseñar y por qué sea ésta la que nos ayude a ejecutarlo de forma correcta.
La emoción de un desfile de moda
Andaba yo en mis pensamientos sobre todos estos asuntos, y dándole vueltas al último informe de Mario Draghi sobre la competitividad en Europa, cuando los amigos de la Universidad de Diseño, Innovación y Tecnología (UDIT) me invitaron al desfile de sus estudiantes del grado de Diseño de Moda en el contexto de la Mercedes Fashion Week.
Ver sobre la pasarela las creaciones de estas jóvenes promesas era emocionante. Pensar que tenemos una generación de chavales explorando «el último santuario humano» en el contexto de la creación, resultaba fascinante.
Según me comentaban, utilizan extensamente la tecnología y la ciencia de materiales para conceptualizar sus diseños. Pero en último lugar, es su muy personal y buen criterio y su ojo para la creación, lo que consigue que nos emocionemos al admirar sus obras.
Mirando al futuro con optimismo
Creo que los que peinamos ya alguna cana tenemos una responsabilidad a la hora de habilitar mecanismos en las organizaciones que lideramos para impulsar una aproximación a la tecnología desde un punto de vista que facilite el florecimiento de lo humano. Pausar de vez en cuando una visión más utilitarista y orientada a la pura eficiencia y replantear si estamos utilizando la tecnología para construir empresas que no solo «interpolen» de forma muy precisa sino que sepan «hiperpolar» como explica el filósofo Toby Ord. Es decir, hacerse preguntas en direcciones que no pueden ser definidas en el contexto de los ejemplos existentes. Explorar territorios y espacios conceptuales en dimensiones no definidas en la realidad existente.
Nunca fue un mejor momento para dedicarse a la gestión del cambio como en tiempos como los actuales. Disfrutemos el viaje.
El poema “The road not taken” de Robert Frost es sencillamente maravilloso.
Nos habla de la libertad de elección, de la incertidumbre y de la bondad de tomar el camino menos transitado. Tiene un marcado tono melancólico, porque reconoce que elegir es renunciar y que no es posible vivir todas las oportunidades que se presentan y que no se han tomado. El poema cuestiona la idea de que nuestras decisiones sean racionales, e incide en el hecho de que es imposible saber a ciencia cierta el resultado de nuestras acciones.
Two roads diverged in a yellow wood,
And sorry I could not travel both
And be one traveler, long I stood
And looked down one as far as I could
To where it bent in the undergrowth;
Then took the other, as just as fair,
And having perhaps the better claim,
Because it was grassy and wanted wear;
Though as for that the passing there
Had worn them really about the same,
And both that morning equally lay
In leaves no step had trodden black.
Oh, I kept the first for another day!
Yet knowing how way leads on to way,
I doubted if I should ever come back.
I shall be telling this with a sigh
Somewhere ages and ages hence:
Two roads diverged in a wood, and I—
I took the one less traveled by,
And that has made all the difference.
Pensaba el otro día en este poema al reflexionar sobre el valor que aporta la #IA en procesos creativos, en aquellas ocasiones donde precisamente se persigue caminar por territorios inciertos y caminos poco explorados.
He de reconocer que utilizo muy frecuentemente herramientas de IA para romper el “lienzo en blanco” y “calentar motores”. Es una forma muy efectiva de realizar “estiramientos” mentales y empezar a desperezar neuronas.
Sin embargo, creo que puedo contar con los dedos de una mano las veces que en el último año el uso de la #IA me ha sorprendido sugiriendo un camino radicalmente diferente al que ya transitaba. Si bien en los primeros meses se percibía cierta anarquía y locura en los resultados, los LLMs producen ahora en general resultados “muy aseaditos” pero poco inspiradores, y mi hipótesis es que lo hacen por dos motivos fundamentales:
Los grandes modelos de lenguaje no son sino mecanismos estadísticos que juegan con las piezas con las que han sido entrenados. Del mismo modo que un set de LEGO permite variaciones a partir únicamente de las piezas que lo componen, la IA en procesos creativos transita por caminos ya abonados, aplicando probabilidades sobre el conocimiento previamente generado. Y es que cuando se habla del peligro de los «sesgos» en la #IA, frecuentemente se centra el debate en los sesgos de género ó raza. Sin embargo, existen muchas otras derivadas de la limitación del corpus de conocimiento usado en el entrenamiento. En un divertido experimento, se trató de que una IA fuera capaz de desescalar un conflicto en una suerte de “Juegos de guerra”. Sin embargo, según el estudio, los LLM no se mostraron especialmente hábiles buscando consensos, porque la humanidad se ha dedicado a luchar, y no existe abundante literatura sobre cómo resolver rencillas.
La IA está optimizada para reducir la pérdida y no para maximizar la ganancia. De esta forma trata de reducir el riesgo y no “romper nada”. De hecho, es evidente que los principales modelos trabajan en el contexto de unos enormes “guardarraíles” que impiden abandonar una ruta que podría llevar a resultados que pudieran causar alarma social, incorrección política ó grandes dilemas morales.
De hecho, para introducir variabilidad y pensamiento lateral al proceso creativo, se necesita al humano. De otro modo, circularemos como esas interminables hileras de hormigas que discurren siguiendo el rastro de feromonas de las que les preceden.
Leía hace poco un estudio que indagaba en la paradoja de la exploración científica. Cuando un grupo numeroso de científicos comparte datos y metodología, aumenta su comprensión sobre el trabajo de sus colegas y su confianza sobre el mismo. Sin embargo, se generan “burbujas epistémicas” derivadas de un pensamiento grupal que penaliza sobremanera la exploración de territorios de conocimiento adyacentes. La IA trabaja de forma parecida, promoviendo una suerte de “endogamia creativa”.
Escuchaba hoy el podcast de Jaime Rodríguez de Santiago : «vivimos en la mediocridad» y no paraba de pensar que la tecnología y los algoritmos no han hecho sino promover “la media” y el encaje en una cierta distribución estadística, evitando las “colas”.
Sin embargo, para el desarrollo de procesos creativos, debemos apostar por ser “centauros” cabalgando a lomos de inteligencias artificiales y no autómatas sometidos a ellas. El día que nos demos cuenta de que esto no va de «sustituir por» IA sino de «acompañar con» IA, habremos avanzado muchísimo.
De momento, la capacidad de conectar ideas aparentemente no relacionadas, de crear categorías o conceptos no basados en nada anteriormente desarrollado, parece ser territorio intrínsecamente del hombre, ó como dice Javier G. Recuenco, “santuarios humanos”.
Disfrutemos del camino de la #IA, y abandonémonos al menos transitado.
En 1957, el biólogo Conrad Waddington describió que el desarrollo de los mamíferos es unidireccional, lo que significa que las células madre embrionarias se desarrollan en una dirección que discurre por definición hacia un estado más maduro y diferenciado.
Esta idea se ha representado habitualmente como una canica que rueda desde la cima de una montaña hasta el fondo de un valle. Así se muestra, visualmente, la restricción natural del potencial de diferenciación celular durante el desarrollo normal.
Sin embargo, una serie de experimentos pioneros mostraron que el destino celular es flexible y reversible. Debido al trascendental descubrimiento de que se pueden generar células madre pluripotentes inducidas (iPSCs, por sus siglas en inglés), el estado pluripotente es como un centro que conecta diferentes rutas de linaje en la cima del modelo de Waddington. Entre otras aplicaciones, este descubrimiento ha permitido afrontar con éxito el tratamiento de procesos oncológicos.
Este fin de semana cerrábamos en Alicante el Máster Ejecutivo en Inteligencia Artificial, que ha supuesto 7 meses de “subir de nuevo la canica a la cima” constantemente, para conectar con nuevos territorios de conocimiento. Y es que ha sido una montaña rusa de “esguinces mentales” y aperturas de mente, con ponentes de primerísimo nivel a los que he de agradecer infinitamente el habernos ayudado a sumergirnos de lleno en el potencial de la Inteligencia Artificial para los negocios.
Cerraba el Máster Miguel Ángel Román con una pregunta: “¿Enfrentaremos un nuevo Invierno de la #IA o estamos más bien en una Primavera donde todo el potencial está por descubrir?”.
Yo estoy convencido de que estamos aún en el comienzo de una ruta en la que veremos nuestras capacidades como individuos y como organizaciones, aumentadas. La IA es pura potencialidad, es subir la canica a una montaña muy alta. De nosotros dependerá por qué valle la echamos a rodar.
Un modelo que frecuentemente uso en mis clases sobre #GestionDelCambio para describir cómo diseñar arquitecturas de incentivos en #SistemasComplejos es el de los “Atractores y Repelentes”. Ambos son pequeñas intervenciones que ayudan a que “la canica” discurra por el camino que como diseñadores de procesos de transformación, queremos que la organización transite.
La clave para responder a la pregunta sobre si estamos o no ante una Primavera de la IA es discernir si seremos capaces de diseñar “Atractores” que sean netamente positivos para las sociedades en las que vivimos y no “valles de la muerte”. Que seamos capaces, en ese “descenso por gradiente” que utilizan los algoritmos de optimización, de llegar a mínimos locales deseables desde una perspectiva completa para todos los individuos.
¿Qué tienen que ver la #autoconsciencia y la #empatía con la inteligencia artificial? 📣📣📣
Hablábamos esta semana en el Máster Ejecutivo de Inteligencia Artificial sobre la capacidad de #generalización de los modelos de #IA y del viaje que se está produciendo desde la:
⭐️ No Generalización: modelos que tratan dominios de tareas sin incertidumbre (ej. Buscar en una base de datos).
⭐️ Generalización Local: modelos que se adaptan a lo desconocido dentro de un dominio de tareas conocidas (ej. Reconocimiento biométrico).
⭐️ Generalización Amplia: modelos que se adaptan a situaciones desconocidas e imprevistas en un dominio amplio de tareas (ej. Conducción Autónoma).
⭐️ Generalización Extrema: modelos que se adaptan a situaciones desconocidas e imprevistas en un rango de dominios desconocidos (ej. Aprendizaje de los humanos).
Del mismo modo que un avión “vuela”, basándose en los mismos principios de sustentación que un pájaro, pero impulsándose mediante una turbina y no el batir de alas, las máquinas avanzan desarrollando capacidades que antes solo eran propias de la condición humana, pero operándolas a través de sus propios modelos.
Estos modelos, les permiten realizar el viaje desde operar en territorio conocido, hasta el aprendizaje autónomo en situaciones de incertidumbre extrema, mediante dos capacidades fundamentales:
‣ Abstracción: ser capaces de reutilizar el conocimiento previo frente a una situación nueva.
‣ Razonamiento: ser capaces de inferir una regla desde otra, mediante el uso de la lógica y del “sentido común”.
A medida que la IA avanza en ese viaje hacia la Inteligencia Artificial General, observamos con asombro cómo territorios que considerábamos exclusivamente humanos, empiezan a estar a tiro de piedra para las máquinas.
Quedan sin embargo todavía elementos característicos de la condición humana, como son la #Autoconsciencia y la #Empatía, que no parecen cercanos a poder alcanzarse por las máquinas y que suponen elementos fundamentales en el liderazgo en las organizaciones.
Mi natural pragmático me lleva a pensar, a medida que me voy adentrando en este mundo de la IA y trato de aventurar el impacto que tendrá en las organizaciones, que no tiene mucho sentido discutir sobre hasta dónde será capaz de llegar el desarrollo tecnológico, y resulta sin embargo más útil el aprovechar esas capacidades que ya ha demostrado que tiene en nuestro propio beneficio y centrar nuestra energía en explotar aquellas que todavía siguen siendo territorio exclusivo del Homo Sapiens y son tan necesarias para el progreso de las organizaciones humanas:
Autoconsciencia, ese don de mirarse a uno mismo con ojos críticos, de reconocer y comprender nuestros propios pensamientos, sentimientos, acciones y motivaciones. Porque solo quien se conoce a sí mismo puede conocer a los demás y liderarlos.
Empatía, esa habilidad para ponerse en el lugar del otro, de sentir su dolor y su alegría, de comprender sus motivos y sus sueños. Clave para crear vínculos humanos, para generar confianza y respeto, para inspirar y motivar a quienes nos rodean. Maravillosamente descrita en el reciente discurso de Meryl Streep al recibir el premio Princesa de Asturias.
Estas dos dimensiones nos hacen humanos, nos distinguen de las máquinas, nos dan sentido y propósito. Sin ellas, la inteligencia artificial no sería más que una herramienta fría e impersonal, incapaz de crear valor real para el mundo.
Como líderes de equipos, podemos seguir discutiendo cuándo las máquinas podrán alcanzar la autoconsciencia y la empatía, pero ¿por qué no dedicamos nuestra atención y esfuerzo a desarrollarlas al máximo en nosotros mismos?
Escuchar a Bernardo Crespo es siempre una auténtica delicia. Es de estas personas que hace replantearse creencias profundas, provocando lo que yo denomino “esguinces mentales” que amplían la perspectiva sobre el mundo en el que operamos y el que está por venir.
Anoche, en el marco de la presentación del Digital Transformation Executive Program del IE que él dirige, compartía unas interesantísimas reflexiones sobre el futuro del trabajo en un entorno de máxima complejidad e incertidumbre, y en el que el impacto de la #InteligenciaArtificial (tradicional y ahora además la generativa) va a ser innegable.
Resumo algunos de los argumentos más interesantes que se plantearon durante la ponencia y posterior debate:
“Los ordenadores son inútiles. Solo pueden dar respuestas”
Pablo Picasso
La velocidad de adopción de la tecnología en las últimas dos décadas es vertiginosa. No tenemos más que pensar en que por ejemplo el primer iPhone apenas llegó a nuestros bolsillos en 2007. En el mundo B2B, la velocidad de cambio ha sido también muy acelerada.
¿Y qué ha permitido que la curva de adopción de la tecnología se acelere? Claramente la mayor facilidad de uso y el aumento exponencial de las capacidades que la tecnología habilita, son dos de las razones que lo explican. Un ejemplo muy actual es la verdadera revolución de la IA generativa en apenas el último año.
¿Es esto flor de un día o representa un vector de transformación duradero?
La cosa va muy en serio.
En los últimos años están empezando a converger tres vectores tecnológicos que van a cambiar el mundo:
IA: proporciona los modelos.
Blockchain: proporciona la posibilidad de gestionar información de forma segura y trazable.
Quantum computing: proporciona una velocidad de computación masiva y posibilidad de realizar cálculos hasta ahora demasiado complejos.
Además, nuestra interacción con dispositivos genera cada vez más datos. El volumen estimado de datos generados a nivel mundial en 2022 es de 94 zettabytes, sufriendo un crecimiento exponencial derivado entre otras cosas de la mayor sensorización de dispositivos y de una realidad donde unos modelos realimentan a otros.
Vivimos en tiempo real disrupciones de modelos de negocio que creíamos consolidados (ej: el de los buscadores) y nos aventuramos a observar cambios profundos en sectores como la Educación y la Sanidad.
En este contexto ¿qué impacto cabe esperar en el futuro del trabajo?
Una de sus principales conclusiones es que al dotarles de herramientas de IA generativa como Chat GPT-4, los empleados más júnior son capaces de demostrar un desempeño muy parecido al de los empleados con mayor experiencia. Mientras que todos ellos se benefician de la utilización de la herramienta, son los que poseen una trayectoria profesional más incipiente los que lo hacen en mayor medida. Las implicaciones en cuanto al impacto en procesos de aprendizaje de las personas que se incorporan a un proyecto son evidentes.
Además, la buena noticia es que somos capaces de generar empresas más productivas a nivel agregado, moviendo la distribución del rendimiento a la derecha y reduciendo la dispersión. Es decir, los equipos pasan a ser homogéneamente más productivos.
Sin embargo, miedos atávicos que siempre han acompañado a las grandes transformaciones motivadas por un cambio del paradigma tecnológico, surgen también con ésta. Sobre el miedo a la erosión del trabajo, probablemente sea un error el plantearlo exclusivamente en términos de un problema de tasa de sustitución de los trabajadores, sino que el mayor reto es el de acelerar la tasa de adopción de la tecnología y el conseguir mediante la capacitación que los empleados sean funcionales en las nuevas circunstancias. O como dice esa frase que circula por la red: “La IA no te va a quitar tu trabajo, te lo va a quitar otra persona como tú que sepa usar la IA mejor que tú”.
Para ello, resulta fundamental que las organizaciones realicen de forma urgente diagnósticos en los que se evalúen las competencias que habilita la IA y los tengan en cuenta en sus ejercicios de “workforce planning” y de “up-skilling” y “re-skilling”.
De pronto, cambia además el concepto de desempeño en las compañías y toca redibujar no solo cómo generar valor sino cómo medirlo.
Es tiempo de repensar cómo armar la dupla perfecta de humano + máquina, donde pongamos a trabajar en paralelo a ambas entidades para que no sumen, sino que multipliquen. Y es que no nos podemos creer lo que la IA generativa proporciona a pies juntillas. Toca aprender a cuestionar esa “primera verdad” que proporciona la IA y validar sus respuestas con conocimiento experto.
Ese impacto positivo ¿lleva acarreados retos?
Por supuesto. Sin ir más lejos, grandes expertos en la materia, incluidos Elon Musk ó Steve Wozniak, han firmado un manifiesto en favor de realizar una parada técnica en el desarrollo de modelos de IA superiores a GPT-4.
Consideran que no se deben de hacer avances hasta entender que los riesgos son manejables y los impactos son positivos.
¿Cuáles son esos riesgos? Algunos de ellos serían:
IA utilizada con fines bélicos
IA desobedeciendo a los humanos
IA para desinformar, para generar “deep fakes”
IA suplantando a humanos
IA para substituir a humanos
IA para gobernar a humanos
IA tomando decisiones sin supervisión
IA en manos de unos pocos
Vienen además reflexiones potentes desde el punto de vista de la sostenibilidad y el impacto en el planeta de los diferentes modelos en términos de huella de carbono por cada operación de procesamiento.
En resumen, los riesgos ocultos (incluidos los medioambientales), los sesgos y los usos irresponsables de la IA generativa, deben de ser observados y gestionados, reforzando la necesidad de un modelo de gobierno de todo esto y un marco de uso ético por parte de las empresas.
¿Qué podemos esperar que ocurra en los próximos meses en un ámbito empresarial?
En 2024 podemos esperar algunas tendencias, sin ir más lejos:
Crecerá la regulación sobre la AI, estableciendo modelos de gobierno y buenas prácticas en el uso ético.
Las empresas estarán experimentando con modelos que refuercen las capacidades de sus empleados, analizando el valor que las herramientas de IA habilita y el impacto en sus cuentas de resultados.
Las organizaciones pondrán foco en la formación de sus empleados para ser capaces de aprovechar el potencial que la IA pone en sus manos.
Las empresas analizarán sus flujos de trabajo y sus modelos organizativos, probablemente dando lugar a nuevas funciones, nuevas áreas y nuevas formas de gestionar a sus equipos.
Las organizaciones deberán repensar el trabajo interno que no aporta valor hacia fuera (ej: presentaciones ó informes internos). Todo aquello que no repercute en creación de valor hacia el mercado, se tratará de eliminar y/o automatizar con la IA.
Las empresas deberán replantear el concepto de FTE y de «trabajo», determinando qué tareas dentro de un proceso las hará un humano y qué otras una máquina. Asimismo, tendrán que replantear sus modelos de atribución y evaluación del desempeño.
¿Será la llegada masiva de la IA a las empresas uno de los vectores definitivos de transformación digital?
Hasta ahora no hemos digitalizado las compañías, hemos digitalizado hasta cierto punto los datos y algunos procesos. Pero la oportunidad en términos de automatización, orquestación de flujos de trabajo completos y de reingeniería de procesos que la IA ofrece es enorme.
En cierto modo, tenemos todavía compañías que operan como en el siglo XIX, con empleados del siglo XX y tratando de resolver retos del siglo XXI. ¿Sabremos adaptar los modelos organizativos y de liderazgo a la nueva realidad?
¿Hasta dónde va a llegar la IA?
Pues siguiendo un modelo de desarrollo de las capacidades cognitivas desde sus estados más básicos a los más avanzados:
… hasta ahora la IA se ha quedado en «Conocimiento». La IA a fecha de hoy no es inteligente, es solo computación altamente resolutiva.
Sin embargo, y si hacemos caso al avance exponencial de los últimos años, no nos atrevemos a hacer predicciones sobre el progreso de la IA en esos estadios en las próximas décadas.
Gracias, Bernardo, por hacernos partícipes de tus reflexiones. Es un auténtico lujo realizar ese viaje de prospectiva de tu mano.
– Dato: Es la unidad mínima de información, que no tiene sentido por sí misma, sino que depende de un contexto y una interpretación. Por ejemplo, el número 42 es un dato, pero no nos dice nada si no sabemos a qué se refiere.
– Modelo: Es una representación simplificada de una realidad compleja, que usa datos y reglas para describir sus características y comportamiento. Por ejemplo, un modelo matemático puede usar datos sobre la velocidad y la posición de un objeto para predecir su trayectoria.
– Conocimiento: Es la capacidad de comprender y aplicar los modelos a situaciones reales o hipotéticas, usando la lógica y el razonamiento. Por ejemplo, el conocimiento de la física nos permite explicar y manipular los fenómenos naturales.
– Inteligencia: Es la capacidad de adaptar el conocimiento a diferentes contextos y objetivos, usando la creatividad y el aprendizaje. Por ejemplo, la inteligencia humana nos permite inventar nuevas soluciones a los problemas que enfrentamos.
– Consciencia: Es la capacidad de reconocerse a sí mismo como un agente autónomo, con una identidad y una voluntad propias, y de reflexionar sobre sus propios procesos cognitivos. Por ejemplo, la consciencia humana nos permite preguntarnos quiénes somos y qué queremos.
– Sabiduría: Es la capacidad de evaluar el conocimiento y la inteligencia desde una perspectiva ética y moral, y de actuar en consecuencia con el bien común. Por ejemplo, la sabiduría humana nos permite cuestionar los fines y los medios de nuestras acciones, y buscar el equilibrio entre el individuo y la sociedad.
Así, podemos ver que cada concepto implica un mayor grado de desarrollo cognitivo que el anterior, y que la IA, hasta ahora, se ha quedado en el nivel de conocimiento, sin alcanzar la inteligencia, la consciencia o la sabiduría.
Tolstoi decía en Ana Karenina que “todas las familias felices se parecen, pero las infelices cada una lo es a su manera”.
El mundo de la #ExperienciaDeCliente y de la #ExperienciaDeEmpleado es complejo, porque las necesidades y anhelos de cada individuo son muy diferentes. Sin embargo, diseñamos #journeys ideales conforme a un “#happypath”, tratando de simplificar el modelo. Pero como en cualquier problema humano, hay siempre una solución fácil, clara, plausible y normalmente equivocada. Para dar con la tecla, necesitamos granularidad en el diagnóstico, y ahí la #tecnología acude en nuestra ayuda.
Hace unos días, reflexionaba sobre estos temas con Gustavo Tissera y Sofia Medem, invitados por Asociación DEC y Kahuna, y afrontamos la conversación sobre todos estos asuntos, a través de 3 dimensiones:
👉 Diseño de experiencias de empleado y cliente 👉 Tecnología como factor habilitador y acelerador de escalado 👉 Cultura como pegamento
La charla se nos quedó corta, pero esperamos que sea el germen de unos DUETO Talks liderados por Gustavo.
Algunas ideas-fuerza que surgieron fueron:
🙏 Las empresas hemos tratado de pasar del #Taylorismo a la #Holocracia con herramientas del S.XIX , y ahora con la Tecnología disponemos de herramientas para poder escalar modelos organizativos y operar experiencias de empleado y de cliente personalizadas y rápidamente escalables.
▶️ Gracias a herramientas digitales, tenemos la oportunidad de medir. Sigamos el proceso: Medir ▶️ Comprender ▶️ Intervenir. No nos lancemos a la acción sin haber entendido la oportunidad de mejora.
🚀 Apostemos por el #OptimismoDigital, con la Tecnología como habilitador de nuevas experiencias de cliente y de empleado.
🙋 Necesitamos habilitar nuevos modelos de experiencia de cliente y de empleado, innovando y co-creando con el ecosistema.
⚡️ El cambio se ha acelerado, tanto en velocidad como en magnitud. Y eso hay que gestionarlo. Apoyarnos en la #GestionDelCambio no es una opción, es absolutamente necesario.
🔎👀 No te fíes del declarativo, apuesta por la observación y el etnográfico. Los clientes y empleados no hacemos lo que decimos.
👱🏼👩🏼 Al final, esto va de personas, de entender qué palancas les mueven. Cocreemos productos y servicios con el empleado que va a operarlos.
🎓 La cultura no se declara, se ejecuta. La cultura es compleja de definir, pero inmediata de identificar tal cual entras por la puerta de la oficina. En época de incertidumbre y vacas flacas, es donde se entiende qué cultura opera en una empresa.
💍 En la guerra por el talento, hemos pasado de mercados donde se “compraba talento” a una situación en la que lo relevante es “vender empresa”.
🙌🏼 Las importancia de entender las organizaciones como ecosistemas de aprendizaje. Capacitación (up-skilling, cross-skilling y re-skilling) como palanca fundamental, así como las Comunidades de Aprendizaje
When working in Innovation, a common question you frequently ask yourself is what trends will stay and which ones will slowly fade away. That way you can assess whether investing in something is worth or you should think on the next big thing.
This question also applies for example to you personal investing decision: should I buy a flat in that city so I can expect renting fees to raise as it becomes more popular? should I buy Bitcoins as more people will be willing to buy them next year?
A mental model that I like very much that I discovered when reading “Antifragile” from Nassim Thaleb is “The Lindy Effect”. According to that model, the way to better predict if some trend will stay is looking for how long it has been around. For example, if “Let it be” from The Beatles has been a great success for many generations, chances are high that it will continue to stay with us for many more years to come, while the latest hit from Dua Lipa could eventually be lost in our memory the very next year.
That doesn’t mean that new things are never successful. The truth is that progress replaces technologies from the past as new more effective and efficient solutions are put in place. Think for example about Hyperloop (the ultra-high-speed ground transportation system for passenger and cargo proposed as a concept by Elon Musk, CEO of Tesla and SpaceX). Chances are high that it will sooner than later become a winner way of transportation, but if you think about the fundamental concept behind it is that it is a train. Not a regular train but a very sophisticated one, but fundamentally it is a train. And trains have been around us since Richard Trevithick invented it in Cornwall in 1804.
I would love to read your thoughts on how you manage your “crystal ball” when traying to identify emerging trends. Do you believe in the “Lindy Effect”?