Decía el biólogo americano Edward Wilson que el gran reto de la humanidad es que “somos seres que arrastramos una gestión de las emociones propia del Paleolítico, con unas instituciones adecuadas para el Medievo, y que sin embargo disponemos de tecnología digna de dioses”.
Recordaba esta semana aquella frase, que utilizo a menudo en sesiones de formación sobre #GestiónDelCambio, en el ámbito de la celebración de la gala de los Premios CIONET que reúnen las iniciativas más destacadas de la comunidad tecnológica y #digital.
Y es que en esta edición hemos tenido la gran fortuna de ser finalistas en la categoría de “PEOPLE, MODEL ORGANIZATION & FUTURE OF WORK”, por nuestro proyecto de #adopción de Microsoft Copilot en toda la organización.
Me alegra especialmente el que el jurado reconociera la importancia de la #tecnología centrada en las personas, aportando valor desde el caso de uso y las necesidades en este caso del #empleado.
En un mundo en el que debemos centrarnos en las capacidades aumentadas y las #cointeligencias, ver el binomio Personas + Tecnología tan presente en los proyectos presentados en la edición de este año, resultaba alentador.
Motivo de orgullo especial ha sido el celebrar con el resto de colegas el éxito de los galardones a Ferrovial en cuatro categorías:
💎 Best company of the year 🌄 Best green IT project: Smart grid management platform 🚀 Best digital channel project: Infraverse 🏆 Best CTO of the year: Laura Garrido (magnífica profesional y mejor persona)
Muchas gracias a CIONET, a los partners (Microsoft y Accenture) que nos ayudáis en este viaje y a todos los que día a día abrazan la tecnología desde el propósito y el valor para el empleado 👩 👱.
Acaba una semana intensa de reflexiones sobre #interfaces y #tecnología, y el cambio que potencialmente habilitan. Ilusionado, aventuro que estamos en mitad de una nueva encrucijada en cuanto a cómo nos vamos a #comunicar en las próximas décadas.
Si ya Marshall McLuhan nos advertía hace casi 60 años de que “el medio de comunicación es más determinante en la transmisión de un mensaje que el contenido del mismo”, la tecnología vuelve en estos momentos a ponernos frente al espejo e induce un cambio de paradigma en cuanto a cómo transmitir las ideas.
👉 La conversación, como una danza…
Me preocupa la narrativa que observo frecuentemente en la que se describe la inteligencia artificial como un mecanismo deshumanizador que nos abocará como especie a un sometimiento a la máquina. De hecho, mi experiencia personal es precisamente la contraria. Cada vez disfruto de mejores conversaciones con ella, dejando que sea el modelo el que levante la información, mientras que yo le aporto el #objetivo y el #contexto, convirtiéndola en #conocimiento.
Para mí, una conversación es una relación recíproca de ideas, un intercambio tan delicado como una danza. En esas circunstancias, las nuevas herramientas de IA generativa me parecen prodigiosas en tanto en cuanto habilitan:
⭐️ Conversaciones con uno mismo y su “yo del pasado” ⭐️
Invocando documentos, reflexiones anteriores, bases de conocimiento alimentadas por uno mismo a lo largo de los años y que ya habían quedado en el olvido.
⭐️ Conversaciones con los demás ⭐️
A través de herramientas colaborativas que permiten sumar el algoritmo a la conversación, complementando con visiones diferentes y aportando nuevos sabores.
⭐️ Conversaciones con los datos ⭐️
A través de lenguaje natural, que los hace mucho más accesibles y comprensibles en un formato escrito que nos facilita bajar la abstracción a tierra.
El cambio de interfaz que se está produciendo resulta evidente. Ya no tenemos que aprender a trabajar con la máquina sino que ésta ha aprendido a trabajar con nosotros. Pronto, será habitual dialogar con el software, con la ventaja de que tendrá una ventana de contexto infinita que incluirá nuestras conversaciones anteriores y las bases de conocimiento que determinemos.
Algunas personas asisten al fenómeno entre incrédulas y asustadas. Yo lo observo con la curiosidad e ilusión de un niño, al que de repente le han expandido de forma infinita la dimensión de su arenero.
“Cuando creíamos que teníamos todas las respuestas, de pronto cambiaron todas las preguntas”
Mario Benedetti
Una de las preguntas recurrentes que me hacen cuando en los últimos meses explico el impacto de las herramientas de IA generativa a equipos de negocio es: “¿Pero y cómo sabemos que la respuesta del algoritmo es 100% correcta?”.
Parece una inocente pregunta, pero representa una piedra angular del reto de #adopción y gestión del cambio en el contexto de la inteligencia artificial. En efecto, esa pregunta encierra varias creencias, entre otras:
⭐️ Que vivimos en un mundo determinista, donde A+B=C y en el cual, siguiendo una receta, obtendré resultados siempre idénticos.
⭐️ Que nos importan más las respuestas que las preguntas.
⭐️ Que existe alguna forma certera de determinar si algo es correcto ó incorrecto.
⭐️ Que asumimos que la máquina debe de ser infalible, cuando todos aceptamos que el humano no lo es.
A las empresas no nos gusta la incertidumbre
Recuerdo mi primera experiencia laboral en 3M, donde había un Director obsesionado por entender por qué caían las ventas de un producto industrial. Dediqué meses a hacer correlaciones entre variables hasta generar una serie de hipótesis sobre cuáles podrían ser los motivos. Cuando se las presenté, él me preguntaba insistentemente: “Pero Alberto, ¿estás 100% seguro de que esas son las verdaderas razones?”. El problema es que podía dedicar muchos más meses a trazar nuevas conjeturas, pero jamás tendría una verdadera certeza, y lo más importante de todo, si hubiera sido capaz de llegar a un índice de incertidumbre menor, tampoco hubiéramos tomado medidas muy diferentes de las que yo proponía tomar en aquel momento.
Aquella fue mi primera “caída del caballo” sobre lo mal que nos solemos manejar en entornos de incertidumbre en entornos profesionales y la importancia de promover otros mecanismos en la toma de decisiones más parecidos a como aprenden los niños en entornos de gran variabilidad:
1. Probar
2. Observar
3. Medir
4. Ajustar
5. Volver a probar
6. … y así sucesivamente
Liminalidad e Innovación
Cuanto más esté pegada nuestra actividad empresarial a las Operaciones, al Project Finance, a la gestión de riesgo,… mayores índices de certidumbre necesitamos en nuestro día a día. En esos casos, la IA Generativa necesita operar en entornos con guardarraíles que permitan un control mayor de los corpus de conocimiento con los que trabajan y de la variabilidad de las respuestas.
Sin embargo, si nuestra actividad empresarial requiere de Innovación y explorar y crear el futuro, necesitamos operar con otros parámetros.
Como decía J.R.Tolkien: “no todos los que vagan están perdidos”. Hay multitud de trabajos que requieren de una mentalidad de exploración continua, de un “espíritu de boyscout” como dice Julia Galef en su muy recomendable libro homónimo. Y es que si un “boyscout” es especialmente efectivo resolviendo retos en entornos de incertidumbre, no es solo por sus conocimientos o por ser más listo, sino por observar el mundo con una mentalidad curiosa e identificar opcionalidad por todas partes.
El reto, es que debemos de ser capaces de “desprogramar”nuestras mentes, acostumbradas desde la educación básica a que las preguntas nos venían dadas por el maestro y nuestra labor era determinar y responder con la única respuesta correcta.
El reto, como siempre, está en las transiciones
Mi padre, de formación arquitecto, siempre me recuerda que las goteras en un edificio nunca ocurren en una superficie continua sino en las juntas. Del mismo modo, el óxido aparece en los puntos de soldadura y los materiales se resquebrajan por las uniones. Y es que la gestión empresarial es especialmente complicada en espacios liminales, aquellos a caballo entre un pasado que se desmorona y un futuro que está por construir y muy impredecible.
De mi época de ingeniero estudiando dinámica de fluidos siempre recuerdo la enorme dificultad al pasar de “régimen continuo” a “régimen turbulento”. O del temido “golpe de ariete” o sobrecarga de presión que sufre una tubería en su interior cuando una columna de líquido se mueve dentro de ella con cierta inercia y, de repente, ese flujo cesa de forma repentina.
La turbulencia, genera incertidumbre e impredecibilidad, y en esas estamos.
Y en esto que empezamos a trabajar con Inteligencias Artificiales
Aunque la IA lleva con nosotros ya décadas, en los últimos dos años la democratización de las herramientas de IA generativa ha introducido un nuevo factor en nuestra ecuación como gestores empresariales.
Si ya era complejo manejar equipos humanos, con el grado de incertidumbre que la gestión de personas incorpora, llegan las “máquinas” y tenemos que reconfigurar el tablero.
En primer lugar, debemos de definir qué rol les asignamos y cuál pasa a ser el nuestro. A partir de ahí, surgen infinidad de preguntas, entre otras:
⭐️ ¿Con qué reglas de negocio configuramos el algoritmo?
⭐️ ¿Cómo incorporamos el conocimiento de compañía que reside en las personas en esas reglas de negocio?
⭐️ ¿Quién tiene la responsabilidad sobre las decisiones que el algoritmo tome?
⭐️ ¿Cómo preparamos a las organizaciones para trabajar con IAs?
Bueno, pero es sencillo, porque la IA introduce predictibilidad y órden
Algún incauto podía pensar que el algoritmo nos aporta mayor certidumbre, al fin y al cabo ¿no era gestionar personas lo que introducía variabilidad a la labor del manager?
Sin embargo, el funcionamiento de la Inteligencia Artificial Generativa no es determinista sino probabilista. Ante una misma pregunta, y debido a su diseño aprovechando arquitecturas de redes neuronales, la respuesta nunca va a ser exactamente la misma.
De ahí las preocupaciones de los equipos cuando les hablo de cómo tienen que trabajar con el algoritmo. Cuando esperaban que por fin su labor cómo managers iba a ser más predecible porque ante un estímulo de entrada, la salida iba a ser siempre la misma, ven que no es así.
Congreso anual DEC
Afortunadamente, la transformación que aporta la IA generativa no es determinista
Un viejo proverbio chino dice algo así como “ojalá vivas tiempos interesantes”, ante lo que yo reformulo: “ojalá vivas tiempos probabilistas”.
Creo sinceramente que la oportunidad que ofrece la creación de un binomio humano + máquina nos mete de lleno en el mundo de la creación y en un nuevo florecimiento de la labor del manager.
Es cierto que supone una amenaza para todos aquellos trabajadores del conocimiento que, aunque se creían “white collar”, no dejaban de ser un “blue collar” pero de oficina. Y es que apretar tornillos u ordenar documentos no dejan de ser actividades conceptualmente muy próximas.
Sin embargo, es precisamente la impredecibilidad del algoritmo lo que hace que siga existiendo, como dice Javier G. Recuenco, el “último santuario humano”. De otra forma, si toda nuestra labor como gestores fuera determinista y replicable, seríamos absolutamente prescindibles.
En términos muy parecidos se desarrolló esta semana el debate en el congreso de los amigos de la Asociación DECpara el Desarrollo de la Experiencia de Cliente en donde tuve el placer de intervenir invitado por Nanes Martínez-Arroyo , Accenture y Avanade. ¿Cuál es el rol del humano y cuál el del algoritmo cuando diseñamos y ejecutamos procesos de operaciones de cliente en nuestras organizaciones?
Es la era de la Co-Inteligencia
Pero volvamos por un momento a mis sesiones con los equipos promoviendo el uso de la IA Generativa.
Creo que un reto fundamental es hacerles conscientes de que la IA no sustituye al humano. Que de lo que se trata es de establecer procesos de trabajo híbrido humano-máquina en los que cada uno aporta una serie de capacidades.
Todas las actividades relacionadas con el procesamiento de información podrán quedar relegadas al algoritmo, que lo hace de forma mucho más exhaustiva y eficaz. Y aquello relacionado con contextualizar el trabajo, darle sentido y definir una hoja de ruta, caerá del lado del humano.
En términos prácticos, yo recomiendo a los equipos a la hora de trabajar con IA:
⭐️ Definir el objetivo, el contexto, las fuentes de información y el formato de salida.
⭐️ No delegar en el algoritmo la responsabilidad sobre los resultados que nos proporciona.
⭐️ Entender que la IA generativa es un “copiloto”, y que nosotros los humanos debemos seguir al mando como “pilotos”.
⭐️ Comprender que el algoritmo no es “determinista” y que ante pequeños cambios de contexto o de la información de entrada, ofrece resultados ciertamente diferentes.
⭐️ Utilizar flujos de retroalimentación con el algoritmo, contribuyendo a su aprendizaje en aquellas herramientas donde esto es posible.
⭐️ Ofrecer a la IA información de entrada completa, exhaustiva y relevante.
En el fondo, la oportunidad que la IA nos brinda es extraordinaria. Si todo fuera cuestión de seguir un manual, sería aburridísimo. Sin embargo, tenemos la oportunidad de delegar en ella aquellas tareas de menor valor añadido y elevarnos y florecer en aquellas capas de conocimiento en las que la componente creativa y de darle sentido a las cosas es relevante.
Ethan Mollick, profesor de The Wharton School y co-director del laboratorio de IA generativa , nos cuenta en su reciente libro “Co-Inteligencia” cómo la democratización de la IA a partir de Noviembre de 2022 y la expansión de los modelos de propósito general, nos obliga a desarrollar la capacidad de sentirnos cómodos en un mundo de colaboración humano-máquina.
Comparto su optimismo y su apuesta por no perder la identidad humana. Dejemos a la máquina ayudarnos en resolver preguntas, y centrémonos en determinar qué preguntas son relevantes resolver.
No nos preocupemos tanto de si el resultado del algoritmo es o no 100% correcto, y apoyémonos en su resultando aportando criterio y sentido común. No vivimos en un mundo determinista sino probabilista, y habrá que estar cómodo con el riesgo y la incertidumbre.
Bienvenidos a la era de las capacidades aumentadas.
Decía Woody Allen que le importaba el futuro, porque era donde iba a vivir el resto de su vida.
A nada que aspires a ser algo más que un pequeño primate pensante, el futuro debe de interesarte. Pensar en el futuro nos permite diseñar, planificar, preparar, tomar decisiones y dar forma al porvenir, beneficiándonos a nosotros mismos y a los que nos rodean. Si además eres padre, saber la realidad que le dejarás a tus hijos aumenta el apetito por asomarse a la ventana del futuro.
Creo firmemente en aquella frase atribuida a Confucio que decía algo así como “si eres la persona más inteligente en una habitación, debías de cambiar de habitación”. Y lo que Isabel me proponía era trasladarme no ya a una nueva habitación, sino a un verdadero palacio de ideas.
Así que de aquella idea cocinada a raíz de un encuentro entre amigos en una casa de campo en tierras de la Alcarria, surge hoy el podcast “Futuroscopia”. Como todo en sus comienzos, es un espacio de reflexión que todavía gatea, y que habrá que mimar y cuidarlo para que crezca. Pero ¡y lo que nos estamos divirtiendo!
Para esta primera edición, nos pusimos de gala y decidimos invitar a Jesús Zamora Bonilla, catedrático de Lógica y Filosofía de la Ciencia en la UNED, y autor del libro “Progreso, ma non troppo”. Así que el maestro García-Quismondo nos preparó una “jam sesión” en la que fuimos poniendo a prueba las tesis de Jesús sobre el progreso y que pueden resumirse en que, si bien la evolución en áreas como la Ciencia, la Tecnología, la Economía y la Espiritualidad han sido notorias en las últimas décadas, se quedan cortas comparadas con su florecimiento en siglos anteriores, y parecen condenadas a quedarse estancadas en una suerte de curva logística.
Tratando de escapar de las etiquetas de “tecno-cenizos” ó “tecno-optimistas”, retamos con argumentos las tesis de Jesús y creo que surgió una charla entretenida en la que yo al menos no paré de aprender.
Sin intención de hacerte “spoiler” pero para abrirte el apetito y animarte a escuchar el podcast, planteo aquí algunas de las preguntas sobre las que transitamos:
🎭 ¿Por qué si la Tecnología prometía liberarnos de las tareas más penosas y permitirnos dedicarnos al florecimiento de lo humano, no parece que hayamos avanzado tanto respecto a los Griegos hace más de 3.000 años?
💊 ¿Y si la verdadera oportunidad de progreso no fuera el desarrollo vertical de tecnologías estancas sino conectarlas (ej: la computación y la biomedicina)?
🎓 ¿Por qué si dedicamos 10 veces más recursos, personas y presupuesto a la Ciencia que hace 50 años, los avances no parecen cualitativamente habernos mejorado la vida?
💻 ¿Cómo es que siendo los ordenadores de hoy en día billones de veces más poderosos que los de los inicios de la computación, no somos capaces aún de resolver las grandes preguntas de la Humanidad?
❔ ¿Y si en vez de dedicar tanto esfuerzo tecnológico a la obtención de respuestas lo hiciéramos para asegurar que resolvemos las preguntas adecuadas?
✒️ ¿Tiene más valor la ingente producción artística actual ó una pretendida mayor calidad pasada?
⚖️ ¿Ha permitido la Tecnología dotarnos de mayor transparencia y calidad democrática?
😕 ¿La “Ilusión de Pareto” nos condena a que a medida que aumentan las capacidades técnicas lo hagan también nuestras expectativas y eso nos provoque permanente frustración?
🔬 ¿Ha avanzado la Ciencia más allá de la “Introducción a la Ciencia” de Asimov en 1973?
🔆 ¿Es la disponibilidad de energía marginalmente ilimitada condición sine qua non para descubrir tecnologías hoy inalcanzables?
En fin, te invito a acompañarnos en este nuevo viaje explorando el futuro, y te animo a dejar en los comentarios algún asunto sobre el que quieras que reflexionemos en las próximas ediciones.
Isabel, César, Paco y Fernando, conoceros es un verdadero regalo.
El poema “The road not taken” de Robert Frost es sencillamente maravilloso.
Nos habla de la libertad de elección, de la incertidumbre y de la bondad de tomar el camino menos transitado. Tiene un marcado tono melancólico, porque reconoce que elegir es renunciar y que no es posible vivir todas las oportunidades que se presentan y que no se han tomado. El poema cuestiona la idea de que nuestras decisiones sean racionales, e incide en el hecho de que es imposible saber a ciencia cierta el resultado de nuestras acciones.
Two roads diverged in a yellow wood,
And sorry I could not travel both
And be one traveler, long I stood
And looked down one as far as I could
To where it bent in the undergrowth;
Then took the other, as just as fair,
And having perhaps the better claim,
Because it was grassy and wanted wear;
Though as for that the passing there
Had worn them really about the same,
And both that morning equally lay
In leaves no step had trodden black.
Oh, I kept the first for another day!
Yet knowing how way leads on to way,
I doubted if I should ever come back.
I shall be telling this with a sigh
Somewhere ages and ages hence:
Two roads diverged in a wood, and I—
I took the one less traveled by,
And that has made all the difference.
Pensaba el otro día en este poema al reflexionar sobre el valor que aporta la #IA en procesos creativos, en aquellas ocasiones donde precisamente se persigue caminar por territorios inciertos y caminos poco explorados.
He de reconocer que utilizo muy frecuentemente herramientas de IA para romper el “lienzo en blanco” y “calentar motores”. Es una forma muy efectiva de realizar “estiramientos” mentales y empezar a desperezar neuronas.
Sin embargo, creo que puedo contar con los dedos de una mano las veces que en el último año el uso de la #IA me ha sorprendido sugiriendo un camino radicalmente diferente al que ya transitaba. Si bien en los primeros meses se percibía cierta anarquía y locura en los resultados, los LLMs producen ahora en general resultados “muy aseaditos” pero poco inspiradores, y mi hipótesis es que lo hacen por dos motivos fundamentales:
Los grandes modelos de lenguaje no son sino mecanismos estadísticos que juegan con las piezas con las que han sido entrenados. Del mismo modo que un set de LEGO permite variaciones a partir únicamente de las piezas que lo componen, la IA en procesos creativos transita por caminos ya abonados, aplicando probabilidades sobre el conocimiento previamente generado. Y es que cuando se habla del peligro de los «sesgos» en la #IA, frecuentemente se centra el debate en los sesgos de género ó raza. Sin embargo, existen muchas otras derivadas de la limitación del corpus de conocimiento usado en el entrenamiento. En un divertido experimento, se trató de que una IA fuera capaz de desescalar un conflicto en una suerte de “Juegos de guerra”. Sin embargo, según el estudio, los LLM no se mostraron especialmente hábiles buscando consensos, porque la humanidad se ha dedicado a luchar, y no existe abundante literatura sobre cómo resolver rencillas.
La IA está optimizada para reducir la pérdida y no para maximizar la ganancia. De esta forma trata de reducir el riesgo y no “romper nada”. De hecho, es evidente que los principales modelos trabajan en el contexto de unos enormes “guardarraíles” que impiden abandonar una ruta que podría llevar a resultados que pudieran causar alarma social, incorrección política ó grandes dilemas morales.
De hecho, para introducir variabilidad y pensamiento lateral al proceso creativo, se necesita al humano. De otro modo, circularemos como esas interminables hileras de hormigas que discurren siguiendo el rastro de feromonas de las que les preceden.
Leía hace poco un estudio que indagaba en la paradoja de la exploración científica. Cuando un grupo numeroso de científicos comparte datos y metodología, aumenta su comprensión sobre el trabajo de sus colegas y su confianza sobre el mismo. Sin embargo, se generan “burbujas epistémicas” derivadas de un pensamiento grupal que penaliza sobremanera la exploración de territorios de conocimiento adyacentes. La IA trabaja de forma parecida, promoviendo una suerte de “endogamia creativa”.
Escuchaba hoy el podcast de Jaime Rodríguez de Santiago : «vivimos en la mediocridad» y no paraba de pensar que la tecnología y los algoritmos no han hecho sino promover “la media” y el encaje en una cierta distribución estadística, evitando las “colas”.
Sin embargo, para el desarrollo de procesos creativos, debemos apostar por ser “centauros” cabalgando a lomos de inteligencias artificiales y no autómatas sometidos a ellas. El día que nos demos cuenta de que esto no va de «sustituir por» IA sino de «acompañar con» IA, habremos avanzado muchísimo.
De momento, la capacidad de conectar ideas aparentemente no relacionadas, de crear categorías o conceptos no basados en nada anteriormente desarrollado, parece ser territorio intrínsecamente del hombre, ó como dice Javier G. Recuenco, “santuarios humanos”.
Disfrutemos del camino de la #IA, y abandonémonos al menos transitado.
En 1957, el biólogo Conrad Waddington describió que el desarrollo de los mamíferos es unidireccional, lo que significa que las células madre embrionarias se desarrollan en una dirección que discurre por definición hacia un estado más maduro y diferenciado.
Esta idea se ha representado habitualmente como una canica que rueda desde la cima de una montaña hasta el fondo de un valle. Así se muestra, visualmente, la restricción natural del potencial de diferenciación celular durante el desarrollo normal.
Sin embargo, una serie de experimentos pioneros mostraron que el destino celular es flexible y reversible. Debido al trascendental descubrimiento de que se pueden generar células madre pluripotentes inducidas (iPSCs, por sus siglas en inglés), el estado pluripotente es como un centro que conecta diferentes rutas de linaje en la cima del modelo de Waddington. Entre otras aplicaciones, este descubrimiento ha permitido afrontar con éxito el tratamiento de procesos oncológicos.
Este fin de semana cerrábamos en Alicante el Máster Ejecutivo en Inteligencia Artificial, que ha supuesto 7 meses de “subir de nuevo la canica a la cima” constantemente, para conectar con nuevos territorios de conocimiento. Y es que ha sido una montaña rusa de “esguinces mentales” y aperturas de mente, con ponentes de primerísimo nivel a los que he de agradecer infinitamente el habernos ayudado a sumergirnos de lleno en el potencial de la Inteligencia Artificial para los negocios.
Cerraba el Máster Miguel Ángel Román con una pregunta: “¿Enfrentaremos un nuevo Invierno de la #IA o estamos más bien en una Primavera donde todo el potencial está por descubrir?”.
Yo estoy convencido de que estamos aún en el comienzo de una ruta en la que veremos nuestras capacidades como individuos y como organizaciones, aumentadas. La IA es pura potencialidad, es subir la canica a una montaña muy alta. De nosotros dependerá por qué valle la echamos a rodar.
Un modelo que frecuentemente uso en mis clases sobre #GestionDelCambio para describir cómo diseñar arquitecturas de incentivos en #SistemasComplejos es el de los “Atractores y Repelentes”. Ambos son pequeñas intervenciones que ayudan a que “la canica” discurra por el camino que como diseñadores de procesos de transformación, queremos que la organización transite.
La clave para responder a la pregunta sobre si estamos o no ante una Primavera de la IA es discernir si seremos capaces de diseñar “Atractores” que sean netamente positivos para las sociedades en las que vivimos y no “valles de la muerte”. Que seamos capaces, en ese “descenso por gradiente” que utilizan los algoritmos de optimización, de llegar a mínimos locales deseables desde una perspectiva completa para todos los individuos.
¿Qué tienen que ver la #autoconsciencia y la #empatía con la inteligencia artificial? 📣📣📣
Hablábamos esta semana en el Máster Ejecutivo de Inteligencia Artificial sobre la capacidad de #generalización de los modelos de #IA y del viaje que se está produciendo desde la:
⭐️ No Generalización: modelos que tratan dominios de tareas sin incertidumbre (ej. Buscar en una base de datos).
⭐️ Generalización Local: modelos que se adaptan a lo desconocido dentro de un dominio de tareas conocidas (ej. Reconocimiento biométrico).
⭐️ Generalización Amplia: modelos que se adaptan a situaciones desconocidas e imprevistas en un dominio amplio de tareas (ej. Conducción Autónoma).
⭐️ Generalización Extrema: modelos que se adaptan a situaciones desconocidas e imprevistas en un rango de dominios desconocidos (ej. Aprendizaje de los humanos).
Del mismo modo que un avión “vuela”, basándose en los mismos principios de sustentación que un pájaro, pero impulsándose mediante una turbina y no el batir de alas, las máquinas avanzan desarrollando capacidades que antes solo eran propias de la condición humana, pero operándolas a través de sus propios modelos.
Estos modelos, les permiten realizar el viaje desde operar en territorio conocido, hasta el aprendizaje autónomo en situaciones de incertidumbre extrema, mediante dos capacidades fundamentales:
‣ Abstracción: ser capaces de reutilizar el conocimiento previo frente a una situación nueva.
‣ Razonamiento: ser capaces de inferir una regla desde otra, mediante el uso de la lógica y del “sentido común”.
A medida que la IA avanza en ese viaje hacia la Inteligencia Artificial General, observamos con asombro cómo territorios que considerábamos exclusivamente humanos, empiezan a estar a tiro de piedra para las máquinas.
Quedan sin embargo todavía elementos característicos de la condición humana, como son la #Autoconsciencia y la #Empatía, que no parecen cercanos a poder alcanzarse por las máquinas y que suponen elementos fundamentales en el liderazgo en las organizaciones.
Mi natural pragmático me lleva a pensar, a medida que me voy adentrando en este mundo de la IA y trato de aventurar el impacto que tendrá en las organizaciones, que no tiene mucho sentido discutir sobre hasta dónde será capaz de llegar el desarrollo tecnológico, y resulta sin embargo más útil el aprovechar esas capacidades que ya ha demostrado que tiene en nuestro propio beneficio y centrar nuestra energía en explotar aquellas que todavía siguen siendo territorio exclusivo del Homo Sapiens y son tan necesarias para el progreso de las organizaciones humanas:
Autoconsciencia, ese don de mirarse a uno mismo con ojos críticos, de reconocer y comprender nuestros propios pensamientos, sentimientos, acciones y motivaciones. Porque solo quien se conoce a sí mismo puede conocer a los demás y liderarlos.
Empatía, esa habilidad para ponerse en el lugar del otro, de sentir su dolor y su alegría, de comprender sus motivos y sus sueños. Clave para crear vínculos humanos, para generar confianza y respeto, para inspirar y motivar a quienes nos rodean. Maravillosamente descrita en el reciente discurso de Meryl Streep al recibir el premio Princesa de Asturias.
Estas dos dimensiones nos hacen humanos, nos distinguen de las máquinas, nos dan sentido y propósito. Sin ellas, la inteligencia artificial no sería más que una herramienta fría e impersonal, incapaz de crear valor real para el mundo.
Como líderes de equipos, podemos seguir discutiendo cuándo las máquinas podrán alcanzar la autoconsciencia y la empatía, pero ¿por qué no dedicamos nuestra atención y esfuerzo a desarrollarlas al máximo en nosotros mismos?
Escuchar a Bernardo Crespo es siempre una auténtica delicia. Es de estas personas que hace replantearse creencias profundas, provocando lo que yo denomino “esguinces mentales” que amplían la perspectiva sobre el mundo en el que operamos y el que está por venir.
Anoche, en el marco de la presentación del Digital Transformation Executive Program del IE que él dirige, compartía unas interesantísimas reflexiones sobre el futuro del trabajo en un entorno de máxima complejidad e incertidumbre, y en el que el impacto de la #InteligenciaArtificial (tradicional y ahora además la generativa) va a ser innegable.
Resumo algunos de los argumentos más interesantes que se plantearon durante la ponencia y posterior debate:
“Los ordenadores son inútiles. Solo pueden dar respuestas”
Pablo Picasso
La velocidad de adopción de la tecnología en las últimas dos décadas es vertiginosa. No tenemos más que pensar en que por ejemplo el primer iPhone apenas llegó a nuestros bolsillos en 2007. En el mundo B2B, la velocidad de cambio ha sido también muy acelerada.
¿Y qué ha permitido que la curva de adopción de la tecnología se acelere? Claramente la mayor facilidad de uso y el aumento exponencial de las capacidades que la tecnología habilita, son dos de las razones que lo explican. Un ejemplo muy actual es la verdadera revolución de la IA generativa en apenas el último año.
¿Es esto flor de un día o representa un vector de transformación duradero?
La cosa va muy en serio.
En los últimos años están empezando a converger tres vectores tecnológicos que van a cambiar el mundo:
IA: proporciona los modelos.
Blockchain: proporciona la posibilidad de gestionar información de forma segura y trazable.
Quantum computing: proporciona una velocidad de computación masiva y posibilidad de realizar cálculos hasta ahora demasiado complejos.
Además, nuestra interacción con dispositivos genera cada vez más datos. El volumen estimado de datos generados a nivel mundial en 2022 es de 94 zettabytes, sufriendo un crecimiento exponencial derivado entre otras cosas de la mayor sensorización de dispositivos y de una realidad donde unos modelos realimentan a otros.
Vivimos en tiempo real disrupciones de modelos de negocio que creíamos consolidados (ej: el de los buscadores) y nos aventuramos a observar cambios profundos en sectores como la Educación y la Sanidad.
En este contexto ¿qué impacto cabe esperar en el futuro del trabajo?
Una de sus principales conclusiones es que al dotarles de herramientas de IA generativa como Chat GPT-4, los empleados más júnior son capaces de demostrar un desempeño muy parecido al de los empleados con mayor experiencia. Mientras que todos ellos se benefician de la utilización de la herramienta, son los que poseen una trayectoria profesional más incipiente los que lo hacen en mayor medida. Las implicaciones en cuanto al impacto en procesos de aprendizaje de las personas que se incorporan a un proyecto son evidentes.
Además, la buena noticia es que somos capaces de generar empresas más productivas a nivel agregado, moviendo la distribución del rendimiento a la derecha y reduciendo la dispersión. Es decir, los equipos pasan a ser homogéneamente más productivos.
Sin embargo, miedos atávicos que siempre han acompañado a las grandes transformaciones motivadas por un cambio del paradigma tecnológico, surgen también con ésta. Sobre el miedo a la erosión del trabajo, probablemente sea un error el plantearlo exclusivamente en términos de un problema de tasa de sustitución de los trabajadores, sino que el mayor reto es el de acelerar la tasa de adopción de la tecnología y el conseguir mediante la capacitación que los empleados sean funcionales en las nuevas circunstancias. O como dice esa frase que circula por la red: “La IA no te va a quitar tu trabajo, te lo va a quitar otra persona como tú que sepa usar la IA mejor que tú”.
Para ello, resulta fundamental que las organizaciones realicen de forma urgente diagnósticos en los que se evalúen las competencias que habilita la IA y los tengan en cuenta en sus ejercicios de “workforce planning” y de “up-skilling” y “re-skilling”.
De pronto, cambia además el concepto de desempeño en las compañías y toca redibujar no solo cómo generar valor sino cómo medirlo.
Es tiempo de repensar cómo armar la dupla perfecta de humano + máquina, donde pongamos a trabajar en paralelo a ambas entidades para que no sumen, sino que multipliquen. Y es que no nos podemos creer lo que la IA generativa proporciona a pies juntillas. Toca aprender a cuestionar esa “primera verdad” que proporciona la IA y validar sus respuestas con conocimiento experto.
Ese impacto positivo ¿lleva acarreados retos?
Por supuesto. Sin ir más lejos, grandes expertos en la materia, incluidos Elon Musk ó Steve Wozniak, han firmado un manifiesto en favor de realizar una parada técnica en el desarrollo de modelos de IA superiores a GPT-4.
Consideran que no se deben de hacer avances hasta entender que los riesgos son manejables y los impactos son positivos.
¿Cuáles son esos riesgos? Algunos de ellos serían:
IA utilizada con fines bélicos
IA desobedeciendo a los humanos
IA para desinformar, para generar “deep fakes”
IA suplantando a humanos
IA para substituir a humanos
IA para gobernar a humanos
IA tomando decisiones sin supervisión
IA en manos de unos pocos
Vienen además reflexiones potentes desde el punto de vista de la sostenibilidad y el impacto en el planeta de los diferentes modelos en términos de huella de carbono por cada operación de procesamiento.
En resumen, los riesgos ocultos (incluidos los medioambientales), los sesgos y los usos irresponsables de la IA generativa, deben de ser observados y gestionados, reforzando la necesidad de un modelo de gobierno de todo esto y un marco de uso ético por parte de las empresas.
¿Qué podemos esperar que ocurra en los próximos meses en un ámbito empresarial?
En 2024 podemos esperar algunas tendencias, sin ir más lejos:
Crecerá la regulación sobre la AI, estableciendo modelos de gobierno y buenas prácticas en el uso ético.
Las empresas estarán experimentando con modelos que refuercen las capacidades de sus empleados, analizando el valor que las herramientas de IA habilita y el impacto en sus cuentas de resultados.
Las organizaciones pondrán foco en la formación de sus empleados para ser capaces de aprovechar el potencial que la IA pone en sus manos.
Las empresas analizarán sus flujos de trabajo y sus modelos organizativos, probablemente dando lugar a nuevas funciones, nuevas áreas y nuevas formas de gestionar a sus equipos.
Las organizaciones deberán repensar el trabajo interno que no aporta valor hacia fuera (ej: presentaciones ó informes internos). Todo aquello que no repercute en creación de valor hacia el mercado, se tratará de eliminar y/o automatizar con la IA.
Las empresas deberán replantear el concepto de FTE y de «trabajo», determinando qué tareas dentro de un proceso las hará un humano y qué otras una máquina. Asimismo, tendrán que replantear sus modelos de atribución y evaluación del desempeño.
¿Será la llegada masiva de la IA a las empresas uno de los vectores definitivos de transformación digital?
Hasta ahora no hemos digitalizado las compañías, hemos digitalizado hasta cierto punto los datos y algunos procesos. Pero la oportunidad en términos de automatización, orquestación de flujos de trabajo completos y de reingeniería de procesos que la IA ofrece es enorme.
En cierto modo, tenemos todavía compañías que operan como en el siglo XIX, con empleados del siglo XX y tratando de resolver retos del siglo XXI. ¿Sabremos adaptar los modelos organizativos y de liderazgo a la nueva realidad?
¿Hasta dónde va a llegar la IA?
Pues siguiendo un modelo de desarrollo de las capacidades cognitivas desde sus estados más básicos a los más avanzados:
… hasta ahora la IA se ha quedado en «Conocimiento». La IA a fecha de hoy no es inteligente, es solo computación altamente resolutiva.
Sin embargo, y si hacemos caso al avance exponencial de los últimos años, no nos atrevemos a hacer predicciones sobre el progreso de la IA en esos estadios en las próximas décadas.
Gracias, Bernardo, por hacernos partícipes de tus reflexiones. Es un auténtico lujo realizar ese viaje de prospectiva de tu mano.
– Dato: Es la unidad mínima de información, que no tiene sentido por sí misma, sino que depende de un contexto y una interpretación. Por ejemplo, el número 42 es un dato, pero no nos dice nada si no sabemos a qué se refiere.
– Modelo: Es una representación simplificada de una realidad compleja, que usa datos y reglas para describir sus características y comportamiento. Por ejemplo, un modelo matemático puede usar datos sobre la velocidad y la posición de un objeto para predecir su trayectoria.
– Conocimiento: Es la capacidad de comprender y aplicar los modelos a situaciones reales o hipotéticas, usando la lógica y el razonamiento. Por ejemplo, el conocimiento de la física nos permite explicar y manipular los fenómenos naturales.
– Inteligencia: Es la capacidad de adaptar el conocimiento a diferentes contextos y objetivos, usando la creatividad y el aprendizaje. Por ejemplo, la inteligencia humana nos permite inventar nuevas soluciones a los problemas que enfrentamos.
– Consciencia: Es la capacidad de reconocerse a sí mismo como un agente autónomo, con una identidad y una voluntad propias, y de reflexionar sobre sus propios procesos cognitivos. Por ejemplo, la consciencia humana nos permite preguntarnos quiénes somos y qué queremos.
– Sabiduría: Es la capacidad de evaluar el conocimiento y la inteligencia desde una perspectiva ética y moral, y de actuar en consecuencia con el bien común. Por ejemplo, la sabiduría humana nos permite cuestionar los fines y los medios de nuestras acciones, y buscar el equilibrio entre el individuo y la sociedad.
Así, podemos ver que cada concepto implica un mayor grado de desarrollo cognitivo que el anterior, y que la IA, hasta ahora, se ha quedado en el nivel de conocimiento, sin alcanzar la inteligencia, la consciencia o la sabiduría.
¿Que ocurre cuando juntas a cuatro amigos enamorados por el B2B? Pues que surgen conversaciones muy interesantes. Si encima el reto es compartir experiencias relacionadas con la #internacionalizacion , surge la magia.
Recojo algunas de las ideas de esa sesión, donde aprendí muchísimo con vosotros:
LA INTERNACIONALIZACIÓN Y EL B2B:
El B2B es “sexy” con casos de uso atómicos, aunque tenga peor prensa o sea más desconocido que el B2C.
Todo es global, la internacionalización no es una opción sino un hecho: clientes, proveedores, mercado de talento, procesos, herramientas, tecnología,… todo funciona a escala internacional.
El CLIENTE EN EL CENTRO:
La importancia de poner al cliente en el centro desde la propia conceptualización del producto con R&D. Que la fábrica vaya a visitar a los clientes con Ventas y observe el producto siendo utilizado en la realidad.
La sensibilidad local de Marketing y Ventas es fundamental, son actividades que no se pueden hacer desde un centro de excelencia a kilómetros de distancia del cliente.
Tener en cuenta a las fuerzas comerciales locales desde el diseño del producto en fases tempranas, porque son las que conocen al cliente.
En B2B típicamente conocemos la identidad de nuestro comprador más allá de un “buyer persona” genérico, y eso es una ventaja a la hora de formular la propuesta de valor.
INTERNACIONALIZACIÓN:
Las startups como ejemplo de empresas nativas globales: su mercado es el mundo, porque buscan no geografías sino oportunidades para sus casos de uso y masa crítica, y tienen la opción de desembarcar sin un complejo despliegue de recursos y entrar y salir de ciertos países con cierta agilidad.
La mentalidad española en entornos complejos de gran incertidumbre funciona muy bien.
LA COMPONENTE LOCAL:
El caso de uso en B2B es típicamente bastante más local que en el mundo B2C, porque los procesos industriales y empresariales tienen una componente local muy importante.
El proceso de compra varía según geografías: en algunos países es muy lineal (un embudo de conversión), en otros más iterativo (una rueda).
La ventaja en Europa de entender la diversidad. Llevamos décadas teniendo en cuenta cómo es trabajar en mercados con marcos regulatorios diferentes, idiomas distintos, usos y costumbres diversos.
TENDENCIAS:
Los procesos de compras en B2B se ven afectados por los hábitos de compra en B2C, porque nos hemos acostumbrado como usuarios al “best-in-class” del mundo Retail y buscamos esos niveles de servicio en B2B.
La Venta se sustenta sobre muchos otros procesos en el back: compras de materias primas, manufacturing, supply chain,… y las roturas de las cadenas de suministros en el pasado reciente así lo demuestran. Cada vez el proceso de venta es más tecnológico y depende de muchos actores para poder ejecutarse.
Oportunidad de transformación digital en operaciones, la gestión de la información y el apoyo de los procesos operativos a través de herramientas de inteligencia artificial.
La importancia de la medición, que el producto o servicio en operación genere datos y tengamos claro el modelo de explotación de ese dato.
Orquestar código con soluciones low-code y no-code.
Innovación abierta y colaboración con start-ups.
GESTIÓN:
Skin in the game.
Las grandes gestas empresariales han ocurrido en épocas complicadas económicamente.
La empresa ambidiestra: exploración y explotación.
Incentivos generan comportamientos.
Matriz Real-Win-Worth: “Is it Real, can we Win, is it Worth?”.
When working in Innovation, a common question you frequently ask yourself is what trends will stay and which ones will slowly fade away. That way you can assess whether investing in something is worth or you should think on the next big thing.
This question also applies for example to you personal investing decision: should I buy a flat in that city so I can expect renting fees to raise as it becomes more popular? should I buy Bitcoins as more people will be willing to buy them next year?
A mental model that I like very much that I discovered when reading “Antifragile” from Nassim Thaleb is “The Lindy Effect”. According to that model, the way to better predict if some trend will stay is looking for how long it has been around. For example, if “Let it be” from The Beatles has been a great success for many generations, chances are high that it will continue to stay with us for many more years to come, while the latest hit from Dua Lipa could eventually be lost in our memory the very next year.
That doesn’t mean that new things are never successful. The truth is that progress replaces technologies from the past as new more effective and efficient solutions are put in place. Think for example about Hyperloop (the ultra-high-speed ground transportation system for passenger and cargo proposed as a concept by Elon Musk, CEO of Tesla and SpaceX). Chances are high that it will sooner than later become a winner way of transportation, but if you think about the fundamental concept behind it is that it is a train. Not a regular train but a very sophisticated one, but fundamentally it is a train. And trains have been around us since Richard Trevithick invented it in Cornwall in 1804.
I would love to read your thoughts on how you manage your “crystal ball” when traying to identify emerging trends. Do you believe in the “Lindy Effect”?