Juegos de Guerra

Recuerdo con fascinación la película «Juegos de Guerra» del año 1983, que exploraba los peligros de la tecnología y la inteligencia artificial en tiempos de conflicto bélico. La historia nos presenta a un joven hacker que, sin saberlo, se infiltra en un sistema militar ultrasecreto y desencadena una serie de eventos que podrían llevar a una catástrofe nuclear.

Me venía a la memoria esta película al leer el reciente artículo de HBR “AI can (mostly) outperform human CEOs”. Y es que a los seres humanos nos fascinan estas narrativas de “escalada militar”. Si además es en el contexto de la aparición de tecnologías que no comprendemos del todo bien, el argumento para el “click-bait” está servido.

El artículo expone la pregunta de si la inteligencia artificial generativa ha demostrado tener el potencial de superar significativamente a los CEOs en la toma de decisiones estratégicas, especialmente en tareas basadas en datos. Así, en un experimento de simulación de una industria automotriz, los modelos de IA superaron a los participantes humanos en decisiones relativas a ganar cuota de mercado y rentabilidad, pero tuvieron grandes dificultades para manejar eventos inesperados, al carecer de una genuina intuición sobre las dinámicas empresariales y una visión adaptativa a largo plazo. El algoritmo proponía acciones muy agresivas para optimizar el corto plazo, pero carentes de flexibilidad y capacidad de pivote.

¿Por qué creo que hay que cambiar el enfoque?

Observo con excesiva frecuencia este “juego de suma cero” en el que estamos constantemente tratando de definir dónde trazar la línea entre el humano y la máquina. Puede ser entretenido desde un punto de vista narrativo, pero sospecho que no nos hace avanzar en un mundo en el que tendrán que coexistir ambas inteligencias.

Considero mucho más interesantes las aproximaciones desde el análisis de las “capacidades aumentadas” que la IA aporta al humano, lo que ya se empieza a denominar como “cointeligencias”.

La gestión del cambio que viene

Esta semana, asistía a la amable invitación de ESIC Business & Marketing School y Area101 para debatir en un panel sobre agilidad empresarial en el ámbito de la innovación corporativa. Una de las ideas que yo transmitía es que necesitamos reenfocar el debate.

Creo que en la tan cacareada era de la “Transformación Digital” nos centramos mucho en “digital” y poco en “transformación”. Digitalizamos tareas, procesos y documentos, pero ¿realmente fuimos capaces de transformar organizaciones?

Esta vez tenemos la oportunidad de hacerlo bien, desde una mirada que reflexione primero sobre qué retos resolver antes de discutir cómo la tecnología puede ayudar a resolverlos. Haciéndonos antes las preguntas “¿por qué?” y “¿para qué?” antes que “¿cómo?”.

Capgemini Research Institute 2024 – Gen AI at work: Shaping the future of organizations

Subiremos IAs a los Comités de Dirección

Las empresas tratamos de pasar rápidamente del Taylorismo a la Holocracia, operando con estructuras más propias del siglo IXX que del siglo XXI. Ahora tenemos la oportunidad de operar a escala, gracias a la tecnología, grandes transformaciones. Pero siempre desde una mirada humanista y entendiendo que entramos en una nueva era del florecimiento donde cada uno de nosotros debe de elevarse en su función.

El hecho de que vamos a tener muy pronto como compañeros en los Comités de Dirección a las IAs está claro. Y no debería de ser entendido como una amenaza ya que, si todas las funciones de un Comité pudieran ser reemplazadas por una IA, no nos hablaría muy bien de la gestión de esa empresa.

Definir una estrategia y dirección, trabajar sobre un propósito, tomar decisiones, desarrollar equipos, construir una cultura de trabajo,… son responsabilidades que desde el origen de los tiempos siempre han desarrollado los líderes de las organizaciones. Y no imagino un futuro en el que eso no deba de seguir ocurriendo de esa manera. Eso sí, lo haremos en un contexto nuevo, en el que tendremos la inmensa suerte de hacerlo acompañados y complementados no ya por copilotos sino por “co-thinkers”.

Bienvenidos a la era de las #cointeligencias.

(Si quieres ver la charla en ESIC con Cristian Ull Molina , Guille Lorbada Rodríguez, PhD y Víctor Ramos, está disponible en este enlace)

#GestionDelCambio , #EmpresaAumentada , #Florecimiento , #IA

100% correcto, o por qué la IA no es infalible, afortunadamente

“Cuando creíamos que teníamos todas las respuestas, de pronto cambiaron todas las preguntas”

Mario Benedetti

Una de las preguntas recurrentes que me hacen cuando en los últimos meses explico el impacto de las herramientas de IA generativa a equipos de negocio es: “¿Pero y cómo sabemos que la respuesta del algoritmo es 100% correcta?”.

Parece una inocente pregunta, pero representa una piedra angular del reto de #adopción y gestión del cambio en el contexto de la inteligencia artificial. En efecto, esa pregunta encierra varias creencias, entre otras:

⭐️ Que vivimos en un mundo determinista, donde A+B=C y en el cual, siguiendo una receta, obtendré resultados siempre idénticos.

⭐️ Que nos importan más las respuestas que las preguntas.

⭐️ Que existe alguna forma certera de determinar si algo es correcto ó incorrecto.

⭐️ Que asumimos que la máquina debe de ser infalible, cuando todos aceptamos que el humano no lo es.

A las empresas no nos gusta la incertidumbre

Recuerdo mi primera experiencia laboral en 3M, donde había un Director obsesionado por entender por qué caían las ventas de un producto industrial. Dediqué meses a hacer correlaciones entre variables hasta generar una serie de hipótesis sobre cuáles podrían ser los motivos. Cuando se las presenté, él me preguntaba insistentemente: “Pero Alberto, ¿estás 100% seguro de que esas son las verdaderas razones?”. El problema es que podía dedicar muchos más meses a trazar nuevas conjeturas, pero jamás tendría una verdadera certeza, y lo más importante de todo, si hubiera sido capaz de llegar a un índice de incertidumbre menor, tampoco hubiéramos tomado medidas muy diferentes de las que yo proponía tomar en aquel momento.

Aquella fue mi primera “caída del caballo” sobre lo mal que nos solemos manejar en entornos de incertidumbre en entornos profesionales y la importancia de promover otros mecanismos en la toma de decisiones más parecidos a como aprenden los niños en entornos de gran variabilidad:

1.      Probar

2.      Observar

3.      Medir

4.      Ajustar

5.      Volver a probar

6.      … y así sucesivamente

Liminalidad e Innovación

Cuanto más esté pegada nuestra actividad empresarial a las Operaciones, al Project Finance, a la gestión de riesgo,… mayores índices de certidumbre necesitamos en nuestro día a día. En esos casos, la IA Generativa necesita operar en entornos con guardarraíles que permitan un control mayor de los corpus de conocimiento con los que trabajan y de la variabilidad de las respuestas.

Sin embargo, si nuestra actividad empresarial requiere de Innovación y explorar y crear el futuro, necesitamos operar con otros parámetros.

Como decía J.R.Tolkien: “no todos los que vagan están perdidos”. Hay multitud de trabajos que requieren de una mentalidad de exploración continua, de un “espíritu de boyscout” como dice Julia Galef en su muy recomendable libro homónimo. Y es que si un “boyscout” es especialmente efectivo resolviendo retos en entornos de incertidumbre, no es solo por sus conocimientos o por ser más listo, sino por observar el mundo con una mentalidad curiosa e identificar opcionalidad por todas partes.

El reto, es que debemos de ser capaces de “desprogramar” nuestras mentes, acostumbradas desde la educación básica a que las preguntas nos venían dadas por el maestro y nuestra labor era determinar y responder con la única respuesta correcta.

El reto, como siempre, está en las transiciones

Mi padre, de formación arquitecto, siempre me recuerda que las goteras en un edificio nunca ocurren en una superficie continua sino en las juntas. Del mismo modo, el óxido aparece en los puntos de soldadura y los materiales se resquebrajan por las uniones. Y es que la gestión empresarial es especialmente complicada en espacios liminales, aquellos a caballo entre un pasado que se desmorona y un futuro que está por construir y muy impredecible.

De mi época de ingeniero estudiando dinámica de fluidos siempre recuerdo la enorme dificultad al pasar de “régimen continuo” a “régimen turbulento”. O del temido “golpe de ariete” o sobrecarga de presión que sufre una tubería en su interior cuando una columna de líquido se mueve dentro de ella con cierta inercia y, de repente, ese flujo cesa de forma repentina.

La turbulencia, genera incertidumbre e impredecibilidad, y en esas estamos.

Y en esto que empezamos a trabajar con Inteligencias Artificiales

Aunque la IA lleva con nosotros ya décadas, en los últimos dos años la democratización de las herramientas de IA generativa ha introducido un nuevo factor en nuestra ecuación como gestores empresariales.

Si ya era complejo manejar equipos humanos, con el grado de incertidumbre que la gestión de personas incorpora, llegan las “máquinas” y tenemos que reconfigurar el tablero.

En primer lugar, debemos de definir qué rol les asignamos y cuál pasa a ser el nuestro. A partir de ahí, surgen infinidad de preguntas, entre otras:

⭐️ ¿Con qué reglas de negocio configuramos el algoritmo?

⭐️ ¿Cómo incorporamos el conocimiento de compañía que reside en las personas en esas reglas de negocio?

⭐️ ¿Quién tiene la responsabilidad sobre las decisiones que el algoritmo tome?

⭐️ ¿Cómo preparamos a las organizaciones para trabajar con IAs?

Bueno, pero es sencillo, porque la IA introduce predictibilidad y órden

Algún incauto podía pensar que el algoritmo nos aporta mayor certidumbre, al fin y al cabo ¿no era gestionar personas lo que introducía variabilidad a la labor del manager?

Sin embargo, el funcionamiento de la Inteligencia Artificial Generativa no es determinista sino probabilista. Ante una misma pregunta, y debido a su diseño aprovechando arquitecturas de redes neuronales, la respuesta nunca va a ser exactamente la misma.

De ahí las preocupaciones de los equipos cuando les hablo de cómo tienen que trabajar con el algoritmo. Cuando esperaban que por fin su labor cómo managers iba a ser más predecible porque ante un estímulo de entrada, la salida iba a ser siempre la misma, ven que no es así.

Congreso anual DEC

Afortunadamente, la transformación que aporta la IA generativa no es determinista

Un viejo proverbio chino dice algo así como “ojalá vivas tiempos interesantes”, ante lo que yo reformulo: “ojalá vivas tiempos probabilistas”.

Creo sinceramente que la oportunidad que ofrece la creación de un binomio humano + máquina nos mete de lleno en el mundo de la creación y en un nuevo florecimiento de la labor del manager.

Es cierto que supone una amenaza para todos aquellos trabajadores del conocimiento que, aunque se creían “white collar”, no dejaban de ser un “blue collar” pero de oficina. Y es que apretar tornillos u ordenar documentos no dejan de ser actividades conceptualmente muy próximas.

Sin embargo, es precisamente la impredecibilidad del algoritmo lo que hace que siga existiendo, como dice Javier G. Recuenco, el “último santuario humano”. De otra forma, si toda nuestra labor como gestores fuera determinista y replicable, seríamos absolutamente prescindibles.

En términos muy parecidos se desarrolló esta semana el debate en el congreso de los amigos de la Asociación DEC para el Desarrollo de la Experiencia de Cliente en donde tuve el placer de intervenir invitado por Nanes Martínez-Arroyo , Accenture y Avanade. ¿Cuál es el rol del humano y cuál el del algoritmo cuando diseñamos y ejecutamos procesos de operaciones de cliente en nuestras organizaciones?

Es la era de la Co-Inteligencia

Pero volvamos por un momento a mis sesiones con los equipos promoviendo el uso de la IA Generativa.

Creo que un reto fundamental es hacerles conscientes de que la IA no sustituye al humano. Que de lo que se trata es de establecer procesos de trabajo híbrido humano-máquina en los que cada uno aporta una serie de capacidades.

Todas las actividades relacionadas con el procesamiento de información podrán quedar relegadas al algoritmo, que lo hace de forma mucho más exhaustiva y eficaz. Y aquello relacionado con contextualizar el trabajo, darle sentido y definir una hoja de ruta, caerá del lado del humano.

En términos prácticos, yo recomiendo a los equipos a la hora de trabajar con IA:

⭐️ Definir el objetivo, el contexto, las fuentes de información y el formato de salida.

⭐️ No delegar en el algoritmo la responsabilidad sobre los resultados que nos proporciona.

⭐️ Entender que la IA generativa es un “copiloto”, y que nosotros los humanos debemos seguir al mando como “pilotos”.

⭐️ Comprender que el algoritmo no es “determinista” y que ante pequeños cambios de contexto o de la información de entrada, ofrece resultados ciertamente diferentes.

⭐️ Utilizar flujos de retroalimentación con el algoritmo, contribuyendo a su aprendizaje en aquellas herramientas donde esto es posible.

⭐️ Ofrecer a la IA información de entrada completa, exhaustiva y relevante.

En el fondo, la oportunidad que la IA nos brinda es extraordinaria. Si todo fuera cuestión de seguir un manual, sería aburridísimo. Sin embargo, tenemos la oportunidad de delegar en ella aquellas tareas de menor valor añadido y elevarnos y florecer en aquellas capas de conocimiento en las que la componente creativa y de darle sentido a las cosas es relevante.

Ethan Mollick, profesor de The Wharton School y co-director del laboratorio de IA generativa , nos cuenta en su reciente libro “Co-Inteligencia” cómo la democratización de la IA a partir de Noviembre de 2022 y la expansión de los modelos de propósito general, nos obliga a desarrollar la capacidad de sentirnos cómodos en un mundo de colaboración humano-máquina.

Comparto su optimismo y su apuesta por no perder la identidad humana. Dejemos a la máquina ayudarnos en resolver preguntas, y centrémonos en determinar qué preguntas son relevantes resolver.

No nos preocupemos tanto de si el resultado del algoritmo es o no 100% correcto, y apoyémonos en su resultando aportando criterio y sentido común. No vivimos en un mundo determinista sino probabilista, y habrá que estar cómodo con el riesgo y la incertidumbre.

Bienvenidos a la era de las capacidades aumentadas.

El camino hacia la «Inteligencia Artificial General» 👉 Todavía nos queda la Autoconsciencia y la Empatía

¿Qué tienen que ver la #autoconsciencia y la #empatía con la inteligencia artificial? 📣📣📣

 Hablábamos esta semana en el Máster Ejecutivo de Inteligencia Artificial sobre la capacidad de #generalización de los modelos de #IA y del viaje que se está produciendo desde la:

⭐️       No Generalización: modelos que tratan dominios de tareas sin incertidumbre (ej. Buscar en una base de datos).

⭐️       Generalización Local: modelos que se adaptan a lo desconocido dentro de un dominio de tareas conocidas (ej. Reconocimiento biométrico).

⭐️       Generalización Amplia: modelos que se adaptan a situaciones desconocidas e imprevistas en un dominio amplio de tareas (ej. Conducción Autónoma).

⭐️       Generalización Extrema: modelos que se adaptan a situaciones desconocidas e imprevistas en un rango de dominios desconocidos (ej. Aprendizaje de los humanos).

Del mismo modo que un avión “vuela”, basándose en los mismos principios de sustentación que un pájaro, pero impulsándose mediante una turbina y no el batir de alas, las máquinas avanzan desarrollando capacidades que antes solo eran propias de la condición humana, pero operándolas a través de sus propios modelos.

Estos modelos, les permiten realizar el viaje desde operar en territorio conocido, hasta el aprendizaje autónomo en situaciones de incertidumbre extrema, mediante dos capacidades fundamentales:

‣ Abstracción: ser capaces de reutilizar el conocimiento previo frente a una situación nueva.

‣ Razonamiento: ser capaces de inferir una regla desde otra, mediante el uso de la lógica y del “sentido común”.

 A medida que la IA avanza en ese viaje hacia la Inteligencia Artificial General, observamos con asombro cómo territorios que considerábamos exclusivamente humanos, empiezan a estar a tiro de piedra para las máquinas.

Quedan sin embargo todavía elementos característicos de la condición humana, como son la #Autoconsciencia y la #Empatía, que no parecen cercanos a poder alcanzarse por las máquinas y que suponen elementos fundamentales en el liderazgo en las organizaciones.

Mi natural pragmático me lleva a pensar, a medida que me voy adentrando en este mundo de la IA y trato de aventurar el impacto que tendrá en las organizaciones, que no tiene mucho sentido discutir sobre hasta dónde será capaz de llegar el desarrollo tecnológico, y resulta sin embargo más útil el aprovechar esas capacidades que ya ha demostrado que tiene en nuestro propio beneficio y centrar nuestra energía en explotar aquellas que todavía siguen siendo territorio exclusivo del Homo Sapiens y son tan necesarias para el progreso de las organizaciones humanas:

Autoconsciencia, ese don de mirarse a uno mismo con ojos críticos, de reconocer y comprender nuestros propios pensamientos, sentimientos, acciones y motivaciones. Porque solo quien se conoce a sí mismo puede conocer a los demás y liderarlos.

Empatía, esa habilidad para ponerse en el lugar del otro, de sentir su dolor y su alegría, de comprender sus motivos y sus sueños. Clave para crear vínculos humanos, para generar confianza y respeto, para inspirar y motivar a quienes nos rodean. Maravillosamente descrita en el reciente discurso de Meryl Streep al recibir el premio Princesa de Asturias.

Estas dos dimensiones nos hacen humanos, nos distinguen de las máquinas, nos dan sentido y propósito. Sin ellas, la inteligencia artificial no sería más que una herramienta fría e impersonal, incapaz de crear valor real para el mundo.

Como líderes de equipos, podemos seguir discutiendo cuándo las máquinas podrán alcanzar la autoconsciencia y la empatía, pero ¿por qué no dedicamos nuestra atención y esfuerzo a desarrollarlas al máximo en nosotros mismos?

El impacto de la IA en el futuro de trabajo

Escuchar a Bernardo Crespo es siempre una auténtica delicia. Es de estas personas que hace replantearse creencias profundas, provocando lo que yo denomino “esguinces mentales” que amplían la perspectiva sobre el mundo en el que operamos y el que está por venir.

Anoche, en el marco de la presentación del Digital Transformation Executive Program del IE que él dirige, compartía unas interesantísimas reflexiones sobre el futuro del trabajo en un entorno de máxima complejidad e incertidumbre, y en el que el impacto de la #InteligenciaArtificial (tradicional y ahora además la generativa) va a ser innegable.

Resumo algunos de los argumentos más interesantes que se plantearon durante la ponencia y posterior debate:

“Los ordenadores son inútiles. Solo pueden dar respuestas”

Pablo Picasso

La velocidad de adopción de la tecnología en las últimas dos décadas es vertiginosa. No tenemos más que pensar en que por ejemplo el primer iPhone apenas llegó a nuestros bolsillos en 2007. En el mundo B2B, la velocidad de cambio ha sido también muy acelerada.

¿Y qué ha permitido que la curva de adopción de la tecnología se acelere? Claramente la mayor facilidad de uso y el aumento exponencial de las capacidades que la tecnología habilita, son dos de las razones que lo explican. Un ejemplo muy actual es la verdadera revolución de la IA generativa en apenas el último año.

¿Es esto flor de un día o representa un vector de transformación duradero?

La cosa va muy en serio.

En los últimos años están empezando a converger tres vectores tecnológicos que van a cambiar el mundo:

  • IA: proporciona los modelos.
  • Blockchain: proporciona la posibilidad de gestionar información de forma segura y trazable.
  • Quantum computing: proporciona una velocidad de computación masiva y posibilidad de realizar cálculos hasta ahora demasiado complejos.

Además, nuestra interacción con dispositivos genera cada vez más datos. El volumen estimado de datos generados a nivel mundial en 2022 es de 94 zettabytes, sufriendo un crecimiento exponencial derivado entre otras cosas de la mayor sensorización de dispositivos y de una realidad donde unos modelos realimentan a otros.

Vivimos en tiempo real disrupciones de modelos de negocio que creíamos consolidados (ej: el de los buscadores) y nos aventuramos a observar cambios profundos en sectores como la Educación y la Sanidad.

En este contexto ¿qué impacto cabe esperar en el futuro del trabajo?

El informe “How People Can Create—and Destroy—Value with Generative AI” de BCG de Septiembe de 2023 nos ofrece algunas buenas pistas.

Una de sus principales conclusiones es que al dotarles de herramientas de IA generativa como Chat GPT-4, los empleados más júnior son capaces de demostrar un desempeño muy parecido al de los empleados con mayor experiencia. Mientras que todos ellos se benefician de la utilización de la herramienta, son los que poseen una trayectoria profesional más incipiente los que lo hacen en mayor medida. Las implicaciones en cuanto al impacto en procesos de aprendizaje de las personas que se incorporan a un proyecto son evidentes.

Además, la buena noticia es que somos capaces de generar empresas más productivas a nivel agregado, moviendo la distribución del rendimiento a la derecha y reduciendo la dispersión. Es decir, los equipos pasan a ser homogéneamente más productivos.

Sin embargo, miedos atávicos que siempre han acompañado a las grandes transformaciones motivadas por un cambio del paradigma tecnológico, surgen también con ésta. Sobre el miedo a la erosión del trabajo, probablemente sea un error el plantearlo exclusivamente en términos de un problema de tasa de sustitución de los trabajadores, sino que el mayor reto es el de acelerar la tasa de adopción de la tecnología y el conseguir mediante la capacitación que los empleados sean funcionales en las nuevas circunstancias. O como dice esa frase que circula por la red: “La IA no te va a quitar tu trabajo, te lo va a quitar otra persona como tú que sepa usar la IA mejor que tú”.

Para ello, resulta fundamental que las organizaciones realicen de forma urgente diagnósticos en los que se evalúen las competencias que habilita la IA y los tengan en cuenta en sus ejercicios de “workforce planning” y de “up-skilling” y “re-skilling”.

De pronto, cambia además el concepto de desempeño en las compañías y toca redibujar no solo cómo generar valor sino cómo medirlo.

Es tiempo de repensar cómo armar la dupla perfecta de humano + máquina, donde pongamos a trabajar en paralelo a ambas entidades para que no sumen, sino que multipliquen. Y es que no nos podemos creer lo que la IA generativa proporciona a pies juntillas. Toca aprender a cuestionar esa “primera verdad” que proporciona la IA y validar sus respuestas con conocimiento experto.

Ese impacto positivo ¿lleva acarreados retos?

Por supuesto. Sin ir más lejos, grandes expertos en la materia, incluidos Elon Musk ó Steve Wozniak, han firmado un manifiesto en favor de realizar una parada técnica en el desarrollo de modelos de IA superiores a GPT-4.

Consideran que no se deben de hacer avances hasta entender que los riesgos son manejables y los impactos son positivos.

¿Cuáles son esos riesgos? Algunos de ellos serían:

  • IA utilizada con fines bélicos
  • IA desobedeciendo a los humanos
  • IA para desinformar, para generar “deep fakes”
  • IA suplantando a humanos
  • IA para substituir a humanos
  • IA para gobernar a humanos
  • IA tomando decisiones sin supervisión
  • IA en manos de unos pocos

Vienen además reflexiones potentes desde el punto de vista de la sostenibilidad y el impacto en el planeta de los diferentes modelos en términos de huella de carbono por cada operación de procesamiento.

En resumen, los riesgos ocultos (incluidos los medioambientales), los sesgos y los usos irresponsables de la IA generativa, deben de ser observados y gestionados, reforzando la necesidad de un modelo de gobierno de todo esto y un marco de uso ético por parte de las empresas.

¿Qué podemos esperar que ocurra en los próximos meses en un ámbito empresarial?

En 2024 podemos esperar algunas tendencias, sin ir más lejos:

  • Crecerá la regulación sobre la AI, estableciendo modelos de gobierno y buenas prácticas en el uso ético.
  • Las empresas estarán experimentando con modelos que refuercen las capacidades de sus empleados, analizando el valor que las herramientas de IA habilita y el impacto en sus cuentas de resultados.
  • Las organizaciones pondrán foco en la formación de sus empleados para ser capaces de aprovechar el potencial que la IA pone en sus manos.
  • Las empresas analizarán sus flujos de trabajo y sus modelos organizativos, probablemente dando lugar a nuevas funciones, nuevas áreas y nuevas formas de gestionar a sus equipos.
  • Las organizaciones deberán repensar el trabajo interno que no aporta valor hacia fuera (ej: presentaciones ó informes internos). Todo aquello que no repercute en creación de valor hacia el mercado, se tratará de eliminar y/o automatizar con la IA.
  • Las empresas deberán replantear el concepto de FTE y de «trabajo», determinando qué tareas dentro de un proceso las hará un humano y qué otras una máquina. Asimismo, tendrán que replantear sus modelos de atribución y evaluación del desempeño.

¿Será la llegada masiva de la IA a las empresas uno de los vectores definitivos de transformación digital?

Hasta ahora no hemos digitalizado las compañías, hemos digitalizado hasta cierto punto los datos y algunos procesos. Pero la oportunidad en términos de automatización, orquestación de flujos de trabajo completos y de reingeniería de procesos que la IA ofrece es enorme.

En cierto modo, tenemos todavía compañías que operan como en el siglo XIX, con empleados del siglo XX y tratando de resolver retos del siglo XXI. ¿Sabremos adaptar los modelos organizativos y de liderazgo a la nueva realidad?

¿Hasta dónde va a llegar la IA?

Pues siguiendo un modelo de desarrollo de las capacidades cognitivas desde sus estados más básicos a los más avanzados:

dato // modelo // conocimiento // inteligencia // consciencia // sabiduría (ver definición abajo)

… hasta ahora la IA se ha quedado en «Conocimiento». La IA a fecha de hoy no es inteligente, es solo computación altamente resolutiva.

Sin embargo, y si hacemos caso al avance exponencial de los últimos años, no nos atrevemos a hacer predicciones sobre el progreso de la IA en esos estadios en las próximas décadas.

Gracias, Bernardo, por hacernos partícipes de tus reflexiones. Es un auténtico lujo realizar ese viaje de prospectiva de tu mano.

******************************************************************

Dato: Es la unidad mínima de información, que no tiene sentido por sí misma, sino que depende de un contexto y una interpretación. Por ejemplo, el número 42 es un dato, pero no nos dice nada si no sabemos a qué se refiere.

Modelo: Es una representación simplificada de una realidad compleja, que usa datos y reglas para describir sus características y comportamiento. Por ejemplo, un modelo matemático puede usar datos sobre la velocidad y la posición de un objeto para predecir su trayectoria.

Conocimiento: Es la capacidad de comprender y aplicar los modelos a situaciones reales o hipotéticas, usando la lógica y el razonamiento. Por ejemplo, el conocimiento de la física nos permite explicar y manipular los fenómenos naturales.

Inteligencia: Es la capacidad de adaptar el conocimiento a diferentes contextos y objetivos, usando la creatividad y el aprendizaje. Por ejemplo, la inteligencia humana nos permite inventar nuevas soluciones a los problemas que enfrentamos.

Consciencia: Es la capacidad de reconocerse a sí mismo como un agente autónomo, con una identidad y una voluntad propias, y de reflexionar sobre sus propios procesos cognitivos. Por ejemplo, la consciencia humana nos permite preguntarnos quiénes somos y qué queremos.

Sabiduría: Es la capacidad de evaluar el conocimiento y la inteligencia desde una perspectiva ética y moral, y de actuar en consecuencia con el bien común. Por ejemplo, la sabiduría humana nos permite cuestionar los fines y los medios de nuestras acciones, y buscar el equilibrio entre el individuo y la sociedad.

Así, podemos ver que cada concepto implica un mayor grado de desarrollo cognitivo que el anterior, y que la IA, hasta ahora, se ha quedado en el nivel de conocimiento, sin alcanzar la inteligencia, la consciencia o la sabiduría.

Tomando el pulso a la Transformación Digital en España

blog1

¿Qué está ocurriendo en el panorama del Marketing Digital en España en los últimos tiempos? ¿Cuáles son las últimas tendencias y aproximaciones a la tan aclamada “transformación digital” que se está produciendo en el entorno empresarial en estos momentos?

Para aclarar esas y otras preguntas decidí asistir el pasado 20 de Octubre al evento que organizaba ICEMD en ESIC con el sugerente título de “6th Digital Business Summit”. Los ponentes resultaban de lo más interesante y los eventos en ESIC nunca defraudan.

Arrancó la jornada Beatriz Navarro @BnavarroBeatriz de FNAC, realizando una interesante reflexión acerca de cómo una empresa como la suya maneja el “offline” y el “online” y consigue una estrategia de marketing multicanal que aporta valor al cliente/usuario de sus productos y servicios. FNAC tiene en ese aspecto el gran reto de competir contra Amazon a través de su propuesta de valor diferente muy centrada en la actividad física en sus tiendas (presentaciones, coloquios, eventos,…).

A continuación Daniel Canomanuel @canomanuel de AXA lejos de “hablar de su libro” se centró en pintar un panorama muy atractivo en el que la inteligencia artificial, la realidad virtual y el internet de las cosas podrían tener un efecto transformador en la aportación de valor en industrias tan aparentemente “aburridas” y “commodity” como la aseguradora. Daniel apostaba porque las grandes empresas miraran de reojo a qué hacen las start-ups (le deseo mucha suerte en tal empeño, ya que debe de ser sin duda complejo realizar ese sano ejercicio desde todo un trasatlántico que rehúye el riesgo como el sector asegurador).

Se lanzó después al ruedo Remigio Lluch de PRISA. Quizá fuera el ponente más académico, muy didáctico y con un desarrollo de su visión muy atractivo. Me quedo con una de sus ideas que comparto al 100%: “La transformación digital no va de tecnología, va de negocio”. Otra de sus ideas fuerza fue que “muchas compañías no valen ya por su cuenta de resultados sino por los datos de cliente que manejan”. Fue sin duda interesante su exposición de “cacharrería tecnológica” que cree que va a transformar la realidad empresarial (ya lo está haciendo) en los próximos tiempos: sensores, internet de las cosas, impresión 3D, realidad virtual,… aunque como indicaba, no son los artefactos tecnológicos lo que va a cambiar nuestro mundo sino la transformación de los negocios: “uberización de los sectores”, 24/7 realtime marketing,…

Hasta aquí la sesión discurría por los derroteros esperados: grandes empresas poniendo en valor las oportunidades de negocio en un entorno en el que las barreras entre “off” y “on” ya no tienen sentido sino la multicanalidad. El problema de estas exposiciones es que faltaba lo que los americanos denominan “walk the talk”. Resultaban demasiado académicas y no mostraron ejemplos concretos de cómo sus empresas están sacando provecho a la digitalización.

Y fue en ese momento en el que saltaron a la arena los dos últimos ponentes que representan dos modelos de negocio nacidos 100% en entorno digital. No es que crean en la “transformación digital”, es que ellos son ya eminentemente digitales desde sus inicios y por ello lo ven con absoluta naturalidad.

Victor Garcia de Westwing habló de cómo su empresa de venta online de artículos de decoración para el hogar apuesta por el “content shopping”. Su página web y su app son fantásticos escaparates que a modo de revista dan ideas a los clientes sobre cómo decorar su casa. El fin último es que se produzca una venta, pero ésta siempre resulta de una experiencia con el contenido de su plataforma, sus blogs, sus artículos.

La jornada la cerró David Moreno @HawkersCo de Hawkers. David hizo una puesta en escena muy potente, desde una pretendida naturalidad y desenfado, muy en línea con el marcado carácter “canalla” de las gafas que venden. La tesis fundamental de David fue que en este entorno digital hay que moverse con actitud “hacker”, buscando atajos y rompiendo los moldes, no tratando de circular por caminos ya muy transitados sino por donde nadie quiere marchar. Los resultados demuestran el enorme éxito de Hawkers vendiendo un producto sencillo y con una aparente falta de estrategia clara (según David eso es precisamente lo que vuelve locos a sus competidores).

Lo más interesante de la jornada fue sin duda comparar dos visiones tan diferentes de la transformación digital:

  1. La de grandes trasatlánticos con enormes estructuras que tienen que empezar por romper esquemas mentales en su propia organización antes aún de iniciar el periplo. Afortunadamente cuentan en sus equipos con líderes como Beatriz, Daniel y Remigio que lo tienen muy claro, pero sin duda les va a suponer una larga travesía por el desierto.
  1. La de empresas que no tienen ni siquiera que cuestionarse si deben ser “off” u “on” ya que manejan ambas dimensiones desde sus orígenes con absoluta naturalidad. Sus estructuras son ligeras y la toma de decisiones rápida y descentralizada. Son lideradas por equipos jóvenes y no solo no les preocupa el riesgo sino que lo buscan.

Sin duda un debate interesante en el que será divertido participar en los próximos tiempos: ¿se llevarán el gato al agua los grandes “players” nacidos en la economía tradicional que podrán acometer el cambio o los nuevos entrantes que de momento operan en industrias muy ligadas al comercio electrónico pero que serán capaces de transitar por industrias mucho más convencionales innovando con nuevos modelos de negocio? … próxima entrega en su cesta de la compra.