Desgranando la gran revolución, potencial y riesgos

No hay plan corporativo que no incluya en algún apartado la inteligencia artificial. La muestra es clara, a nivel individual, cada uno de nosotros somos usuarios de alguna aplicación que utiliza esta tecnología en alguna capacidad y/o grado. Es una de las mayores disrupciones de los últimos años, y eso que esta tecnología es de los años 40-50.

El incremento de de uso y popularización se atribuye a diferentes razones (precio de la computación, del almacenamiento,..). Sin embargo yo diría que lo mas importante es la aplicación práctica a casos de usos reales. Las circunstancias han ayudado, o se han desarrollado en tal dirección que por supuesto han acelerado el impacto y escalado de esta gran tendencia. Discutir su impacto seria una obviedad. Primero, porque el hecho de que todos las organizaciones hablen, piensen y planifiquen alrededor de este concepto, ya es significativo (el volumen de negocio en este area cree a ratio de doble cifra) Y segundo, nuestra vida, como consumidores ya esta afectada por este efecto. Utilizamos los motores de recomendación de diferentes plataformas (Netflix, Amazon, Spotify,..) , somos usuarios de dispositivos inteligentes (Echo, Alexa, Siri,..), conducimos coches autónomos (Tesla), nuestro móvil o reloj inteligente nos avisa de ciertas cosas en función de nuestras rutinas, a nivel profesional hacemos predicción de ventas o de del comportamiento del usuario (por diferentes herramientas).

Sin embargo, creo, que el impacto de la inteligencia artificial no ha hecho nada más que empezar. Y no hablo de llegar a limites de ciencia ficción donde las máquinas nos controlen, sino en cosas mas terrenales. A pesar de tener diferentes tipos de aplicaciones (desde las mas genéricas hasta las que se centran solo en un caso de uso), hay tres componentes principales a considerar:

  1. Algoritmos: cada caso de uso necesita un algoritmo o una forma de procesar los datos de forma diferente (siendo puristas no deberíamos hablar de algoritmos, sino de modelos). El modelo de este comportamiento es uno de esos puntos fundamentales que nos hayan tener más o menos fiabilidad. Las máquinas son mucho mejores que nosotros (humanos) descubriendo relaciones entre grandes volúmenes de datos, cuya resultado se medida en un porcentaje de aproximación. Dominar este aspecto requiere tener grandes conocimientos de matemáticas, programación y estadística.
  2. Expertos: aunque no se trata de un campo de estudio nuevo, sí hay un déficit de personal experimentado. La formación de estos profesionales es compleja y costosa, por lo que contar con los mejores no estará al alcance de cualquiera.
  3. Datos: No es ningún misterio decir que uno de los grandes secretos del éxito de estas iniciativas es entrenar los modelos con grandes cantidades de datos. Esto hará que el modelo sea capaz de identificar mejor nuevas situaciones, y que su fiabilidad sea mucho mayor. No solo las empresas están compitiendo este campo, sino que diferentes países están entrando muy fuerte por diferentes vías. China, es uno de ellos, donde su apuesta ha igualado (sino sobrepasado en ciertos casos a Silicon Valley). Siendo uno de los puntos fuertes la cantidad de datos disponibles (pensemos solo en la cantidad de habitantes de este país)

Mirando estos tres pilares podemos decir que sólo los grandes jugadores están bien posicionados para ganar la partida. Es cierto que tendrán mejor disponibilidad para ello. Sin embargo, no descontemos las nuevas formas de innovar, donde se cuenta con sistemas abiertos y compartidos donde varias organizaciones pueden colaborar aunando esfuerzos y multiplicando resultados. Si nuestra organización esta pensando apostar por este campo, pensemos en la mejor estrategia para llevarlo a cabo.

Las oportunidades por supuesto son enormes. Todos los campos tendrán beneficios muy gratificantes e interesantes. Todas los sectores pueden beneficiarse de predicciones que impacten en la mejora de actividad: en finanzas la predicción de riesgos de pago, en educación el éxito de un estudiante, en retail la mejora de la cadena de suministro, en modelos de subscripción la optimización del churn rate.

Obviamente, no podemos de dejar de citar los beneficios que podemos obtener desde el lado de la experiencia de usuario (que repercutirá en una incremento de ventas de forma indirecta). Mas allá de la predicción del comportamiento de usuario, podemos hablar de personalización a escala. Ya hemos empezado a ver como diferentes plataformas CDP mediante diferentes técnicas de agrupación y clusterización de usuarios, pueden realizar una resolución de perfiles basados en diferentes identificadores, o la optimización de audiencias (a la hora de segmentar) dando lugar a grupos más homogéneos. Podemos incluso hablar de reconocimiento de sentimientos en tiempo real, ya sea por formato texto (en twitter u otras redes sociales), o mediante el análisis de rasgos biométricos como la cara o la posición corporal.

Sin embargo, como mencionábamos antes, el limitante de los datos es una presente en Europa. Las leyes y nuestra cultura, es muy diferente a la China. Somos mucho más celosos de nuestra privacidad y tenemos marcos legales que lo respalda. Sabemos que los algoritmos, y los ingenieros necesitan grandes cantidades de datos para poder ajustar los modelos. Por lo que la gran incógnita será cómo alimentar a estos modelos, con esta realidad. China, dispone de billones de datos que Europa nunca tendrá, o que recolectará de forma más lente. Sin embargo no debemos olvidar, que por esa diferencia cultural, un modelo entrenado con datos de una sola región, no tiene porque funcionar en otra. La localización se llevará a otro plano, no siendo suficiente cambiar imágenes o idioma de la plataforma, sino ajustar el modelo con datos locales. La globalización se va a encontrar con un limitante interesante.

Deja un comentario