Inteligencia artificial for Good, la inteligencia artificial del futuro.

Entrevista a Richard Benjamins, Chief AI & Data Strategist en Telefónica.

— Además del metaverso, la inteligencia artificial siempre aparece como el gran tema de conversación en lo que se refiere a los avances tecnológicos. ¿Hasta dónde piensas que podemos llegar en términos de inteligencia artificial? ¿Cuáles son los retos y/o oportunidades que tenemos por delante? Y, por otra parte, ¿AI for Good o Good AI? ¿cuál sería la diferencia entre estos dos conceptos?

La respuesta más rápida sería que no hay una respuesta clara, a día de hoy nadie lo sabe, nadie tiene claro hasta dónde es capaz de llegar la inteligencia artificial. Lo que yo puedo daros es mi opinión. Me viene a la mente por ejemplo un libro que se llama “Architects of Intelligence: The truth about AI from the people building it” donde se entrevista a más de 30 gurús en esta materia y cada uno tiene una visión distinta. El tema está en si la inteligencia artificial puede llegar al nivel de la inteligencia humana o no. En este sentido se está hablando de un plazo de 300 años, los más optimistas hablan ya de 2049, otros dicen que la inteligencia artificial nunca llegará a igualar a la inteligencia humana.

El gran salto, y donde nos encontramos a día de hoy, es en el deep learning (aprendizaje profundo), esto significa más computación, más datos, algoritmos más potentes de aprendizaje y ajustes de la red. Todo ello dio el salto en 2010-2011 y en ese momento nos encontramos; en ese aprendizaje automático que requiere de muchísimos datos y busca patrones que se basan en el pasado y que permiten predecir, clasificar, realmente permiten un montón de cosas, hasta tal punto de que pueden llegar a hacer tareas mucho mejor que una persona, por ejemplo con lenguaje natural, traducciones, resúmenes, interpretaciones, etc.

Ya hay paridad entre una máquina y un humano, pero son tareas muy concretas; se trata de la inteligencia artificial estrecha o narrow AI, se le llama así porque es capaz de hacer una tarea concreta y hay todavía mucha distancia con respecto a la inteligencia humana que es capaz de hacer miles de tareas distintas. Aunque, por otra parte, hay programas de lenguaje natural como GPT-3 que están entrenados con cantidades enormes de datos y que están haciendo cosas que no estaba previsto que pudiesen llegar a hacer nunca.

— Es difícil imaginar el futuro. Cuando hablas del concepto narrow AI, ¿te refieres a que las actividades en las que estará más presente la inteligencia artificial serán aquellas más susceptibles de ser automatizadas?

No, lo que tiene que haber es una relación directa entre input y output, con muchos datos, porque no hay nadie que pueda hacer un programa que prediga la bolsa, no hay suficientes eventos (datos) para hacerlo. Se podría llegar a predecir digamos en épocas normales, pero no si hay eventos imprevistos como puede ser una pandemia o una guerra, esos eventos (por suerte) no ocurren con la suficiente frecuencia como para poder entrenar a la máquina y que le dé tiempo a aprenderlo.

Es útil para predecir por ejemplo enfermedades porque ahí sí que existe un patrón. Al final es una máquina que interpreta matemáticas, patrones y estadísticas, no tiene consciencia del tipo de dato que está interpretando. Lo que sí ha cambiado en los últimos años son los modelos grandes de lenguaje natural (LLM por sus siglas en inglés), porque están entrenados para hacer una tarea, pero luego resulta que pueden llegar a hacer muchas más. Predecir las palabras que faltan en un texto, generar resúmenes, historias, responder a preguntas, ya no es tan narrow, aunque lo siga siendo, hemos dado un pasito, como por ejemplo con transfer learning, la máquina aprende objetos y luego le sirve para aprender caras o también personas, no tiene que empezar de cero, porque ya parte de una base aprendida previamente.

Si comparamos con la inteligencia humana, nosotros tenemos sentido común, contexto, sentido de la realidad, la máquina no tiene consciencia, no tiene sentido de la realidad, de la interacción física. Comparemos con cómo aprende un bebé que no sabe nada al nacer y en 18 meses consigue tener un modelo físico. En machine learning la máquina no tiene modelo físico, no entiende si dejamos caer algo o lo estamos lanzando hacia arriba, no tiene ni idea de qué está pasando realmente.

Hay mucha investigación para seguir avanzando. A partir del deep learning hacer otras muchas cosas, como por ejemplo reinforcement learning. Todavía queda muchísimo camino por recorrer en términos de inteligencia artificial, no podemos decir que es posible, pero al menos ya podemos decir que no es imposible. El ser humano, cuyo origen está en los átomos, las células, etc. y que sí tiene consciencia e inteligencia, ha evolucionado hasta donde estamos ahora en un proceso de miles de millones de años y de manera aleatoria. Entonces, no veo por qué esta esta misma historia no puede llegar a repetirse de nuevo, en el peor de los casos podemos tardar otros miles de años más o incluso puede hacerse mucho más dirigido, que es lo que se intenta con la inteligencia artificial.

— ¿Estamos persiguiendo un objetivo? ¿Podemos unir toda nuestra experiencia y capacidad para ir en una sola dirección, acelerar el proceso y dar un salto cuántico en la evolución?

Si, por ejemplo, el Quantum Computing dentro de 20 años estará más maduro e igual de repente logra cosas que ni nos imaginamos. Por ejemplo, sabemos que en nuestro cerebro existe mucha actividad química y eléctrica pero no podemos llegar a ver de qué manera se forma un concepto como “libertad” o “guerra”. Es algo abstracto, casi filosófico.

La misma inteligencia artificial que tenemos hoy en día, el deep learning, si la aplicamos a más cosas, podemos llegar mucho más lejos. A nivel de aplicación se puede hacer mucho más extensa y de manera masiva, pero por otro lado está siempre la inteligencia artificial que puede crecer todavía mucho. Es justo donde nos encontramos ahora, en esa fase de expansión de la inteligencia artificial a muchos más sectores, de manera más masiva y al mismo tiempo investigando académicamente sobre nuevas fórmulas de inteligencia artificial. Y esto lo vinculamos con el Good AI, el uso ético y responsable, ya sabemos que los algoritmos aprenden de datos, pero nunca aciertan al 100%, puede ser 90-85% o incluso menos.

Lo que hay que valorar es, sobre todo el porcentaje de error que tiene el modelo, si es aceptable para la aplicación que necesitamos, por ejemplo, si usamos algoritmos para realizar diagnósticos médicos o reconocimiento facial para identificación de criminales, un porcentaje de error del 15% es muy alto, ya que estamos hablando de poner en riesgo a personas, para estos dos ejemplos necesitaríamos reducir al máximo ese porcentaje de error. Los algoritmos no son infalibles, puesto que aprenden de nosotros y de los datos que les proporcionamos.

— En este sentido, ¿cómo influye el tipo de dato que le proporcionamos a la máquina?

La realidad tiene sesgos, por lo tanto, los algoritmos aprenden modelos que son imperfectos, y tienen siempre un porcentaje de error, aunque sea pequeño. Esto se ve muy bien en un caso que le ocurrió a Amazon, que aplicó inteligencia artificial para seleccionar y contratar perfiles. La máquina estaba entrenada con los currículums de los últimos 10 años donde había muchos más hombres que mujeres, como había aprendido a seleccionar solo a hombres, descartaba a las mujeres. Esto puede llegar a ser un problema grave si hay grupos vulnerables a los que se discrimina, llegando a la posibilidad de cometer delitos por discriminación.

La representatividad de los datos y los sesgos tienen un alto impacto en lo que se refiere a lenguaje natural. Por ejemplo, para la máquina las enfermeras son siempre mujeres y los ingenieros siempre son hombres, por el simple hecho que estos modelos son estadísticas y las coincidencias entre “médico” y “el” son más altas que entre “médico” y “ella”. El resultado de esto es que, si el modelo no tiene ningún otro contexto, la máquina asocia la palabra “médico” con hombres más que con mujeres. Hay que tener esto en cuenta a la hora de entender la interpretación que hace la máquina del lenguaje natural.

Por otra parte, están las cajas negras, hay muchos algoritmos tan complejos que son incomprensibles por el ser humano, pero según el dominio es importante entenderlo. Por ejemplo en medicina, si un algoritmo le indica a un médico que un paciente tiene cáncer, el médico deberá entender muy bien el diagnóstico que ha hecho la máquina y los motivos antes de afirmarlo y comunicarlo al paciente, ya que hay un margen de error, como hemos dicho antes. Por ello es muy importante el uso responsable de los algoritmos cuando los aplicamos. Antes de hacerlo hay que hacerse algunas preguntas, ver la representatividad, el impacto de falsos negativos, falsos positivos, para evitar sorpresas. Hay decisiones que se pueden tomar de manera explícita, por ejemplo, usar más que un algoritmo de caja negra, uno de caja blanca. Su rendimiento es algo inferior, pero evita los problemas que comentaba anteriormente.

Además de usar la tecnología para el negocio, también se puede usar para el bien social. Se puede aplicar en todo el ciclo de gestión de desastres. Por ejemplo, durante la pandemia la usamos para encontrar vacunas, para predecir cómo se propagaba el virus y de manera preventiva. 

Tenemos tantos datos que conjuntamente son proxis para la actividad humana, estos proxis son como la cueva de Platón, donde el hombre solo veía una sombra y había que interpretarla, el Big Data es así, el dato es solo una sombra de la realidad y hay que interpretarla, teniendo en cuenta que nos podemos equivocar en esta interpretación, porque no es la realidad pura.

Otro ejemplo sería el de los datos de las compañías aseguradoras, que pueden lograr hacer monitorización y predicción de desastres naturales. Esta información es de mucha utilidad para entender mejor el avance del cambio climático, y porque les da una visión muy interesante de las áreas de riesgo alto en fenómenos meteorológicos.

— ¿Nos puedes contar sobre algún proyecto en el que hayas trabajado que vaya en esta línea de AI for Good?

Si, un ejemplo de ello fue durante la pandemia, donde usamos datos extraídos de la red móvil de manera anonimizada y agregada para generar matrices de movilidad. Esta información era relevante para los gobiernos para poder gestionar la pandemia en términos de propagación del virus, el seguimiento de los confinamientos y del efecto en la economía. Una matriz de movilidad dice por ejemplo que se hacían unos 10.000 desplazamientos en un día entre Madrid y Barcelona, lo que representaba un 50% menos que antes del Covid. Los mismos datos sirvieron para mejorar las predicciones que se hacían con respecto a la saturación de los sistemas sanitarios y demás problemas que surgieron a raíz de la pandemia.

Otro proyecto que hemos realizado tenía como objetivo medir la calidad del aire de Madrid. En muchas ocasiones, cuando vemos datos de calidad del aire en una ciudad, los vemos divididos por distritos, estos datos son obtenidos a través de un sensor estático que da la información de la calle donde se encuentra, pero para tener la visión completa se debería tener en cuenta si el sensor está al lado de un parque, que saldrá siempre nivel óptimo o de un parking que aparecerá un indicador rojo para señalar que el aire en esa zona es menos limpio.

El origen de la contaminación proviene en un 30% del tráfico, en otro 30% de edificios y el resto de las industrias, etc. Nosotros nos focalizamos en el tema del tráfico, ya que podemos hacer estimaciones basándonos en los mismos datos de movilidad que sirven para gestionar una pandemia. Estos datos los cruzamos con datos abiertos, sobre vegetación, población, clima (temperatura, viento), funciones de edificios y con datos de un sensor de contaminación en movimiento colocado encima de un coche eléctrico que pasaba por diferentes calles de Madrid, lo que permitía ver la calidad del aire a nivel de cada calle. Esto sirve para tomar y adaptar las medidas para la calidad del aire según el contexto de la zona en concreto, por ejemplo, para detectar y evitar cuando hay mala calidad del aire cerca de un colegio. 

Es clave tener la información para poder tomar decisiones y realizar cambios con respecto a lo anterior.

"Es importante tener los datos, pero, sobre todo, lo más importante es, cuando los tengas, usarlos para mejorar".

Para ello hay que hacer una transformación cultural, generacional y también política, porque los datos no siempre salen en concordancia con todas las ideologías o intereses. Tener los datos conlleva responsabilidades para tomar las decisiones de una manera mejor.

Richard Benjamins es autor del libro A Data-Driven Company: 21 claves para crear valor a través de los datos y la inteligencia artificial, recién traducido al español.
https://www.lideditorial.com/libros/data-driven-company


¿Por qué fracasan las compañías implementando agilidad empresarial?

SIGUIENTE ARTÍCULO