Suscríbete

Contenido exclusivo para suscriptores digitales

Entrevista | Miguel Luengo-Oroz

"Se desconoce cómo funciona la economía del dato, falta trasparencia"

"Estamos en el momento de dirigir nuestro desarrollo tecnológico para lograr un impacto social" indicó el científico

(L)

(L) MARA VILLAMUZA

Miguel Luengo-Oroz (Oviedo, 1981) imagina un futuro en el que las máquinas estén al servicio de los humanos y no al revés como predican muchísimas novelas de ciencia ficción. El asturiano es el jefe de los científicos del big data en el laboratorio Global Pulse de la ONU, que se dedica a explorar las amplias posibilidades de estas nuevas tecnologías. Sus análisis, basados en algoritmos y estudiar enormes bases de datos, han servido para ayudar en campos de refugiados o a los afectados por los terremotos en Japón en Haiti. Aunque lleva mucho tiempo ya fuera de su tierra, se fue a los 18 años para hacer la carrera fuera, no olvida sus raíces. Esta semana impartió una charla en la que describió los últimos avances de su departamento en la ONU.

Uno de sus proyectos fue crear un robot que podría crear poesía ¿Cómo fue aquello?

Hice Ingeniería de Telecomunicaciones en Madrid y luego me fui a Francia donde termine ingeniería, en la escuela de Ingenieros de Minas, e hice un máster en ciencias cognitivas, la temática que exploraba era la creatividad artificial, y si la inteligencia artificial puede tener procesos creativos como los humanos, lo que hice ese año fue desarrollar un robot que pudiera escribir poesía.

¿Y funcionó?

Bueno, de ahí salió algo (ríe). En teoría era poesía al estilo de Willian Blake (vuelve a reir). Ese año me dediqué a estudiar temas de neurociencia y ciencias cognitivas. Luego, hice el doctorado en ingeniería biomédica, sobre todo en análisis de datos y de desarrollo de la vida. Cómo de una célula nacen dos, luego cuatro, luego ocho? y de ahi las celulas empiezan a organizarse y se forman organos e individuos. Mas tarde estuve unos meses en la Singularity University de la NASA, en California, fue el primer grupo español que fue a allí.

Y de ahí lanzado hacia la ONU.

Fue en 2011, cuando me fui a Nueva York a trabajar en Global Pulse, un departamento de la ONU que surgió a raíz de la crisis financiera, y que nació porque entre 2007 y 2008 muchos países perdieron en término de desarrollo en meses lo que habían tardado en ganar años. Entonces el G20 le pidió a Naciones Unidas que estableciera algo que pudiese tomar el pulso al planeta que pudiese utilizar las herramientas que usa el sector privado. Fui la primera persona de perfil técnico que se incorporó al equipo. Hoy somos más de sesenta personas divididas entre Nueva York, Yakarta y Kampala.

¿Abandonó entonces el mundo de las robots?

Al final está todo conectado. Yo, antes, durante el doctorado, buscaba patrones en células que se movían formando órganos, y ahora buscamos patrones en imágenes satélites de crisis humanitarias. Hay una analogía. Mi equipo es multidisciplinar, trabajo con gente de todos los sectores. Como seguridad alimentaria, o de salud, o de emergencias o de clima. La idea es aprender a escuchar a todas esas disciplinas y transformar eso en problemas que se puedan resolver con las técnicas, porque las tecnologías son una herramienta.

Da la impresión de que la inteligencia artificial (IA) ha explotado estos últimos meses.

Por un lado, ha llegado el 'big data', y en nuestro día a día estamos produciendo constanemten señales que se convierten en datos. Por otro, el desarrollo de la capacidad de computación que ha crecido mucho. Otra tercera pata es que hay unos algoritmos que se habían ideado hace décadas que, de repente, se ha probado que cuando los alimentas con muchos datos y tienes mucha posibilidad de computación dan unos resultados magníficos en unas tareas muy concretas.

¿Como cuáles?

Como las de reconocimiento de fotos. Si les das suficientes ejemplos funcionan muy bien. También en tareas de traducción, porque hay bastantes ejemplos de traducciones que pueden tomar. Tienen mucha base de datos. Funcionan muy bien para transformar el audio en texto. Y cuando los entrenas en cosas muy determinadas como, por ejemplo, jugar al ajedrez. De repente, ha aumentado el rendimiento para esas tareas tan concretas y esto puede hacer que mejoremos la productividad en determinados ángulos. Por eso se han desarrollado los asistentes virtuales o la optimización logística. Ahora estamos en un momento en el que tenemos que dirigir ese desarrollo tecnológico hacia aplicaciones que tengan un impacto social y no solo económico. También tenemos que mirar, en qué casos habrá que regular estas herramientas. Lo que no puede pasar es que aquellos que desarrollan las tecnologías hagan un "outsourcing" (externalización) total de sus implicaciones éticas y morales, como podria pasar con armas autonomas por ejemplo. Algo que tendría que pasar es que todos los los científicos de datos tengan un código moral, como lo tienen los médicos.

¿No lo hay ya?

No. Historicamente ha habido propuestas en campos generalistas de la ingeniueria pero no especificamente sobre ciencia de los datos e inteligenmcia artificial. Hace muy pocos meses varias figuras de Estados Unidos lo propusieron.

¿Llegaremos a ver máquinas que sean más inteligentes que los humanos?

La de las máquinas no es de una inteligencia generalista. Pueden ser mejor que un humano jugando al ajedrez o buscando en una base de datos como lo es Google, pero no puede improvisar. El humano está diseñando el universo en el que viven las máquinas. Yo veo la inteligencia artificial como aumentar las capacidades humanas, no sustituirlas. El debate tenemos que dirigirlo hacia la utilidad. Como decía uno de los altos directivos de Facebook, no puede ser que las mentes más brillantes de mi generación estén trabajando en que la gente haga clics en anuncios de internet. Vamos a pensar y utilizar esos recursos tecnológicos en hacer mejores diagnósticos médicos, en quitar los atascos de las ciudades, en optimizar la agricultura? Y al final, si de verdad se aumenta la productividad hay que redistribuir la riqueza para que esto sirva para tener más igualdad.

Usted forma parte de un grupo en España que está preparando una estrategia sobre inteligencia artificial, ¿en qué consiste?

El Gobierno formó un grupo de expertos para elaborar un libro blanco sobre la estrategia de inteligencia artificial en España, estamos trabajando. Con el cambio de Gobierno ha habido una pequeña parada, pero esperamos que antes de final de año esté listo.

¿Pero puede avanzar algo de ese trabajo?

Entre quince y veinte países en todo el mundo han publicado ya sus estrategias. Es una carrera. EE UU, China, Reunido Unido, Japon, Canada, Francia, ? lo han hecho. Este será un primer paso para ver qué temáticas hay que tocar, ver cuáles son los sectores de interés, las capacidades que hay, cuáles son los principios éticos a los que debemos ir, cómo aprovechar el papel de España en el mundo para ser competitivos?.

¿Qué consecuencias puede haber de no usar éticamente la inteligencia artificial?

Un caso muy claro que necesita de regulación internacional son las armas autónomas. Puede haber otros como cuando los algoritmos toman decisiones automaticas que puedan tener un impacto clave en la vida de las personas. Como te concedo un préstamo o no. Una cosa que hay que fomentar es que las decisiones de los algoritmos puedan ser explicables, saber cuáles son las razones subyacentes para tomar esas decisiones. Imagina que usas un software para seleccionar personal, y ese programa aprende de toda la gente que tienes en la empresa del pasado. Pues resulta que si había más hombres es probable que haya un sesgo y el sofware te proponga más hombres. Entonces, hay que disenar algoritmos e introducir los datos de manera que no haya esos sesgos. Esto nos lleva a dos cosas. Primero, que necesitamos equipos más multidisciplinares que entiendan la problemática. Y, segundo, que haya diversidad. De género, de culturas, de conocimientos... para explotar todas las posibilidades. La mayoría de productos que utilizan esta tecnología están creados por un tipo de perfiles masculinos de Silicon Valley y esto limita el rango de aplicaciones posibles y su uso para resolver problemas tanto globales como locales .

Ustedes en la ONU han creado un programa para controlar los campos de refugiados. ¿En qué consiste?

Ahora los analistas de forma manual cuentan tiendas o estructuras en campos de refugiados. Nosotros con la agencia UNOSAT (la agencia de satélites de la ONU) lo que hacemos es que, en lugar de sustituir al analista humano, le ayudamos, a través de inteligencia artificial, a ir más rápido. No puedes sustituir al humano. La precisión es crítica.

¿Qué implicaciones prácticas tiene?

Esa información se da a la gente que está sobre el terreno y sirve para dimensionar aspectos logísticos. Cuánta gente hay, cuánta comida o agua hay que repartir.

También han hecho otro proyecto sobre terremotos. ¿Cómo funciona?

Por ejemplo, en el caso del terremoto que hubo en septiembre en México hay información de bases de datos de "big data", como cuántos móviles conectados había en un sitio, lo que sirve para saber hacia dónde va la gente tras un terremoto. También analizamos la información financiera. Cuánto tiempo tardan las ciudades afectadas por el terremoto en volver a la actividad que tenían antes, y esto lo estamos haciendo de la mano de Telefónica y BBVA y el Instituto Nacional de Estadistica de Mexico (INEGI). Esto vale para las políticas públicas que se pueden destinar a la reconstrucción.

¿En qué están trabajando ahora?

Miramos información en redes sociales para saber cuándo la gente habla, por ejemplo, de vacunas. En este caso lo hemos desarrollando en Indonesia y miramos cuando la gente pone mensajes que relaciones las vacunas con algo más como, por ejemplo, el autismo. Si eso pasa, el ministerio de Salud puede decidir si va a contestar o no va a contestar. En otro proyecto en Brasil, miramos mensajes discriminatorios o de odio contra gente con HIV o con poblaciones LGTB. Esa es una forma de medir para luego evaluar cómo puedes reaccionar. Tardas tanto tiempo en crear la tecnología como definir el problema. La parte difícil es poner a todas las personas que están involucradas entorno a la mesa y que se entiendan. Que el ingeniero entienda al experto en vacunas y se entiendan con el que trabaja en comunicación. Hace falta más gente que tenga capacidad de entender y empatizar.

Hace unos años decide lanzarse a un proyecto empresarial y forma una compañía ligada con los videojuegos y la detección precoz de casos de malaria. ¿Cómo fue eso?

Lo lancé en 2012 y la idea era presentar el concepto de diagnóstico colaborativo. Digitalizamos muestras biomédicas de malaria, eso se hace con un teléfono móvil y un microscopio fabricado con impression 3D. Luego se sube a la red y se distribuye a una aplicación móvil que es el juego, Malaria Spot.

¿Pero, cómo se le ocurrió?

Antes del robot poeta había hecho un proyecto de inteligencia artificial sobre imágenes médicas sobre la malaria. Yo estaba en Francia y todos los años en los alrededores de los aeropuertos se morían entre 10 y 20 personas de malaria, el hospital carecía de un sistema para detectar esos casos. La gente iba enferma al médico de cabecera que lo que menos se esperaba es que tuviera malaria.

¿Y cómo va el proyecto?

Hasta la fecha han jugado más de cien mil personas en cien países diferentes. Desde hace un año, hemos creado una empresa que crea soluciones de telemedicina.

¿El juego cómo funciona?

Si descargas la aplicación recibirás unas imágenes tienes que clicar en ellas, nosotras las recogemos y con un algoritmo para saber si está infectado o no. En el juego vas avanzando niveles, y la idea es encapsular en un juego las tareas digitales que se corresponden con la parte del protocolo de análisis médico. Es como si hubiera radiografías y trazar dónde se ha roto el hueso. A principio del año que viene comenzaremos con la comercialización estos servicios de diagnóstico, no solo de malaria, también de imagines de posible retinopatía diabética, anatomía patológica?

Ahora hay otro debate abierto, y es que hay mucha gente que no quiere que se usen sus datos, por ejemplo, los que suben a internet o redes sociales.

Lo que quiero es que los ciudadanos podamos decidir para qué se usan nuestros datos. Veo un futuro en el que nuestros hijos digan, bueno, los datos de salud los comparto para temas de investigación? Pero tenemos que entender qué está pasando. Los ciudadanos desconocemos cómo funciona la economía del dato y realmente debería de haber más transparencia y desde el conocimiento cada uno decidir para qué valen sus datos y para que no. Esas aplicaciones, luego, tienen que estar alineadas con los derechos humanos. Tienen que transmitir los valores morales y éticos en los que nosotros creemos. Es importante mirar el impacto social y no solo el económico de estas tecnologías.

¿Cómo se imagina el mundo en un futuro? ¿Cohabitaremos con los robots como en una novela de Isaac Asimov?

Lo veo con optimismo. La idea es dirigir el desarrollo tecnológico y de inteligencia artificial a un lugar en el que amplifican a los humanos por sus valores morales y éticos. No hacia un lugar al que se reemplazan o cohabitan con nosotros. La clave es que toda esta nueva generación de riqueza se redistribuya entre la gente y no valga para aumentar las desigualdades.

¿Cómo están los distintos países en la carrera de esta nueva economía hacia la inteligencia artificial?

China y Estados Unidos están invirtiendo mucho dinero para ser pioneras en sus sectores económicos de gran interés. Francia, por ejemplo, ha puesto los valores éticos por delante tambien con los económicos. Es un movimiento interesante.

Estamos en el momento de dirigir nuestro desarollo tecnologico para lograr un impacto social y no sólo económico.

Compartir el artículo

stats