Contar las horas para salir de clase es algo habitual en todos los niños. Sin embargo, para Nerea Luis Mingueza (Madrid, 1991) la diversión fuera del aula era un mundo de aprendizaje fuera de lo común. “Mi hobby se convirtió en conectarme a internet para aprender cosas”, explica. De pequeña, se quedó fascinada con el ordenador que su tío tenía en casa, que le permitía satisfacer su curiosidad “obsesiva” por la cultura manga. Sus profesores detectaron su interés y la encaminaron hacia la carrera de ingeniería informática.

Con tan solo 30 años, Luis se ha convertido ya en un referente nacional en el campo tecnológico. Doctora en Ciencias de la Computación especializada en Inteligencia Artificial (IA), esta risueña joven de pelo azul —como Sailor Mercury, su personaje favorito de la serie ‘Sailor Moon’— ha sido condecorada por la Casa Real con la Orden del Mérito Civil, premiada con el galardón Google Anita Borg y seleccionada dentro del Top 100 mujeres líderes en España. Actualmente trabaja como consultora en la firma Sngular y desde 2013 es cofundadora de T3chFest, evento tecnológico anual que se celebra en su universidad, la Carlos III de Madrid.

Luis atiende a El Periódico de Catalunya en el marco de una charla en el congreso 'Humanism in the digital age', de Digital Future Society.

-Sólo un 12% de los trabajos técnicos en IA son ocupados por mujeres ¿Es un entorno difícil en el que prosperar?

-Tienes que tener muy claro que, como mujer, eres minoría. Tanto en el instituto como en la carrera noté que había más chicos, pero tenía muy claro dónde quería llegar, así que todo el ruido no me afectaba. No ha sido hasta más adelante y a través de la experiencia de otras compañeras en la profesión que he notado esa dificultad añadida que existe para nosotras.

-Eres una firme defensora de que todo el importante trabajo técnico que realiza tu campo se pierde sin una estrategia de comunicación divulgativa y clara.

"Me interesa ser divulgativa. La gente usa el móvil cada día, pero no tiene ni idea de como funciona"

-Sí. La comunidad científica y tecnológica está muy movilizada para compartir su trabajo, pero es como que hablamos sólo para nosotros. Tras cofundar T3chFest (que acercó el trabajo de su campo a no expertos) nos dimos cuenta que a la gente le gustaban esos temas porque podían entenderlos sin tener un alto nivel técnico. Me interesa ser divulgativa porque la gente no tiene ni idea de como funciona la tecnología pero usa cada día el móvil. Si no se cuentan, es difícil que vean las oportunidades de la IA.

-¿Qué usos positivos pueden alumbrar estos sistemas?

-Son herramientas muy potentes para automatizar tareas repetitivas y medir cosas que antes no podíamos ver. En la medicina puede ayudarnos a elegir el mejor tratamiento basándonos en las cifras, no en el sesgo del médico, y agilizar ciertos procesos para que los investigadores se centren en lo que requiere más atención. La colaboración humano-máquina es la clave de la IA, uno aporta la ética y la otra la automatización.

"La colaboración humano-máquina es la clave de la IA: uno aporta la ética; la otra, la automatización"

-Además, con sus fallos permite que revaluemos cómo nos hemos comportado todos estos años. Cuando se dice que los algoritmos tienen sesgos racistas o contra las mujeres es porque los arrastran de nuestra sociedad. Saberlo nos permite cambiarlo.

-Si usamos datos del pasado para prever el futuro se corre el riesgo de perpetuar discriminaciones racistas, misóginas y clasistas. ¿Cómo podemos evitarlo?

Sólo hemos visto la punta del iceberg. Estos escándalos seguirán pasando y que se denuncie como los algoritmos pueden amplificar esas discriminaciones nos ayudará a reflexionar para cambiar esas costumbres. Se puede empezar teniendo una base de datos más inclusiva, pero tendremos que analizarlo cuando esos sistemas se pongan al servicio de la gente. Hasta que no opera en un entorno real no eres consciente de la verdadera efectividad del algoritmo.

-Hablamos mucho de soberanía digital, pero terminaos recurriendo a los sistemas de gigantes tecnológicos como Amazon, Google o Microsoft. ¿No se alimenta así una asimetría de poder que nos hace más vulnerables?

-Desarrollar una infraestructura propia es algo demasiado costoso. Esas empresas ofrecen alquilar su servicio de nube (los ordenadores trabajan con centros de datos externos que permiten aumentar su potencia) y no lo veo mal para empezar, pero nos falta construir alternativas. No nos hemos planteado como trabajar hasta que hemos visto la importancia que tienen nuestros datos, y entonces ya era demasiado tarde.

-Cuando son cazadas con malas prácticas esas grandes plataformas suelen culpar a un “error” del algoritmo, lo que la matemática y científica de datos Cathy O’Neil apodó ‘Math washing’. Un cabeza de turco abstracto que evita asumir responsabilidades. ¿Están haciendo un uso perverso de la IA?

-Sí, es más fácil culpar a un sistema que a ti mismo. Detrás de los algoritmos hay humanos, si este falla lo que hace es exponer que está siendo injusto. El responsable es el humano aunque se quiera culpar a la máquina.

-La IA predictiva no solo lee los datos sino que elabora patrones para inferir nuestro comportamiento futuro. ¿No amenaza esto la autonomía humana?

-Debemos ser conscientes de los peligros que estos sistemas y hablar más de justicia algorítmica. Hay algoritmos que no tienen impacto directo en los humanos y otros que nos pueden afectar en el día a día, como los que se usan para determinar ayudas sociales o tratamiento médico. Pero también debemos resaltar su impacto positivo. La colaboración entre el humano y la máquina puede hacer que nuestros análisis sean más potentes y, por ejemplo, detectar enfermedades con mucha mayor precisión. No tenemos este concepto de colaboración en la cabeza, pensamos que las máquinas nos van a sustituir y la claves es que nos complementen para ver cosas que nosotras no vemos.

-La Unión Europea prepara una ley para prohibir los sistemas de IA de alto riesgo.

-La IA debe regularse y la UE puede darnos un marco de ejemplo para centrarnos más en lo humano. Es interesante que se categorice los sistemas de IA por riesgo y que se creen auditorías para examinar esos sistemas. Pero después hay que ver si se pueden implantar.

-Como hemos visto con la protección de datos, Europa ya tiene normas pioneras pero la industria las incumple porque le sale más a cuenta pagar las multas. ¿Qué más hacer?

-No creo que se haya hecho mal. En el mundo tecnológico todo es tan reciente que es difícil saber qué va a pasar. Por algún sitio hay que empezar a limitar. Espero que sepamos reaccionar pero no tengo respuestas.