Entrevista

Gary Marcus: "La inteligencia artificial será usada para interferir en las elecciones"

La regulación de la IA sigue siendo un asunto pendiente para muchas naciones en el mundo

Gary Marcus, experto en IA en el auditorio del Parlament de Catalunya.

Gary Marcus, experto en IA en el auditorio del Parlament de Catalunya. / Ricard Cugat

Carles Planas Bou

El pasado 16 de mayo, medio año después que estallase el fenómeno de ChatGPT, el Congreso de Estados Unidos celebró una sesión para abordar una futura regulación de la inteligencia artificial (IA). El acto reunió a líderes de la industria como Sam Altman, fundador de OpenAI, pero también a uno de los más prominentes críticos con el uso de esta tecnología, el neurocientífico cognitivo Gary Marcus.

El estadounidense de 53 años, profesor emérito de la Universidad de Nueva York, es una de las personalidades más influyentes en el campo de la IA. Tras más de dos décadas de investigación, ha publicado obras clave, decenas de estudios científicos y fundó dos empresas que vendió a Uber.

Este lunes, Marcus ha asistido al Parlament de Catalunya para participar en la Conferencia EPTA, un encuentro para debatir las oportunidades, retos y riesgos de la IA y cómo abordarlas desde la política pública. EL PERIÓDICO, del grupo Prensa Ibérica, ha podido charlar con él.

La llamamos IA, ¿pero es realmente inteligencia?

Depende de cómo se defina la inteligencia. Yo diría que consiste en ser capaz de resolver muchos tipos diferentes de problemas con flexibilidad. Las máquinas son razonablemente buenas buscando información, pueden jugar muy bien al ajedrez y hacer matemáticas mejor que las personas. Pero no entienden realmente cómo funciona el mundo, no son muy lógicas y cuando se enfrentan a algo nuevo a menudo se desmoronan. Están muy limitada.

El año pasado escribió un 'paper' en el que decía que la IA está estancada. ¿Por qué no podemos confiar en los grandes modelos de lenguaje como ChatGPT?

Porque no tienen la capacidad de comprobar hechos. Uno de esos sistemas dijo que Elon Musk murió en un accidente de coche. Para un humano eso es fácil de demostrar que eso no es cierto, porque está cada día en Twitter. No pueden razonar ni pensar, solo crean esa ilusión porque reproducen frases que otra gente ha dicho.

"ChatGPT no puede razonar ni pensar, solo crea esa ilusión porque reproduce frases de otra gente"

Como los loros...

Es una comparación aceptable, pero no perfecta. Los loros pueden aprender un poco de lenguaje y compararlo con los objetos del mundo que les rodea, así como resolver ciertos problemas que nunca han visto antes. Los sistemas no.

ChatGPT y demás pueden responder información errónea como si fuese cierta. ¿Se agilizará la desinformación a gran escala?

La desinformación es la mayor amenaza que plantea la IA. Estos sistemas frecuentemente se equivocan, pero nunca dudan y responden con absoluta confianza. Si no saben algo se lo inventan. El caso más famoso es cuando se inventó que un profesor de derecho había cometido acoso sexual y se citó como prueba un artículo en 'The Washington Post' que no existía. Así se puede calumniar, difamar y destruir la reputación de alguien de forma accidental.

Por otro lado, hay la desinformación deliberada. Cuando comparecí ante el Congreso le pedí al sistema que se inventase una historia de cómo los senadores de EEUU con los que me reunía eran parte de una conspiración con extraterrestres para aumentar el precio del combustible y que la humanidad nunca explore el universo. Creó una narrativa completa, con citas inventadas de Musk y de un profesor de Yale que tampoco existía. A los desinformadores no les importa si sus bulos no son perfectos. Si solo un 20% se los cree eso puede dar una fuerza enorme a quienes quieran perturbar unas elecciones.

Así, supone una amenaza para los procesos democráticos

Mi preocupación más inmediata es qué pasará con las casi 70 elecciones que hay en 2024. Es muy probable que se creen vídeos falsos de Joe Biden cayendo por las escaleras o diciendo algo tonto para tratar de manipular las elecciones. Esto sucederá en muchas o en todas. Usar la IA no requiere de mucha experiencia, así que se servirán de ella para perturbar las elecciones.

Al generar información falsa pero creíble los modelos como ChatGPT están intoxicando la información que hay en los buscadores web. ¿Irá a más?

Este es un problema inmenso. Lo que debería preocupar a Google no es su futuro como motor de búsqueda, sino que la calidad de Internet disminuya. Y eso ya está ocurriendo por múltiples razones. Una es que ChatGPT, Bard y otros a menudo se inventan cosas y esas falsedades se filtran e incorporan en otros sistemas. También hay gente usando la IA para crear libros y guías para ganar dinero. Cory Doctorow ha descrito esa pérdida de calidad de la información como 'Enshittification'. Este tipo de basura está contaminando la red, y sólo irá a más.

¿Se ha exagerado el potencial de ChatGPT?

Absolutamente. Fue una moda, su uso se catapultó, pero ahora ha disminuido y algunas empresas incluso lo han prohibido. Además, la realidad es que no hacen ni de lejos tanto dinero como se cree. Se pensaba que las búsquedas basadas en IA serían el gran motor económico, pero la gente se está dando cuenta de que en realidad no funciona tan bien porque se inventa un montón de cosas.

Las compañías han lanzado a la sociedad productos que cometen errores. ¿Qué incentivos tienen para desarrollar sistemas en los que podamos confiar?

Por eso necesitamos que el gobierno intervenga. Las empresas se han dado cuenta de que básicamente tienen el poder de lanzar cualquier cosa, sin importar lo arriesgado que pueda ser. Eso es peligroso. No tenemos ningún poder para evitar que lo hagan, aparte de algunas demandas a posteriori. Esa es la razón que me empujó a trasladar mi carrera de la investigación a la política, a educar a los gobiernos sobre qué podemos hacer. Si quieres desplegar algo a 100 millones de personas, antes tienes que demostrar que los beneficios superan a los riesgos.

Las empresas lanzan cualquier cosa al mercado, sin importar lo arriesgado que sea, y no tenemos ningún poder para evitarlo.

Compañías como OpenAI hablan de la Inteligencia Artificial General (IAG), la que iguala o excede el conocimiento humano. Esa idea del Terminator es ciencia-ficción, pero ¿cuán lejos estamos de ello?

Es poco probable que tengamos un escenario Terminator en el que las máquinas por sí solas decidan tomar el control. No estoy seguro de que lo veamos, aunque es bueno que haya gente estudiando eso.

Creo que deberíamos estar más preocupados por los prejuicios que puede arrastrar la IA, por los errores que comete o por como los malos actores ya pueden usarla para interferir en elecciones, manipular el mercado o inventar nuevas armas. También porque cada vez más gente se engancha a estas cosas y cree que les entienden. Y eso tiene muchos riesgos. En una ocasión, un chat animó a alguien a suicidarse.

El neurocientífico experto en inteligencia artificial Gary Marcus.

El neurocientífico experto en inteligencia artificial Gary Marcus. / Parlament de Catalunya / Jordi Garcia Monte

Entonces, ¿que expertos y grandes empresas hablen de "mentes no humanas que podrían reemplazarnos" es una maniobra de distracicón para no hablar de problemas más reales como la concentración de poder?

Es muy posible que sea así, pero no sé cuáles son sus motivaciones. Algunes personas quizás piensan que la IAG está cerca y otras creen que si lo dicen aumentarán las valoraciones de su empresa. La realidad es que no estamos cerca de que las máquinas tengan un propósito inteligente ni de que podamos confiar en ellas. Es más fácil preocuparse por los escenarios de ciencia-ficción y esquivar que la desinformación ya está aquí y no tenemos una buena respuesta para frenarla. Si dirigiera una gran empresa me gustaría que pensaras en los problemas más abstractos y no en los problemas concretos e inmediatos que no puedo resolver.

Es más fácil preocuparse por escenarios de ciencia-ficción y esquivar hablar de otros peligros como la desinformación, que ya está aquí y a la que no sabemos cómo responder

La IA vive de la extracción de datos. ¿Su uso expande la vigilancia como modelo de negocio?

Estamos acostumbrados a que todo el mundo, por cualquier cosa, acceda a renunciar a sus derechos a la privacidad. Mucha gente está poniendo todo tipo de datos en ChatGPT y eso creará un montón de problemas de seguridad. Cuando comparecí en el senado, Sam Altman (fundador de OpenAI) dijo que no usarán esos datos para vender anuncios, lo que no significa que no lo hagan. Usar estas herramientas significa dar mucha información a las empresas que hay detrás.

Eres partidario de crear una organismo global que supervise la IA como ya pasa con la energía nuclear. ¿Es la ley que la UE prepara el modelo a seguir?

En general, sí. Me gusta bastante, pero todavía no es ley y podría no aprobarse o debilitarse. Incluso si no es perfecta es uno de los mejores intentos que hay. Me gusta que pongan la responsabilidad en torno a la transparencia. Podemos tener esperanza.

Incluso si no es perfecta, la ley de la IA que prepara la UE es el mejor intento que hay. Podemos tener esperanza.

Ahora, las big tech dicen quierer cierta regulación, pero han disparando su 'lobby' para limitar la ley y Altman incluso amenazó con sacar ChatGPT de la UE. ¿Se trata de una estrategia de relaciones públicas?

En parte lo es, quieren aparentar que les importa. En realidad ven algún valor en la regulación, pero la quieren construir de manera que las proteja y mantenga a otras empresas fuera. Lo peor que podemos hacer es no tener regulación; lo segundo peor es una regulación dictada por las empresas.

Necesitamos transparencia en torno a los datos que se usan para que los artistas y escritores puedan ser compensados, para que las fuentes de sesgo puedan ser detectadas y mitigadas, y para que los científicos puedan entender lo que hacen estos sistemas. Los gobiernos van a tener que insistir en ello y tendrán que penalizar su incumplimiento porque las empresas no lo harán voluntariamente.

Algunas personas tienen buenas intenciones y otras no. Pero las empresas juegan el juego de los 'lobbies'. Tienen mucho dinero y están tratando de inclinar la balanza para que la regulación las favorezca. No podemos dejar que ocurra. Me molesta mucho cada vez que algún funcionario del gobierno se reúne con un montón de grandes líderes tecnológicos y se toman fotos. Eso en mandar el mensaje equivocado. Necesitamos que en esas reuniones haya científicos independientes y eticistas y no solo empresas y gobiernos a puerta cerrada.

Aun así, gran parte de la investigación científica en este campo está controlada económicamente por gigantes como Google o Meta...

Es definitivamente un problema que no haya suficiente financiación independiente y que gran parte del dinero provenga de las empresas, porque marcan la agenda. La economía está enormemente a favor de las empresas y para los académicos no aceptar ese dinero les hace más difícil competir. Toda la agenda de la ciencia ha sido eclipsada por la economía. El hecho de que los anuncios personalizados que puedes hacer con IA sean tan económicamente rentables convirtió a Google y a Meta en compañías enormes y eso ha distorsionado la investigación.

Suscríbete para seguir leyendo