Opinión | Amalgama

El terror de Sadin

Detalle de la portada de ‘La vida espectral’, de ‘Eric Sadin.

Detalle de la portada de ‘La vida espectral’, de ‘Eric Sadin. / La Provincia.

El filósofo Éric Sadin acaba de publicar, en español, su último libro, La vida espectral, entrando de lleno en una condena radical a la Inteligencia Artificial (AI), y en su presentación, el 17 de abril de 2024, en el Museo de Arte Latinoamericano de Buenos Aires en colaboración con el Institut Français d’Argentine, se despachó a gusto. Sadin, que viene hace años entrando de lleno en el análisis de la AI generativa, marca una línea roja en la presentación del primer ChatGPT, en noviembre de 2022, como el inicio de una fase «intelectual y creativa» donde los humanos se han puesto de perfil, pasivos, y a la AI se le ha permitido y encomendado la tarea de hacerse cargo de nuestras facultades más fundamentales, las de producir lenguaje y símbolos. En su libro, Sadin advierte de que hemos entrado en un momento de gran gravedad. Pero lo más sorprendente del terror de Sadin es que lo diagnostica como una especie de pérdida humanística y político-social del dominio del lenguaje y los símbolos, y no alude a otros aspectos de la AI más terroríficos, como lo serán el control total de los cuerpos y las cosas.

Después de mirar a la traductora, Sadin previó su pérdida de puesto de trabajo sustituida por la AI, y dijo: «Estamos viviendo un momento de gravedad, e incluso iría más lejos, es un momento de muy alta gravedad». Esa gravedad nos cuesta captarla, y exige de la sociedad humana la toma de gestos y acciones reactivas: «Nada será como antes del 30 de noviembre de 2022, una fecha histórica, o más que eso, un terremoto que tuvo un alcance social, político y cultural. Utilicemos grandes palabras por las consecuencias civilizatorias y antropológicas, pero, a la par, con la paradoja de que quizás no nos percatemos de la amplitud de ese seísmo, la puesta en línea en una versión pública del Chat GPT a escala mundial y qué provocó el advenimiento entonces de las inteligencias artificiales generativas». Desde hace un año y medio, sigue Sadin, hay sistemas dotados de la facultad de oír lo que estoy diciendo y entenderlo correctamente, tareas que hasta este momento movilizaban nuestras facultades intelectuales y creativas.

Es desde 2010 que los sistemas de AI empezaron a estar dotados de capacidades cognitivas y organizativas. Ya las máquinas computadoras no están destinadas a «la recolección al almacenamiento, indexación, automatización y manipulación, con diversos fines informáticos, individuales y colectivos, a velocidades cada vez más importantes, y con un procesamiento de datos cada vez más pertrechados de ecuaciones algorítmicas. Una nueva rama sofisticada de las tecnologías digitales está en funcionamiento desde hace años y más que nunca desde mediados de los años 2000 finales de esa década».

Todo el mundo conoce la aplicación Waze, comprada por Google a una empresa israelí, y que nos recomienda que tomemos tal itinerario y no tal otro, por ejemplo, se trata de un proceso muy muy potente que va a una automatización creciente de los asuntos humanos, lo que es decir «una automatización creciente del curso del mundo y cuando decimos esto vemos que el lugar del humano se torna problemático». La AI recibe una instrucción, un «prompt» y produce texto autónomo. Pero ¡cuidado! Es un «pseudolenguaje», advierte Sadin: «Masas de personas vieron entonces cómo se producía ese pseudolenguaje», pero «es muy interesante constatar que eso se haya banalizado tan rápido», pues «el primer gran error es el creer que se trata de un lenguaje que se asemeja a un lenguaje humano».

Los lenguajes han asumido el Corpus de todo lo escrito en el pasado, y al principio dijeron que se frenaban en 2021, para que los sistemas no se vieran perturbados por los flujos de información del presente, y eso significa que con ello han congelado el lenguaje como si fuera una base de datos al haber recabado esa información de manera totalizadora. Una vez obtenido todo ese tesauro se procede a análisis estadísticos de procesamiento matemático, se somete todo eso a esquemas lógicos y a ecuaciones probabilistas, de forma que hasta en Whatsapp vamos a escribir y ya adivina lo que voy a decir en base a sus cálculos estadísticos, con lo que lo que tenemos no es una IA que ayude sino que crea y dirige el lenguaje a partir de decisiones algorítmicas. Todo esto cae en un régimen de conformidad humana, adhiere a los usuarios a la ecuación probabilista más común, y dirige lo que pensamos.

Sadin dice que apliquemos esto a las decisiones políticas y sociales y nos veremos dirigidos por algo que no somos nosotros. Hasta hora éramos responsables de lo que decíamos y de la información que intercambiábamos, y no sabíamos qué palabra iríamos a poner más adelante, pero ya no, ya nos llenan de alternativas que nos acosan y elegimos, y nos vemos que hemos perdido «una relación con el lenguaje que no tiene nada que ver con una ecuación probabilista sino con una dimensión indeterminista, que es el lugar de la creatividad humana». El lenguaje ha logrado ser esquematizado, industrializado, «apesta a muerte, un lenguaje necrosado porque está únicamente volcado hacia el pasado en una relación rígida, esquematizada».

Sadin analiza así las consecuencias civilizatorias de la AI (se olvida, por ejemplo, de que ese freno a la información presente ya está quitado en casi todos los modelos de lenguaje de la AI existentes, incluido el Chat GPT, quienes ya se conectan con la Internet a tiempo real). Tilda de fundamentalismo a la creencia ciega en la AI que, además, atrae y genera movimiento, y prevé lo más horrible para las democracias y para la humanidad si no la frenamos y dominamos como a un caballo pura sangre.

En fin. Eliezer Yudkowsky, miembro del Instituto de IA de la Universidad de Berkeley, dijo hace pocas semanas en The Guardian, que «la gente no es consciente del peligro hacia el que nos dirigimos, motivo por el cual tenemos pocas posibilidades de que la humanidad sobreviva, y tengo la sensación de que, mirando nuestro calendario actual, estamos más cerca de que suceda en cinco años que en cincuenta años. Podría ser en dos años, podrían ser diez». Yudkowsky señala como motivo la velocidad evolutiva de la AI, incapaz el humano de alcanzarla, y nos insta: «No lo veas como un cerebro en una caja, sino como una civilización extraterrestre que piensa mil veces más rápido que nosotros», y aconseja que la única forma de escapar es «cerrar las granjas de ordenadores donde se cultivan y entrenan las inteligencias artificiales». Exagerados. Es peor, pero hay soluciones y destinos ya previstos.