Amalgama

La IA y la transmisión cultural

La forma en la que aprende el cerebro humano es diferente a la estrategia utilizada por los sistemas de Inteligencia Artificial (IA).

La forma en la que aprende el cerebro humano es diferente a la estrategia utilizada por los sistemas de Inteligencia Artificial (IA). / Crédito: Universidad de Oxford.

Juan Ezequiel Morales

Juan Ezequiel Morales

Esto se desmadró. Con más de ocho mil millones de humanos sobre la tierra como masa biológica interconectada, ordenada socialmente, y redistribuidos los alimentos, aunque sea malamente, un pequeño porcentaje de ellos es suficiente para que, trabajando en red, conectados por la internet y utilizando modelos de lenguaje autónomos como el GPT-4 de OpenAI, ya la investigación tecnológica (no científica, pues la ciencia vuelve a ser un tema de filósofos) camina sola. Está en manos de los que mejor utilicen los prompts (los comandos que hacen la mejor pregunta para obtener la mejor respuesta). Pronto llega Gemini. Todos inundando, a su vez, la Realidad Virtual que ya se populariza, dando saltos bestiales de manos de Meta (con Quest3) y Apple (con la realidad extendida de la próxima Vision Pro).

Aplicados los modelos de lenguaje a la tecnología, echémosles un vistazo a tres artículos recién publicados en la revista Nature, que nos llevan a otra dimensión. Uno de ellos es Investigación química autónoma con grandes modelos lingüísticos, de Daniil A. Boiko y colegas, en el número 624 de la revista, 20 diciembre 2023. En este artículo se advierte que los modelos de lenguaje gigantes (en acrónimo: LLM) procesan el lenguaje natural, el biológico, el químico, o el de programación de computadoras. Estudiaron las capacidades del modelo de lenguaje Coscientist, un sistema de inteligencia artificial impulsado por GPT-4 que, de forma autónoma, diseña, planifica y realiza experimentos complejos. Coscientist ha logrado, por ejemplo, muestran los autores, optimizar exitosamente la reacción de acoplamientos cruzados catalizados por paladio.

Los investigadores de OpenAI, desde marzo de 2023, han proporcionado pruebas de capacidad muy sustanciales, entre otras, percentiles altos en los exámenes expertos denominados SAT y BAR, desafíos de LeetCode, explicaciones contextuales de imágenes, y chistes de nicho, una de las pruebas que más acercan a la humanidad al modelo. Los autores demuestran que Coscientist, de forma autónoma, planifica síntesis químicas de compuestos conocidos utilizando datos disponibles públicamente, busca y navega eficientemente a través de una extensa documentación de hardware, utiliza documentación para ejecutar comandos de alto nivel en un laboratorio en la nube, controla con precisión los instrumentos de manejo de líquidos con instrucciones de bajo nivel, y resuelve problemas de optimización que requieren análisis de datos experimentales previamente recopilados.

De forma autónoma, planifica síntesis químicas de compuestos conocidos utilizando datos disponibles públicamente, busca y navega eficientemente a través de una extensa documentación de hardware

En otro artículo de Nature, publicado el 4 de octubre de 2023, en el volumen 622, titulado La teoría de ensamblajes explica y cuantifica la selección y la evolución, de Abhishek Sharma y colegas, se muestra cómo los LLM pueden acelerar y utilizar la teoría evolutiva, y plantean la Teoría de Ensamblajes como un marco que no altera las leyes de la física, sino que redefine el concepto de «objeto» sobre el que actúan estas leyes, conceptualizándolos no como partículas puntuales, sino como entidades definidas por sus posibles historias de formación, con lo que capacitan para reimaginar el concepto de materia, y hacen que la física emerja a escala química, y la contingencia causal influya en lo existente. La Teoría de Ensamblaje estima que un objeto es finito, es distinguible, persiste en el tiempo y es rompible. Esta definición es, en cierto sentido, opuesta a la física estándar, que trata los objetos de interés como fundamentales e irrompibles (por ejemplo, el concepto de «átomos» como indivisibles, que ahora se aplica a las partículas elementales). En la Teoría de Ensamblajes se reconoce que la unidad más pequeña de materia puede no ser fundamental en sí misma. Para ello se hace preciso una capacidad de proceso de datos impresionante, y los LLM la empiezan a dar.

Y llegamos al tercer estudio que queremos citar, Learning few-shot imitation as cultural transmission, de Avishkar Bhoopchand y colegas, publicado en Nature Communications, volumen 14, el 28 de noviembre de 2023. El artículo que más se acerca a imitar al humano a su imagen y semejanza. Concretan los autores que la inteligencia puede definirse como la capacidad de adquirir nuevos conocimientos, habilidades y comportamientos de manera eficiente en una amplia gama de contextos. La inteligencia humana se desarrolla adquiriendo esas capacidades de otros humanos. A eso se le denomina cultura, y a su transmisión se le denomina transmisión cultural, por ejemplo: copiar una receta nueva vista en televisión, seguir al líder en una visita guiada, enseñar a un colega cómo funciona la impresora, etcétera. Lo que se pretende es generar un agente artificialmente inteligente capaz de realizar una sólida transmisión cultural en tiempo real a partir de coprotagonistas humanos en una rica simulación física en 3D. Se introducen en el «aprendizaje observacional», la «imitación», y se aborda el «problema de la correspondencia». Lo que pretenden es que ese tipo de operaciones las efectúe un Agente Artificial, y que adopte desde cero una habilidad muy puramente humana. El Agente Artificial está parametrizado por una red neuronal. Por otra parte, la transmisión de grandes cantidades de datos a un servidor central para su entrenamiento puede suponer un problema de privacidad. Nuestro agente se adapta a los datos culturales humanos sobre la marcha y dentro de su memoria local, por lo que es robusto y preserva la privacidad. Esta última investigación ha sido de DeepMind, la empresa dependiente de Alphabet, la matriz de Google. En definitiva, y en base a una bien ordenada estructura de redes neuronales, el Agente Artificial busca al humano, aprende autónomamente por imitación, recuerda lo aprendido y lo aplica. En la presentación, en el entorno GoalCycle3D, había dos agentes, un humano real y un Agente Artificial. El humano enseñaba el juego al Agente Artificial, éste lo aprendía y luego de forma autónoma lo aplicaba y era capaz de jugar como si fuera un humano que hubiera llegado y aprendido desde cero.

Estamos a punto de una singularidad equivalente a la de cuando en el humano se despertó el lenguaje como capacidad y se hizo Sapiens. Ya el Sapiens puede hacer otros entes, artificiales, a su imagen y semejanza.