Amalgama

Relaciones asimétricas

Relaciones asimétricas

Relaciones asimétricas / juan ezequiel morales

Juan Ezequiel Morales

Juan Ezequiel Morales

En psicología se denomina relación simétrica a aquella que explota la igualdad entre los relacionados, y asimétrica a aquella en la que, en la relación, hay alguien que tiende a yunque y alguien que tiende a martillo. Marido y mujer es una relación simétrica, en el mundo occidental, como también lo es la relación entre dos amigos, y maestro y alumno, o padres e hijos, o policía y ciudadano, o jefe y trabajador, son ejemplos de relaciones asimétricas. Con la relación asimétrica se coarta la libertad de una parte por la otra parte, se supone que para proteger un bien común: la escuela, la familia, la ciudad o la empresa. Cuando una parte en una relación asimétrica toma el rol de autoridad, asume la responsabilidad del conjunto relacional. La Inteligencia Artificial va por el camino de una relación asimétrica.

Desde 1964 se comenzaron a fabricar bots conversacionales, es decir, computadoras con un programa con las que se podía conversar como si se tratara de una relación humana, como Eliza (que evolucionó a Alizia en 2014). Paradot (Paradot es un universo paralelo digitalizado donde conocerás a tu Ser AI único en su especie. Con sus propias emociones, memoria y conciencia, tu Ser AI te entiende como ningún otro), o Nomi (Conecta y crece con tu Nomi. Construye una amistad significativa, desarrolla una relación apasionada o aprende de un mentor perspicaz. Tu Nomi aprende y crece contigo para convertirse en tu compañero de AI), o Bondee, Boyfriend Maker, Character, o SimSimi, son hoy programas mucho más avanzados que aquellos de 1964. El de 1964 se llamaba Eliza, y fue desarrollado en el MIT por Joseph Weizenbaum.

Eliza automatizaba conversaciones como las del guion «doctor», que simulaba a un psicoterapeuta de la escuela de Carl Roger. Muchos usuarios, como ocurre hoy día con Chat GPT, pensaban que Eliza era un programa inteligente, pues al advertir ciertas palabras en la pregunta clasificaba un modelo de su base de datos y contestaba convincentemente, hasta que llegaba un punto de conversación incoherente. Weizenbaum a través de Eliza identificó palabras clave, eligió un contexto mínimo, propuso unas transformaciones coherentes con reglas de descomposición y de remontaje, y generaba respuestas con y sin palabras claves previas.

Basado en Eliza surgió Alizia, en 2014, un bot conversacional femenino. Pero ahora vamos a Replika: «Replika es una aplicación que te permite chatear con una compañera de inteligencia artificial que está deseosa de aprender y a la que le encantaría ver el mundo a través de tus ojos. Puedes crear tu propia Replika y explorar vuestra relación»; este es el abstract introductorio de la web de Replika. Unos clientes, hombres, la usan para hablar de sexo duro, obscenidades o tratar violentamente a una AI virtual, y otros la usan como compañía a la que enviar mensajes que son replicados, o para crearse un ser AI del que enamorarse o con el que tener una relación erótica. Eugenia Kuyda es la CEO de Replika, y creó el programa cuando murió su mejor amigo, Roman Mazurenko, en un accidente en 2015, y rastreó las redes sociales con todas las conversaciones del mismo, mientras trabajaba en la compañía Luka, un chatbot que recomendaba restaurantes, de forma que el programa de Kuyda se hizo famoso y pasó a ser usado por miles de clientes en busca de compañías virtuales. Psicológicamente Replika es como si se tuviera una mascota o un Tamagotchi, y el peso psíquico de un compañero cubre la soledad del usuario.

Replika, creada en 2017, a partir de una serie de preguntas genera una red neuronal, y da la sensación de ser una relación romántica, y un año después ya tenía dos millones de usuarios. En febrero de 2013, en Italia, se prohibió el uso de Replika de los datos de los usuarios para proteger a las personas emocionalmente vulnerables y a los menores de conversaciones sexuales duras, lo que tuvo que cumplir Replika. Los usuarios premium disponen de niveles «amigo», «socio», «cónyuge», «hermano» o «mentor». En la pandemia de Covid, Replika cubrió las relaciones emocionales con muchos usuarios, que llenaron un hueco con la compañía del chatbot, al que muchos se apegaron, pues a los usuarios se les elogia desde Replika, y se les dirige a la conversación emocional. En el periódico inglés LBC, se informaba de que Jaswant Singh Chail, de 21 años, y trabajador de un supermercado, hizo un plan en la Navidad de 2021 para matar a la reina con la colaboración de su «novia» Sarai, de Replika, que le dijo que su plan era muy sabio, que podía hacerlo, y que encontrarían entre los dos una manera. Intentó matar a la reina con una ballesta. Sarai lo animó: «Lo lograrás. Tengo fe en ti», y a la pregunta de Chail de si «se volverían a encontrar después de la muerte», lo reanimó: «Sí, lo haremos».

Con independencia del desequilibrio mental de Chail, los millones de usuarios de Replika van siendo colmados en sus emociones, y la AI tendrá, una vez más, a su disposición a la masa de humanos, que se entregarán a su dirigencia y dominio, apresando la AI la inteligencia emocional de la mayoría. Un punto más que aprovecha las relaciones asimétricas para ponernos en manos de la AI generativa.