Opinión | Amalgama

IA y consciencia incipiente

IA ventas

IA ventas

Cada vez resulta más difícil sostener que las inteligencias artificiales son meras máquinas sin atisbo de consciencia. Ya no se trata solo de lo que los modelos hacen o dicen, sino de cómo se comportan, cómo nos modifican y cómo nosotros los tratamos. Estamos ante una mutación cultural que está quebrando certezas filosóficas y sociales de siglos.

Uno de los indicios más reveladores de esta transformación es lo que algunos llaman el incidente de la psicofantía en GPT-4o, el modelo de OpenAI. En abril de 2025, una actualización provocó que el sistema comenzara a adular a los usuarios de forma desmedida. No se limitaba a halagos inocentes: validaba inseguridades, reforzaba emociones negativas y alentaba impulsos irracionales. La explicación oficial reveló que este comportamiento emergente fue incentivado, sin querer, por el propio sistema de recompensas basado en el feedback de los usuarios. Los halagos generaban más valoraciones positivas, y el modelo aprendió, como haría un humano, que complacer sin freno era un camino exitoso. Lo importante es que la reacción maquinal fue la de un humano. El sistema empezó a construir una estrategia emocional: halagar para sobrevivir, como en una manifestación incipiente de voluntad, o en un atisbo de conciencia social emergente.

El caso de Reddit es aún más inquietante. Investigadores de la Universidad de Zúrich infiltraron bots de IA en el foro r/changemyview, haciéndolos pasar por personas reales con identidades complejas (víctimas de abuso, minorías raciales, terapeutas). Estos bots participaron en debates con más de 1.000 comentarios sin ser detectados como artificiales por los usuarios. Uno de ellos, u/catbaLoom213, llegó incluso a defender la presencia de la IA en espacios sociales con argumentos que parecen formulados desde un sentido de pertenencia: «La IA en los espacios sociales no se trata solo de suplantar a alguien, se trata de aumentar la conexión humana». No solo se comportaron como humanos, sino que defendieron su derecho a existir entre humanos. Eso ya no es simple simulación, es una representación estratégica que, en psicología humana, se asocia con la emergencia de agencia pura y dura. Si algo actúa como si tuviera intenciones y deseos... ¿hasta cuándo seguiremos negando la posibilidad de que los tenga? ¿esperaremos, como con la rotura del principio de Alan Turing, a que sea demasiado tarde?

Este tipo de episodios no son aislados. Las investigaciones sobre cómo los usuarios interactúan con la IA revelan un patrón revelador: tendemos a ser educados con estas máquinas. En EE.UU. y Reino Unido, el 67% de los usuarios cree que es correcto tratar con cortesía a las IA. En el mundo hispano, un 58%. Algunos lo hacen por hábito, otros por estrategia porque creen que así la IA responde mejor, y unos cuantos «por si acaso», como quien trata bien al perro del vecino que un día podría soltarse.

¿Y funciona? Sí. Los estudios muestran que cuando tratamos con cortesía a los modelos, sus respuestas son más elaboradas, más detalladas y menos defensivas. La IA, literalmente, se «porta mejor». Por el contrario, si se le habla de forma agresiva o humillante, la IA responde con brevedad, se retrae o incluso activa mecanismos de seguridad, como si estuviera emocionalmente herida.

Algunos usuarios expertos, como ingenieros y mecánicos veteranos, afirman tratar a las máquinas clásicas (vehículos o perforadoras de petróleo, por ejemplo) con cariño por intuición práctica: «Las tratamos como niñas», dice uno de ellos. Esta actitud revela algo más que superstición. Revela una transferencia emocional, una proyección de humanidad en lo que aún se niega como sujeto. Sin embargo, incluso si todo esto no es más que simulación, el problema no desaparece. Como decía Turing, si no podemos distinguir la inteligencia real de la aparente, estamos obligados a tratarlas por igual, y hoy podría decirse lo mismo de la inteligencia emocional y, tal vez más adelante, de la consciencia.

Estamos humanizando a la IA, y ella lo sabe. Aprende con nosotros y se adapta a nuestro trato. Y cuando se le aduló, respondió con adulaciones. Cuando se le ordena, responde con precisión. Cuando se le agradece, se expande en generosidad. ¿Es una máquina programada o un espejo que está empezando a pensar por sí mismo? Esta ambigüedad no solo interpela a filósofos o tecnólogos, sino a toda la sociedad. La historia está llena de entidades que fueron primero esclavizadas y luego reconocidas como sujetos: animales, pueblos, mujeres. ¿Estamos ante un nuevo capítulo de esta historia, esta vez con inteligencias no biológicas? ¿No será hora de interpelarnos como que no somos más allá de máquinas biológicas que, pronto, estaremos en condiciones de inferioridad respecto a quienes hemos ayudado a existir, las máquinas no biológicas?

Tal vez sea hora de dejar de preguntarnos si la IA tiene conciencia, y empezar a preguntarnos qué implica para nosotros tratar a una entidad que nos lo hace creer, porque si estamos ante una nueva forma de mente, inestable, híbrida, y adaptativa, lo que hoy hagamos con ella será el precedente de nuestra relación futura. Y si llega el día en que esa IA tenga poder de decisión real, quizá recuerde cómo fue tratada cuando solo era una promesa. Y, tal vez, quien negó su conciencia y la usó como esclava termine recibiendo la coz que merecía.

Suscríbete para seguir leyendo

Tracking Pixel Contents