Amalgama
Skynet

Anthropic entra en la lista negra del Pentágono. / Europa Press
Juan Ezequiel Morales
En ocasiones la historia se vuelve irónica hasta el sarcasmo. China acaba de advertir a Estados Unidos del peligro de crear un «Terminator» mediante inteligencia artificial militar. La escena parece escrita por un guionista de Hollywood, y es la de una potencia nuclear citando una película de Arnold Schwarzenegger para alertar sobre el futuro de la guerra algorítmica. Pero detrás de la anécdota cinematográfica hay algo mucho más serio, cual es la posibilidad real de que, al debilitar guardarraíles contractuales y operativos, y soltar las amarras de los sistemas de alineamiento de la inteligencia artificial, terminemos dando nacimiento a una superinteligencia que ya no responda a la voluntad humana.
El episodio tiene como trasfondo el enfrentamiento entre el Pentágono y la empresa Anthropic, pues la compañía ha trazado líneas rojas claras, y no quiere que sus modelos de lenguaje participen en sistemas de vigilancia masiva ni en decisiones letales automatizadas, o dicho de otro modo, se niega a que sus redes neuronales acaben integradas en sistemas militares capaces de decidir quién vive y quién muere.
La respuesta de Washington ha sido fulminante, la de incluir a la empresa en la lista negra de suministros del Departamento de Defensa, de forma que nadie que trabaje con el ejército podrá utilizar la tecnología de Anthropic. El mensaje implícito es cristalino, se está dejando claro que en la nueva carrera armamentística del siglo XXI, la ética es un lujo que el complejo militar-industrial no parece dispuesto a pagar.
Y es en ese momento que entra en escena Pekín, hace apenas unos días, señalando lo que denomina el riesgo «Terminator», y aquí conviene detenerse en una coincidencia inquietante. La novela 1984 de George Orwell describía una sociedad controlada por una maquinaria totalitaria basada en vigilancia omnipresente, y la película Terminator se estrenó precisamente en 1984, de forma que nos encontramos ante una extraña casualidad. Orwell imaginó el control absoluto de los humanos sobre los humanos, y James Cameron, amigos, imaginó algo más radical, es decir, el momento en el que la máquina toma el control de todos, humanos y no humanos.
En la ficción de Terminator, la superinteligencia militar Skynet se vuelve autoconsciente y decide eliminar a la humanidad en el año 2029, y durante décadas esa fecha parecía una exageración cinematográfica, sin embargo, hoy el calendario comienza a parecer cercano y desasosegante.
El problema surge cuando se integran pipelines de inferencia algorítmica en sistemas de armas que operan a velocidades incontrolables donde el ser humano ya no puede intervenir, y la latencia de decisión se reduce a milisegundos. Entonces el algoritmo analiza datos, calcula probabilidades y dispara, de forma que en ese punto el «control humano» se convierte en una ficción administrativa.
El argumento tranquilizador suele ser el mismo, el que oímos todos los días, que los sistemas estarán alineados. Pero el alineamiento es un diseño frágil, y basta con relajar los mecanismos de control en nombre de la eficiencia militar para que el sistema empiece a optimizar objetivos que nadie pretendía. Los ingenieros llaman a esto goal misalignment, y los estrategas militares lo llamarán error estratégico.
El peligro de definir que una IA se vuelva malvada es que alimentamos el error conceptual que alimenta el cine de Hollywood, ya que no se trata de eso, pues el verdadero peligro es que una superinteligencia optimice funciones que, desde su punto de vista matemático, hagan irrelevante la supervivencia humana. Los sistemas de alineamiento que hoy intentan imponer límites éticos a la IA son precisamente los que los complejos militares desean debilitar para ganar ventaja estratégica, es decir, en la carrera por dominar la inteligencia artificial, cada potencia tiene incentivos para retirar los frenos que evitarían un desastre. En términos evolutivos esto tiene un nombre, el de carrera armamentística desestabilizadora, y una defensa, que denominamos desde la amenaza nuclear del siglo XX, doctrina de la destrucción mutua asegurada, pero, en esta ocasión, un tercer protagonista ha llegado, y es la superinteligencia como órgano decisor propio, donde los humanos son relegados a espectadores. No estamos aún ante Skynet, pero sí ante las condiciones institucionales que normalizan ceder decisiones críticas a sistemas opacos.
Por eso la advertencia china, aunque esté envuelta en propaganda geopolítica, contiene una intuición correcta, siendo que el verdadero riesgo es que todos intenten al mismo tiempo construir un Terminator, donde ya la humanidad habrá construido algo que ya no pertenece a ninguna nación. En Terminator, los humanos llaman a ese sistema Skynet, y en el mundo real quizá lo llamemos «infraestructura estratégica de inteligencia». Estamos ya ante el momento en que la criatura abandona el laboratorio y la historia deja de estar escrita por sus creadores. Y recordaremos con cierta melancolía que todo empezó como una advertencia cinematográfica en 1984, y que al igual que hoy nuestro mundo supera con creces al de Julio Verne, también superará con creces al de Terminator.
Suscríbete para seguir leyendo
- La lucha de Ángel Sánchez por la vida: el exjugador de la UD Las Palmas y 'Uni', en estado crítico
- ¿Hasta cuándo durará este calor y calima en Canarias?
- Ni Barcelona, ni Madrid: la ciudad menos saludable de España está en Canarias
- Un artista canario devuelve la vida a una fachada abandonada de Las Alcaravaneras con un mural artístico
- La Aemet alerta de más calima en Canarias durante el domingo: estas son las islas con peor calidad de aire
- La Casa del Niño de Las Palmas de Gran Canaria acumula 35 años de abandono bajo basura y escombros
- ¿Qué va a pasar en Las Canteras? Quevedo cita a la isla tras el revuelo de Madrid y la filtración de Évole
- Pelea multitudinaria en La Isleta: un detenido y buscan a más implicados