Suscríbete

La Provincia - Diario de Las Palmas

Contenido exclusivo para suscriptores digitales

Amalgama

Enjambres de robots

Juan Ezequiel Morales

La página autonomousweapons.org, de la organización Lethal AWS, se encarga de informar, advertir y buscar soluciones a los nuevos robots y drones que funcionan con Inteligencia Artificial, y debido a su alta letalidad, deberían ser considerados armas de destrucción masiva similares a las nucleares. Uno de los videos mostrados por Lethal AWS para ilustrar los peligros de estas armas, va así. El presentador dice: “¿Lo mueve un piloto? No. Esta habilidad es de la Inteligencia Artificial. El aparato se pilota a sí mismo. Su procesador puede reaccionar cien veces más rápido que un humano”. Entonces se ve un dron cuyo tamaño hace que quepa en la palma de la mano del presentador: “Esta es la nueva arma autónoma que acaba de presentar una marca puntera de material militar. Su movimiento aleatorio es una defensa anti-francotiradores”. Y se ve al dron moviéndose como una avispa de forma aleatoria: “Al igual que cualquier dispositivo móvil actual, el robot tiene cámaras y sensores, y al igual que vuestros móviles y aplicaciones de redes sociales tienen reconocimiento facial, también el robot las tiene. Dentro lleva tres gramos de carga explosiva”.

Y para mostrar cómo funciona, la tira al aire desde su mano, y el arma se dirige por reconocimiento facial a un maniquí, reconoce la cara del maniquí, se le acerca y le pega un tiro que atraviesa el cerebro por su parte frontal: “¿Lo habéis visto? Este pequeño bang es suficiente para penetrar en el cráneo y destruir su contenido. Este es el poder de una unidad, pero se trata de un arma pensada para actuar en grupo”. El presentador sigue: “Esto es un ataque de precisión quirúrgica, es uno de nuestros múltiples productos, que usados en grupo pueden penetrar edificios, casas, trenes… esquivar gente, balas, prácticamente esquivar cualquier contraataque. No pueden ser detenidos. Pero ya os he dicho que esto era más grande ¿Por qué? Mirad”. Entonces se ve un avión de carga, y se abren unas compuertas, de las cuáles salen miles de mini-drones letales, como un enjambre, que se dirigen a algún sitio, y sigue: “Con un pedido de 25 millones de dólares, se puede adquirir esto, suficiente como para destruir a media ciudad, suficiente para matar a media ciudad, a la mitad mala; las armas nucleares están obsoletas, ya que con estas nuevas eliminas completamente a tu enemigo, prácticamente sin ningún riesgo, solo has de describirlo”, y aparece entonces un panel para el director del enjambre de drones, donde se muestra la descripción de los objetivos: edad, sexo, fitness, uniforme, etnicidad. Y propone: “solo describe al enemigo, libera el enjambre y descansa tranquilo”. Y el final de la presentación: “¿Lo mueve un gran piloto? No. Esta habilidad es todo Inteligencia Artificial”.

La Organización Lethal AWS advierte de que la era en la que los algoritmos deciden quién vive y quién muere ya está sobre nosotros, aconseja que debemos actuar ahora para prohibir estas armas letales y masivas, pues son peligrosamente impredecibles en su comportamiento: “Las interacciones entre algoritmos basados en el aprendizaje automático y un contexto operativo dinámico hacen que sea extremadamente difícil predecir el comportamiento de estas armas en entornos del mundo real. Además, los sistemas de armas son impredecibles por diseño; están programados para comportarse de manera impredecible con el fin de permanecer un paso por delante de los sistemas enemigos”. Esto fue en 2017, y el proponente era el investigador de inteligencia artificial Stuart Russell, quien presentó el cortometraje Slaughterbots en una convención en Naciones Unidas. Zachary Kallenborn, especializado en sistemas no tripulados de robots-enjambres, el 28 de mayo de 2020, advertía que numerosos estados están desarrollando “tanto tecnología de enjambre de drones como armas autónomas”, y están en ello Estados Unidos, Rusia, China, Corea del Sur, el Reino Unido y otros.

La ONU reconoció, en 2020, que ya estas armas letales autónomas han sido probadas en Libia. Hagamos ahora un poco de prospectiva, por ejemplo, con los sistemas de control erróneamente atribuidos a Pfizer, según indica Newtral. El 3 noviembre 2021 se mostró como bulo una patente licenciada en Estados Unidos sobre un sistema de identificación de poblaciones mediante dispositivos electrónicos, atribuyéndosele a Pfizer para el rastreo de los vacunados. Newtral habló con Gal Ehrlich, autor israelí de dicha patente, que se titula “Métodos y sistemas para priorizar tratamientos, vacunación, pruebas o actividades mientras se protege la privacidad de las personas”, y fue concedida el 31 de agosto de 2021. Ehrlich comunica a Newtral que su patente no tiene ningún vínculo con la vacuna contra la Covid-19 de Pfizer y BioNTech, y se trata de un sistema que, a través de dispositivos electrónicos, permite determinar qué grupos poblacionales son prioritarios a la hora de recibir una vacuna o un fármaco contra una enfermedad infecciosa en función de sus interacciones sociales: “Nuestro sistema parte de la idea de que las medidas preventivas (incluyendo las vacunas) contra una enfermedad infecciosa que puede transmitirse por gotículas o por vía aérea tendrían un mejor rendimiento epidemiológico si se aplican primero a aquellas personas que tienen más interacciones sociales”, y se las controla por bluetooth. Esto da idea de lo que se puede conseguir para construir un target, ya sea por etnicidad, por condición social, por situación económica, etcétera, si aplicamos el método de Ehrlich. Por ejemplo, si hubiera un sistema que recopilara los datos de todas las personas que sean ciudadanos vacunados, como ocurre con el pasaporte vacunal europeo, los drones pueden tanto acudir a matar a quienes tengan el pasaporte, como a quienes no lo tengan. La población ya está marcada. El filósofo Max Tegmark, uno de los sabios mundiales sobre la Inteligencia Artificial, advirtió contra estas armas letales inteligentes y autónomas, en una entrevista de Alexander Armbruster en el Frankfurter Allgemeine, el 29 de noviembre de 2021, Tegmark explotaba: “¡Prohíban las armas autónomas letales!”. Pero ya es tarde. El target ya está contabilizado, el grupo a exterminar o “emmerder” (en la delicada expresión francesa de Macron) ya está listado, por acción o por omisión. Están los vacunados y los no vacunados. Las armas son altamente escalables, es decir, una vez producidas y disponibles en el arsenal, basta con pocos pilotos para manejarlas. En la guerra clásica a más armas se necesitaban más soldados, pero ya no es así con la IA, pues una vez puestos en marcha los enjambres de “Slaughterbots”, se disparan solos. Solo hay que aprobar presupuestos y señalar desde los gobiernos a quién le toca ser “emmerdé”. Y ojo, depende de quien esté gobernando, el target puede ser cualquiera de los dos grupos clasificados.

Compartir el artículo

stats