Suscríbete

Contenido exclusivo para suscriptores digitales

AMALGAMA

El aviso

Fue el visionario Arthur Clarke quien primero insistió, pero en una época no muy creíble, de los peligros de la inteligencia artificial, en que las máquinas podían dejar de obedecer mecánicamente a los humanos para tener criterio propio

Por segunda vez en poco tiempo, tanto Elon Musk, como Stephen Hawking, como Bill Gates, han advertido, en una carta abierta, acerca de los peligros de la inteligencia artificial. Fue el visionario Arthur Clarke quien primero insistió, pero en una época no muy creíble, en que las máquinas podían dejar de obedecer mecánicamente a los humanos para tener criterio propio, un criterio autorreferencial que vulnerara los principios de Alan Turing y el Entscheidungsproblem, problema de decisión que debía encontrar un algoritmo general que decidiera si una fórmula del cálculo de primer orden es un teorema, lo cual se demostró, en la disciplina lógica, como imposible. De aquí se seguía a la tesis de Alonzo Church y Alan Turing que afirmaba, sin demostrarlo, que todo algoritmo es equivalente a una máquina de Turing. En los escritos de Clarke ya se intuía que los robots se visionaban como HAL, la máquina de 2001, Odisea en el Espacio, que al final desobedecía a sus creadores y decidía por sí misma, escenario que ha sido, desde entonces, reiterativo en la ciencia ficción. Pues esa sospecha ya está empezando a filtrarse a la vida humana real, la robotización de todas las actividades humanas, desde la compraventa de servicios y materias en la bolsa, hasta la aeronáutica, la sanidad, las comunicaciones, y sobre todo la Internet y también la Internet de las cosas, están rodeando al ser humano al punto en que es de prever que, tan pronto las comunicaciones sobre la Tierra lleguen a tener un intercambio de información tan grande como el que utiliza un cerebro humano (cien veces mayor que la información contenida en el genoma), se producirá un cambio de fase emergentista y, lo que hasta entonces es un producto del ser humano, tomará las riendas y pasará a ser un ente autorreferente que tomará decisiones propias y se protegerá contra la posibilidad de que lo apaguen. Es de lo que avisan Stephen Hawking, Elon Musk y Bill Gates. El documento inicial de Musk y Hawking fue elaborado por el Future of Life Institute, y llama a que los científicos atajen los poderes de la inteligencia artificial en el sentido de que, primero, en unos pocos años, generarán el paro de millones de personas, y luego, en una segunda fase, la inteligencia artificial empezaría a actuar en contra de su programa. Bill Gates, en Reddit, afirmó hace quince días: "Estoy en el bando de los que están preocupados por la superinteligencia. Primero, las máquinas harán un montón de trabajo para nosotros y no serán superinteligentes. Unas décadas después, la inteligencia artificial será lo suficientemente fuerte como para ser una preocupación". Como ejemplo de los avances, pensar en que, hasta hace unos diez años, una tesis doctoral podía basarse en el estudio y aislamiento de una sola proteína en el cuerpo, en los tiempos pregenómicos, pero ahora el 90% de todas las proteínas están en código abierto desde la página web www.proteinatlas.org, de un equipo científico sueco. Lo que podría haber sido motivo de 20.000 tesis doctorales a finales del siglo pasado, ya está a disposición del público en un solo portal. Algo está pasando y, seguro, de todos los avances que estamos viviendo, multitud de ellos tienen, sin que lo sepamos, un origen desconocido para nosotros, y situado en el núcleo de un ente superinteligente, o de varios.

Compartir el artículo

stats