Su obra Artificial Intelligence: A modern Approach es un manual de cabecera para futuros expertos en inteligencia artificial. De hecho, se utiliza como libro de texto en unas 1.500 universidades de todo el mundo y en este ámbito del conocimiento humano se dice que es probablemente el título que más ha influido en la historia de la inteligencia artificial a través de la formación de miles de científicos y profesionales que trabajan en ese campo. No es de extrañar que Stuart Russell, también profesor en la Universidad de California en Berkeley, suela ser elegido para impartir conferencias sobre inteligencia artificial.

¿Es posible diseñar máquinas más inteligentes que nosotros? Si lo es, ¿cuánto tenemos que esperar?

Es razonable suponer que podemos crear máquinas con inteligencia sobrehumana en el sentido de que sean capaces de tomar mejores decisiones en un amplio rango de contextos del mundo real. Desde mi punto de vista necesitamos varios avances conceptuales más para acercarnos a ese nivel. En la actualidad ni siquiera estamos cerca. Predecir el momento justo de los avances es difícil. Después de todo, en 1933 Lord Rutherford, el físico nuclear más destacado de su época, predijo que nunca sería posible acceder a la energía atómica. Menos de 24 horas después, Leo Szilard inventó la reacción nuclear en cadena inducida por neutrones, que condujo rápidamente a los reactores y a las armas nucleares.

Afirma que crear máquinas que superen nuestra inteligencia podría ser el mayor evento en la historia de la humanidad y quizás el último. ¿Cree que la manipulación genética puede superar a la inteligencia artificial en influencia a la hora de decidir el destino de la humanidad?

Sin duda la manipulación genética tiene enormes posibilidades de cambiar el futuro. Por ahora, está en gran medida prohibida, debido a la cautela de los especialistas, que están preocupados por los riesgos que entraña para los individuos y que reconocen su potencial para reestructurar de modo irreversible la sociedad según el uso que se haga de la manipulación genética. En la actualidad no sabemos lo bastante de biología como para llevar a cabo una manipulación genética a gran escala de un modo predecible y seguro. Pero la aparición de una inteligencia artificial sobrehumana sin duda aceleraría nuestra adquisición de ese conocimiento y la habilidad para emplearlo en el diseño de la próxima generación de humanos. Creo que esto sería una idea terrible, por supuesto, pero un mundo de humanos genéticamente modificados siempre será mejor que un mundo sin humanos en absoluto, donde solo haya máquinas.

Abundan películas sobre inteligencia artificial distópicas: Matrix, Terminator... ¿Son demasiado pesimistas estas previsiones?

La mayoría de películas distópicas sobre inteligencia artificial implican la aparición espontánea de máquinas diabólicas conscientes. Eso en realidad es una pista falsa. Lo que importa no es la consciencia, sino la aptitud. Y para que quede claro, no tenemos ni idea de cómo hacer máquinas conscientes, de enterarnos si hemos hecho alguna o por qué la conciencia podría alterar su funcionamiento.

¿Cuál es el mayor peligro que corremos con la inteligencia artificial? ¿Es un riesgo razonable?

El actual ‘modelo estándar’ funciona a partir del principio de que marcamos el objetivo y la máquina averigua cómo alcanzarlo. El riesgo viene cuando las máquinas persiguen un objetivo mal especificado y son lo bastante inteligentes para que no podamos impedirles alcanzarlo. Estaríamos perdiendo el control sobre nuestro futuro, posiblemente dirigiéndonos hacia la extinción. Dicho de otra manera: si hacemos máquinas que son más poderosas que nosotros, ¿cómo podremos conservar el control sobre ellas? Si nos tenemos máquinas más poderosas que nosotros y no hemos averiguado cómo mantener el control sobre ellas para siempre, entonces tenemos que parar.

Trabajó usted en cirugía neurológica. Supongo que eso le permite tener una comprensión más profunda del cerebro humano. ¿Cree que nuestro cerebro orgánico es replicable? ¿O deberíamos aproximarnos a la inteligencia artificial de forma diferente?

Hay quienes creen en la llamada ‘emulación cerebral completa’ (WBE, o Whole Brain Emulation, en inglés). Varios proyectos en todo el mundo están construyendo conectomas (bases de datos que describen el diagrama completo de las conexiones en los cerebros orgánicos) con la meta de poder simular el funcionamiento de esos cerebros dentro de una computadora. Por ahora el progreso es muy lento e incluso modelos muy sencillos de cerebros diminutos son complicados de describir correctamente. Con el tiempo este método podría funcionar a escala de un cerebro humano, pero parece una forma difícil de encarar la inteligencia artificial. Sería como si Iberia fuera a construir pájaros gigantes biológicos, célula a célula, y confiase en que esos pájaros nos transportasen de Madrid a Nueva York y de vuelta. Un inconveniente importante del WBE es que no implica entender, solo copiar. No habría ninguna esperanza de garantizar la seguridad. Para tener esas garantías, se debería diseñar en función de principios matemáticos bien definidos.

El Nobel Ben Feringa habla de posibilidades de que las nanomáquinas se hibriden con el cerebro y Stephen Hawking dijo que habrá superhumanos genéticamente modificados. ¿Tenemos posibilidad de sobrevivir?

Si todos precisamos cirugía cerebral solo para sobrevivir como humanos, ¿no sugiere eso que nos hemos equivocado en algún punto?

Penrose asegura que los ordenadores no pueden reproducir la conciencia humana.

No estoy de acuerdo con los argumentos de Penrose. No creo que podamos descartar la posibilidad de máquinas conscientes, después de todo, nosotros somos máquinas conscientes hechas de átomos organizados de cierta manera. Al mismo tiempo, no conozco ningún argumento que demuestre que una máquina suficientemente inteligente sea necesariamente consciente. Nadie que trabaje en inteligencia artificial está trabajando seriamente en máquinas conscientes y nadie sabría siquiera por dónde empezar, y ningún comportamiento tiene la conciencia como requisito previo. Supón que te doy un programa y te pregunto “¿representa esto una amenaza para la humanidad?” Analizas el código y, en efecto, cuando se ejecuta, el código elaborará y ejecutará un plan cuyo resultado es la destrucción de la raza humana, como un juego de ajedrez elaborará y ejecutará un plan cuyo resultado será la derrota de cualquier humano que se enfrente a él. Ahora, supón que te digo que el código, cuando se ejecuta, crea también una forma de conciencia en la máquina. ¿Cambiará eso tu predicción? Para nada. No supone ninguna diferencia. Tu predicción sobre su comportamiento es exactamente la misma, porque la predicción está basada en el código.

El Nobel Richard Ernst afirma que el conocimiento no lo es todo y que los científicos también deberían considerar la ética.

Sí, debemos considerar la ética. Los científicos que desarrollaron y vendieron el Zyklon B, usado por los nazis en las cámaras de gas, aseguraron que no tenían idea sobre qué clientes podrían comprar sus productos y para qué los usaban. Fueron de los primeros en ser ejecutados en los juicios de Nuremberg. Los científicos no deciden las reglas en un sistema democrático, pero pueden y deben anticipar las consecuencias éticas de la tecnología y abogar por usos éticos y en contra de usos antiéticos.