Suscríbete

La Provincia - Diario de Las Palmas

Contenido exclusivo para suscriptores digitales

Camilo José Cela Conde

Miradas

Camilo José Cela Conde

Periodista

Ética

Un reportaje acerca de las consecuencias legales y éticas del auge de la Inteligencia Artificial se ha publicado en la edición de Internet del diario de mayor audiencia de España con un título de los que atrapan: ¿Se puede enseñar ética a un algoritmo? En realidad hace dos años que en ese mismo diario había aparecido, disfrazado de artículo, un publireportaje cuyo título era del todo semejante al preguntarse si se puede enseñar ética a una máquina. Como la única forma de hacerlo es mediante un algoritmo, en realidad lo que nos estamos planteando es cómo deberían ser los algoritmos que conduzcan a las máquinas a tomar decisiones que se ajusten a la ética humana, con lo que, como es natural, no se trata tanto de que los artilugios se vuelvan morales, cosa imposible, como de que quienes los diseñan sigan de forma escrupulosa criterios éticos a la hora de hacer cosas que pueden suponer riesgos físicos, psicológicos, económicos o de cualquier tipo para los seres humanos.

Lo difícil, por supuesto, es ponerse de acuerdo en el alcance de los supuestos riesgos y en su aceptación moral. Hace muchos años Isaac Asimov dictó las muy conocidas leyes robóticas y la primera de ellas prohibía a las máquinas hacer daño a los humanos ya fuese por acción u omisión. Pues bien, algo que en principio parece tan simple le dio la oportunidad a Asimov de escribir historias hermosísimas en las que el filo por el que se mueve el criterio moral permitía presentar paradojas inesperadas.

La literatura ha dado paso a la vida real y ahora nos encontramos, gracias al desarrollo de máquinas «inteligentes», es decir, con algoritmos lo bastante desarrollados como para ocuparse de conducir de forma automática un coche. Y lo que antes eran problemas éticos de tipo teórico como los que preocupan a los profesores de filosofía —bueno, a sus alumnos— se vuelven de pronto situaciones prácticas reales como es la decisión a tomar por parte de un coche de conducción autónoma que tiene que elegir entre seguir por la carretera con el riesgo de atropellar a cuatro insensatos que se han sentado en ella o desviarse con el riesgo de herir a un peatón que camina por la acera.

Ni que decir tiene que el reportaje del diario no aclara nada, salvo lo obvio. El director de investigación de una empresa de seguridad declara en él que la aplicación de las nuevas tecnologías a la vigilancia en infraestructuras de transporte se ha hecho con pleno respeto al actual marco legal de protección de datos y bajo una reflexión ética del uso de la Inteligencia Artificial. Sólo faltaría. La Comisión Europea ha anunciado el futuro reglamento en esa misma materia adelantando que los riesgos deben ser bajo o nulos y, si se dan, se deben garantizar los derechos fundamentales. Vamos, que no tenemos ni idea de qué criterios éticos se les darán a las máquinas.

Compartir el artículo

stats