Universidad

Expertos ven necesario poner puertas al campo de la inteligencia artificial

El Consejo Social de la ULPGC impulsa el debate sobre la regulación de la IA con Francisco Hernández Tejera, Inmaculada Perdomo, Antonio Núñez y Javier Ercilla

De izquierda a derecha, Javier Ercilla, Antonio Núñez, Ángel Tristán, Francisco Hernández e Inmaculada Perdomo.

De izquierda a derecha, Javier Ercilla, Antonio Núñez, Ángel Tristán, Francisco Hernández e Inmaculada Perdomo. / Marcos De Rada

María Jesús Hernández

María Jesús Hernández

La inteligencia artificial es una herramienta que puede aportar muchos avances, como así se ha demostrado en campos importantes como el de la salud, pero extender su uso al conjunto de la sociedad, sin ponerles «puertas al campo» puede ser peligroso, de ahí la necesidad de regularla, e incluso de «crear una ética de la IA». En ello coinciden Francisco Hernández Tejera, catedrático de Ciencias de la Computación e Inteligencia Artificial de la ULPGC; Inmaculada Perdomo, profesora del Área de Lógica y Filosofía de la Ciencia de la Universidad de La Laguna; Antonio Núñez, catedrático de Tecnología Electrónica de la ULPGC; y Javier Ercilla García, juez del Juzgado de lo Social Número 10 de Las Palmas de Gran Canaria y experto en nuevas tecnologías.Los cuatro han participado en el segundo debate del Club de Humanidades que organiza el Consejo Social de la ULPGC que preside Ángel Tristán Pimienta, celebrado ayer en el Campus del Obelisco -Edificio de Humanidades- titulado Regulación de la Inteligencia Artificial: Equilibrio entre la protección de los derechos y libertades y el incentivo a la innovación tecnológica.

Javier Ercilla está a favor de la regulación y del acta que va a sacar la Unión Europea en torno a una serie de regulaciones sobre prohibiciones en cuanto al uso e incluso exenciones a los gobiernos para que puedan utilizar la inteligencia artificial en determinadas formas que para el resto de ciudadanos estarían prohibidas. «Es necesario regular para evitar, por ejemplo, la proliferación de fake news -noticias falsas-, y ese tipo de cosas que pudieran alterar el estado de derecho o incluso los derechos de las personas», indicó.

Para el investigador de la ULPGC, Francisco Mario Hernández Tejera, el principal problema que surge con la inteligencia artificial es la puesta en marcha al uso público de grandes sistemas sin tener suficientes pruebas y testeo. «Para sacar un medicamento al mercado tienes que seguir un protocolo que implica que la empresa debe invertir cinco años en distintos niveles de pruebas, para conseguir la certificación que le permite vender productos. Aquí esto no está ocurriendo, porque no hay ningún tipo de regulación. Es necesario que esto se regule como otros sectores que puedan generar riesgos para nosotros», apuntó el catedrático de la ULPGC. Puso como ejemplo los servicios en la red que emiten noticias falsas. «Las máquinas ya pueden suplantar la identidad humana, sobre todo en aplicaciones de web, hay servicios en los que estás interactuando con una máquina y tienes la sensación de que lo haces con una persona».

Hernández Tejera recordó que el sector tecnológico publicó hace dos meses, una carta abierta firmada por unos 28.000 investigadores y profesionales de la industria, pidiendo paralizar todos los experimentos seis meses y debatir qué hacer al respecto. «Esta sería una opción, que sería lo que se llama la autorregulación. La otra es la regulación pública, de los estados con normas claras acerca de cómo desplegar este tipo de sistemas, de manera que no generen inseguridades para el ciudadano».

«Los sistemas de IA son matemáticas, no tienen conciencia, no pueden evaluar los posibles daños»

Inmaculada Perdomo aseguró que hay bastante evidencia respecto a la necesidad de controlar o regular, para que no hayan efectos perjudiciales. «Ya se están viendo multitud de ejemplos donde se pueden incrementar o generar nuevas desigualdades y exclusiones». La profesora de la ULL, señaló que, si bien ya hay sistemas de IA que están muy controlados, en la nueva ola de la inteligencia artificial generativa, con aprendizaje autónomo, basado en un sistema de aprendizaje a través de las bases de datos, «todos los datos que nosotros mismos ponemos en circulación», hay bastantes sesgos y estereotipos que acaban reproduciendo esas IA. «En multitud de ámbitos puede tener efectos no deseados porque hablamos de sistemas de inteligencia artificial que son matemáticas, que no tienen conciencia, que no pueden evaluar los posibles daños, porque son procesos de tratamiento estadístico, de datos, así que claro que hay que regularla, pero no solo eso, yo defiendo también que hay que desarrollar una verdadera ética de la inteligencia artificial o tecnoética».

«Lo más práctico es exigir autorizaciones y licencias» para el uso de IA generales como ChatGPT

Núñez, se refirió también a las regulaciones sobre las que está trabajando el Parlamento Europeo y la UE, tanto en positivo como a las prohibiciones, en especial a la de aplicar IA en vigilancia biométrica, reconocimiento de emociones, acciones policiales predictivas potencialmente o discriminatorias. Expuso las diferencias entre las regulaciones específicas que se usan en la investigación científica sobre las que dijo que, «no hay necesidad de regular prácticamente nada», y las generales como ChatGPT que introducen riesgos a gran escala para la población y es necesario regular. «Lo más práctico es exigir autorizaciones y licencias para su despliegue, sujetas a superar pruebas de seguridad, transparencia, inocuidad, limitación de sesgo, no discriminación y neutralidad tecnológica. La UE está avanzando en esa regulación y al operar con licencias, se define un marco de responsabilidad y de sanciones»

Marco de convivencia

El catedrático de Tecnología Electrónica de la ULPGC opinó que la regulación debe respetar un marco de convivencia que blinde los derechos de los más débiles, pero considera que lo mejor es adaptarse personalmente al cambio, de forma que se cree «una cultura personal de no exponerse excesivamente a los nuevos medios de la sociedad de la información, de no enseñar demasiado, hay que aprender a mantener cierta privacidad, de lo contrario la IA va a conocer demasiadas cosas de ti, de tu perfil, y puede usarlo para fines que no nos gustaría conocer». Al mismo tiempo, propone crear una cultura para saber aprovechar las poderosas técnicas de inteligencia artificial para el trabajo personal.

Suscríbete para seguir leyendo