Quantcast
El tiempo en: Andalucía
Viernes 19/08/2022  

Sociedad

¿Se puede garantizar una inteligencia artificial justa?

¿Se puede garantizar una inteligencia artificial justa? ¿Se pueden configurar algoritmos que respeten los derechos humanos? ¿Hay ética en la robótica?

Publicidad AiPublicidad AiPublicidad Ai Publicidad AiPublicidad Ai Publicidad Ai
  • Tecnología y datos.

¿Se puede garantizar una inteligencia artificial justa? ¿Se pueden configurar algoritmos que respeten los derechos humanos? ¿Hay ética en la robótica? Estas son algunas de las preguntas que intentará resolver un seminario web que la Universitat Oberta de Catalunya (UOC) celebrará mañana de manera virtual.

El investigador de la UOC Joan Casas-Roma ha recordado que ya han pasado dos décadas desde que Gianmarco Veruggio acuñara el término roboética, un campo de la ética aplicada que estudia las implicaciones positivas y negativas de la robótica para evitar el mal uso de robots y productos y servicios basados en la inteligencia artificial (IA). 

"Como la IA está cada vez en más sectores de nuestras vidas, los efectos que los algoritmos de la aplicaciones de IA pueden tener sobre las personas y la sociedad son cada vez potencialmente mayores", ha advertido Casas-Roma. 

El experto pone como ejemplo lo ocurrido durante la pandemia de covid en el sistema educativo británico, que usó un sistema automatizado para, a través de datos de los estudiantes, predecir la nota que estimaba que habrían obtenido en un examen que, debido al confinamiento, no se pudo llevar a cabo. 

Bajo el eslogan "Fuck the algorithm", los estudiantes salieron masivamente a la calle cuando se publicó la predicción del algoritmo, que resultó ser, en opinión de los profesores, muy inadecuada. 

"Lamentablemente, se pueden poner muchos ejemplos de cómo, si no se tiene en cuenta la ética, la IA puede cometer errores graves. Algunos están relacionados con sesgos e injusticias en técnicas de aprendizaje automático", según el investigador.

Casas-Roma cita el caso de un sistema automatizado usado en procesos de selección de una compañía multinacional que tomaba decisiones desfavorables hacia las candidatas mujeres porque los datos usados para entrenar el sistema ya mostraban una desigualdad de género. 

"Los que tenemos que incorporar los códigos éticos somos las personas que programamos las máquinas y tomamos decisiones con los datos que estas nos brindan", ha dicho la profesora de la UOC Anna Clua.

"Las máquinas no piensan. Hacen", subraya Clua, para quién el uso de la IA debe ser ético por definición, "ya sea en las aplicaciones de nuestros teléfonos móviles o en los algoritmos con los que los hospitales criban las urgencias. Reconocer los derechos de las personas y cumplir las leyes, como la de protección de datos, es una condición sine qua non de utilizar la IA desde todos los campos".

Recientemente, el Consejo de la Información de Catalunya (CIC) ha publicado unas recomendaciones para el buen uso de los algoritmos en las redacciones de los medios de comunicación que están en sintonía con el código deontológico de la profesión periodística.

El campo de la IA ética se ha convertido en un área de investigación importante y de ello se hablará en el seminario web de data science de la UOC, que se celebrará mañana miércoles bajo el título "Preguntas frecuentes en la inteligencia artificial". 

A partir de diferentes casos de estudio, varios expertos revisarán los principios éticos para una IA confiable y reflexionarán sobre cómo aplicar la tecnología sin vulnerar los derechos humanos.

Según Casas-Roma, entre las líneas de investigación que están centrando más esfuerzos se encuentra el tratamiento y procesado de los datos para evitar que un sistema de IA basado en aprendizaje automático extraiga correlaciones sesgadas e injustas, por ejemplo, a través de datos demográficos.

Otra de las líneas que se está explorando es poder seguir, entender y valorar las decisiones tomadas por un sistema de IA. 

Es el campo conocido como IA explicable o explainable AI (XAI), "que busca evitar el efecto 'caja negra' en que, con unos datos de entrada concretos, un sistema de IA toma una decisión específica, pero sin que exteriormente un humano pueda entender qué proceso de razonamiento ha llevado al sistema a tomar esa decisión, y no otra diferente", ha explicado Casas-Roma.

También están estudiando crear agentes morales artificiales, que incorporarían "una forma de identificar, interpretar y valorar la dimensión moral de las decisiones de la IA para que sean éticamente aceptables", ha concluido el experto.

TE RECOMENDAMOS