Más del 90 % de las imágenes creadas por Inteligencia Artificial (IA) son de pornografía no consentida y casi la totalidad de las víctimas son mujeres, advierte la periodista y corresponsal de Género de EFE, Violeta Molina, que ha participado este martes en un foro en la Universidad de Santiago sobre medios de comunicación e igualdad.
Bajo el lema "Intelixencia artificial: una ferramenta para a igualdade?" diferentes expertos en Inteligencia Artificial y en comunicación e igualdad de género han abordado en la Facultad de Ciencias de la Comunicación de la USC los pros y los contras de la IA en materia de igualdad a través de distintos paneles y charlas.
Organizado por la Asociación de Periodistas de Galicia (APG), el foro ha sido inaugurado por la conselleira de Promoción do Emprego e Igualdade, Elena Rivo y en él también han participado la presidenta de la APG, María Méndez; y el rector de la USC, Antonio López.
En su intervención, la periodista Violeta Molina ha señalado que una IA que "solo pone el foco en un mundo hecho por hombres y en unos datos que reflejan exclusivamente las realidades masculinas y obvian las femeninas no puede ser una buena Inteligencia Artificial" y que se trata de una inteligencia "parcial y sesgada", por lo que es necesario que exista una industria tecnológica "diversa" para que la IA sea "representativa de toda la sociedad" y así evitar discriminaciones.
"Una IA sin perspectiva de género, que bebe de datos machistas, misóginos e incluso violentos va a reproducir prejuicios y estereotipos y va a perpetuar brechas y desigualdades e incluso va a generar violencias", ha destacado.
Aunque la UE ya trabaja para evitar estas consecuencias negativas, Molina apunta que todavía un 85 % de las personas que programan y entrenan este tipo de tecnologías son hombres.
Además, se ha referido al uso de la IA como medio para "violentar a las mujeres y a las niñas" y ha puesto como ejemplos casos conocidos de artistas cuyos rostros han sido utilizados para crear contenido pornográfico, así como el caso las menores de Almendralejo que sufrieron también este tipo de violencia machista digital.
"Las nuevas tecnologías pueden ser un campo de extensión de la violencia contra las mujeres. Es un reto enorme que exige soluciones a nivel europeo", ha expresado la periodista, que ha añadido que "con una única foto y sin el consentimiento se puede crear rápidamente un 'deep fake'".
En este sentido, ha aludido a que España dispone de una herramienta esencial para eliminar este tipo de contenidos en las redes a través de la Agencia Española de Protección de Datos, pero que todavía no existe una legislación que castigue este delito.
Sin embargo, Molina ha puntualizado que la herramienta entra en escena "cuando el daño ya ha sido producido", por lo que es necesario evitarlo "antes" a través de "la educación sexual y en igualdad desde edades tempranas".
"Un chaval tiene que tener claro que un vídeo porno sin consentimiento con la imagen de tu ex novia o tu compañera de clase es un comportamiento inadmisible y violento. También hay que exigir la implicación ética de la industria tecnológica, tanto en el control y filtrado de estos contenidos como en la difusión", ha declarado.
Según un informe del Observatorio Nacional de Tecnologías y Sociedad, el 54 % de las mujeres que han sufrido acoso a través de redes sociales ha experimentado ataques de pánico, ansiedad o estrés; el 42 % de niñas y jóvenes que han sufrido acoso online han mostrado estrés emocional, baja autoestima y pérdida de confianza y una de cada cuatro mujeres de entre 16 y 25 años en España ha recibido insinuaciones inapropiadas en Internet.
Para Molina es importante tener en cuenta "esta visión pesimista del uso de la tecnología", aunque también ha afirmado que la IA puede ser una aliada a través de la "justicia algorítmica", que busca crear algoritmos que sean capaces de mitigar los patrones de discriminación y de detectar los sesgos y contrarrestarlos computacionalmente, atendiendo a diferentes variables como el sexo, la raza o de condición social.
Así, ha puesto como ejemplos el sistema policial VioGen que calcula el riesgo que tiene una víctima de violencia de género de volver a ser agredida por su pareja a través de IA o el proyecto de la universidad Carlos III de Madrid UC3M4Safety que "trabaja con IA para detectar la reacción de miedo que se produce en una mujer maltratada ante una situación de peligro y enviar una señal de alarma de manera automática".
Envía tu noticia a: participa@andaluciainformacion.es