RTS Medios

Ivana Feldfeber, directora ejecutiva de DataGénero y especialista en inteligencia artificial, habló en el programa Buena Mañana sobre el problema de las imágenes adulteradas mediante IA que afectan a mujeres de todas las edades en Argentina. Este fenómeno, conocido como deepfake, permite insertar el rostro de personas reales en contenido pornográfico sin su consentimiento, generando daños a su honor y privacidad.

En las últimas semanas, varios casos han puesto en evidencia la magnitud de esta problemática. En San Jerónimo Sud, circularon fotos y videos de 80 mujeres, y el principal sospechoso es un hombre de 49 años. En Chaco, alumnos de un colegio compartieron imágenes adulteradas de sus compañeras, mientras que en Buenos Aires, en el Colegio Agustiniano de San Andrés, un joven vendía fotos de sus compañeras. En este último caso, todo se descubrió cuando un varón se hizo pasar por comprador para obtener los datos del estudiante que comercializaba las imágenes.

Deepfakes y falta de regulación en Argentina

Feldfeber explicó que las deepfakes son generadas a partir de imágenes nítidas de rostros que se superponen a videos preexistentes, logrando resultados difíciles de distinguir de la realidad. “Es una tecnología que solo causa daño, sin ningún aporte positivo para la humanidad”, afirmó. Aunque existen programas para detectar estas imágenes, la falta de herramientas de fácil acceso limita su uso cotidiano.

Respecto a la legislación en Argentina, Feldfeber denunció una falta de marco jurídico claro. “Actualmente, casos como los ocurridos en Santa Fe apenas pueden ser investigados como daños al honor”, lamentó, abogando por una normativa específica. DataGénero, dijo, está impulsando proyectos de ley con perspectiva de género en el Congreso, que permitan sancionar estos delitos y establecer penas ejemplares para quienes los cometan.

No compartir para evitar el daño

Feldfeber también enfatizó el rol fundamental de los hombres en la circulación de este tipo de contenido y la necesidad de cortar con esa cadena. “Es central que los hombres dejen de compartir estas imágenes como si fueran un simple chisme o una noticia del momento”, explicó. Resaltó que difundir estas imágenes contribuye a la violencia y la difamación de mujeres y niñas que no han consentido aparecer en este tipo de material. “Cada vez que alguien reenvía estos videos, ayuda a perpetuar una mentira y a difundir una difamación”.

Además, destacó la importancia de que los hombres, en especial, comprendan el impacto devastador de estas imágenes en la vida de las mujeres afectadas. “Es crucial que no solo se frene la producción de estos contenidos, sino también su circulación, que a menudo depende de varones que actúan sin medir las consecuencias”.

Necesidad de una perspectiva de género y educación en IA

Para Feldfeber, es fundamental educar a la población, especialmente a niños y niñas, sobre los riesgos de la IA y el respeto por la privacidad. Además, subrayó la importancia de una legislación nacional y de un estándar regional en América Latina que emule las normativas avanzadas de la Unión Europea, para frenar los abusos vinculados a las deepfakes y otros usos perjudiciales de la IA.

AymurAI: IA con propósito social

Como ejemplo positivo, Feldfeber presentó AymurAI, un software desarrollado por DataGénero que usa IA para mejorar la transparencia judicial, analizando y sistematizando datos de sentencias judiciales relacionadas con la violencia de género. Este proyecto, orientado a mejorar el acceso a datos sobre desigualdades, permite ver patrones en las resoluciones de casos judiciales sin comprometer información privada.

“Queremos demostrar, con datos, que la violencia de género es una problemática específica que requiere un tratamiento diferenciado”, enfatizó Feldfeber, concluyendo que “regular la IA no es en vano; es urgente y necesario para la protección de las personas, especialmente de las mujeres, frente a estos ataques”.