El uso de herramientas tecnológicas para crear contenido falso abre nuevas formas de agresión que preocupan por su alcance y facilidad de difusión.
La inteligencia artificial se ha convertido en una herramienta que también puede ser utilizada para ejercer violencia, especialmente contra mujeres, a través de contenidos manipulados como imágenes, audios o videos falsos conocidos como deepfakes.
Este tipo de tecnología permite generar material de forma masiva y anónima, lo que facilita su uso para dañar la reputación o vulnerar la privacidad. De acuerdo con estudios citados, el 98% de los videos deepfake en internet son de carácter pornográfico y el 99% afectan a mujeres, lo que evidencia un problema con fuerte sesgo de género.
El impacto ya no es hipotético. Casos recientes muestran cómo estas herramientas han sido utilizadas para alterar miles de fotografías reales y convertirlas en contenido íntimo sin consentimiento, lo que después se distribuye en plataformas digitales, amplificando el daño.
Además, especialistas advierten que los propios modelos de inteligencia artificial pueden reforzar estereotipos, al reproducir ideas donde los hombres aparecen como dominantes y las mujeres en roles limitados. Esto, sumado a fenómenos como comunidades digitales misóginas, contribuye a normalizar distintos tipos de violencia.
Frente a este panorama, se plantean varias acciones. Entre ellas destacan impulsar una educación crítica sobre el uso de estas tecnologías, fomentar el desarrollo de sistemas con enfoque de equidad desde su diseño y realizar auditorías que detecten sesgos o riesgos. También se considera clave fortalecer leyes y mecanismos que sancionen la violencia digital y protejan a las víctimas.
El desafío no es menor. La expansión de la inteligencia artificial avanza rápidamente y, con ella, la necesidad de establecer límites claros para evitar que la innovación tecnológica se convierta en una herramienta de agresión y desigualdad.
