/ martes 2 de abril de 2024

Pre-textos del caimán / El combate contra el “Porno deepfake”

Con los rápidos avances en Inteligencia Artificial (IA) el público es cada vez más consciente de que lo que ve en pantalla puede no ser real. ChatGPT escribirá de todo, desde un ensayo escolar hasta un poema insulso. DALL-E puede crear imágenes de personas y lugares que no existen. Stable Diffussion o Midjourney pueden crear un comercial de cerveza falso, o incluso un video pornográfico con rostros de personas reales que nunca se han conocido.

El fake porno es una manifestación alarmante del abuso digital, donde la tecnología se convierte en una herramienta para la manipulación y el daño. Esta práctica, que implica la superposición de imágenes y videos pornográficos con la cara de una persona sin su consentimiento, representa una violación flagrante de la privacidad y la integridad de las personas.

El llamado “porno deepfake” se ha vuelto cada día más común: los creadores aceptan solicitudes pagadas para producir pornografía con una persona elegida por el comprador, es así como existe una gran cantidad de videos falsos, no seguros, que flotan en sitios dedicados a deepfakes.

Sophie Maddocks, candidata a doctorado de le Escuela de Comunicación Annenberg, define a la deepfake como un contenido visual creado con tecnología de inteligencia artificial, al que cualquiera puede acceder a través de aplicaciones y sitios web. La tecnología puede utilizar algoritmos de aprendizaje profundo que están entrenados para quitar la ropa de imágenes de mujeres y reemplazarlas con imágenes de partes del cuerpo desnudas. Aunque también podrían “desnudar” a los hombres, estos algoritmos suelen mayoritariamente mostrar imágenes de mujeres.

Maddocks expresa que: “el auge de la pornografía con IA añade otra capa de complejidad, en donde las nuevas tecnologías como Stable Diffusion crean imágenes pornográficas falsas. Estas imágenes sexuales sintéticas son generadas por IA, en el sentido de que no representan eventos reales, sino que están generadas a partir de imágenes de personas reales, muchas de las cuales se comparten sin consentimiento. En los espacios en línea, es difícil separar las imágenes distribuidas consensualmente de las que no”.

Añade que crear imágenes eróticas falsas no es intrínsecamente malo. Los espacios en línea pueden ser una excelente manera de explorar y disfrutar tu sexualidad; sin embargo, cuando se crean y distribuyen imágenes falsas de personas desnudas sin su consentimiento, se vuelve profundamente dañino.

Por donde quiera que se le vea, es difícil imaginar soluciones que aborden la pornografía deepfake sin desafiar las normas culturales más amplias que fetichizan la falta de consentimiento de las mujeres. El aumento de la misoginia Online (en línea), a través del cual algunos hombres se perciben a sí mismos como víctimas cada vez mayores hacia la igualdad de género, crea las condiciones para que prolifere dicha pornografía como una forma de castigo dirigido a las mujeres.

Los deepfakes comenzaron a llamar la atención del público en 2017, y dos años después, en 2019, había mas de 14 mil videos deepfake en línea, el 96% eran pornográficos, todos esos videos presentaban a mujeres.

Por otra parte, también existe la “pornonografía de venganza”, la que se define como la creación o distribución no consentida de imágenes explícitas. Aunque los periodistas suelen utilizar este término, los supervivientes, activistas y otros expertos lo rechazan. Prefieren términos como “abuso sexual basado en imágenes”. Cuando se produce sin el consentimiento de la persona que aparece, la pornografía deepfake es un ejemplo de abuso sexual basado en imágenes.

En términos generales, las mujeres minoritarias y las prostitutas tienen más probabilidades de sufrir abuso sexual basado en imágenes, al igual que las personas solteras y los adolescentes. Las comunidades LGBTQ+ también corren un riesgo mayor de acoso. Se necesita más investigación para comprender cómo este daño afecta a otros grupos minoritarios, incluidas las personas trans y las trabajadoras sexuales, quienes paradójicamente para tener un mayor riesgo. Según Marina Azcarate: “existe una docotomía constante dentro de la tecnología que se pone de relieve cada vez que sale a la luz una nueva innovación. Por cada nuevo avance sorprendente que promete mejorar las vidas de todos y de la sociedad en su conjunto, existe una serie de posibilidades disfuncionales, más allá de lo sombrío, que lo acompañan. La IA y la realidad virtual han generado mejoras fantásticas en muchas industrias, optimizando todo, desde los procesos de producción hasta los esfuerzos creativos e incluso haciendo maravillas por la sostenibilidad. Como tal, no fue una gran sorpresa cuando la realidad virtual se filtró en la industria del porno. Sin embargo, la combinación de esta tecnología con la industria del porno ha dado lugar a una práctica inquietante: el porno deepfake.

Es una táctica insidiosa que puede tener consecuencias devastadoras. No solo se trata de una invasión a la privacidad de la persona afectada, sino que también puede causar un daño irreparable a su reputación y bienestar emocional. El fake porno puede ser utilizado como arma de acoso, difamación o extorsión, socavando la confianza y la seguridad de las víctimas.

Además, el fake porno perpetúa la cultura de la cosificación sexual y la violencia de género al convertir a las personas en objetos para el placer y la humillación. Contribuye a la deshumanización y la trivialización de las experiencias individuales, alimentando un ciclo de abuso y explotación en línea.

En este sentido, es fundamental tomar medidas para combatir el fake porno y proteger la integridad digital de todas las personas. Las plataformas en línea deben implementar políticas estrictas contra la publicación y difusión de contenido pornográfico manipulado o no consensuado. La legislación también debe adaptarse para abordar este tipo de abuso digital, estableciendo consecuencias claras para quienes lo perpetúen.

Además, es crucial fomentar una cultura digital más ética y responsable, donde el respeto a la privacidad y la dignidad de las personas sea una prioridad. Esto implica educar a las personas sobre los riesgos del fake porno y promover el consentimiento informado en todas las interacciones en línea.

En última instancia, proteger la integridad digital de todas las personas es un imperativo moral y ético en nuestra sociedad conectada. Debemos unirnos en la lucha contra el fake porno y trabajar juntos para crear un entorno en línea seguro, inclusivo y respetuoso para todos. Solo así podremos construir un futuro digital donde la dignidad y el bienestar de las personas sean siempre una prioridad indiscutible.

ernesto.jimher@gmail.com

X: @OsirisJimenez

Threads: Ernesto Jiménez Hernández

Con los rápidos avances en Inteligencia Artificial (IA) el público es cada vez más consciente de que lo que ve en pantalla puede no ser real. ChatGPT escribirá de todo, desde un ensayo escolar hasta un poema insulso. DALL-E puede crear imágenes de personas y lugares que no existen. Stable Diffussion o Midjourney pueden crear un comercial de cerveza falso, o incluso un video pornográfico con rostros de personas reales que nunca se han conocido.

El fake porno es una manifestación alarmante del abuso digital, donde la tecnología se convierte en una herramienta para la manipulación y el daño. Esta práctica, que implica la superposición de imágenes y videos pornográficos con la cara de una persona sin su consentimiento, representa una violación flagrante de la privacidad y la integridad de las personas.

El llamado “porno deepfake” se ha vuelto cada día más común: los creadores aceptan solicitudes pagadas para producir pornografía con una persona elegida por el comprador, es así como existe una gran cantidad de videos falsos, no seguros, que flotan en sitios dedicados a deepfakes.

Sophie Maddocks, candidata a doctorado de le Escuela de Comunicación Annenberg, define a la deepfake como un contenido visual creado con tecnología de inteligencia artificial, al que cualquiera puede acceder a través de aplicaciones y sitios web. La tecnología puede utilizar algoritmos de aprendizaje profundo que están entrenados para quitar la ropa de imágenes de mujeres y reemplazarlas con imágenes de partes del cuerpo desnudas. Aunque también podrían “desnudar” a los hombres, estos algoritmos suelen mayoritariamente mostrar imágenes de mujeres.

Maddocks expresa que: “el auge de la pornografía con IA añade otra capa de complejidad, en donde las nuevas tecnologías como Stable Diffusion crean imágenes pornográficas falsas. Estas imágenes sexuales sintéticas son generadas por IA, en el sentido de que no representan eventos reales, sino que están generadas a partir de imágenes de personas reales, muchas de las cuales se comparten sin consentimiento. En los espacios en línea, es difícil separar las imágenes distribuidas consensualmente de las que no”.

Añade que crear imágenes eróticas falsas no es intrínsecamente malo. Los espacios en línea pueden ser una excelente manera de explorar y disfrutar tu sexualidad; sin embargo, cuando se crean y distribuyen imágenes falsas de personas desnudas sin su consentimiento, se vuelve profundamente dañino.

Por donde quiera que se le vea, es difícil imaginar soluciones que aborden la pornografía deepfake sin desafiar las normas culturales más amplias que fetichizan la falta de consentimiento de las mujeres. El aumento de la misoginia Online (en línea), a través del cual algunos hombres se perciben a sí mismos como víctimas cada vez mayores hacia la igualdad de género, crea las condiciones para que prolifere dicha pornografía como una forma de castigo dirigido a las mujeres.

Los deepfakes comenzaron a llamar la atención del público en 2017, y dos años después, en 2019, había mas de 14 mil videos deepfake en línea, el 96% eran pornográficos, todos esos videos presentaban a mujeres.

Por otra parte, también existe la “pornonografía de venganza”, la que se define como la creación o distribución no consentida de imágenes explícitas. Aunque los periodistas suelen utilizar este término, los supervivientes, activistas y otros expertos lo rechazan. Prefieren términos como “abuso sexual basado en imágenes”. Cuando se produce sin el consentimiento de la persona que aparece, la pornografía deepfake es un ejemplo de abuso sexual basado en imágenes.

En términos generales, las mujeres minoritarias y las prostitutas tienen más probabilidades de sufrir abuso sexual basado en imágenes, al igual que las personas solteras y los adolescentes. Las comunidades LGBTQ+ también corren un riesgo mayor de acoso. Se necesita más investigación para comprender cómo este daño afecta a otros grupos minoritarios, incluidas las personas trans y las trabajadoras sexuales, quienes paradójicamente para tener un mayor riesgo. Según Marina Azcarate: “existe una docotomía constante dentro de la tecnología que se pone de relieve cada vez que sale a la luz una nueva innovación. Por cada nuevo avance sorprendente que promete mejorar las vidas de todos y de la sociedad en su conjunto, existe una serie de posibilidades disfuncionales, más allá de lo sombrío, que lo acompañan. La IA y la realidad virtual han generado mejoras fantásticas en muchas industrias, optimizando todo, desde los procesos de producción hasta los esfuerzos creativos e incluso haciendo maravillas por la sostenibilidad. Como tal, no fue una gran sorpresa cuando la realidad virtual se filtró en la industria del porno. Sin embargo, la combinación de esta tecnología con la industria del porno ha dado lugar a una práctica inquietante: el porno deepfake.

Es una táctica insidiosa que puede tener consecuencias devastadoras. No solo se trata de una invasión a la privacidad de la persona afectada, sino que también puede causar un daño irreparable a su reputación y bienestar emocional. El fake porno puede ser utilizado como arma de acoso, difamación o extorsión, socavando la confianza y la seguridad de las víctimas.

Además, el fake porno perpetúa la cultura de la cosificación sexual y la violencia de género al convertir a las personas en objetos para el placer y la humillación. Contribuye a la deshumanización y la trivialización de las experiencias individuales, alimentando un ciclo de abuso y explotación en línea.

En este sentido, es fundamental tomar medidas para combatir el fake porno y proteger la integridad digital de todas las personas. Las plataformas en línea deben implementar políticas estrictas contra la publicación y difusión de contenido pornográfico manipulado o no consensuado. La legislación también debe adaptarse para abordar este tipo de abuso digital, estableciendo consecuencias claras para quienes lo perpetúen.

Además, es crucial fomentar una cultura digital más ética y responsable, donde el respeto a la privacidad y la dignidad de las personas sea una prioridad. Esto implica educar a las personas sobre los riesgos del fake porno y promover el consentimiento informado en todas las interacciones en línea.

En última instancia, proteger la integridad digital de todas las personas es un imperativo moral y ético en nuestra sociedad conectada. Debemos unirnos en la lucha contra el fake porno y trabajar juntos para crear un entorno en línea seguro, inclusivo y respetuoso para todos. Solo así podremos construir un futuro digital donde la dignidad y el bienestar de las personas sean siempre una prioridad indiscutible.

ernesto.jimher@gmail.com

X: @OsirisJimenez

Threads: Ernesto Jiménez Hernández