Fotografía falsa de desnudos - Enciclopedia
La fotografía desnuda falsa es la creación de fotografías desnudas diseñadas para parecer auténticas nudes de un individuo. Las motivaciones para la creación de estas fotografías modificadas incluyen curiosidad, satisfacción sexual, la estigmatización o la humillación del sujeto, y el beneficio comercial, como la venta de las fotografías a través de sitios web pornográficos. Las falsificaciones pueden ser creadas utilizando software de edición de imágenes o a través de aprendizaje automático. Las imágenes falsas creadas utilizando el último método se denominan deepfakes.
Historia
Revistas como Celebrity Skin publicaron fotos de paparazzi y fotos desnudas obtenidas ilegalmente, lo que mostraba que existía un mercado para este tipo de imágenes. Subsecuentemente, algunos sitios web hospedaron fotos desnudas o pornográficas falsas de celebridades, que a veces se denominan falsificaciones de celebridades. En la década de 1990 y 2000, las imágenes desnudas falsas de celebridades se proliferaron en Usenet y en sitios web, lo que llevó a campañas para tomar medidas legales contra los creadores de las imágenes y sitios web dedicados a determinar la veracidad de las fotografías desnudas. "Deepfakes", que utilizan redes neuronales artificiales para superponer la cara de una persona en una imagen o video de otra persona, se popularizaron a finales de la década de 2010, lo que suscitó preocupaciones sobre el uso de la tecnología en noticias falsas y porno venganza.
La fotografía desnuda falsa a veces se confunde con el porno deepfake, pero las dos son diferentes. La fotografía desnuda falsa generalmente comienza con imágenes no sexuales hechas por el hombre y solo hace que parezca que las personas en ellas están desnudas (pero no teniendo sexo). El porno deepfake generalmente comienza con imágenes o videos sexuales (pornográficos) hechas por el hombre y cambia las características faciales de los actores para que los participantes en el acto sexual se parezcan a otra persona.
= DeepNude =
En junio de 2019, se lanzó una aplicación descargable para Windows y Linux llamada DeepNude que utilizaba una red neuronal generativa adversarial para quitar la ropa de imágenes de mujeres. Las imágenes que produjo no eran generalmente pornográficas, solo desnudas. Debido a que había más imágenes de mujeres desnudas disponibles para su creador, todas las imágenes que produjo eran femeninas, incluso cuando la original era masculina. La aplicación tenía tanto una versión de pago como una versión gratuita. Unos días después, el 27 de junio, los creadores retiraron la aplicación y devolvieron el dinero a los consumidores, aunque siguen existiendo varias copias de la aplicación, tanto gratuitas como de pago. En GitHub, se eliminó la versión de código abierto de este programa, llamada "open-deepnude". La versión de código abierto tenía la ventaja de permitir que se entrenara en un conjunto de datos más grande de imágenes desnudas para aumentar el nivel de precisión de la imagen desnuda resultante. Más tarde, se lanzó una aplicación gratuita de sucesor, Dreamtime, y algunas copias de la misma siguen siendo disponibles, aunque algunas han sido suprimidas.
= Bot de deepfake de Telegram =
En julio de 2019, se lanzó un servicio de bot de deepfake en la aplicación de mensajería Telegram que utilizaba tecnología de IA para crear imágenes desnudas de mujeres. El servicio era gratuito y permitía a los usuarios enviar fotos y recibir imágenes manipuladas desnudas en minutos. El servicio estaba conectado a siete canales de Telegram, incluyendo el canal principal que aloja el bot, el soporte técnico y los canales de intercambio de imágenes. Aunque se desconocía el número total de usuarios, el canal principal tenía más de 45,000 miembros. A julio de 2020, se estimaba que aproximadamente 24,000 imágenes manipuladas habían sido compartidas en los canales de intercambio de imágenes.
= Sitios web de Nudify =
A finales de 2024, la mayoría de las formas de producir imágenes desnudas a partir de fotos de personas vestidas estaban disponibles en sitios web en lugar de en aplicaciones y requerían pago.
Propósitos
Las razones para la creación de fotos desnudas pueden variar desde la necesidad de desacreditar públicamente al objetivo, el odio personal hacia el objetivo o la promesa de ganancias pecuniarias para el creador de tales fotos. Las fotos desnudas falsas a menudo se dirigen a figuras prominentes como empresarios o políticos.
Casos notables
En 2010, se detuvieron a 97 personas en Corea por difundir fotos desnudas falsas del grupo Girls' Generation en internet. En 2011, se detuvo a un hombre de 53 años de Incheon por difundir más fotos falsas del mismo grupo. En 2012, la policía surcoreana identificó a 157 artistas coreanos de los que circulaban fotos desnudas falsas. En 2012, cuando se liberaron en la red las fotos desnudas falsas de Liu Yifei, la Compañía Liu Yifei Red Star Land declaró una investigación judicial para descubrir quién creó y liberó las fotos. En el mismo año, el actor chino Huang Xiaoming liberó fotos desnudas que desataron una controversia pública, pero que finalmente se demostró que eran auténticas. En 2014, la supermodelo Kate Upton amenazó con demandar a un sitio web por publicar sus fotos desnudas falsas. Anteriormente, en 2011, esta página fue amenazada por Taylor Swift. En noviembre de 2014, el cantante Bi Rain estaba enfadado por una foto desnuda falsa que se extendió por internet. La información revela que: "La foto desnuda de Rain fue liberada del teléfono perdido de Kim Tae-hee". La etiqueta de Rain, Cube Entertainment, afirmó que la persona en la foto desnuda no es Rain y la empresa ha afirmado desde entonces que tomará medidas legales estrictas contra aquellos que publiquen fotos con comentarios falsos. En julio de 2018, la policía de Seúl inició una investigación después de que se publicó una foto desnuda falsa del Presidente Moon Jae-in en el sitio web del grupo feminista radical surcoreano WOMAD. A principios de 2019, Alexandria Ocasio-Cortez, una política demócrata, fue criticada por otros partidos políticos por una foto desnuda falsa en el baño. La imagen creó una gran controversia mediática en los Estados Unidos.
Métodos
Las imágenes desnudas falsas pueden ser creadas utilizando software de edición de imágenes o aplicaciones de red neuronal.
Hay dos métodos básicos:
Combinar y superponer imágenes existentes sobre imágenes de origen, añadiendo la cara del sujeto en una modelo desnuda.
Quitar la ropa de la imagen de origen para que parezca una foto desnuda.
Impacto
Las imágenes de este tipo pueden tener un impacto psicológico negativo en las víctimas y pueden ser utilizadas con fines de extorsión.
Véase también
Fotografía desnuda
Fotografía de glamour
Porno deepfake
Voyeurismo
Referencias
Leer más
Forbes, capítulo 169, números 1-6, p. 84, Bertie Charles, Forbes Incorporated, 2002, Universidad de California.
American Journalism Review: AJR., capítulo 18, números 1-5, p. 29, Facultad de Periodismo de la Universidad de Maryland en College Park, 1996
Hana S. Noor Al-Deen, John Allen Hendricks, Social Media: Usage and Impact, p. 248, Lexington Books, 2012.
Janet Staiger, Media Reception Studies, p. 124, NYU Press, 1 de julio de 2005
Kola Boof, Diary of a Lost Girl: The Autobiography of Kola Boof, p. 305, Door of Kush, 2006.
Laurence O'Toole, Pornocopia: porn, sex, technology and desire, p. 279, Serpent's Tail, 1999