Google alojó más de 100 videos de YouTube que promocionan pornografía deepfake con IA

Para las personas interesadas en utilizar la IA para generar desnudos artificiales, YouTube ha sido un buen lugar para empezar.

Aunque no alberga herramientas “nudificadoras”, la plataforma para compartir vídeos utilizada por 2.500 millones albergaba más de 100 vídeos con millones de visitas que anunciaban la rapidez con la que estas aplicaciones y sitios web de inteligencia artificial pueden quitar la ropa de imágenes de mujeres, según una revisión. por Forbes encontrado.

Algunos de los vídeos de YouTube proporcionaban tutoriales para una aplicación que, según se informa, estudiantes de secundaria de España y Nueva Jersey habían utilizado para generar desnudos de sus compañeras de clase. Los estudiantes que supuestamente han sido victimizados han enfrentado intimidación, vergüenza pública y ataques de pánico.

Otro sitio web mostrado en varios vídeos de YouTube fue citado en documentos judiciales para un caso de 2023 en el que un psiquiatra infantil fue condenado a 40 años por utilizar inteligencia artificial para crear imágenes de abuso sexual infantil y por explotación sexual de un menor. Fue acusado de usar la herramienta para alterar imágenes de su novia de la secundaria cuando era menor de edad quitándole la ropa. “En esta era digital, es horroroso darme cuenta de que fotografías mías, fotografías inocentes, pueden ser tomadas y tergiversadas sin mi consentimiento para fines ilegales y repugnantes”, testificó su exnovia ante el tribunal.

“Cuando veo o oigo hablar de la IA, ahí está en el fondo de mi cabeza”.

Víctima de una aplicación nudificadora de IA, hablando de haber sido atacada por un psiquiatra infantil.
Es “impensable” que Google esté facilitando el uso de estas aplicaciones, dijo a Forbes Signy Arnason, director ejecutivo asociado del Centro Canadiense para la Protección Infantil. “En YouTube e incluso en los resultados de la Búsqueda de Google, se encuentran fácilmente videos instructivos o servicios con títulos que promocionan descaradamente este tipo de aplicaciones”, agregó. Dijo que su organización escuchaba cada vez más a escuelas cuyos estudiantes habían sido víctimas de desnudos generados por IA.

Los problemas del nudificador de IA de Google no se limitan a YouTube. Forbes identificó tres aplicaciones de Android que ofrecen eliminar la ropa de las fotografías, incluido un “filtro de fotografías de escáner de desnudez” con más de 10 millones de descargas; una aplicación en español que permite al usuario “pasar el dedo por lo que quiere borrar, por ejemplo, un traje de baño”, que tiene más de 500.000 instalaciones; y Scanner Body Filter, que ofrece agregar una “imagen corporal sexy” a las fotos, también con medio millón de descargas.

Forbes también encontró 27 anuncios en el Centro de Transparencia de Google Ads que promocionaban servicios de “desnudo profundo”. Uno anunciaba un sitio con la palabra “bebé” en la URL. El Centro Nacional sobre Explotación Sexual (NCOSE) proporcionó información sobre otros cuatro, incluido un sitio web nudificador que ofrece abiertamente crear fotografías de Taylor Swift con IA.

Después de que Forbes preguntara si los videos, anuncios y aplicaciones infringían las políticas de Google, eliminó los 27 anuncios y YouTube eliminó 11 canales y más de 120 videos. Uno de esos canales, alojado por una IA masculina, fue responsable de más de 90 de esos videos, la mayoría apuntando a bots de Telegram que desnudaban a mujeres. La aplicación Scanner Body Filter tampoco estuvo disponible para su descarga, aunque otras aplicaciones de Android permanecieron en línea.

Tori Rousay, gerente del programa de defensa corporativa y analista de NCOSE, dijo que Google ha creado “un ciclo de ganancias continuo” a partir de aplicaciones nudify al aceptar dinero publicitario de los desarrolladores y tomar recortes en los ingresos publicitarios y pagos únicos cuando la aplicación está alojada en el Tienda Google Play. Rousay dijo que Apple, en comparación, se apresuró a eliminar las aplicaciones nudificadoras cuando NCOSE destacó un número alojado en la App Store.

“Apple escuchó… Google debe hacer lo mismo”, añadió Rousay. “Google necesita crear prácticas y políticas responsables en torno a la propagación del abuso sexual basado en imágenes”.

La pornografía deepfake generada por IA está en aumento, incluida la de niños. El Centro Nacional para Niños Desaparecidos y Explotados dijo a Forbes esta semana que había recibido 5.000 informes de material de abuso sexual infantil (CSAM) generado por IA durante el último año. A principios de este año, un hombre de Wisconsin fue acusado de supuestamente utilizar el generador de imágenes impulsado por IA Stable Diffusion 1.5 para producir CSAM.

En el caso del psiquiatra infantil condenado, otras víctimas, además de su novia de la infancia, testificaron ante el tribunal sobre el trauma continuo causado por el uso de IA para desnudarlos en sus fotografías de infancia.

“Me temo que cuando creó pornografía infantil usando mi imagen online, otros también tendrán acceso a esa imagen. Temo que compañeros de trabajo, familiares, miembros de la comunidad u otros pedófilos tengan acceso a esta imagen”, dijo una de sus víctimas. Otro añadió: “Temo a la inteligencia artificial por su culpa y cuando veo o oigo hablar de la IA, ahí lo tengo en el fondo de mi cabeza”.

FORBES

 

Mostrar más
Botón volver arriba