Imágenes manipuladas con herramientas de inteligencia artificial (IA) de la cantante Taylor Switf se difundieron de forma masiva en X, Instagram y Threads la semana pasada, lo que ha llevado a estas redes sociales a bloquear las búsquedas relacionadas.
«El viernes la red social X se llenó de imágenes manipuladas de la cantante en las que se habían utilizado herramientas de IA para apareciera en ellas desnuda. Es una práctica que se conoce como deepfake, que tiene la capacidad para hacer dudar de la autenticidad de las imágenes o vídeos en los que se aplica, dado su realismo», publicó CBS News
Evidentemente, esta difusión masiva se hizo sin el consentimiento de la cantante de pop y según las informaciones, puede rastrearse hasta un foro en la plataforma de mensajería Telegram, donde usuarios de una comunidad comparten imágenes manipuladas con herramientas como Microsoft Designer para desnudar a las mujeres.
Las búsquedas relacionadas con los deepfake de la cantante estadounidense se convirtieron en tendencia en X, donde la plataforma confirmó el viernes que sus equipos estaban eliminando activamente todas las imágenes que identificaban y tomando acciones contras las cuentas que las habían publicado.
Antes de empezar a retirarlas, una de las publicaciones alcanzó los 45 millones de visualizaciones, y 24.000 republicaciones, e incluso registró cientos de miles de Me Gusta y marcadores, según The Verge.
De forma adicional, X empezó a bloquear las búsquedas que utilizan palabras clave relacionadas con las imágenes manipuladas, como el propio nombre de la artista o «Taylor Swift AI».
Sin embargo, como señalan en The Verge, este bloqueo no es del todo efectivo, ya que puede sortearse al cambiar el orden de algunas palabras, por ejemplo, ‘Taylor IA Swift’.
El ‘deepfake’ afecta principalmente a las mujeres. Según el estudio de la firma de soluciones de seguridad Home Security Heroes de 2023, la manipulación de contenidos audiovisuales protagonizado por mujeres supone 77% del contenido presente en webs y canales de YouTube, Vimeo y Dailymotion especializados, cifra que asciende al 99% de los casos en el ‘deepfake’ pornográfico.