Taylor Swift se vio involucrada en un escándalo cuando se difundieron en las redes sociales imágenes explícitas de contenido sexual generadas por inteligencia artificial (IA). Este incidente subraya la creciente inquietud acerca del posible daño que esta tecnología podría ocasionar al divulgar contenido falso de cualquier índole.
¿Qué mostraban las imágenes falsas de Taylor Swift?
Las imágenes, que circulaban principalmente en la red social X (anteriormente conocida como Twitter), mostraban a Taylor Swift en posturas sexualmente sugerentes y explícitas, acumulando decenas de millones de visualizaciones antes de ser retiradas. Aunque fueron eliminadas de las plataformas sociales, la naturaleza persistente de Internet podría llevar a su continuo compartimiento en canales menos regulados.
En las políticas de X se prohíbe compartir “medios sintéticos, manipulados o fuera de contexto que puedan engañar o confundir a la gente y provocar daños”. Sin embargo, la empresa no ha proporcionado mayores comentarios sobre el incidente, lo que sí sabemos es que esta situación destaca el desafío que enfrentan las plataformas sociales en la moderación de contenido generativo de IA, particularmente cuando dependen en gran medida de sistemas automatizados y los informes de los usuarios.
Este incidente con Taylor Swift subraya cómo la IA generativa puede ser explotada para crear contenido potencialmente dañino dirigido a figuras públicas de cualquier rubro o incluso cualquier persona del público en general. Además de evidenciar cómo las empresas de redes sociales carecen de planes efectivos para supervisar dicho contenido.
Esta situación se torna aún más importante a medida que se acercan las elecciones presidenciales en Estados Unidos, ya que crece la preocupación sobre el uso de imágenes y videos engañosos generados por IA en esfuerzos de desinformación y para perjudicar a los futuros candidatos durante su campaña.
Este evento también coincide con el aumento en el uso de herramientas de generación de IA, como ChatGPT y Dall-E. Ben Decker, director de Memetica, una agencia de investigación digital, señala que la moderación de contenidos en plataformas está experimentando una fractura mayor, ya que muchas dependen en gran medida de sistemas automatizados y han recortado equipos de moderación humana.
Aunque no está claro el origen exacto de las imágenes de Taylor Swift, la exposición mediática que ha recibido podría atraer la atención hacia los problemas en torno a las imágenes generadas por IA.
La “legión de fans” de Taylor Swift expresó indignación en las redes sociales, lo que podría impulsar una mayor conciencia sobre estos problemas. Ben Decker sugiere que situaciones como esta podrían llevar a legisladores y empresas tecnológicas a tomar medidas más firmes para abordar el contenido perjudicial generado por la IA.
La preocupación sobre la utilización de la IA para crear contenido dañino, especialmente contra figuras públicas, resalta la necesidad de fortalecer la regulación y la colaboración internacional en la prevención del uso indebido de esta tecnología. El único punto positivo de esta situación, fue que la atención que generó podría impulsar grandes cambios en la forma en que las plataformas digitales abordan estos incidentes a nivel legislativo y acciones para revertirlas.