La inteligencia artificial (IA) está siendo utilizada para desinformar en las elecciones presidenciales de EE.UU., desde imágenes surrealistas de los candidatos hasta llamadas falsas con la voz de Joe Biden instando a no votar. Estas son las primeras elecciones desde el auge de la IA generativa, herramienta que permite crear deepfakes. Daniel Rogers, profesor de la Universidad de Nueva York, afirma que esta información manipulada erosiona la realidad.
Un estudio de Pew Research Center revela que el 57 % de los estadounidenses están preocupados por el uso de IA para crear información falsa en las elecciones. Rogers señala que, sin barreras de seguridad, esta técnica continuará difuminando la línea entre realidad e invención.
Casos como una imitación de la voz de Biden en llamadas falsas o anuncios que atacan a Trump usando su voz generada por IA muestran el alcance de esta tecnología. A pesar de criticar su uso, Trump ha compartido contenido generado por IA en sus redes.
Agencias de inteligencia indican que Rusia, Irán y China están utilizando IA para influir en las elecciones. Estados Unidos ha tomado medidas contra una empresa rusa y un grupo iraní que empleaban IA para manipulación en redes sociales.
La IA también se emplea para hacer campaña, pero según el New York Times, las campañas no han adoptado plenamente esta tecnología, ya que la autenticidad es crucial para el éxito.
Sarah Yáñez-Richards |
Por EFE
Nueva York (EFE).- La inteligencia artificial (IA) está siendo una técnica de desinformación en las elecciones presidenciales de EE.UU. que va desde surrealistas imágenes de los dos candidatos a la Casa Blanca paseando por una playa agarrados de la mano a llamadas falsas que usaron la voz del presidente, Joe Biden, para instar a los demócratas a no votar.
Estas son las primeras elecciones presidenciales en Estados Unidos desde el ‘boom’ de la IA generativa, la herramienta que permite crear fotos, vídeos y audios realistas de cosas que nunca han pasado, una técnica conocida como ‘deepfake’.
La proliferación de esta información manipulada, sobre todo en las redes sociales, está erosionando la realidad y hace que la gente crea cada vez menos lo que ve, según indica a EFE Daniel Rogers, profesor adjunto de la Universidad de Nueva York.
Un estudio de Pew Research Center señala que el 57 % de los estadounidenses -con un porcentaje casi idéntico entre republicanos y demócratas- dicen estar “extremadamente o muy preocupados de que personas u organizaciones que buscan influir en las elecciones utilicen la IA para crear y distribuir información falsa o engañosa sobre los candidatos y las campañas”.
“Estas herramientas en general difuminan las líneas entre la realidad y la invención. Y creo que esa tendencia continuará hasta que haya algunas barreras de seguridad, o barreras externas que se coloquen para intentar preservar cierta realidad sensorial”, anota Rogers.
El experto, además, apunta que otro efecto secundario de esta tecnología es que la gente puede señalar que una información verdadera ha sido creada por IA, algo que se conoce como “el dividendo del mentiroso”; técnica que Trump ha usado para desacreditar una foto con E. Jean Carroll, periodista de la que se le acusó de haberla agredido sexualmente.
En enero, una serie de llamadas automáticas falsas en Nuevo Hampshire utilizaron una imitación de la voz de Biden generada por IA para instar a los demócratas a no votar en las elecciones primarias del estado.
Mientras, en julio de 2023, se utilizó IA para imitar la voz de Trump en un anuncio de otro candidato para representar al Partido Republicano en las primarias que lo atacaba.
En aquel entonces, la campaña de Trump criticó el anuncio como un “intento desesperado” de “engañar al público estadounidense”.
No obstante, el propio Trump ha compartido en sus redes contenido generado por IA en esta campaña electoral: el caso más sonado fue cuando publicó en su red social, Truth Social, unas imágenes falsas de Taylor Swift respaldándolo.
Estas fotos estaban etiquetadas como sátira por su creador original y, días después, Trump reconoció que las imágenes no eran reales.
También circulan por las redes muchos ‘memes’ sobre las elecciones creados con IA que no tienen el objetivo de parecer reales, sino de mandar un mensaje, como por ejemplo Trump montado en un león o robando en un supermercado pistola en mano.
Según la Inteligencia Nacional de Estados Unidos, Rusia, Irán y China están utilizando esta tecnología para influir en la población estadounidense antes de las elecciones de noviembre.
Este verano, el Departamento de Justicia tomó medidas contra una empresa rusa que usaba IA para hacerse pasar por usuarios estadounidenses en las redes sociales, y OpenAI desarmó un grupo iraní que usaba ChatGPT para generar comentarios falsos en las redes sociales.
En estas elecciones también se ha visto la otra cara de la moneda: el uso de la IA como herramienta para hacer campaña por un candidato, como por ejemplo hacer llamadas telefónicas a votantes.
De acuerdo con una investigación del New York Times, las campañas en su mayoría no están dando el salto a usar IA y, cuando lo han hecho, la tecnología ha fracasado.
A Rogers no le extraña este dato, ya que dice que algo clave para una campaña es la “autenticidad” y que una llamada realizada por un robot no transmite eso.