El ‘deepfake’ que imita a Biden en plena campaña alerta a los expertos ante el uso de IA para manipular elecciones
Una llamada con la voz del presidente aviva los miedos por el uso de la inteligencia artificial para influir en procesos electorales
![La IA que imita a Biden en campaña atemoriza a los expertos](https://www.newtral.es/wp-content/uploads/2024/01/FF-JOE-BIDEN-TELEFONO-FLICKR-THE-WHITE-HOUSE-20230221-1-1024x683.jpg?x97555)
Lo esencial. La inteligencia artificial (IA) entró de lleno esta semana en las elecciones presidenciales de Estados Unidos con una misteriosa llamada automatizada con la voz de Joe Biden. ¿El problema? La voz era suplantada y la llamada pretendía desincentivar el voto en las primarias de New Hampshire de este martes. Eso sugiere una táctica criminal que posiblemente se verá más allá de Estados Unidos este año.
- El uso de la IA generativa en procesos electorales ya ha tenido varios titulares en otras partes del globo. Existen ejemplos que van desde voces suplantadas hasta imágenes manipuladas.
- Pero el ascenso de popularidad de herramientas de IA como ChatGPT promete ser un desafío de especial calado en este 2024. Este año, más de la mitad del planeta está llamada a las urnas.
Lo último. En la llamada automatizada de New Hampshire, una voz similar a la de Biden hecha con IA pedía a los votantes que evitasen participasar en las primarias de New Hampshire. Esa suplantación, también conocida como deepfake, podía tener implicaciones negativas para dos candidatos:
- Primero, para Biden, que en New Hampshire se enfrentaba a su primera cita para confirmar su reelección como nominado demócrata.
- El presidente terminó arrasando pese a que su nombre ni siquiera aparecía en las papeletas. Pero una participación menor podría haber beneficiado a los rivales que querían probar su debilidad electoral.
- Y segundo, para Nikki Haley, la candidata republicana que perdió contra Trump este martes pese a un apoyo destacado entre votantes independientes.
- Parte de ese electorado independiente ha apoyado a Biden en el pasado, así que la llamada también podría haber pretendido llegar a ellos y perjudicar a Haley en su pugna con Trump.
La fiscalía general de New Hampshire ya ha abierto una investigación por un «intento ilegal» de supresión de voto, aunque todavía se desconoce cuántos votantes han sido víctimas. Las llamadas automatizadas están muy extendidas en las campañas estadounidenses y se suelen realizar a miles de votantes en cada elección.
La IA más allá de Biden
Contexto. La voz de IA de Biden está lejos de ser el único ejemplo del uso de la inteligencia artificial en elecciones.
- Un grupo afín al excandidato republicano Ron DeSantis publicó un anuncio de ataque a Trump en el que el expresidente se abrazaba con Anthony Fauci, antagonista del movimiento conservador en EEUU. Las imágenes habían sido creadas con IA.
- Y en Eslovaquia, el año pasado se viralizó un audio falso con uso de IA que pretendía mostrar cómo un candidato hablaba sobre la compra de votos a la minoría romaní del país. Ese candidato terminó perdiendo sus elecciones, aunque está por determinar cómo de influyente fue el deepfake.
El mayor temor con la llamada automatizada con la voz de IA de Biden es que ilustra un fenómeno muy peligroso. Los responsables se valieron de herramientas de IA para influir en unas elecciones con un método malicioso y difícil de rastrear.
- Al haber sido una llamada de teléfono y no una publicación online, las autoridades tienen más complicaciones para averiguar el origen, según cuenta Bloomberg.
- Además, la calidad de las llamadas automatizadas suele ser peor, con los que es más fácil pasar por alto las pistas que sugieren su falsedad.
- Y lo que es peor, el deepfake no buscaba convencer o manipular a los votantes, sino directamente impedir que voten.
«En un ecosistema mediático lleno de ruido, señales cifradas tal y como las llamadas automatizadas con deepfakes hacen virtualmente imposible diferenciar hechos de falsificaciones», asegura el catedrático de periodismo Joan Donovan en The Conversation.
El futuro será peor
En el último año y medio, los avances de IA generativa han sobrepasado a gobiernos, medios y ciudadanos. Las posibilidades que ofrecen las herramientas de IA son tan grandes y evolucionan tan rápido que es difícil estar al día. Incluso los expertos tienen dificultades para imaginar cuál será el siguiente desafío.
- En materia de deepfakes, las herramientas para manipular vídeo y audio están mejorando a una velocidad inimaginable hace solo unos años.
- Y en el contexto de elecciones, es cercano a imposible concebir una forma de frenar la vorágine de contenido falso que promete inundar las democracias globales.
“El momento de los deepfakes políticos ya está aquí. Los responsables políticos deben apresurarse para poner en marcha protecciones o nos enfrentamos al caos electoral”, aseguró en un comunicado Robert Weissman, presidente del grupo de protección del consumidor Public Citizen.
- Ese caos de la IA maliciosa es especialmente peligroso en elecciones menos mediáticas que las presidenciales estadounidenses entre Biden y Trump.
- Es sencillo pensar en citas electorales locales con una participación de unos pocos miles de votos en las que un deepfake tiene una influencia desmesurada.
¿Y ahora?
El desafío ahora recae en gobiernos, legisladores y compañías tecnológicas, que tienen que aunar fuerzas para combatir a los actores maliciosos.
- Gobiernos en Estados Unidos y la Unión Europea ya tantean medidas para frenar la proliferación de iniciativas criminales con el uso de IA.
- Y compañías como OpenAI, los creadores de ChatGPT, ya han publicado estrategias para limitar el uso de sus herramientas con fines electorales. (Aunque fracasos previos de gigantes como Facebook o Twitter para frenar la desinformación hacen ser más precavidos con anuncios así).
Pero de nuevo, el inconveniente estará en las herramientas de IA con un perfil más bajo. Ya hay compañías que operan fuera del marco legal y que se pueden obtener con facilidad por internet.
- Conforme las grandes tecnológicas limiten sus herramientas, seguirán apareciendo pequeñas entidades de perfil bajo que harán trabajos muy parecidos por un módico precio.
- En ese plano alegal en la sombra, a veces en instalaciones que operan en partes del mundo con regulación o supervisión muy limitadas, el mundo tiene todas las de perder.
Fuentes
NBC News: Fake Joe Biden robocall tells New Hampshire Democrats not to vote Tuesday
Hard Fork: The A.I. Election, Bitcoin’s Wall Street Debut and TikTok’s Doodad Era
Public Citizen: New Hampshire Deepfake of Biden Shows Danger of AI in Elections
Parlamento Europeo: Ley de IA de la UE: primera normativa sobre inteligencia artificial
Bloomberg: Deepfake Audio of Biden Alarms Experts in Lead-Up to US Elections
The Conversation: Fake Biden robocall to New Hampshire voters highlights how easy it is to make deepfakes − and how hard it is to defend against AI-generated disinformation
Wired: The Biden Deepfake Robocall Is Only the Beginning