La Paz, Bolivia /QAMASA Digital. – En colaboración con equipos de verificación de otros países, Bolivia Verifica realizó un mapeo de la desinformación creada con inteligencia artificial (IA) durante los recientes procesos electorales. El análisis muestra que Bolivia fue el país con mayor cantidad de contenidos manipulados con IA en comparación con Venezuela, Argentina y Estados Unidos. En total, se identificaron 16 deepfakes, la mayoría correspondientes a audios clonados.
En la primera vuelta se identificaron nueve contenidos generados con IA, mientras que en la segunda se registraron siete en un periodo mucho más breve. Esto muestra que el uso de inteligencia artificial como estrategia de ataque se volvió más intensivo en la recta final del proceso electoral.

Argentina
En las Elecciones Legislativas Nacionales de Argentina, el medio de verificación Chequeado identificó cerca de nueve contenidos generados con inteligencia artificial, según el informe compartido con Bolivia Verifica. El patrón más recurrente fue la difusión de anuncios falsos sobre cambios en candidaturas o en respaldos políticos. Estos contenidos se difundieron estratégicamente horas antes de la votación, con el fin de generar confusión y reducir los tiempos de respuesta.
Chequeado documentó al menos tres casos emblemáticos: un video creado con IA a partir de un spot de 2015 de Mauricio Macri para hacerlo llamar a votar por otro partido; la falsa anulación de la candidatura de Jorge Taiana; y un contenido previo, de mayo, en el que Macri anunciaba falsamente la baja de Silvia Lospenatto.
El segundo tipo de desinformación más frecuente estuvo basado en la atribución de propuestas o declaraciones inexistentes a líderes políticos. Se identificaron al menos tres ejemplos relevantes. Uno de los más difundidos fue un presunto spot de campaña de Javier Milei, publicado dos días antes de las elecciones, en el que proponía eliminar fondos para jubilaciones y programas de apoyo a personas con discapacidad.
También circuló un video de Axel Kicillof —gobernador de Buenos Aires— en el que admitía fallas en seguridad y salud. Aunque originalmente se difundió como una pieza humorística con aviso de ser IA, luego fue compartido como si fuera una declaración real. En esta línea, también se propagó un audio falso del propio Kicillof tras las elecciones, en el que culpaba a Cristina Fernández de Kirchner por la derrota electoral.
El panorama se hizo más complejo porque los propios partidos políticos incorporaron herramientas de IA en piezas oficiales de campaña, lo que aumentó la confusión en el ecosistema informativo. Entre los ejemplos registrados figuran spots del espacio Nuevos Aires y publicidades del vocero presidencial Manuel Adorni creadas con IA. Según el análisis de Chequeado, la coexistencia de propaganda legítima y desinformación con estéticas similares dificulta aún más identificar la veracidad de los contenidos durante el proceso electoral argentino.
Venezuela
Según Cotejo.info, durante las Elecciones Presidenciales de 2024 se registraron 53 desinformaciones, de las cuales dos fueron creadas con inteligencia artificial. La primera correspondió a un audio en el que María Corina Machado insultaba a Delsa Solórzano, presidenta del partido Encuentro Ciudadano. La segunda también fue un audio manipulado, atribuido a una conversación entre Juan Guaidó y Edmundo González Urrutia —entonces candidato presidencial—, en la que supuestamente Guaidó le exigía salir a hacer campaña.
Estados Unidos
Factchequeado reportó que, durante las Elecciones Presidenciales de 2024 realizadas en noviembre, identificaron alrededor de 200 contenidos desinformantes, de los cuales al menos diez fueron creados con inteligencia artificial.
Según su balance, estos contenidos manipulados —difundidos en formatos de imágenes, videos y audios sintéticos— se centraron en narrativas altamente polarizadas. Algunas piezas buscaban desacreditar a Kamala Harris a través de calificativos como “prostituta de lujo” o “marxista”, mientras que otras retrataban a Donald Trump como un “héroe defensor de la libertad” o, en el extremo opuesto, como “cómplice de Jeffrey Epstein”.
La IA también fue utilizada de forma intensiva por partidarios y detractores de Donald Trump para influir en la percepción pública. Sus simpatizantes difundieron imágenes generadas con IA que lo mostraban asistiendo a víctimas de desastres, posando con personas negras o participando en una barbacoa en el Bronx, en un intento por atraer votantes afroamericanos.
Con el tiempo, estas piezas evolucionaron hacia narrativas de heroísmo, con imágenes que lo mostraban rescatando animales como respuesta a desinformaciones relacionadas con inmigración. Varias de estas imágenes llegaron a ser compartidas por figuras influyentes, entre ellas Elon Musk.
Por otro lado, los detractores de Trump también recurrieron a la IA para producir deepfakes que lo mostraban encarcelado, huyendo de la policía o vinculándolo al caso Epstein. Tras el atentado de julio de 2024, circularon collages y audios sintéticos que lo asociaban con Hitler o incluso lo hacían insultar a sus propios votantes. Una imagen alterada digitalmente, en la que Trump aparecía con un sobrepeso extremo, llegó a ser difundida por CNN, lo que motivó una disculpa pública del medio.
En el caso de la candidata demócrata Kamala Harris, la desinformación con IA se centró en sexualizarla o distorsionar su ideología. Circuló una variedad de imágenes que afirmaban que había sido scort o que mantenía vínculos con figuras polémicas como Jeffrey Epstein o Sean ‘Diddy’ Combs. También se viralizaron imágenes sexualizadas —en bikini o ropa interior— y, mediante Grok (la IA de X), se generó una imagen de Harris con un uniforme comunista, utilizada para manipular percepciones sobre su orientación política.
Además, se difundieron deepfakes que la mostraban divagando en actos públicos y un audio sintético que imitaba su voz promoviendo supuestas posturas extremas sobre el aborto. Los candidatos a la vicepresidencia, Tim Walz (demócrata) y J.D. Vance (republicano), tampoco quedaron fuera de estas prácticas: Walz fue objeto de un video manipulado en el que aparecía bailando, mientras que Vance fue retratado en imágenes alteradas tanto por simpatizantes —para mejorar su apariencia— como por detractores, que buscaban deformar sus rasgos.
Bolivia

Primera vuelta
El primer contenido de desinformación generado con IA en la primera vuelta se detectó el 13 de junio. Fue publicado en Facebook por la cuenta Redes Tupac Katari y consistía en un video de Jorge Quiroga con un audio manipulado. En el montaje se le atribuían declaraciones incendiarias, como exigir la aprehensión de quienes bloqueaban el país y arremeter contra los pueblos indígenas, pidiendo incluso la privación de sus derechos políticos.
Durante julio, Bolivia Verifica identificó siete contenidos adicionales creados con IA: seis audios clonados y un video. Los montajes difundían narrativas de alto impacto, entre ellas la supuesta planificación de un golpe de Estado; una falsa admisión de Samuel Doria Medina de haber pagado para manipular encuestas; o un pedido ficticio para inhabilitara a Jaime Dunn. También circularon audios manipulados que atribuían a los presidentes Javier Milei y Nayib Bukele mensajes de apoyo a Dunn, quien finalmente no logró ser inscrito como candidato presidencial.
En agosto apareció otro audio clonado, falsamente atribuido al entonces senador Leonardo Loza. En el material se le escuchaba afirmar que los bloqueos de carreteras comenzarían inmediatamente después de las elecciones.
Segunda vuelta
El primer contenido generado con IA de la segunda vuelta se registró el 22 de agosto. Se trataba de un video manipulado en el que se veía a Jorge Quiroga acompañado de un audio que, falsamente, lo hacía prometer que eliminaría la educación y la salud públicas si llegaba a la presidencia. Bolivia Verifica confirmó que esta declaración nunca existió.
En el resto del periodo de campaña se detectaron otros seis contenidos creados con IA. Cuatro fueron videos que suplantaban a Juan Pablo Velasco, Edmand Lara y nuevamente a Jorge Quiroga. Los otros dos fueron audios clonados: uno imitaba la voz de Quiroga y otro la del gobernador de Tarija, Oscar Montes, a quien falsamente se le atribuía estar recaudando fondos para la campaña de Alianza Libre.
En resumen, el despliegue de desinformación creada con inteligencia artificial durante la segunda vuelta electoral se concentró estratégicamente en deslegitimar y restar votos a Jorge Quiroga, consolidándolo como el blanco principal de los ataques digitales.
Este volumen de contenidos manipulados marca un precedente para el país: es la primera vez que Bolivia Verifica registra una cantidad tan alta de desinformación generada con herramientas de IA en un solo proceso electoral.
Sobre Ecuador
Este año se celebraron Elecciones Presidenciales en Ecuador. Según el monitoreo de la Fundación Ciudadanía y Desarrollo, con apoyo de la Unión Europea, se detectaron 445 contenidos desinformantes, de los cuales 107 fueron fabricados con herramientas de inteligencia artificia(Bolivia Verifica).

