Desde deepfakes destinados a influir en las elecciones hasta los chatbots que difunden noticias falsas, la desinformación ha emergido como uno de los mayores peligros del uso creciente de la inteligencia artificial (IA). El rápido despliegue de esta tecnología, que fue el tema de una cumbre mundial en París, ha alimentado el auge de la desinformación en los últimos años, proporcionando nuevas herramientas para su propagación.
En 2023, en Eslovaquia, una grabación causó gran revuelo: se escuchaba al líder de un partido proeuropeo admitir que las elecciones legislativas iban a ser manipuladas. Sin embargo, era un deepfake, un contenido manipulado gracias a la IA que logró influir en los votantes. A nivel mundial, los políticos son víctimas frecuentes de estos procedimientos, que tienen un gran potencial de viralidad en las redes sociales. Un caso emblemático fue el de Joe Biden, ex-presidente de Estados Unidos, cuya voz fue falsificada para aconsejar a los votantes que no votaran. Igualmente, circuló una imagen falsa del primer ministro israelí Benjamin Netanyahu hospitalizado.
Un aspecto alarmante de la desinformación generada por IA son los deepfakes pornográficos. Mujeres políticas de países como Estados Unidos, Italia, Reino Unido y Pakistán han sido víctimas de este tipo de ataques, que también afectan a celebridades como la cantante estadounidense Taylor Swift. El American Sunlight Project, un grupo de investigación sobre la desinformación, advierte que todas las mujeres pueden ser víctimas de este tipo de agresiones virtuales.
La IA también se utiliza en grandes operaciones de interferencia digital, como las campañas prorrusas conocidas como “doppelgänger” o “matriochka”. Los responsables de estas campañas crearon perfiles fraudulentos, es decir, bots, para difundir contenidos generados por IA con el objetivo de socavar el apoyo occidental a Ucrania. Chine Labbé, editora en jefe de la organización Newsguard, señala que lo nuevo de esta tendencia es la escala y la facilidad con la que una persona, con pocos recursos financieros y de tiempo, puede difundir contenidos falsos que parecen cada vez más creíbles y son más difíciles de detectar.
El informe de Viginum, una organización francesa dedicada a combatir las interferencias digitales extranjeras, subraya que la IA está proporcionando un “apoyo sin precedentes para la generación y gestión de cuentas falsas” en las plataformas en línea, y todo a gran escala.Preparar estafas: un nuevo frente para la desinformación
Un caso reciente involucró la historia de un hombre que prendió fuego a una mujer en el metro de Nueva York; una foto falsa de la víctima circuló ampliamente, generada por IA, y el drama fue utilizado para dirigir a los usuarios a sitios de criptomonedas.
Cada evento noticioso provoca un flujo de imágenes creadas en línea, como sucedió con los grandes incendios en Los Ángeles a principios de 2025, cuando fotos falsas del letrero de Hollywood en llamas o de una estatua del Oscar entre las cenizas se compartieron ampliamente.
Los chatbots populares, como el estadounidense ChatGPT, también pueden contribuir a difundir noticias falsas. Chine Labbé explica que estos chatbots tienen la tendencia de citar primero fuentes generadas por IA, lo que genera un círculo vicioso.
Con la llegada de nuevas herramientas como el chino DeepSeek, que difunde las posiciones oficiales chinas en parte de sus respuestas, se refuerza la necesidad urgente de imponer marcos reguladores a estas tecnologías. “Es necesario enseñar a distinguir las fuentes confiables de las de propaganda”, concluye la experta.