Cuando más se nota es con hechos de actualidad. Durante las protestas en Los Ángeles, el gobernador de California, Gavin Newsom, publicó unas imágenes de soldados enviados por Trump durmiendo en el suelo. Un símbolo de la mala preparación, que ponía en entredicho la necesidad de la Guardia Nacional, cuyo envío criticaban las autoridades demócratas que dirigen la ciudad y el Estado. Pero los agitadores de la conspiranoia dijeron que las fotografías se habían generado con IA o pertenecían a otro momento. Ante la confusión, algunos usuarios le pidieron a ChatGPT o a Grok, la IA de X, que esclarecieran la situación. Más informaciónSorprendentemente, ChatGPT decía que las imágenes probablemente se tomaron durante la investidura de Joe Biden, en 2021, y Grok señalaba que pertenecían a soldados durante la evacuación de Afganistán, también en 2021. Son afirmaciones que se repetían en la maraña informativa sobre las protestas de Los Ángeles. Post en redes sociales, artículos en blogs y medios poco fiables publicaron bulos y datos sin contrastar: los sistemas de IA se tragaron la desinformación y después la escupieron sin filtrar. Grok incluso se negó a retractarse acerca de una información falsa en su respuesta. Cuando un usuario le indicó que estaba equivocado, el modelo persistió en su error. UNACCEPTABLE! This is how Trump is treating troops currently deployed in Los Angeles. Sources said “The troops arrived without federal funding for food, water, fuel, equipment or lodging… This person said state officials and the California National Guard were not to blame” Wow. pic.twitter.com/8rk3lWuNAo— Harry Sisson (@harryjsisson) June 9, 2025
“Estos chatbots están optimizados para darte información útil, pero no para que sea cierta. No tienen mecanismos de verificación reales. Y lo que leen muchas veces es más probable que te lo devuelvan como respuesta”, apunta Julio Gonzalo, investigador y catedrático de Lenguajes y Sistemas Informáticos de la UNED. Un estudio de NewsGuard, entidad que analiza la desinformación, apuntaba el pasado mes de enero que las 10 IAs más populares repetían información falsa. Lo hacían hasta un 40% de las veces, cuando se les preguntaba sobre afirmaciones equivocadas relativas a noticias de actualidad. Entre los sistemas evaluados se contaban ChatGPT, Google Gemini, Grok, Copilot, Meta AI, Claude (de Anthropic), Le Chat (de Mistral) o Perplexity. “Hemos visto que estos chatbots están constantemente expuestos a un ecosistema informativo contaminado, donde la información de páginas web no fiables tiene prioridad, porque estas se posicionan muy bien en las métricas, en audiencia o en participación de los usuarios”, comenta Chiara Vercellone, analista senior de NewsGuard. El problema se agudiza en cualquier acontecimiento de última hora y donde reina cierta confusión. “Sobre todo en momentos donde no hay mucha información sobre un evento de actualidad, si es reciente. O cuando hay eventos que tienen lugar en sitios donde no existe mucha información fiable”, incide Vercellone. “Estos chatbots se apoyan en esta clase de información poco fiable y se la presentan a los usuarios”. Cuando tienen que responder sobre temas controvertidos, donde abunda la desinformación, los sistemas de IA pierden efectividad. “Los modelos se entrenan leyendo absolutamente todo lo que encuentran. Este proceso es muy costoso y tiene una fecha en la que se acaba”, explica Gonzalo. Esto quiere decir que los modelos solo han leído información hasta una fecha concreta. Todo lo que se publica a partir de ese momento no lo conocen. El investigador de la UNED cuenta cómo obtienen información las IAs sobre los temas de actualidad: “Los chatbots lanzan una búsqueda en Internet y se leen los resultados para hacerte un resumen. Así son capaces de manejar información casi en tiempo real”. Esto incluye contenido viral en redes sociales e informaciones que se repiten. “Como herramienta para informarse sobre la actualidad son muy peligrosos. Te van a regurgitar lo que han leído, dependiendo de cómo les preguntes”, remata Gonzalo. El problema de la moderación de contenidos Cuando Elon Musk adquirió Twitter dinamitó el sistema de moderación de contenido de la red social. Se instauraron las ‘notas de la comunidad’, que permiten a los usuarios añadir contexto a los post, como fórmula maestra para combatir la desinformación. Meta anunció el pasado mes de enero que sus plataformas, Facebook, Instagram y Threads, abandonaban los equipos de verificación por un sistema basado en ‘notas de la comunidad’. “Ahora estamos ante unas plataformas que han quitado filtros en los últimos tiempos. Si no hay moderación de contenidos, hay más desinformación todavía en Internet”, reflexiona Carme Colomina, investigadora en política global y desinformación del centro de estudios CIDOB, en referencia a las redes sociales. “Así que la calidad de la información en Internet es todavía menor, con lo que el entrenamiento de la IA se compromete desde un principio”. A la hora de entrenar un modelo de IA, la calidad de los datos es esencial. Pero normalmente a estos sistemas se les alimenta a discreción, con un enorme volumen de contenido. Y sin diferenciar entre la procedencia de las fuentes. “Los buscadores tienen mecanismos para establecer autoridad, pero los modelos de lenguaje, hasta ahora, no los tienen. Así que son más manipulables”, expone Gonzalo. Si bien el investigador afirma que se pueden introducir reglas con programación. “Tú puedes restringir la búsqueda del modelo de lenguaje a los sitios que te parecen fiables. Por ejemplo, puedes evitar que se informe en Forocoches. Existe un potencial para restringir las fuentes de las que beben. Aunque estas se combinan después con el conocimiento interno del modelo”. La tarea no es sencilla. Existen actores malintencionados que se dedican específicamente a publicar información falsa para contaminar a los sistemas de IA. Esta práctica ya tiene su propio nombre: LLM grooming. “Es una técnica para manipular las respuestas de los chatbots. Introduce deliberadamente publicaciones desinformadoras, que después se convertirán en datos de entrenamiento de chatbots de IA”, señala Colomina. En NewsGuard han analizado el funcionamiento de una de estas entidades, llamada Pravda Network. En un informe reciente, concluyeron que los diez principales modelos de IA se tragaban y emitían la desinformación de esta red en un 24% de los casos analizados. Es difícil excluirla mediante reglas. Los sitios web de Pravda Network publican miles de artículos cada semana y muchas veces republican contenido procedente de medios de propaganda estatal. Además, la organización crea nuevas páginas web constantemente, con lo que el rastreo se complica. Este asunto se vuelve más espinoso por la creciente popularidad de la IA. “Cada vez más gente usa los chatbots de IA como su motor de búsqueda preferido y confían en la información que les dan sin reflexionar sobre su fiabilidad o su credibilidad”, indica Vercellone, quien recurre a la receta clásica contra la desinformación: verificar la información recibida con fuentes fiables. Colomina expresa otra inquietud. “Lo que más me preocupa de este tema es que ya hemos incorporado la IA a decisiones, no solo personales, sino también administrativas, políticas. La IA está incorporada a todos los niveles de nuestra sociedad. Y estamos dejando que tome decisiones a partir de una información que creemos que es más neutra, cuando en realidad es mucho más subjetiva”, advierte. Desde luego, queda mucho por pulir antes de perseguir la inteligencia artificial general.