La mayoría de los editores de noticias creen que la enorme expansión de la desinformación y el contenido generado por IA en realidad aumentará el apoyo entre las audiencias al sector de los medios generados por humanos. Pero eso supone que las personas siempre pueden notar la diferencia y elegir conscientemente con qué tipos de contenido interactúan. Y eso es lo más peligroso: muchos no pueden hacerlo.
El lunes (12 de enero), el Instituto Reuters de la Universidad de Oxford publicó su último informe “Tendencias y predicciones de periodismo, medios y tecnología”, basado en una encuesta de 280 líderes digitales de 51 países y territorios de todo el mundo, aunque siempre hay una muy gran énfasis en Europa entre su grupo de encuestados.
Un completo análisis de los cambios clave que afectarán a los medios de noticias durante el próximo año, es una lectura reveladora para cualquiera que trabaje o esté interesado en el negocio de hacer noticias. The Fix lo etiquetó como “el evangelio definitivo” y, honestamente, esa es una descripción bastante obvia porque es de lo único que veo a los periodistas en mis líneas de tiempo hablando el día de su lanzamiento.
Como era de esperar, el informe de 2026 se centra en gran medida en el aumento continuo de la Inteligencia Artificial (IA) en todo el sector de los medios, con una discusión en profundidad del impacto de las descripciones generales de la IA de Google en la tasa de clics, nuevas fuentes potenciales de ingresos a partir de referencias de chatbots de IA y todas las formas en que la IA se utiliza en las salas de redacción hoy en día, como en la codificación, distribución, recopilación de noticias y creación de contenido.
Sin embargo, un punto interesante que plantea el informe es la perspectiva de los líderes de noticias de que el aluvión absoluto de desinformación y “basura de IA” que la gente está viendo en todas partes en Internet conducirá en realidad a un mayor apoyo a los medios de comunicación, es decir, a los creados por el hombre. De los encuestados, más de la mitad (53 por ciento) se siente así, mientras que poco más de una cuarta parte dice que debilitará el apoyo a los medios de comunicación, el seis por ciento no está seguro y el 15 por ciento no cree que haga una diferencia.
De hecho, Edward Roussel, director de digital en Los tiempos y Horario del domingofue citado en el informe diciendo: “A medida que la IA arrase en el mundo, habrá una creciente demanda de periodismo de alta calidad controlado por humanos”.
Nic Newman, autor de los informes desde hace mucho tiempo, aunque 2026 será su último año, dijo que tales opiniones “pueden ser una ilusión”.
“Si las audiencias no están seguras de lo que es verdadero o falso en Internet, esto no significa necesariamente que volverán a recurrir a los medios de comunicación”, dijo Newman.
“Las encuestas muestran que una proporción significativa en la mayoría de los países desconfía profundamente de los medios de comunicación en general, y otros están felices de confiar en los comentarios de los usuarios o incluso en los chatbots de inteligencia artificial para verificar los hechos.
“Al mismo tiempo, a las plataformas les interesa garantizar que la desinformación y el ‘desecho de la IA’ no degraden la experiencia (la llamada ‘enshitificación’) y socaven sus modelos de negocio”.
Como persona con el vaso medio vacío que soy, que pasa gran parte de mi trabajo como periodista desacreditando noticias falsas sobre la comunidad LGBTQ+, también estoy de acuerdo en que es una ilusión creer que la gente se cansará del contenido generado por IA y tomará la decisión de interactuar, confiar y apoyar únicamente el contenido de noticias obtenido y creado por seres humanos.
Como muestra cada caso viral de conejos saltando en un trampolín, el Papa con una chaqueta acolchada o una bandera del Orgullo y Donald Trump siendo abordado y arrestado (todos ejemplos de IA), muchas personas simplemente no pueden distinguir entre lo real y lo falso, o al menos no les importa.
Esto plantea un problema no solo para el sector de los medios, cuya confianza pública está en su punto más bajo, sino también para los grupos minoritarios –como la comunidad LGBTQ+ y los refugiados– que a menudo son utilizados como carne de cañón para este tipo de noticias falsas.

Ahora bien, no todo el contenido falso es inherentemente “malo” per se, y lo digo con cautela.
Tomemos el ejemplo del simpático vídeo de IA de conejos saltando en un trampolín, que ha acumulado decenas de millones de visitas en varias plataformas para compartir vídeos, pero la escala de daño (excluyendo los impactos ambientales de la IA) es bastante baja. Un ejemplo mucho más antiguo de algunas noticias falsas inofensivas fue el engaño del árbol de espagueti de la BBC de 1957, en el que la emisora transmitió un segmento el Día de los Inocentes sobre una familia en el sur de Suiza que “cosecha” espaguetis cocidos de un “árbol de espagueti”. Obviamente, los espaguetis no crecen de los árboles y están hechos de una mezcla de harina y huevos, pero en ese momento la pasta larga y delgada era un alimento misterioso en el Reino Unido, por lo que muchos espectadores fácilmente convencidos se comunicaron con la BBC para pedir consejo sobre cómo cultivar sus propios árboles de espagueti. Fue una verdadera broma, un clásico ‘¡ja, ja, te tengo!’, que ninguna organización de noticias ha podido superar desde entonces, aunque todos lo intentan todos los años.
A veces las noticias falsas lo son por razones satíricas, claro, pero a veces son falsas (deliberadamente) por razones activamente dañinas y peligrosas, como alterar la democracia.
Como investigué el año pasado, en Facebook hubo un enorme aumento de desinformación anti-LGBTQ+ falsamente enmarcada como contenido de noticias “legítimo” y publicada por fuentes de noticias que pretendían ser confiables. Este contenido incluía citas falsas atribuidas a atletas profesionales sobre temas candentes como la inclusión trans en los deportes y figuras públicas como Sam Smith citadas por actualizar su género, pronombres y estado civil con información totalmente falsa y francamente extraña.
El objetivo de este contenido no es difundir noticias informativas, sino dividir a las comunidades sobre temas polémicos como los derechos de las personas trans y, dentro de eso, hacer que la gente cuestione las políticas y la legislación de su propio gobierno, una táctica conocida en los círculos de seguridad nacional como Manipulación e Interferencia de Información Extranjera (FIMI).
La UE define FIMI como un “patrón de comportamiento que amenaza o tiene el potencial de impactar negativamente valores, procedimientos y procesos políticos” donde dicha actividad “a menudo busca avivar la polarización y las divisiones dentro y fuera de la UE, al mismo tiempo que apunta a socavar la posición global de la UE y su capacidad para perseguir sus objetivos e intereses políticos”.

Un informe de la UE de 2023 titulado ‘FIMI dirigido a personas LGBTIQ+: análisis bien informado para proteger los derechos humanos y la diversidad’ (el primero de los cuales se centra específicamente en FIMI anti-LGBTQ+) encontró 31 casos relacionados con FIMI y la comunidad queer entre junio de 2022 y julio de 2023, y la mitad de los casos se atribuyeron a Rusia.
El informe encontró que el FIMI anti-LGBTQ+ tiene motivaciones políticas y busca endurecer la opinión pública en oposición a los derechos LGBTQ+, además de, como ya mencioné, sembrar divisiones en las comunidades y socavar la democracia.
“El alcance de los casos FIMI dirigidos a LGBTIQ+ va más allá de esta comunidad”, se lee en el informe. “Según la evidencia recopilada durante la investigación, los actores del FIMI pretendían provocar la indignación pública no solo contra personas, comunidades u organizaciones LGBTIQ+ identificadas, sino también contra las políticas gubernamentales, el concepto de democracia como tal y eventos locales o geopolíticos.
“Si bien socavar a las personas LGBTIQ+ fue un tema común en muchos de los casos FIMI identificados, la narrativa general en muchos de ellos fue que Occidente está en declive.
“Al aprovechar la narrativa del declive, los actores de amenazas del FIMI intentan abrir una brecha entre los valores tradicionales y las democracias.
“Afirman que es necesario proteger a los niños de las personas LGBTIQ+, que las personas LGBTIQ+ reciben un trato preferencial en los deportes y otros campos –en detrimento de otros– y que las organizaciones liberales o los grupos políticos occidentales son demostrablemente débiles porque se rinden a la ‘propaganda LGBTIQ+’”.
Puede que no te sorprenda, pero todos estos comentarios debajo de las publicaciones compartidas en Facebook que impulsaron esta desinformación anti-LGBTQ+ descaradamente obvia fueron de personas que realmente creían que era verdad y se apresuraron a denunciar los llamados despertares, como que las personas trans tienen derechos.
Sólo hay que mirar los eventos ocurridos en X, anteriormente conocido como Twitter, de los últimos días, donde los usuarios han estado desnudando digitalmente a mujeres y niños utilizando el chatbot de inteligencia artificial Grok de la plataforma, para ver los daños reales de la inteligencia artificial y el contenido falso en acción en tiempo real.
El acto de abuso, el anonimato del abusador, el impacto de la víctima, está claro de ver.

Volviendo al tema de este artículo, la idea de que la fatiga de la IA puede llevar a más personas a apoyar las noticias creadas por humanos es, en el mejor de los casos, esperanzadora y, en el peor, ingenua.
Las personas pueden cansarse del contenido de IA, como ya lo están muchos, pueden cambiar su configuración en las redes sociales para que ya no lo vean, pueden criticar a sus amigos y familiares cuando vuelven a publicar o compartir temas de conversación de noticias falsas, pero esas son sólo algunas personas, no todas.
Hay muchas personas que no pueden optar por desconectarse de la IA o de la máquina de contenido de noticias falsas porque no pueden discernir qué es exactamente falso. Si desea algunos datos aterradores, el Informe de Actitudes y Uso de Medios de Adultos de 2025 de Ofcom encontró que solo un tercio (34 por ciento) de los adultos conscientes de la IA dijeron que se sienten seguros al reconocer el contenido en línea generado por IA; es decir, el 66 por ciento que no lo hace.
Como periodistas y líderes de noticias, esas son las personas en las que deberíamos centrar nuestra atención, no las que ya tienen el conocimiento digital y eventualmente darán su apoyo a los medios creados por humanos, sino las que tienen un bajo nivel de alfabetización mediática y que compartirán una historia sobre Sam Smith identificándose como un repollo en una página de Facebook llamada ‘¡¡¡Noticias que deberían interesarte si amas a Briton!!!!’ y piensa que es real.
Ese es el verdadero peligro.



