Wikipedia presenta una caída de usuarios y los resúmenes de IA son la principal causa
En enero de 2026, Wikipedia cumplirá 25 años siendo “la enciclopedia libre”, uno de los principales recursos en la búsqueda de conocimiento online. Fundada por Jimmy Wales y Larry Sanger en una era del Internet que ya nos parece antediluviana, Wikipedia lleva un cuarto de siglo haciendo en buena medida lo que un chatbot como ChatGPT hace ahora: recopilando información de Internet para presentarla a sus usuarios. La diferencia es que Wikipedia depende de voluntarios humanos, mientras que ChatGPT tiene a su disposición un modelo de lenguaje extenso (LLM, por su nombre en inglés) que extrae información de todas las fuentes que existen en la red, incluyendo de la propia Wikipedia.
La inteligencia artificial generativa representa una tendencia que amenaza tanto a Wikipedia como a cualquier otro medio de información cuya existencia depende del número de visitas que alcanza su página. En WIRED hemos documentado, por ejemplo, cómo los resúmenes generados por IA que ofrece Google han sido un golpe al tráfico de páginas que proporcionan esa misma información. Aunque el gigante de las búsquedas rechaza ese señalamiento, las cifras internas de los medios afectados cuentan otra historia. Wikipedia exhibió su caso.
A través de una publicación en el blog de la Fundación Wikimedia (la organización sin fines de lucro que administra Wikipedia), Marshall Miller, director senior de Producto, explicó que Wikipedia ha visto una caída en vistas de usuarios humanos. «Estas disminuciones no son inesperadas», escribió. “Los motores de búsqueda utilizan cada vez más la IA generativa para proporcionar respuestas directamente a los usuarios, en lugar de enlazar a sitios como el nuestro”. Aunque no ha sido un desplome catastrófico, la tendencia general es preocupante.
Humanos vs bots
Wikimedia clasifica mensualmente las páginas vistas en Wikipedia y sus proyectos asociados en dos categorías: tráfico humano y tráfico automatizado (bots/crawlers). Este mecanismo es clave para comprender con exactitud cuántos usuarios de carne y hueso están accediendo al contenido, y además para regular el acceso de terceros (por ejemplo, servicios comerciales que reutilizan el contenido) de manera responsable.
En mayo de 2025 se detectó un aumento “inusualmente alto” de tráfico aparentemente humano procedente de Brasil. Esto derivó en una revisión de sus sistemas de detección de bots. Tras aplicar la nueva lógica de clasificación para los meses de marzo a agosto de ese año, se constató que buena parte del incremento provenía de bots diseñados para eludir la detección. Este hallazgo tuvo una consecuencia directa: una disminución estimada de aproximadamente 8% en las visitas humanas de páginas de Wikipedia en comparación con el mismo periodo de 2024.
Para el mundo de la tecnología, esto significa que no solo hay un reto de infraestructura (controlar bots, códigos automatizados, scraping masivo) sino también de confiabilidad de métricas y análisis de datos. Los patrones de tráfico que parecían humanos ya no pueden asumirse sin inspección profunda.
¿Qué explica la caída del tráfico?
Miller atribuyó el descenso de ojos humanos a dos factores interrelacionados: primero, el auge de la IA generativa que ofrece respuestas directas al usuario, evitando la necesidad de visitar directamente el sitio de Wikipedia. Segundo, un fenómeno familiar: el cambio de comportamiento de las nuevas generaciones, que buscan información no en la web tradicional sino en plataformas de video y redes sociales (como TikTok).
En términos técnicos, esto plantea un desafío: la web abierta está siendo complementada (o incluso desplazada en ciertos casos) por interfaces conversacionales, chatbots, y APIs que consumen datos estructurados de Wikipedia sin “redirigir” al usuario final a la fuente original (aunque, irónicamente, Wikipedia no suele ser fuente original de nada). Si bien esto puede considerarse un éxito en el uso del contenido de Wikipedia, también implica que se reduce el “engagement directo” con la plataforma. «Con menos visitas a Wikipedia, menos voluntarios podrán ampliar y enriquecer el contenido, y menos donantes individuales podrán apoyar esta labor», expuso Miller.
“Wikipedia es el único sitio de su escala con estándares de verificabilidad, neutralidad y transparencia que impulsa la información en internet, y sigue siendo esencial para las necesidades diarias de información de las personas de maneras impredecibles. Para que las personas confíen en la información compartida en internet, las plataformas deben aclarar de dónde proviene la información y fomentar las oportunidades de visitar y participar en esas fuentes”, añadió.
¿Cómo adaptarse a la nueva era?
Consciente de este cambio de paradigma, la Wikimedia Foundation ha estado trabajando en varias iniciativas para adaptarse a la era de la IA generativa:
- Reforzar controles de acceso de terceros para reutilización de contenido a gran escala, mediante políticas, marcos de atribución y capacidades técnicas a través del servicio Wikimedia Enterprise.
- Integrar dos equipos especializados: Reader Growth Team y Reader Experience Team, enfocados en experimentar cómo las personas acceden y leen Wikipedia, y en mejorar la experiencia móvil y de nuevos usuarios que desean editar.
- Lanzar el proyecto Future Audiences Project, que intenta conectar el conocimiento libre de Wikipedia con audiencias jóvenes en plataformas como YouTube, TikTok, Roblox e Instagram (por medio de video, juegos, chatbots).
“Nosotros le damos la bienvenida a las nuevas formas de adquirir conocimiento», indicó Miller. “Sin embargo, los LLM, los chatbots de IA, los motores de búsqueda y las plataformas sociales que utilizan el contenido de Wikipedia deben fomentar el acceso a Wikipedia para que el conocimiento gratuito, del que dependen tantas personas y plataformas, pueda seguir fluyendo de forma sostenible”.
Share this content:
Publicar comentario