Un estudio sobre la llamada “decadencia digital”, es decir, la desaparición progresiva de sitios web, reveló que el 38 % de las páginas que estaban en línea en 2013 ya no existen. Otro análisis, titulado When Online Content Disappears, mostró además que el 8 % de los sitios creados apenas dos años atrás ya no son accesibles. Esta pérdida de información se detecta principalmente a través del fenómeno conocido como link rot, visible en páginas de noticias y en Wikipedia.
En las webs de noticias, el 23 % contiene al menos un enlace roto, una proporción similar a la de los portales gubernamentales (21 %). El tráfico del sitio no parece influir: tanto los más visitados como los menos concurridos muestran problemas. En el caso de las páginas gubernamentales locales —como las de ayuntamientos— la situación es todavía más grave. En Wikipedia, más de la mitad de las entradas (54 %) incluyen en la sección de “Referencias” al menos un enlace que ya no conduce a ninguna parte.
Buena parte de estos enlaces perdidos corresponde a tuits, que durante la última década llegaron a considerarse “fuentes suficientes” en noticias. Sin embargo, también desaparecen recursos oficiales en portales gubernamentales. El muestreo de unas 500.000 páginas de organismos públicos realizado a partir del rastreo de Common Crawl de marzo/abril de 2023 reveló que el 6 % de los enlaces ya no funciona, tanto internos como externos. En conjunto, un 21 % de los sitios gubernamentales analizados presentaba al menos un enlace roto, con un mínimo del 14 % en cada nivel administrativo, y con los ayuntamientos mostrando la peor tasa.
El estudio invita a una reflexión: cuanto más antiguo es un sitio web, más “humana” suele ser la huella que deja. A mediados de la década de 2010, muchas páginas comenzaron a inflarse con contenido automatizado para mejorar su posicionamiento en buscadores. Hoy, en cambio, proliferan textos generados a escala masiva por modelos de lenguaje, lo que los autores llaman la “era del slop”. En este contexto, la desaparición del 38 % de los sitios de 2013 resulta llamativa, pero buena parte de lo que se pierde en la actualidad son contenidos efímeros y artificiales, creados con fines automatizados y rara vez consultados por personas reales.
El análisis de Authoritas revela que sitios que tradicionalmente ocupan la primera posición en Google pueden llegar a perder alrededor del 79 % del tráfico de búsqueda si su enlace aparece por debajo de un AI Overview
Un reciente estudio del Pew Research Center, que analizó el comportamiento de navegación de 900 adultos estadounidenses durante marzo de 2025 (con más de 68 000 búsquedas en Google), alerta sobre el impacto profundo de la función AI Overviews de Google en el tráfico web y los medios informativos. Según este análisis, aproximadamente un 18 % de las búsquedas activan un resumen AI generado por Google, y solo un 8 % de los usuarios hacen clic en enlaces a sitios externos tras ver uno de estos resúmenes, frente al 15 % sin resumen AI. Además, apenas el 1 % de los usuarios clickea cualquiera de los enlaces internos presentes dentro del propio resumen AI, lo que evidencia que estos resúmenes actúan como bloqueadores de tráfico efectivo a los sitios originales
Asimismo, estudios de otros medios como Windows Central y The Guardian subrayan también que los usuarios reciben información satisfactoria directamente en el resultado AI, reduciendo su incentivo para entrar en los sitios originales, lo cual pone en riesgo el modelo económico basado en ingresos por tráfico y publicidad en línea.
En cuanto a los contenidos que sobreviven mejor a este cambio, Wikipedia, YouTube y Reddit lideran como fuentes citadas por los AI Overviews, representando entre el 15 % y el 17 % de las fuentes incluidas en los propios resúmenes y resultados tradicionales, lo que refuerza una concentración de atención en unas pocas plataformas dominantes
Frente a estas tendencias, Google ha cuestionado los métodos del estudio de Pew, calificándolos como poco representativos, y sostiene que no ha detectado una caída sustancial del tráfico global. Sin embargo, parece contradictorio que al mismo tiempo busque acuerdos de licencias con grandes medios informativos, algo que sugiere que reconoce que sus funciones AI están utilizando contenidos sin generar tráfico directo a los creadores originales
Athena Chapekis & Anna Lieb, Google users are less likely to click on links when an AI summary appears in the results, Pew Research Center, 22 de julio de 2025. Disponible en: https://pewrsr.ch/4lIqbsM
El comportamiento de los usuarios de Google cambia cuando se presentan resúmenes generados por inteligencia artificial (IA) en los resultados de búsqueda. Estos “AI Overviews” fueron introducidos por Google en 2024 y actualmente están disponibles para millones de usuarios en EE. UU. La función consiste en un resumen generado por IA que aparece en la parte superior de muchas páginas de resultados, sintetizando la información de diversas fuentes, y ha sido motivo de preocupación entre editores y creadores de contenido digital, quienes han notado una caída significativa en el tráfico hacia sus sitios web.
El estudio analizó el comportamiento de 900 adultos estadounidenses durante marzo de 2025, quienes consintieron en compartir sus datos de navegación. Una de las principales conclusiones fue que los usuarios interactúan menos con los enlaces cuando aparece un resumen de IA. En concreto, solo el 8 % de los usuarios hizo clic en algún enlace tradicional en búsquedas con resumen de IA, frente al 15 % de clics en búsquedas sin resumen. Aún más llamativo es que solo el 1 % de los usuarios hizo clic en los enlaces incluidos dentro del propio resumen generado por IA.
Además, estas búsquedas con resumen de IA también tienden a ser más “finales”: en el 26 % de los casos, los usuarios finalizaron su sesión después de leer el resumen, sin navegar más allá de la página de resultados. En contraste, solo el 16 % de los usuarios abandonó la búsqueda tras consultar una página con resultados tradicionales. Esto sugiere que los resúmenes de IA están cumpliendo su función de ofrecer respuestas rápidas y satisfactorias, aunque esto esté teniendo un costo directo sobre el tráfico hacia otros sitios web.
El estudio también exploró qué tipo de consultas tienden a activar la generación de estos resúmenes por parte de Google. En total, el 18 % de todas las búsquedas realizadas en marzo de 2025 generaron un resumen de IA. No obstante, esta cifra varía ampliamente en función de la longitud y la forma de la consulta. Las búsquedas más extensas (de 10 palabras o más) generaron resúmenes en un 53 % de los casos, mientras que las consultas de una o dos palabras solo lo hicieron en un 8 %.
Asimismo, las búsquedas que incluían preguntas explícitas (“quién”, “qué”, “cuándo”, “por qué”) generaron resúmenes en el 60 % de los casos, y aquellas formuladas como oraciones completas (que contienen al menos un sustantivo y un verbo) lo hicieron en un 36 % de las ocasiones. Esto indica que los algoritmos de IA de Google están más activos cuando la intención de búsqueda es clara, informativa y bien definida.
En cuanto a las fuentes utilizadas para componer los resúmenes, el informe señala que las más citadas son Wikipedia, YouTube y Reddit, que representan el 15 % de las fuentes referenciadas en los resúmenes y un 17 % en los resultados tradicionales. Sin embargo, en los resúmenes de IA es más frecuente encontrar vínculos a sitios gubernamentales (.gov), representando un 6 % de los enlaces, frente al 2 % en los resultados convencionales. En ambos tipos de resultados, las páginas de noticias ocupan un 5 %.
En promedio, los resúmenes de IA tienen una longitud media de 67 palabras, aunque varían enormemente: el más corto encontrado tenía solo 7 palabras y el más largo llegaba a 369. Un 88 % de estos resúmenes incluía al menos tres fuentes citadas, mientras que solo un 1 % se apoyaba en una sola fuente.
El informe pone en evidencia una transformación significativa en la forma en que los usuarios interactúan con Google. Aunque los resúmenes de IA pueden ofrecer comodidad y rapidez, reducen de forma notable la visibilidad y el acceso a las fuentes originales de información, lo que afecta especialmente a medios de comunicación, páginas educativas, blogs y todo tipo de creadores de contenido que dependen del tráfico web para sostenerse económicamente.
Este fenómeno plantea preguntas importantes sobre el futuro de la web abierta, la transparencia de los sistemas de IA y el equilibrio entre ofrecer respuestas eficientes y mantener un ecosistema digital sostenible y diverso.
El artículo analiza una transformación radical que está ocurriendo en el mundo digital: la llegada de navegadores web impulsados por inteligencia artificial que pretenden eliminar el modelo tradicional de navegación basado en clics. Esta revolución está liderada por empresas como Perplexity y OpenAI, que buscan desafiar directamente el dominio de Google Chrome y transformar fundamentalmente cómo interactuamos con internet.
La empresa Perplexity ha lanzado oficialmente Comet, un navegador web revolucionario que funciona más como una conversación que como un sistema de navegación tradicional. Este navegador representa un cambio paradigmático, ya que está diseñado para funcionar como ChatGPT pero con capacidades de navegación integradas. Comet promete actuar como un «segundo cerebro» que puede realizar investigaciones activas, comparar opciones, realizar compras, proporcionar resúmenes diarios y analizar información de manera autónoma, todo sin necesidad de que el usuario navegue a través de múltiples pestañas o enlaces.
El concepto detrás de Comet se basa en la evolución de la inteligencia artificial agentiva, un campo de vanguardia donde los sistemas de IA no solo responden preguntas o generan texto, sino que pueden realizar de forma autónoma una serie de acciones y tomar decisiones para lograr los objetivos del usuario. En lugar de requerir que el usuario especifique cada paso, un navegador agéntico busca comprender la intención del usuario y ejecutar tareas de múltiples pasos, funcionando efectivamente como un asistente inteligente dentro del entorno web.
La aparición de Comet representa una confrontación directa con Google Chrome, que durante décadas ha sido el portal dominante que forma cómo miles de millones de personas navegan por la web. Todo el modelo de Chrome está construido para maximizar la interacción del usuario y, por consecuencia, los ingresos publicitarios. Comet está intentando destruir este modelo, desafiando fundamentalmente la economía de internet basada en la publicidad.
OpenAI, la empresa creadora de ChatGPT, también está preparando su propio navegador web impulsado por IA, que podría lanzarse próximamente según reportes de Reuters. Esta herramienta probablemente integrará el poder de ChatGPT con Operator, el agente web propietario de OpenAI. Operator es un agente de IA capaz de realizar tareas de forma autónoma a través de interacciones con el navegador web, utilizando modelos avanzados para navegar sitios web, llenar formularios, realizar pedidos y gestionar otras tareas repetitivas basadas en el navegador.
El diseño de Operator le permite «observar» las páginas web como lo haría un humano, haciendo clic, escribiendo y desplazándose, con el objetivo de manejar eventualmente la «cola larga» de casos de uso digital. Si se integra completamente en un navegador de OpenAI, podría crear una alternativa completa a Google Chrome y Google Search en un movimiento decisivo, atacando a Google desde ambos extremos: la interfaz del navegador y la funcionalidad de búsqueda.
La propuesta de Perplexity es simple pero provocativa: la web debería responder a los pensamientos del usuario, no interrumpirlos. La empresa sostiene que internet se ha convertido en la mente extendida de la humanidad, pero las herramientas para usarla siguen siendo primitivas. En lugar de navegar a través de pestañas infinitas y perseguir hipervínculos, Comet promete funcionar basándose en el contexto, permitiendo a los usuarios pedir comparaciones de planes de seguros, resúmenes de oraciones confusas o encontrar instantáneamente productos que olvidaron marcar como favoritos.
Esta transformación podría significar el fin de la optimización tradicional para motores de búsqueda (SEO) y la muerte de los familiares «enlaces azules» de los resultados de búsqueda. Los navegadores de IA como Comet no solo amenazan a editores individuales y su tráfico, sino que directamente amenazan los fundamentos del ecosistema de Google Chrome y el dominio de Google Search, que depende en gran medida de dirigir a los usuarios a sitios web externos.
Google Search ya ha estado bajo considerable presión de startups nativas de IA como Perplexity y You.com. Sus propios intentos de integración más profunda de IA, como la Experiencia Generativa de Búsqueda (SGE), han recibido críticas por producir a veces «alucinaciones» (información incorrecta) y resúmenes inadecuados. Simultáneamente, Chrome está enfrentando su propia crisis de identidad, atrapado entre tratar de preservar su masivo flujo de ingresos publicitarios y responder a una oleada de alternativas impulsadas por IA que no dependen de enlaces o clics tradicionales para entregar información útil.
Si Comet o el navegador de OpenAI tienen éxito, el impacto no se limitará solo a interrumpir la búsqueda, sino que redefinirá fundamentalmente cómo funciona toda la internet. Los editores, anunciantes, minoristas en línea e incluso las empresas de software tradicionales pueden encontrarse desintermediados por agentes de IA que pueden resumir su contenido, comparar sus precios, ejecutar sus tareas y evitar completamente sus sitios web e interfaces existentes.
Esta transformación representa un nuevo frente de alto riesgo en la guerra por cómo los humanos interactúan con la información y conducen sus vidas digitales. El navegador de IA ya no es un concepto hipotético: es una realidad presente que está redefiniendo el panorama digital tal como lo conocemos.
Se analiza cómo la adopción masiva de buscadores basados en IA —como ChatGPT, Perplexity o los «AI Overviews» de Google— está transformando profundamente la estructura y el funcionamiento tradicionales de la web. Según Daoudi, el usuario actual prefiere respuestas integradas directamente en los resultados en lugar de navegar entre múltiples enlaces; sin embargo, esta tendencia puede generar una crisis de transparencia en la información, ya que no siempre se sabe cómo se priorizan las fuentes o cuáles se están utilizando .
El autor advierte sobre el riesgo de que estas plataformas “rompan” la web al consolidar respuestas sin referencia clara a las fuentes originales. Frente a este desafío, subraya la pérdida de control del usuario sobre la veracidad y el contexto, a medida que el sistema se comporta como una «caja negra» que fusiona múltiples contenidos inconsistentes o sesgados. Se plantea la pregunta crítica: ¿quién decide qué información se muestra y en qué orden? .
Daoudi propone que el futuro de la búsqueda debe evolucionar hacia una estructura híbrida que combine lo mejor del modelo tradicional (enlaces y rastreo) con la inteligencia contextual de la IA. Sugiere que los portales de búsqueda necesitan ofrecer:
Transparencia: mostrar claramente las fuentes utilizadas, y cómo la IA seleccionó y sintetizó la información.
Control del usuario: brindar opciones para que los usuarios exploren más en profundidad (por ejemplo, desgloses fuente por fuente).
Retroalimentación activa: permitir al usuario participar en la mejora continua del sistema, señalando errores o preferencias.
El artículo también sitúa este fenómeno dentro de un contexto más amplio: la economía web está siendo redefinida por el desplazamiento de clics y tráfico hacia respuestas directas de IA, lo que ha provocado preocupación entre editores y creadores de contenido por los impactos en ingresos publicitarios y visibilidad. Además, la dependencia creciente de agentes generativos plantea interrogantes legales ligados a derechos de autor, compensación justa y transparencia algorítmica.
Se advierte que la revolución de la búsqueda potenciada por IA tiene un enorme potencial para mejorar la experiencia de usuario, pero también conlleva riesgos significativos: desinformación, pérdida de visibilidad para creadores de contenido y opacidad en los procesos de decisión. Por ello, propone una evolución hacia sistemas híbridos que integren fiabilidad, trazabilidad, participación activa del usuario y regulación informada.
Las herramientas de inteligencia artificial (IA) de Google están afectando negativamente a los medios de comunicación tradicionales. Estas herramientas, como los resúmenes automáticos y las respuestas generadas por IA, están desplazando el contenido original de los sitios de noticias en los resultados de búsqueda, lo que reduce el tráfico web y los ingresos publicitarios de los editores.
Además, Google ha implementado resúmenes (Overview) de IA en sus resultados de búsqueda, lo que eleva el contenido generado por IA por encima del contenido original de los editores. Esta tendencia está alterando el ecosistema digital y generando preocupaciones sobre el futuro del periodismo en línea.
En respuesta, algunos editores están tomando medidas legales para proteger sus derechos de autor y asegurar que se les compense por el uso de su contenido por parte de las herramientas de IA. Por ejemplo, Alden Global Capital, propietario de varios periódicos, ha demandado a OpenAI y Google por infracción de derechos de autor y ha instado al gobierno de EE. UU. a rechazar propuestas que permitirían a las empresas de tecnología utilizar datos públicos para entrenar modelos de IA sin el consentimiento de los editores.
Este conflicto resalta la creciente lucha por el control y la monetización de la información en la era de la IA, donde los editores buscan proteger sus intereses frente al uso no autorizado de su contenido por parte de las herramientas de IA de las grandes empresas tecnológicas.
El artículo de Visual Capitalist proporciona un análisis detallado de los sitios web más visitados del mundo según los datos de tráfico de noviembre de 2024. Google sigue siendo el sitio más visitado a nivel global, con más de 136 mil millones de visitas mensuales. Su dominio se debe a su función como motor de búsqueda más utilizado y su integración con otros servicios como Gmail, Google Maps y Google Drive. YouTube, propiedad de Google, ocupa el segundo lugar, reflejando el crecimiento del consumo de videos en línea como fuente de entretenimiento y aprendizaje. Con más de 35 mil millones de visitas mensuales, YouTube se consolida como un referente de video en la web.
Las redes sociales tienen una presencia destacada, con plataformas como Facebook, X (anteriormente Twitter) e Instagram entre los sitios más visitados. Facebook, aunque sigue siendo el tercero en la lista, ha experimentado una desaceleración en su crecimiento, mientras que plataformas como Instagram y TikTok continúan ganando popularidad, especialmente entre audiencias más jóvenes. TikTok, con su formato de videos cortos, ha experimentado un crecimiento explosivo y se ha convertido en una de las plataformas más influyentes, con 3.2 mil millones de visitas mensuales. Estas plataformas han transformado el consumo de contenido y están dominando la interacción digital en la actualidad.
Además, el artículo resalta el auge de las plataformas basadas en inteligencia artificial, como OpenAI y Character.AI, que están ganando popularidad a medida que la IA se convierte en una herramienta integral en la interacción digital. Este fenómeno subraya cómo la IA está cambiando la forma en que las personas consumen contenido y se relacionan con la tecnología. La creciente integración de la IA en la web muestra una clara tendencia hacia la automatización de las interacciones en línea, desde la creación de contenido hasta la personalización de experiencias.
Las plataformas de streaming, como Netflix y YouTube, también se destacan en términos de tráfico web. Netflix sigue siendo una de las principales fuentes de entretenimiento en línea, mientras que TikTok se impone como un competidor fuerte en la creación y consumo de contenido en video. A pesar de la competencia de nuevas plataformas, estos gigantes del entretenimiento siguen siendo esenciales para el tráfico web global.
En el ámbito del comercio electrónico, Amazon continúa siendo un sitio de alto tráfico, aunque no lidera la lista de los más visitados. A pesar de su éxito en el comercio en línea, las plataformas de búsqueda y redes sociales tienen una mayor cantidad de visitas. Este fenómeno refleja el cambio en los hábitos de los usuarios, que cada vez más priorizan la interacción social y el consumo de contenido sobre las compras en línea.
Por último, el artículo señala cómo la localización influye en el tráfico web global. A pesar de la dominancia de los sitios de EE.UU., plataformas de otros países, como WeChat y Baidu en China, también están ganando terreno, aunque el acceso a estas plataformas puede verse afectado por la censura en algunas regiones. El panorama global del tráfico web sigue siendo dinámico y está moldeado por las tendencias emergentes en IA, redes sociales, y entretenimiento en video.
Monthly Visits
Unique Monthly Visitors
Google
136B
6.3B
YouTube
72.8B
3.6B
Facebook
12.7B
2.0B
Wikipedia
6.9B
1.5B
Instagram
6.8B
1.5B
Reddit
6.0B
1.0B
Pornhub
5.3B
928M
Bing
5.2B
679M
ChatGPT
4.8B
566M
X
4.3B
842M
El análisis de los datos de visitas mensuales y visitantes únicos mensuales de los sitios web más populares del mundo revela varias tendencias interesantes sobre la dinámica digital global.
X (anteriormente Twitter), con 4.3 mil millones de visitas y 842 millones de visitantes únicos, sigue siendo una plataforma importante para debates en tiempo real y noticias. Aunque ha enfrentado dificultades con cambios en su estructura, sigue siendo una fuente clave de información y conversación en línea.
Dominio de Google y YouTube:
Google lidera el ranking con una impresionante cifra de 136 mil millones de visitas mensuales y 6.3 mil millones de visitantes únicos. Esto demuestra la hegemonía de Google en la búsqueda y en una serie de otros servicios (como Gmail, Google Maps, etc.), lo que lo convierte en la plataforma más utilizada por la mayor parte de los usuarios en todo el mundo.
YouTube, con 72.8 mil millones de visitas mensuales y 3.6 mil millones de visitantes únicos, sigue como la principal plataforma de videos en línea. El alto número de visitas y usuarios únicos destaca el dominio de YouTube como plataforma de contenido visual y su capacidad para atraer a una amplia audiencia en una variedad de categorías, desde entretenimiento hasta educación.
Redes Sociales:
Facebook se mantiene en una sólida posición, con 12.7 mil millones de visitas mensuales y 2 mil millones de visitantes únicos, aunque ha visto una ligera disminución en su crecimiento en comparación con años anteriores. A pesar de la competencia de otras plataformas como Instagram, Facebook sigue siendo un gigante social, especialmente en términos de usuarios activos.
Instagram y Reddit presentan cifras competitivas. Instagram, con 6.8 mil millones de visitas y 1.5 mil millones de visitantes únicos, sigue siendo una de las principales plataformas sociales centradas en lo visual, mientras que Reddit, con 6.0 mil millones de visitas y 1.0 mil millones de visitantes únicos, destaca por su capacidad para atraer a comunidades muy específicas y discusiones de nicho.
Plataformas de entretenimiento y contenidos adultos:
Pornhub ocupa el séptimo lugar con 5.3 mil millones de visitas y 928 millones de visitantes únicos. Aunque está muy lejos de los gigantes de búsqueda y redes sociales, sigue siendo una de las plataformas más visitadas del mundo, lo que refleja la gran demanda de contenido adulto en línea.
Bing, con 5.2 mil millones de visitas y 679 millones de visitantes únicos, muestra que el motor de búsqueda de Microsoft todavía tiene una base significativa de usuarios, aunque está muy por detrás de Google.
Inteligencia Artificial y Nuevas Tecnologías:
ChatGPT, con 4.8 mil millones de visitas y 566 millones de visitantes únicos, es un indicador claro del crecimiento de la inteligencia artificial y las herramientas conversacionales. La alta cantidad de visitas subraya el impacto de los modelos de lenguaje de IA en la interacción de los usuarios con la tecnología, proporcionando respuestas, soluciones y asistencia de manera eficiente.
Los gigantes de internet continúan dominando el panorama digital en España, con Google, YouTube y Facebook encabezando la lista de las páginas web con mayor tráfico. Según datos de diciembre de 2024 proporcionados por la herramienta de análisis SimilarWeb, google.com ocupa la primera posición en el ranking, seguido por youtube.com en segundo lugar y facebook.com en tercera posición. La versión española del buscador, google.es, también figura entre los sitios más visitados, situándose en cuarto lugar.
Ranking de los sitios más visitados
A continuación, se presentan los diez sitios web con mayor tráfico en España según las estimaciones de SimilarWeb:
Google.com – Sigue siendo el sitio más visitado, consolidando su posición como el principal motor de búsqueda en España.
YouTube.com – La plataforma de videos de Google mantiene su popularidad como fuente de entretenimiento e información.
Facebook.com – A pesar de la competencia de otras redes sociales, sigue teniendo una gran base de usuarios.
Google.es – La versión localizada del buscador ocupa un lugar relevante.
X.com (Twitter) – La red social sigue siendo un referente en noticias y debates.
Marca.com – Refleja el fuerte interés por el deporte en España, especialmente el fútbol.
Instagram.com – Continúa siendo una plataforma clave para la interacción social y el contenido visual.
Amazon.es – El comercio electrónico sigue en auge, con Amazon liderando el sector en España.
Zonatmo.com – Página menos conocida en el ranking, posiblemente relacionada con meteorología o tecnología.
Whatsapp.com – La aplicación de mensajería también es consultada a través de su versión web.
Factores que influyen en el tráfico web
El volumen de visitas a estas plataformas está determinado por diversos factores, entre los que destacan:
Tendencias de consumo digital: Con el auge del video en línea, plataformas como YouTube han visto un crecimiento sostenido en los últimos años.
Uso de redes sociales: Aunque Facebook ha perdido popularidad entre las generaciones más jóvenes, sigue siendo un pilar del ecosistema digital.
E-commerce y servicios online: Amazon y Google dominan las búsquedas relacionadas con compras y necesidades cotidianas.
Interés por la actualidad: Medios de comunicación como El Mundo y Marca reflejan el interés de los usuarios por noticias políticas, sociales y deportivas.
Metodología de medición
SimilarWeb utiliza diversas fuentes para estimar el tráfico de las páginas web, combinando datos de dispositivos conectados (móviles y fijos), información de proveedores de internet, bases de datos públicas y análisis de páginas web y aplicaciones.
Conclusión
El ecosistema digital en España sigue dominado por las grandes tecnologías, aunque las tendencias y hábitos de consumo digital pueden cambiar rápidamente con la evolución de las plataformas y la aparición de nuevos actores. La consolidación del video, el comercio electrónico y la información en tiempo real seguirán marcando el futuro del tráfico web en los próximos años.
Internet Archive ha restablecido su herramienta Wayback Machine en modo «solo lectura», tras varios ataques de DDoS (ataques distribuidos de denegación de servicio) que afectaron la operatividad del sitio la semana pasada. Brewster Kahle, fundador del archivo, señaló en un comunicado que aunque el servicio es funcional nuevamente, es posible que se requiera más mantenimiento, lo que podría resultar en una nueva suspensión temporal. Actualmente, algunas funciones importantes, como la capacidad de los usuarios para capturar manualmente páginas web a través de «Guardar página ahora», siguen deshabilitadas, y otros servicios del archivo, como openlibrary.org, permanecen fuera de línea.
Internet Archive, una organización sin fines de lucro fundada en 1996, tiene como misión preservar páginas web públicas y otros tipos de contenido digital. Hasta la fecha, ha logrado capturar 916 mil millones de páginas web y también proporciona acceso gratuito a una vasta colección de videos, audios y libros. No obstante, la plataforma recientemente enfrentó un revés importante al verse obligada a eliminar 500,000 libros de su base de datos, después de perder un caso judicial relacionado con derechos de autor.
La caída de Internet Archive fue provocada por una serie de ataques DDoS que comenzaron en la primera semana de octubre. A estos se sumó una violación de datos en septiembre, que expuso la información de 31 millones de usuarios registrados. Los atacantes lograron infiltrarse en el sistema y publicaron un mensaje burlón en el sitio web del archivo, preguntando sarcásticamente si Internet Archive «funcionaba con palillos» y mencionando que había sufrido una violación catastrófica de seguridad.
El mensaje también hacía referencia a la plataforma Have I Been Pwned (HIBP), un servicio creado por el investigador de seguridad Troy Hunt, que informa a los usuarios cuando sus datos han sido comprometidos en brechas de seguridad. La base de datos filtrada incluía información sensible como correos electrónicos, nombres de usuario, fechas de cambio de contraseñas y contraseñas cifradas con el algoritmo Bcrypt, entre otros datos internos. Según BleepingComputer, los atacantes enviaron esta información a la plataforma Have I Been Pwned para alertar a los usuarios afectados.
El 9 de octubre, Kahle confirmó que Internet Archive estaba sufriendo un ataque DDoS y que el equipo estaba trabajando para mejorar la seguridad en respuesta tanto a este ataque como a la violación de datos ocurrida en septiembre. A pesar de los esfuerzos para proteger el sitio, el 10 de octubre reportó que los atacantes habían regresado con otro ataque DDoS, dejando el sitio completamente fuera de línea.
Kahle destacó que la prioridad del equipo de Internet Archive era garantizar la seguridad de los datos de los usuarios, incluso a costa de la disponibilidad del servicio. En su último mensaje del 11 de octubre, mencionó que algunos servicios seguirían inactivos mientras fortalecen la infraestructura y realizan revisiones de seguridad. Indicó que este proceso podría durar «días, no semanas», y agradeció a la comunidad por sus ofertas de apoyo, rechazando las ofertas de «pizza» con un toque humorístico.
A medida que el equipo continúa trabajando en la restauración completa de los servicios, la comunidad de usuarios de Internet Archive sigue esperando que la plataforma recupere su funcionalidad plena, especialmente en un momento en que la preservación de contenido digital se vuelve cada vez más crucial en la era moderna.
Wayback Machine es una herramienta del Internet Archive, una organización sin fines de lucro dedicada a preservar el contenido digital. Su objetivo es archivar y proporcionar acceso a versiones anteriores de páginas web, permitiendo a los usuarios ver cómo eran los sitios en el pasado.
En un avance significativo para la preservación digital, Google Search ahora facilita más que nunca el acceso a la historia de la web. Los usuarios de todo el mundo podrán visualizar versiones archivadas de páginas web directamente desde Google Search, gracias a un enlace directo a la Wayback Machine del Internet Archive.
Cómo Funciona
Para utilizar esta nueva función, realiza una búsqueda en Google como de costumbre. Junto a cada resultado de búsqueda, encontrarás tres puntos; al hacer clic en ellos, aparecerá el panel “Sobre este Resultado”. Dentro de este panel, selecciona “Más sobre esta página” para poder acceder a un enlace a la página de la Wayback Machine de ese sitio web.
A través de este enlace directo, podrás ver versiones anteriores de una página web mediante la Wayback Machine, ofreciendo una instantánea de cómo aparecía en diferentes momentos.
Un Compromiso con la Preservación
La misión de Internet Archive es proporcionar “Acceso Universal a Todo el Conocimiento.” Wayback Machine, es uno de los servicios más conocidos, proporciona acceso a miles de millones de páginas web archivadas, asegurando que el registro digital permanezca accesible para las generaciones futuras.