Archivo de la etiqueta: Motores de búsqueda

Los chatbots de IA usan fuentes diferentes a las de Google Search y a menudo citan sitios web poco conocidos

Kemper, Jonathan. “AI Chatbots Use Different Sources Than Google Search and Often Cite Less-Known Websites.” The Decoder, 26 octubre 2025.

Texto completo

Se informa sobre una investigación llevada a cabo por la Ruhr University Bochum y el Max Planck Institute for Software Systems, que compara cómo los motores de búsqueda tradicionales —ejemplificados por Google Search— y los sistemas de búsqueda generativa de IA —como Gemini 2.5 Flash, GPT‑4o con herramienta de búsqueda y la interfaz “Search” de GPT-4o— seleccionan y referencian fuentes web en respuestas a consultas.

Se analizaron más de 4.600 consultas sobre temas diversos (política, productos, ciencia) y se observaron diferencias sustanciales en el origen, cantidad y visibilidad de los enlaces utilizados por cada sistema.

Una de las principales conclusiones es que los sistemas de IA dependen mucho más que la búsqueda tradicional de sitios menos establecidos o con menor visibilidad. Por ejemplo, aproximadamente el 53 % de los sitios citados por el sistema “AI Overview” no aparecían dentro de los diez primeros resultados orgánicos de Google, y cerca del 27 % no estaban siquiera en los primeros cien. En consecuencia, los usuarios que confían en chatbots pueden estar accediendo a contenido procedente de dominios más desconocidos o menos regulados que aquellos a los que normalmente llegarían mediante la búsqueda convencional.

Asimismo, la investigación señala que la cantidad de fuentes externas varía notablemente entre los sistemas. Mientras que algunos modelos de IA incorporan muchos enlaces (por ejemplo, “AI Overview” y Gemini utilizan más de ocho sitios por consulta, de media), otros como “GPT-Tool” emplean un promedio muy bajo, alrededor de 0,4 fuentes externas, apoyándose casi exclusivamente en su conocimiento interno. Esto implica que la profundidad y diversificación de la información pueden variar ampliamente según el sistema usado.

El estudio también analiza la cobertura temática y cómo varía según el tipo de consulta. En temas ambiguos o complejos, la búsqueda tradicional alcanzó una cobertura del 60 % de los subtemas esperados, frente al 51 % alcanzado por “AI Overview” y sólo 47 % por “GPT-Tool”. Esto da a entender que los chatbots de IA pueden ofrecer respuestas más rápidas o consolidadas, pero podrían estar omitiendo matices, perspectivas adicionales o más amplios marcos de análisis que los motores de búsqueda tradicionales tienden a cubrir.

En lo que respecta a temas de actualidad o noticias recientes, la búsqueda tradicional también mostró ventaja: en un test con 100 temas tendencia en septiembre 2025, Google alcanzó un 67 % de cobertura, “GPT-Search” un 72 % (ligeramente superior) pero “AI Overview” sólo un 3 %, y “GPT-Tool” un 51 %. Esto sugiere que no todos los sistemas de IA están optimizados para rastrear o indexar los últimos eventos tan eficazmente como los motores de búsqueda clásicos.

Finalmente, el artículo advierte que estos cambios en selección de fuentes y metodología de citación tienen implicaciones importantes para la credibilidad, verificación y equidad de la información que reciben los usuarios. Al recurrir con frecuencia a sitios menos conocidos, la transparencia sobre la autoridad, la calidad y el sesgo de esas fuentes puede disminuir. También plantea que las habituales reglas de evaluación de calidad de búsquedas deben adaptarse, pues los sistemas de búsqueda de IA operan bajo lógicas distintas y requieren criterios propios para valorar su fiabilidad.

En esencia, el artículo invita a usuarios, bibliotecarios, investigadores y profesionales de la información a tener conciencia de estas diferencias. No basta con asumir que una respuesta generada por un chatbot es equivalente a haber realizado una búsqueda exhaustiva: la procedencia y visibilidad de las fuentes pueden ser muy distintas, lo cual comporta riesgos y oportunidades diferentes respecto a la práctica informacional tradicional.

Los resúmenes de búsqueda de IA reducen drásticamente el tráfico a los sitios de noticias

Toohey, Ellsworth. 2025. “Publishers See Traffic Plummet as Google’s AI Answers Keep Users from Clicking Links.” Boing Boing, July 24, 2025. https://boingboing.net/2025/07/24/publishers-see-traffic-plummet-as-googles-ai-answers-keep-users-from-clicking-links.html

El análisis de Authoritas revela que sitios que tradicionalmente ocupan la primera posición en Google pueden llegar a perder alrededor del 79 % del tráfico de búsqueda si su enlace aparece por debajo de un AI Overview

Un reciente estudio del Pew Research Center, que analizó el comportamiento de navegación de 900 adultos estadounidenses durante marzo de 2025 (con más de 68 000 búsquedas en Google), alerta sobre el impacto profundo de la función AI Overviews de Google en el tráfico web y los medios informativos. Según este análisis, aproximadamente un 18 % de las búsquedas activan un resumen AI generado por Google, y solo un 8 % de los usuarios hacen clic en enlaces a sitios externos tras ver uno de estos resúmenes, frente al 15 % sin resumen AI. Además, apenas el 1 % de los usuarios clickea cualquiera de los enlaces internos presentes dentro del propio resumen AI, lo que evidencia que estos resúmenes actúan como bloqueadores de tráfico efectivo a los sitios originales

Publicaciones como MailOnline en el Reino Unido han reportado caídas del 56 % en búsquedas de escritorio y 48 % en móvil, directamente atribuidas a estos resúmenes. La presencia del resumen AI también incrementa la probabilidad de que el usuario termine su sesión de navegación en ese punto: el 26 % finaliza la sesión tras ver un resumen, comparado con apenas 16 % en búsquedas tradicionales.

Asimismo, estudios de otros medios como Windows Central y The Guardian subrayan también que los usuarios reciben información satisfactoria directamente en el resultado AI, reduciendo su incentivo para entrar en los sitios originales, lo cual pone en riesgo el modelo económico basado en ingresos por tráfico y publicidad en línea.

En cuanto a los contenidos que sobreviven mejor a este cambio, Wikipedia, YouTube y Reddit lideran como fuentes citadas por los AI Overviews, representando entre el 15 % y el 17 % de las fuentes incluidas en los propios resúmenes y resultados tradicionales, lo que refuerza una concentración de atención en unas pocas plataformas dominantes

Frente a estas tendencias, Google ha cuestionado los métodos del estudio de Pew, calificándolos como poco representativos, y sostiene que no ha detectado una caída sustancial del tráfico global. Sin embargo, parece contradictorio que al mismo tiempo busque acuerdos de licencias con grandes medios informativos, algo que sugiere que reconoce que sus funciones AI están utilizando contenidos sin generar tráfico directo a los creadores originales

Los resúmenes de IA en Google reducen drásticamente los clics a enlaces y transforman el comportamiento de búsqueda

Athena Chapekis & Anna Lieb, Google users are less likely to click on links when an AI summary appears in the results, Pew Research Center, 22 de julio de 2025. Disponible en: https://pewrsr.ch/4lIqbsM

El comportamiento de los usuarios de Google cambia cuando se presentan resúmenes generados por inteligencia artificial (IA) en los resultados de búsqueda. Estos “AI Overviews” fueron introducidos por Google en 2024 y actualmente están disponibles para millones de usuarios en EE. UU. La función consiste en un resumen generado por IA que aparece en la parte superior de muchas páginas de resultados, sintetizando la información de diversas fuentes, y ha sido motivo de preocupación entre editores y creadores de contenido digital, quienes han notado una caída significativa en el tráfico hacia sus sitios web.

El estudio analizó el comportamiento de 900 adultos estadounidenses durante marzo de 2025, quienes consintieron en compartir sus datos de navegación. Una de las principales conclusiones fue que los usuarios interactúan menos con los enlaces cuando aparece un resumen de IA. En concreto, solo el 8 % de los usuarios hizo clic en algún enlace tradicional en búsquedas con resumen de IA, frente al 15 % de clics en búsquedas sin resumen. Aún más llamativo es que solo el 1 % de los usuarios hizo clic en los enlaces incluidos dentro del propio resumen generado por IA.

Además, estas búsquedas con resumen de IA también tienden a ser más “finales”: en el 26 % de los casos, los usuarios finalizaron su sesión después de leer el resumen, sin navegar más allá de la página de resultados. En contraste, solo el 16 % de los usuarios abandonó la búsqueda tras consultar una página con resultados tradicionales. Esto sugiere que los resúmenes de IA están cumpliendo su función de ofrecer respuestas rápidas y satisfactorias, aunque esto esté teniendo un costo directo sobre el tráfico hacia otros sitios web.

El estudio también exploró qué tipo de consultas tienden a activar la generación de estos resúmenes por parte de Google. En total, el 18 % de todas las búsquedas realizadas en marzo de 2025 generaron un resumen de IA. No obstante, esta cifra varía ampliamente en función de la longitud y la forma de la consulta. Las búsquedas más extensas (de 10 palabras o más) generaron resúmenes en un 53 % de los casos, mientras que las consultas de una o dos palabras solo lo hicieron en un 8 %.

Asimismo, las búsquedas que incluían preguntas explícitas (“quién”, “qué”, “cuándo”, “por qué”) generaron resúmenes en el 60 % de los casos, y aquellas formuladas como oraciones completas (que contienen al menos un sustantivo y un verbo) lo hicieron en un 36 % de las ocasiones. Esto indica que los algoritmos de IA de Google están más activos cuando la intención de búsqueda es clara, informativa y bien definida.

En cuanto a las fuentes utilizadas para componer los resúmenes, el informe señala que las más citadas son Wikipedia, YouTube y Reddit, que representan el 15 % de las fuentes referenciadas en los resúmenes y un 17 % en los resultados tradicionales. Sin embargo, en los resúmenes de IA es más frecuente encontrar vínculos a sitios gubernamentales (.gov), representando un 6 % de los enlaces, frente al 2 % en los resultados convencionales. En ambos tipos de resultados, las páginas de noticias ocupan un 5 %.

En promedio, los resúmenes de IA tienen una longitud media de 67 palabras, aunque varían enormemente: el más corto encontrado tenía solo 7 palabras y el más largo llegaba a 369. Un 88 % de estos resúmenes incluía al menos tres fuentes citadas, mientras que solo un 1 % se apoyaba en una sola fuente.

El informe pone en evidencia una transformación significativa en la forma en que los usuarios interactúan con Google. Aunque los resúmenes de IA pueden ofrecer comodidad y rapidez, reducen de forma notable la visibilidad y el acceso a las fuentes originales de información, lo que afecta especialmente a medios de comunicación, páginas educativas, blogs y todo tipo de creadores de contenido que dependen del tráfico web para sostenerse económicamente.

Este fenómeno plantea preguntas importantes sobre el futuro de la web abierta, la transparencia de los sistemas de IA y el equilibrio entre ofrecer respuestas eficientes y mantener un ecosistema digital sostenible y diverso.

El fin de Internet tal y como lo conocemos: la IA en Comet y Operator

Olinga, Luc. “The End of the Internet As We Know It.” Gizmodo, 9 de julio de 2025. https://gizmodo.com/the-end-of-the-internet-as-we-know-it-2000627194

El artículo analiza una transformación radical que está ocurriendo en el mundo digital: la llegada de navegadores web impulsados por inteligencia artificial que pretenden eliminar el modelo tradicional de navegación basado en clics. Esta revolución está liderada por empresas como Perplexity y OpenAI, que buscan desafiar directamente el dominio de Google Chrome y transformar fundamentalmente cómo interactuamos con internet.

La empresa Perplexity ha lanzado oficialmente Comet, un navegador web revolucionario que funciona más como una conversación que como un sistema de navegación tradicional. Este navegador representa un cambio paradigmático, ya que está diseñado para funcionar como ChatGPT pero con capacidades de navegación integradas. Comet promete actuar como un «segundo cerebro» que puede realizar investigaciones activas, comparar opciones, realizar compras, proporcionar resúmenes diarios y analizar información de manera autónoma, todo sin necesidad de que el usuario navegue a través de múltiples pestañas o enlaces.

El concepto detrás de Comet se basa en la evolución de la inteligencia artificial agentiva, un campo de vanguardia donde los sistemas de IA no solo responden preguntas o generan texto, sino que pueden realizar de forma autónoma una serie de acciones y tomar decisiones para lograr los objetivos del usuario. En lugar de requerir que el usuario especifique cada paso, un navegador agéntico busca comprender la intención del usuario y ejecutar tareas de múltiples pasos, funcionando efectivamente como un asistente inteligente dentro del entorno web.

La aparición de Comet representa una confrontación directa con Google Chrome, que durante décadas ha sido el portal dominante que forma cómo miles de millones de personas navegan por la web. Todo el modelo de Chrome está construido para maximizar la interacción del usuario y, por consecuencia, los ingresos publicitarios. Comet está intentando destruir este modelo, desafiando fundamentalmente la economía de internet basada en la publicidad.

OpenAI, la empresa creadora de ChatGPT, también está preparando su propio navegador web impulsado por IA, que podría lanzarse próximamente según reportes de Reuters. Esta herramienta probablemente integrará el poder de ChatGPT con Operator, el agente web propietario de OpenAI. Operator es un agente de IA capaz de realizar tareas de forma autónoma a través de interacciones con el navegador web, utilizando modelos avanzados para navegar sitios web, llenar formularios, realizar pedidos y gestionar otras tareas repetitivas basadas en el navegador.

El diseño de Operator le permite «observar» las páginas web como lo haría un humano, haciendo clic, escribiendo y desplazándose, con el objetivo de manejar eventualmente la «cola larga» de casos de uso digital. Si se integra completamente en un navegador de OpenAI, podría crear una alternativa completa a Google Chrome y Google Search en un movimiento decisivo, atacando a Google desde ambos extremos: la interfaz del navegador y la funcionalidad de búsqueda.

La propuesta de Perplexity es simple pero provocativa: la web debería responder a los pensamientos del usuario, no interrumpirlos. La empresa sostiene que internet se ha convertido en la mente extendida de la humanidad, pero las herramientas para usarla siguen siendo primitivas. En lugar de navegar a través de pestañas infinitas y perseguir hipervínculos, Comet promete funcionar basándose en el contexto, permitiendo a los usuarios pedir comparaciones de planes de seguros, resúmenes de oraciones confusas o encontrar instantáneamente productos que olvidaron marcar como favoritos.

Esta transformación podría significar el fin de la optimización tradicional para motores de búsqueda (SEO) y la muerte de los familiares «enlaces azules» de los resultados de búsqueda. Los navegadores de IA como Comet no solo amenazan a editores individuales y su tráfico, sino que directamente amenazan los fundamentos del ecosistema de Google Chrome y el dominio de Google Search, que depende en gran medida de dirigir a los usuarios a sitios web externos.

Google Search ya ha estado bajo considerable presión de startups nativas de IA como Perplexity y You.com. Sus propios intentos de integración más profunda de IA, como la Experiencia Generativa de Búsqueda (SGE), han recibido críticas por producir a veces «alucinaciones» (información incorrecta) y resúmenes inadecuados. Simultáneamente, Chrome está enfrentando su propia crisis de identidad, atrapado entre tratar de preservar su masivo flujo de ingresos publicitarios y responder a una oleada de alternativas impulsadas por IA que no dependen de enlaces o clics tradicionales para entregar información útil.

Si Comet o el navegador de OpenAI tienen éxito, el impacto no se limitará solo a interrumpir la búsqueda, sino que redefinirá fundamentalmente cómo funciona toda la internet. Los editores, anunciantes, minoristas en línea e incluso las empresas de software tradicionales pueden encontrarse desintermediados por agentes de IA que pueden resumir su contenido, comparar sus precios, ejecutar sus tareas y evitar completamente sus sitios web e interfaces existentes.

Esta transformación representa un nuevo frente de alto riesgo en la guerra por cómo los humanos interactúan con la información y conducen sus vidas digitales. El navegador de IA ya no es un concepto hipotético: es una realidad presente que está redefiniendo el panorama digital tal como lo conocemos.

La cuota de mercado de búsquedas de Google cae por debajo del 90% en 2024

Sterling, Greg. “Google’s Search Market Share Drops below 90% in 2024.” Search Engine Land, July 2, 2024. https://searchengineland.com/google-search-market-share-drops-2024-450497.

La hegemonía de Google en el campo de las búsquedas online está enfrentando una transformación sin precedentes. Según Search Engine Land, la cuota de mercado de Google en Estados Unidos cayó por debajo del 90 % en 2024, marcando una ruptura con más de dos décadas de dominio prácticamente absoluto (Sterling 2024).

La cuota de mercado de búsquedas de Google en EE. UU. alcanzó un pico del 90,37% en noviembre, pero cayó al 87,39% en diciembre. En el resto de los meses de 2024, la cuota de mercado de Google en EE. UU. fue bastante constante, oscilando entre el 86% y el 88%.

Esta disminución se relaciona directamente con la emergencia de nuevas herramientas basadas en inteligencia artificial, como ChatGPT, Perplexity o el nuevo motor de búsqueda de Microsoft impulsado por Copilot, que están redefiniendo las expectativas de los usuarios sobre lo que significa «buscar» en Internet. Así lo pone de relieve el estudio de  Search Engine Land, que apunta según una encuesta que el 83% de las personas prefieren herramientas de inteligencia artificial frente a motores de búsqueda tradicionales

La tendencia se ve reforzada por un estudio reciente de Statista que muestra que los jóvenes de entre 18 y 24 años cada vez recurren más a plataformas como TikTok y Reddit para informarse, desplazando a Google como primera fuente de descubrimiento de contenidos. Según un artículo de The Verge, estas plataformas ofrecen resultados más “visuales, personales y reales”, lo cual resuena con una generación que valora la inmediatez, la experiencia del usuario y el contenido generado por personas reales.

Además, el exceso de anuncios y el abuso del SEO en Google han deteriorado la calidad percibida de los resultados. Muchos usuarios sienten que las primeras páginas están dominadas por intereses comerciales antes que por la relevancia informativa. Como apunta un análisis de Wired (2024), esta percepción ha motivado a millones de usuarios a buscar alternativas más limpias, rápidas y conversacionales, como las respuestas generadas por IA, que eliminan el ruido publicitario y ofrecen síntesis directas y comprensibles.

En este contexto, la búsqueda evoluciona de un modelo de enlaces hacia un modelo de respuestas. La inteligencia artificial no solo facilita una búsqueda más eficiente, sino que también transforma el hábito de consumo de información, integrándose en asistentes personales, navegadores y dispositivos móviles con capacidades proactivas. Para Google, este cambio representa un desafío existencial: reinventar su modelo de negocio para seguir siendo competitivo sin alienar a sus usuarios ni depender excesivamente de la publicidad.

El 83% de las personas prefieren herramientas de inteligencia artificial frente a motores de búsqueda tradicionales

Goodwin, Danny. «Google’s search market share drops below 90% for first time since 2015Search Engine Land, January 13, 2025

Ver original

Las búsquedas mediante inteligencia artificial están redefiniendo el panorama digital. Aunque aún hay obstáculos que superar —como la precisión de las respuestas y la necesidad de una mayor transparencia—, la tendencia apunta a que cada vez más personas usarán estas herramientas como complemento o sustituto de los buscadores tradicionales.

Una encuesta reciente publicada en Innovating with AI revela un cambio notable en el comportamiento de los usuarios: el 83 % afirma que prefiere utilizar herramientas de búsqueda basadas en inteligencia artificial (IA), como ChatGPT, Perplexity AI o Grok, en lugar de los motores de búsqueda tradicionales como Google. Esta tendencia se alinea con datos de StatCounter, que muestran una caída en la cuota de mercado de Google por debajo del 90 % en 2024, marcando su nivel más bajo desde 2015. La gente comienza a percibir que los motores clásicos no siempre ofrecen la experiencia más eficiente o relevante.

Las ventajas que los usuarios encuentran en las búsquedas impulsadas por IA incluyen la posibilidad de recibir respuestas directas, precisas y resumidas, sin tener que hacer clic en múltiples enlaces. La IA permite interactuar con el buscador mediante lenguaje natural, lo que facilita la comprensión y la personalización de las consultas. Además, estas herramientas reducen el “ruido SEO” —contenido optimizado artificialmente para posicionarse—, ofreciendo resultados que los usuarios perciben como más auténticos y útiles.

Sin embargo, la adopción de la búsqueda con IA no está exenta de desafíos. Uno de los más mencionados es el fenómeno de las «alucinaciones«: respuestas incorrectas o inventadas que algunas IA pueden generar. Modelos como GPT-4, si bien avanzados, todavía muestran fallos en la precisión de ciertos datos. Por ello, aunque la mayoría de usuarios prefieren este tipo de búsqueda, solo el 38 % afirma confiar plenamente en las respuestas generadas por IA. En consecuencia, muchas personas combinan ambas formas de búsqueda: utilizan IA para obtener una visión general rápida y motores tradicionales cuando buscan información muy específica o actualizada.

Expertos como Nick Reese, exdirector de tecnología del Departamento de Seguridad Nacional de EE.UU., señalan que la IA no reemplazará totalmente a la búsqueda tradicional, sino que convivirá con ella en un modelo híbrido. De hecho, Google ya ha comenzado a integrar resúmenes generados por IA en sus resultados, en un esfuerzo por no perder terreno ante estas nuevas herramientas. Las búsquedas con IA se utilizan especialmente para investigar un tema, redactar textos o entender conceptos complejos, mientras que Google sigue siendo dominante en áreas como noticias, productos o ubicaciones.

El usuario actual prefiere las respuestas directas integradas de los modelos IA en lugar de navegar por múltiples enlaces

Daoudi, Mehdi. “AI and the Future of Search: How We Broke the Web and What Comes Next.” Forbes Technology Council, 2 de abril de 2025.

Fuente

Se analiza cómo la adopción masiva de buscadores basados en IA —como ChatGPT, Perplexity o los «AI Overviews» de Google— está transformando profundamente la estructura y el funcionamiento tradicionales de la web. Según Daoudi, el usuario actual prefiere respuestas integradas directamente en los resultados en lugar de navegar entre múltiples enlaces; sin embargo, esta tendencia puede generar una crisis de transparencia en la información, ya que no siempre se sabe cómo se priorizan las fuentes o cuáles se están utilizando .

El autor advierte sobre el riesgo de que estas plataformas “rompan” la web al consolidar respuestas sin referencia clara a las fuentes originales. Frente a este desafío, subraya la pérdida de control del usuario sobre la veracidad y el contexto, a medida que el sistema se comporta como una «caja negra» que fusiona múltiples contenidos inconsistentes o sesgados. Se plantea la pregunta crítica: ¿quién decide qué información se muestra y en qué orden? .

Daoudi propone que el futuro de la búsqueda debe evolucionar hacia una estructura híbrida que combine lo mejor del modelo tradicional (enlaces y rastreo) con la inteligencia contextual de la IA. Sugiere que los portales de búsqueda necesitan ofrecer:

  • Transparencia: mostrar claramente las fuentes utilizadas, y cómo la IA seleccionó y sintetizó la información.
  • Control del usuario: brindar opciones para que los usuarios exploren más en profundidad (por ejemplo, desgloses fuente por fuente).
  • Retroalimentación activa: permitir al usuario participar en la mejora continua del sistema, señalando errores o preferencias.

El artículo también sitúa este fenómeno dentro de un contexto más amplio: la economía web está siendo redefinida por el desplazamiento de clics y tráfico hacia respuestas directas de IA, lo que ha provocado preocupación entre editores y creadores de contenido por los impactos en ingresos publicitarios y visibilidad. Además, la dependencia creciente de agentes generativos plantea interrogantes legales ligados a derechos de autor, compensación justa y transparencia algorítmica.

Se advierte que la revolución de la búsqueda potenciada por IA tiene un enorme potencial para mejorar la experiencia de usuario, pero también conlleva riesgos significativos: desinformación, pérdida de visibilidad para creadores de contenido y opacidad en los procesos de decisión. Por ello, propone una evolución hacia sistemas híbridos que integren fiabilidad, trazabilidad, participación activa del usuario y regulación informada.

¿Pueden los chatbots de IA sustituir a los motores de búsqueda? un análisis del tráfico web global (2023–2025)

Sarkar, Sujan. 2025. Are AI Chatbots Replacing Search Engines? A 2-Year Data Study on Web Traffic Trends. OneLittleWeb. Última actualización 22 de abril de 2025. https://www.onelittleweb.com/ai-chatbots-vs-search-engines-study/

El informe de OneLittleWeb, titulado «Are AI Chatbots Replacing Search Engines? A 2-Year Data Study on Web Traffic Trends», analiza la evolución del tráfico web global entre abril de 2023 y marzo de 2025, comparando el uso de motores de búsqueda tradicionales con el de chatbots de inteligencia artificial.

Crecimiento de los Chatbots de IA

Durante el período analizado, los chatbots de IA experimentaron un crecimiento significativo en su tráfico web:

  • Crecimiento interanual del 80,92%: Pasaron de 30.500 millones de visitas entre abril de 2023 y marzo de 2024 a 55.200 millones en el mismo período de 2024-2025.
  • Dominio de ChatGPT: Este chatbot lidera el mercado con un 86,32% de participación en el tráfico total de chatbots, seguido por DeepSeek y Gemini.
  • Crecimiento de nuevos actores: DeepSeek y Grok destacaron por su rápido aumento en visitas, con incrementos del 113.007% y 353.787% respectivamente.

Comparación con los Motores de Búsqueda

A pesar del crecimiento de los chatbots, los motores de búsqueda tradicionales mantienen una posición dominante:

  • Tráfico total de 1,86 billones de visitas: Entre abril de 2024 y marzo de 2025, los motores de búsqueda registraron una ligera disminución del 0,51% en comparación con el año anterior.
  • Diferencia en visitas diarias: En marzo de 2025, los motores de búsqueda promediaron 5.500 millones de visitas diarias, mientras que los chatbots alcanzaron 233,1 millones, lo que representa una diferencia de casi 24 veces.
  • Participación de mercado: Google lidera con un 87,57% del tráfico entre los motores de búsqueda, seguido por Microsoft Bing y Yandex.

Integración de IA en los Motores de Búsqueda

Los motores de búsqueda están incorporando funciones basadas en IA para mejorar la experiencia del usuario:

  • Google: Ha introducido «AI Overviews» y «AI Mode», que proporcionan respuestas generadas por IA directamente en los resultados de búsqueda
  • Microsoft Bing: Implementó la «Search Generative Experience (SGE)», que utiliza IA para ofrecer respuestas más completas y contextuales.

Impacto en el Tráfico Web y el SEO

Aunque los chatbots de IA están ganando popularidad, su capacidad para dirigir tráfico a sitios web es limitada

  • Tasas de clics más bajas: Los chatbots tienen una tasa de clics promedio del 0,33%, en comparación con el 8,63% de los motores de búsqueda tradicionales.
  • Preocupaciones para los editores: La menor capacidad de los chatbots para generar tráfico directo plantea desafíos para los editores y creadores de contenido que dependen del SEO.

El estudio concluye que, aunque los chatbots de IA están creciendo rápidamente y transformando la forma en que los usuarios interactúan con la información, todavía no están reemplazando a los motores de búsqueda tradicionales. Los motores de búsqueda siguen siendo la principal fuente de acceso a la información en línea, y su integración con tecnologías de IA sugiere una evolución hacia una experiencia de búsqueda más conversacional y personalizada.

Los motores de búsqueda basados en inteligencia artificial citan incorrectamente las fuentes de noticias en más del 60 % de los casos.

Edwards, Benj. 2025. «AI Search Engines Cite Incorrect News Sources at an Alarming 60% Rate, Study SaysArs Technica, March 13, 2025. https://arstechnica.com/ai/2025/03/ai-search-engines-give-incorrect-answers-at-an-alarming-60-rate-study-says/

Un estudio reciente del Tow Center for Digital Journalism de la Columbia Journalism Review ha revelado que los motores de búsqueda basados en inteligencia artificial citan incorrectamente las fuentes de noticias en más del 60 % de los casos.

El análisis se realizó con ocho herramientas de búsqueda impulsadas por IA, a las que se les pidió identificar título, editor, fecha y URL de artículos reales. Los resultados mostraron errores sistemáticos en la atribución de fuentes.

Los investigadores Klaudia Jaźwińska y Aisvarya Chandrasekar señalaron que aproximadamente uno de cada cuatro estadounidenses ya usa estos modelos como alternativa a los buscadores tradicionales, lo que agrava la preocupación sobre su fiabilidad. Entre las herramientas analizadas, Grok 3 tuvo la tasa de error más alta (94 %), mientras que ChatGPT Search falló en el 67 % de los casos y Perplexity en el 37 %. En total se realizaron 1.600 pruebas.

Una práctica común de estos modelos fue responder con seguridad aunque no tuvieran información confiable, generando respuestas plausibles pero erróneas, conocidas como confabulaciones. Además, las versiones de pago como Perplexity Pro y Grok 3 Premium cometieron errores con más frecuencia, ya que evitan negarse a responder.

El estudio también detectó que algunas herramientas ignoraron los protocolos de exclusión de robots (robots.txt), accediendo a contenidos que los editores habían solicitado explícitamente no fueran rastreados, como en el caso de National Geographic. Además, muchas veces los enlaces proporcionados llevaban a versiones sindicadas (por ejemplo, Yahoo News) en lugar del sitio original, o eran URL inventadas que conducían a páginas de error, como ocurrió en 154 de 200 enlaces proporcionados por Grok 3.

Estos problemas ponen a los editores en una situación difícil: bloquear los rastreadores puede suponer perder visibilidad, pero permitirlos implica la reutilización masiva sin retorno de tráfico.

Mark Howard, director de operaciones de Time, expresó su preocupación por la falta de control y transparencia, aunque confía en que el producto mejorará con el tiempo. También advirtió a los usuarios: “Si alguien cree que estos productos gratuitos son 100 % precisos, es culpa suya”.

OpenAI y Microsoft reconocieron la recepción del informe, pero no abordaron directamente los problemas señalados.

Los motores de búsqueda y las plataformas de IA pueden reforzar las creencias previas de los usuarios en lugar de promover la información confiable.

Leung, Eugina, y Oleg Urminsky. “The Narrow Search Effect and How Broadening Search Promotes Belief Updating.” Proceedings of the National Academy of Sciences 122, no. 0 (March 24, 2025). https://www.pnas.org/doi/abs/10.1073/pnas.2408175122

A partir de 21 estudios con 9.906 participantes y diversas plataformas (Google, ChatGPT, Bing con IA, entre otras), los autores identifican el «efecto de búsqueda estrecha». Este fenómeno surge cuando los usuarios, influenciados por sus creencias previas, formulan búsquedas sesgadas que, combinadas con los algoritmos optimizados para ofrecer resultados alineados con esas búsquedas, refuerzan suposiciones preexistentes en lugar de desafiarlas.

​El «efecto de búsqueda estrecha» se relaciona estrechamente con el sesgo de confirmación, una tendencia cognitiva en la que las personas buscan, interpretan y recuerdan información que confirma sus creencias preexistentes, desestimando datos que las contradicen. Este sesgo puede influir significativamente en la forma en que los usuarios interactúan con los motores de búsqueda, afectando la objetividad de la información que consumen.

El estudio muestra que este efecto se mantiene en distintos ámbitos (salud, finanzas, política, sociedad) y que estrategias como pedir a los usuarios que corrijan conscientemente sus sesgos tienen una efectividad limitada. Sin embargo, modificar los algoritmos para ofrecer resultados más amplios y diversos puede fomentar la actualización de creencias. Los autores proponen un diseño de algoritmos basado en principios conductuales para mejorar la neutralidad de la información.

Para contrarrestar estos sesgos y promover una actualización efectiva de creencias, es esencial implementar estrategias tanto a nivel de usuario como de diseño algorítmico. Los usuarios deben ser conscientes de sus propios sesgos cognitivos y adoptar prácticas de búsqueda más amplias y críticas. Por otro lado, los desarrolladores de motores de búsqueda y plataformas de IA tienen la responsabilidad de diseñar algoritmos que presenten una diversidad de perspectivas y reduzcan la tendencia a reforzar creencias preexistentes. Este enfoque dual puede contribuir a una interacción más equilibrada y objetiva con la información en línea.