Archivo de la etiqueta: Inteligencia artificial

Diferencias entre ChatGPT (de OpenAI) y Microsoft Copilot

DataCamp. “ChatGPT vs. Copilot: Which AI Assistant Is Right for You?” DataCamp, abril–mayo 2025. Consultado el 30 de julio 2025.

Texto completo

ChatGPT destaca por su versatilidad y creatividad, siendo capaz de abordar tareas muy variadas y adaptarse a múltiples idiomas, formatos y estilos de escritura. Por su parte, Copilot está optimizado para la productividad dentro del ecosistema Microsoft 365: integra funciones en Word, Excel, PowerPoint, Outlook y Teams.

Uno de los puntos clave es que ChatGPT soporta una amplia gama de lenguajes de programación y frameworks, mientras que Copilot está especialmente enfocado en entornos de desarrollo de Microsoft y tareas empresariales estructuradas.

En cuanto al modelo de negocio, ambos ofrecen versiones gratuitas, pero se requiere suscripción (por ejemplo, ChatGPT Premium o Copilot Pro/Microsoft 365 Copilot) para acceder a funciones avanzadas.

Calidad de respuesta y fiabilidad

ChatGPT ofrece respuestas más conversacionales, creativas y adaptables, aunque puede no citar fuentes directamente. Copilot, al estar integrado con Bing y el ecosistema Microsoft, tiende a ofrecer respuestas más precisas, con formatos claros, mejor notación matemática y referencias verificables.

Integración con herramientas de trabajo

Copilot ofrece integración directa y profunda con aplicaciones como Microsoft Word, Excel, PowerPoint, Outlook y Teams. Puede analizar datos en Excel (tablas dinámicas, gráficos, fórmulas), generar presentaciones y redactar correos personalizados a partir de hilos de correo o documentos. ChatGPT, aunque puede conectarse a otras herramientas y servicios, requiere configuraciones externas mediante API o Zapier, lo que lo hace más flexible pero menos inmediato para usuarios de Microsoft 365.

Seguridad y entorno empresarial

Copilot se beneficia de las protecciones de seguridad y cumplimiento de Microsoft 365, incluyendo control de datos, gestión empresarial y políticas corporativas. ChatGPT ofrece medidas de seguridad estándar, con características adicionales en la versión Enterprise para entornos profesionales.

Qué herramienta elegir según tus necesidades

Si trabajas ampliamente en el entorno de Microsoft 365 y buscas automatizar tareas repetitivas como gestión de correos, informes o análisis en Excel dentro de un flujo estandarizado, Copilot puede ser la opción más eficiente. Permite realizar tareas rápidamente dentro de la suite (Word, Excel, PowerPoint, Outlook y Teams) sin salir del entorno familiar.

Si en cambio necesitas soluciones creativas, trabajar con múltiples formatos, personalizar respuestas o desarrollar con soporte en múltiples lenguajes y contextos, ChatGPT ofrece mayor flexibilidad y amplitud funcional, especialmente si deseas crear asistentes personalizados o escribir contenido narrativo, técnico o creativo.

En muchos casos, una combinación de ambos es una estrategia efectiva: se puede aprovechar ChatGPT para generación creativa y análisis abierto, mientras que Copilot se usa para flujos de trabajo dentro de Microsoft 365.

La ética es la ventaja: el futuro de la IA en la educación superior

Georgieva, Maya y John Stuart. 2025. “ Ethics Is the Edge: The Future of AI in Higher Education ”. EDUCAUSE Review , 24 de junio de 2025. Consultado el 28 de julio de 2025. https://er.educause.edu/articles/2025/6/ethics-is-the-edge-the-future-of-ai-in-higher-education

El informe aborda el papel transformador de la inteligencia artificial (IA) en el ámbito universitario, señalando que su adopción ya no es el futuro, sino una realidad actual que impulsa cambios en la enseñanza, la investigación, la evaluación y los procesos institucionales

Los autores presentan un marco fundamental basado en ocho principios éticos (inspirados en los valores del Belmont Report de 1979) destinados a guiar la implementación responsable de IA en la educación superior. Este marco subraya la necesidad de gobernanza institucional, transparencia, equidad, responsabilidad y alineación con los valores académicos fundamentales

Asimismo, advierten sobre la adopción reactiva y fragmentada de tecnologías impulsada por presiones del mercado, lo que puede resultar en decisiones automatizadas sesgadas, falta de rendición de cuentas y erosión de relaciones educativas. Por eso instan a las universidades a asumir un liderazgo ético desde el diseño y no desde la mera oferta tecnológica.

Finalmente, el texto sostiene que la innovación genuina no depende únicamente de funcionalidades técnicas, sino del compromiso institucional con valores académicos, que deben reflejarse en políticas claras y estructuras de gobernanza que promuevan confianza, equidad y efectividad en el uso de la IA

Base de datos de Prompts de Rebiun

base de datos de Prompts

La página «Prompts» del Observatorio de Inteligencia Artificial de REBIUN (Red de Bibliotecas Universitarias) ofrece una recopilación estructurada de ejemplos de Prompts —instrucciones o preguntas— que permiten interactuar eficazmente con herramientas de inteligencia artificial generativa, como ChatGPT o Copilot. Estos recursos están pensados especialmente para su aplicación en el ámbito bibliotecario y educativo, con el fin de fomentar el uso ético, eficiente y estratégico de la IA en el entorno universitario.

El contenido se organiza en distintas categorías temáticas: desde tareas de apoyo a la docencia e investigación, pasando por la creación de contenidos, la búsqueda y análisis de información, hasta la automatización de procesos administrativos. Cada prompt incluye una descripción breve de su finalidad y una sugerencia de redacción para que el usuario pueda adaptarla a sus propias necesidades.

Además, se destacan recomendaciones para formular prompts de manera efectiva, como ser claro, proporcionar contexto y definir el formato de la respuesta esperada. En conjunto, esta herramienta busca empoderar a los profesionales de las bibliotecas universitarias para que aprovechen el potencial de la IA generativa como un aliado en sus funciones clave. La iniciativa se enmarca dentro del compromiso de REBIUN con la innovación responsable en el ámbito académico.

Los resúmenes de búsqueda de IA reducen drásticamente el tráfico a los sitios de noticias

Toohey, Ellsworth. 2025. “Publishers See Traffic Plummet as Google’s AI Answers Keep Users from Clicking Links.” Boing Boing, July 24, 2025. https://boingboing.net/2025/07/24/publishers-see-traffic-plummet-as-googles-ai-answers-keep-users-from-clicking-links.html

El análisis de Authoritas revela que sitios que tradicionalmente ocupan la primera posición en Google pueden llegar a perder alrededor del 79 % del tráfico de búsqueda si su enlace aparece por debajo de un AI Overview

Un reciente estudio del Pew Research Center, que analizó el comportamiento de navegación de 900 adultos estadounidenses durante marzo de 2025 (con más de 68 000 búsquedas en Google), alerta sobre el impacto profundo de la función AI Overviews de Google en el tráfico web y los medios informativos. Según este análisis, aproximadamente un 18 % de las búsquedas activan un resumen AI generado por Google, y solo un 8 % de los usuarios hacen clic en enlaces a sitios externos tras ver uno de estos resúmenes, frente al 15 % sin resumen AI. Además, apenas el 1 % de los usuarios clickea cualquiera de los enlaces internos presentes dentro del propio resumen AI, lo que evidencia que estos resúmenes actúan como bloqueadores de tráfico efectivo a los sitios originales

Publicaciones como MailOnline en el Reino Unido han reportado caídas del 56 % en búsquedas de escritorio y 48 % en móvil, directamente atribuidas a estos resúmenes. La presencia del resumen AI también incrementa la probabilidad de que el usuario termine su sesión de navegación en ese punto: el 26 % finaliza la sesión tras ver un resumen, comparado con apenas 16 % en búsquedas tradicionales.

Asimismo, estudios de otros medios como Windows Central y The Guardian subrayan también que los usuarios reciben información satisfactoria directamente en el resultado AI, reduciendo su incentivo para entrar en los sitios originales, lo cual pone en riesgo el modelo económico basado en ingresos por tráfico y publicidad en línea.

En cuanto a los contenidos que sobreviven mejor a este cambio, Wikipedia, YouTube y Reddit lideran como fuentes citadas por los AI Overviews, representando entre el 15 % y el 17 % de las fuentes incluidas en los propios resúmenes y resultados tradicionales, lo que refuerza una concentración de atención en unas pocas plataformas dominantes

Frente a estas tendencias, Google ha cuestionado los métodos del estudio de Pew, calificándolos como poco representativos, y sostiene que no ha detectado una caída sustancial del tráfico global. Sin embargo, parece contradictorio que al mismo tiempo busque acuerdos de licencias con grandes medios informativos, algo que sugiere que reconoce que sus funciones AI están utilizando contenidos sin generar tráfico directo a los creadores originales

RELX afirma que las herramientas de IA generativa seguirán impulsando el crecimiento.

Young, Sarah. 2025. « RELX del Reino Unido afirma que las herramientas de IA generativa seguirán impulsando el crecimiento ». Reuters , 24 de julio de 2025. https://www.reuters.com/world/uk/uks-relx-says-generative-ai-tools-will-keep-driving-growth-2025-07-24/

Informe

RELX confirma su posición como una de las empresas líderes en la integración de inteligencia artificial generativa en servicios profesionales. La compañía no solo ve la IA como un motor de eficiencia, sino como un transformador fundamental de las industrias de la información, el derecho y la investigación. Su apuesta por seguir lanzando productos basados en IA, junto con la recuperación de otras áreas estratégicas, refuerza su previsión de crecimiento continuo para el resto de 2025

En su informe semestral, la multinacional británica RELX —con sede en Londres y especializada en información analítica, publicaciones científicas, y soluciones jurídicas— anunció un crecimiento robusto impulsado en gran medida por la adopción creciente de herramientas de inteligencia artificial generativa. Durante la primera mitad de 2025, RELX registró un aumento del 9 % en su beneficio operativo ajustado, alcanzando los £1.44 mil millones, y un crecimiento del 7 % en sus ingresos totales, que llegaron a £4.74 mil millones. Este rendimiento se atribuye en buena medida al éxito de sus nuevos productos basados en IA que han transformado la forma en que profesionales del derecho, la ciencia y la investigación acceden, procesan y producen información.

RELX ha apostado fuerte por integrar la IA generativa en sus productos para profesionales. Uno de sus desarrollos más destacados es Lexis+ AI Protégé, una herramienta para abogados que combina grandes modelos de lenguaje con bases de datos internas y públicas, permitiendo redactar textos jurídicos y analizar documentos con precisión y estilo personalizado. Otra innovación clave ha sido ScienceDirect AI, pensada para el ámbito académico y científico, que ayuda a los investigadores a explorar literatura científica de forma más rápida y significativa, mediante resúmenes automáticos, descubrimiento temático y sugerencias contextuales.

Nick Luff, director financiero de RELX, subrayó que el éxito de estas herramientas radica en su capacidad de “aumentar” el trabajo humano en lugar de sustituirlo. Para Luff, la combinación de nuevas fuentes de datos, infraestructura de procesamiento y avances en algoritmos permite ofrecer productos cada vez más sofisticados que aportan valor tangible a los profesionales. RELX considera que estas innovaciones son parte de una estrategia sostenible que continuará generando oportunidades de crecimiento a largo plazo.

Además del impacto de la IA generativa, RELX reportó señales positivas en otras áreas de su negocio, como el de organización de conferencias y eventos, que sigue recuperándose tras la pandemia. Este componente es especialmente relevante en el área de exposiciones, donde RELX también ha comenzado a experimentar con herramientas de IA para mejorar la planificación, personalización y análisis de sus ferias y encuentros profesionales.

A nivel financiero, RELX se mantiene sólida y continúa entre las diez empresas más grandes del índice bursátil FTSE 100. Aunque sus acciones bajaron ligeramente un 0.5 % el día del informe, la compañía ha visto una apreciación sostenida en el mercado, con un aumento del 10 % en el último año y un asombroso 250 % en la última década. Esta trayectoria refleja la confianza de los inversores en su modelo de negocio basado en el conocimiento y la innovación tecnológica.

Empoderando a los estudiantes para la era de la IA: un marco de alfabetización en IA para la educación primaria y secundaria

OCDE y Comisión Europea. 2025. Empowering Learners for the Age of AI: An AI Literacy Framework for Primary and Secondary Education. Borrador, mayo de 2025. https://ailiteracyframework.org/wp-content/uploads/2025/05/AILitFramework_ReviewDraft.pdf

Texto completo

Informe publicado en mayo de 2025 como borrador conjunto de la Comisión Europea y la OCDE, con la colaboración de organizaciones como Code.org y una red internacional de expertos. Su objetivo es ofrecer un marco estructurado para la enseñanza de la alfabetización en inteligencia artificial (IA) en la educación primaria y secundaria.

Esta iniciativa responde a la necesidad urgente de preparar a los estudiantes para convivir con tecnologías basadas en IA, no solo como usuarios, sino como ciudadanos críticos y responsables en un mundo digital en constante transformación.

El marco parte del hecho de que los jóvenes ya están expuestos a la IA en su vida diaria, aunque en la mayoría de los casos no aprenden sobre ella de manera formal en la escuela. Se propone, por tanto, una definición amplia de alfabetización en IA que incluye conocimientos técnicos, habilidades transferibles y actitudes fundamentales. Esta alfabetización permite al alumnado comprender cómo funciona la IA, utilizarla de manera crítica y creativa, tomar decisiones informadas sobre su uso, y reflexionar sobre sus implicaciones éticas, sociales y culturales.

La estructura del marco se articula en torno a cuatro dominios clave. El primero, «Engaging with AI», se centra en el reconocimiento de la presencia de la IA, su funcionamiento y la evaluación de sus resultados. El segundo, «Creating with AI», se orienta al uso creativo y ético de la IA en tareas de comunicación, arte, resolución de problemas y producción de contenidos. El tercero, «Managing AI», invita a reflexionar sobre el papel humano en la toma de decisiones apoyadas por IA, promoviendo un uso consciente y deliberado. El cuarto y más avanzado, «Designing AI», fomenta la exploración de cómo se diseñan los sistemas de IA, la importancia de los datos y el impacto social de esas decisiones.

Cada dominio se desglosa en competencias específicas, un total de 22, que integran conocimientos, habilidades y actitudes, y se acompañan de ejemplos prácticos adaptados tanto a educación primaria como secundaria. Estos escenarios muestran cómo abordar la IA en distintas asignaturas sin necesidad de recursos tecnológicos complejos, apostando por una enseñanza transversal y contextualizada.

Además, el marco destaca contenidos transversales como el pensamiento crítico, la creatividad, la colaboración, la empatía o la responsabilidad social, los cuales son considerados esenciales para una ciudadanía activa en la era digital. El documento también resalta la importancia de formar al profesorado y dotarlo de materiales y guías que faciliten la implementación del marco en contextos educativos diversos.

El borrador fue presentado el 22 de mayo de 2025 y ha sido abierto a consulta pública hasta el 31 de agosto del mismo año. Se espera que la versión final se publique en 2026, acompañada de recursos pedagógicos complementarios. Esta propuesta no solo busca transformar el currículo, sino también ofrecer una herramienta de política educativa capaz de guiar decisiones a nivel nacional e internacional sobre la inclusión de la IA en la educación formal.

Una filtración revela los sitios web usados para entrenar modelos de Anthropic sin supervisión directa

Rollet, C. (2025, 23 de julio). Here’s the list of websites gig workers used to fine‑tune Anthropic’s AI models. Its contractor left it wide open. Business Insider. Recuperado de Business Insider: https://www.businessinsider.com/anthropic-surge-ai-leaked-list-sites-2025-7

Se ha publicado un documento interno, filtrado de Surge AI (contratista de Anthropic), que detallaba qué sitios web estaban permitidos y cuáles estaban prohibidos para el entrenamiento mediante fine‑tuning de modelos de IA. Esta hoja de cálculo estaba expuesta de forma pública en Google Drive hasta que fue eliminada tras la consulta de Business Insider

La hoja incluía más de 120 sitios autorizados, entre ellos fuentes de prestigio como Harvard, Mayo Clinic, Bloomberg, Cornell University o el New England Journal of Medicine. En cambio, se bloqueaban más de 50 fuentes comunes como The New York Times, The Wall Street Journal, Reddit, Wiley, Stanford University y Harvard Business Review.

Los trabajadores de Surge utilizaban estos sitios aprobados para realizar tareas de RLHF (Reinforcement Learning from Human Feedback): copiaban fragmentos de texto, pedían al modelo que los resumiera y seleccionaban las mejores respuestas. La hoja de cálculo se empleaba como guía tanto para contenidos permitidos como para evitar aquellos no autorizados.

Anthropic aseguró que no estaba al tanto del documento, afirmando que había sido creado de forma independiente por Surge. Surge, por su parte, declaró que la filtración fue un error y que ya tomó medidas para restringir el acceso a esos materiales.

Varias de las fuentes bloqueadas, como Reddit, han presentado acciones legales contra Anthropic o competidores, acusando uso de datos sin permiso. Aunque algunos argumentan que la RLHF podría entrar en uso justo, expertos legales advierten que esa distinción entre pre-entrenamiento y RLHF puede no ser significativa en tribunales. Además, este incidente se suma a ejemplos precedentes, como en Scale AI, donde se filtraron documentos internos similares al caer expuestos en Google Drive

Esta filtración revela cómo una empresa externa pudo influir directamente en qué fuentes alimentaron el entrenamiento de un modelo sofisticado, poniendo en evidencia vulnerabilidades en la seguridad de datos y decisiones de proveedores. El incidente refuerza el debate sobre la transparencia en las prácticas de entrenamiento de IA, el uso justo de datos web y el manejo responsable de información sensible por parte de terceros.

Alfabetización en Inteligencia Artificial con Alejandro Uribe. Planeta Biblioteca 2025/07/23

Alfabetización en Inteligencia Artificial con Alejandro Uribe.

Planeta Biblioteca 2025/07/23

ESCUCHAR

Descargar

En una entrevista para Radio Universidad de Salamanca, Alejandro Uribe Tirado habló sobre los retos y logros que enfrenta América Latina en temas de alfabetización informacional y el uso de la inteligencia artificial. Comentó cómo muchas personas aún no tienen acceso ni formación suficiente para manejar la información de forma crítica. También destacó que, a pesar de las dificultades, cada vez hay más proyectos e iniciativas que buscan cerrar esa brecha. Alejandro nos ha hablado de su proyecto de alfabetización en inteligencia artificial, en el que subraya la necesidad de formar no solo en el uso de herramientas, sino también en sus implicaciones éticas, sociales y culturales. Insistió en que es clave educar a las nuevas generaciones para que comprendan cómo funciona la tecnología y cómo puede influir en sus vidas. Además, remarcó el papel fundamental de las bibliotecas y los docentes en este proceso. La entrevista deja claro que hay mucho por hacer, pero también muchas ganas de avanzar.

Ingeniería de Prompts: recomendaciones personalizadas para la consulta de modelos de Inteligencia Artificial

Kusano, Genki, Kosuke Akimoto, y Kunihiro Takeoka. “Revisiting Prompt Engineering: A Comprehensive Evaluation for LLM‑based Personalized Recommendation.” ArXiv, julio 17 de 2025. https://arxiv.org/abs/2507.13525v1.

Los investigadores se adentran en el diseño de ingeniería de prompts, variando aspectos como la estructura (instrucciones explícitas, estilo conversacional), la extensión y formalidad del texto, y la inclusión de ejemplos contextuales. Su objetivo es entender cómo estas variantes afectan tres métricas clave: precisión de la recomendación, relevancia semántica del contenido generado y calidad de las explicaciones aportadas. Mediante el análisis de diferentes LLMs –sin nombrarlos específicamente en el artículo–, se observan diferencias marcadas según el tipo de prompt utilizado.

Los resultados muestran que un prompt cuidadosamente estructurado puede igualar o incluso superar los métodos tradicionales, especialmente en entornos con escasos datos de usuario. Destaca la importancia de utilizar ejemplos contextuales y formatos de diálogo que guían al modelo, lo que mejora tanto la exactitud de las recomendaciones como su explicabilidad. Sin embargo, los LLM se revelan sensibles a cambios mínimos en los prompts, lo que plantea desafíos de robustez y reproducibilidad si se pretende aplicarlos a gran escala.

Los autores concluyen que la ingeniería de prompts podría ofrecer una alternativa eficiente a los enfoques convencionales, evitando la necesidad de grandes volúmenes de datos, infraestructuras de entrenamiento o información demográfica. Apuntan, no obstante, a la urgencia de desarrollar métodos para automatizar el diseño de prompts y reforzar la consistencia de los modelos. Proponen futuras líneas de investigación que aborden estos retos, contribuyendo a consolidar a los LLM como herramientas fiables en entornos reales de recomendación personalizada.

Los resúmenes de IA en Google reducen drásticamente los clics a enlaces y transforman el comportamiento de búsqueda

Athena Chapekis & Anna Lieb, Google users are less likely to click on links when an AI summary appears in the results, Pew Research Center, 22 de julio de 2025. Disponible en: https://pewrsr.ch/4lIqbsM

El comportamiento de los usuarios de Google cambia cuando se presentan resúmenes generados por inteligencia artificial (IA) en los resultados de búsqueda. Estos “AI Overviews” fueron introducidos por Google en 2024 y actualmente están disponibles para millones de usuarios en EE. UU. La función consiste en un resumen generado por IA que aparece en la parte superior de muchas páginas de resultados, sintetizando la información de diversas fuentes, y ha sido motivo de preocupación entre editores y creadores de contenido digital, quienes han notado una caída significativa en el tráfico hacia sus sitios web.

El estudio analizó el comportamiento de 900 adultos estadounidenses durante marzo de 2025, quienes consintieron en compartir sus datos de navegación. Una de las principales conclusiones fue que los usuarios interactúan menos con los enlaces cuando aparece un resumen de IA. En concreto, solo el 8 % de los usuarios hizo clic en algún enlace tradicional en búsquedas con resumen de IA, frente al 15 % de clics en búsquedas sin resumen. Aún más llamativo es que solo el 1 % de los usuarios hizo clic en los enlaces incluidos dentro del propio resumen generado por IA.

Además, estas búsquedas con resumen de IA también tienden a ser más “finales”: en el 26 % de los casos, los usuarios finalizaron su sesión después de leer el resumen, sin navegar más allá de la página de resultados. En contraste, solo el 16 % de los usuarios abandonó la búsqueda tras consultar una página con resultados tradicionales. Esto sugiere que los resúmenes de IA están cumpliendo su función de ofrecer respuestas rápidas y satisfactorias, aunque esto esté teniendo un costo directo sobre el tráfico hacia otros sitios web.

El estudio también exploró qué tipo de consultas tienden a activar la generación de estos resúmenes por parte de Google. En total, el 18 % de todas las búsquedas realizadas en marzo de 2025 generaron un resumen de IA. No obstante, esta cifra varía ampliamente en función de la longitud y la forma de la consulta. Las búsquedas más extensas (de 10 palabras o más) generaron resúmenes en un 53 % de los casos, mientras que las consultas de una o dos palabras solo lo hicieron en un 8 %.

Asimismo, las búsquedas que incluían preguntas explícitas (“quién”, “qué”, “cuándo”, “por qué”) generaron resúmenes en el 60 % de los casos, y aquellas formuladas como oraciones completas (que contienen al menos un sustantivo y un verbo) lo hicieron en un 36 % de las ocasiones. Esto indica que los algoritmos de IA de Google están más activos cuando la intención de búsqueda es clara, informativa y bien definida.

En cuanto a las fuentes utilizadas para componer los resúmenes, el informe señala que las más citadas son Wikipedia, YouTube y Reddit, que representan el 15 % de las fuentes referenciadas en los resúmenes y un 17 % en los resultados tradicionales. Sin embargo, en los resúmenes de IA es más frecuente encontrar vínculos a sitios gubernamentales (.gov), representando un 6 % de los enlaces, frente al 2 % en los resultados convencionales. En ambos tipos de resultados, las páginas de noticias ocupan un 5 %.

En promedio, los resúmenes de IA tienen una longitud media de 67 palabras, aunque varían enormemente: el más corto encontrado tenía solo 7 palabras y el más largo llegaba a 369. Un 88 % de estos resúmenes incluía al menos tres fuentes citadas, mientras que solo un 1 % se apoyaba en una sola fuente.

El informe pone en evidencia una transformación significativa en la forma en que los usuarios interactúan con Google. Aunque los resúmenes de IA pueden ofrecer comodidad y rapidez, reducen de forma notable la visibilidad y el acceso a las fuentes originales de información, lo que afecta especialmente a medios de comunicación, páginas educativas, blogs y todo tipo de creadores de contenido que dependen del tráfico web para sostenerse económicamente.

Este fenómeno plantea preguntas importantes sobre el futuro de la web abierta, la transparencia de los sistemas de IA y el equilibrio entre ofrecer respuestas eficientes y mantener un ecosistema digital sostenible y diverso.