Archivo de la categoría: Noticias

Cuanto mayor es la confianza de los usuarios en la IA, menor es su tendencia a ejercer pensamiento crítico

Lee, H.-P., Sarkar, A., Tankelevitch, L., Drosos, I., Rintel, S., Banks, R., & Wilson, N. (2025). The impact of generative AI on critical thinking: Self-reported reductions in cognitive effort and confidence effects from a survey of knowledge workers. In Proceedings of the 2025 CHI Conference on Human Factors in Computing Systems (Article 1121, pp. 1–22). ACM. https://doi.org/10.1145/3706598.3713778

Se analiza cómo la inteligencia artificial generativa (GenAI) influye en el pensamiento crítico de los trabajadores del conocimiento. El estudio parte de una preocupación creciente: si bien las herramientas de IA pueden mejorar la productividad, también podrían reducir el esfuerzo cognitivo y la capacidad de juicio crítico de los usuarios.

Para investigarlo, los autores realizaron una encuesta a 319 trabajadores del conocimiento, quienes proporcionaron un total de 936 ejemplos de cómo utilizan GenAI en su trabajo cotidiano.

Los resultados cuantitativos revelan una correlación preocupante: cuanto mayor es la confianza de los usuarios en la IA, menor es su tendencia a ejercer pensamiento crítico. En cambio, quienes tienen más confianza en sus propias capacidades tienden a mantener un mayor nivel de evaluación crítica, incluso cuando emplean sistemas de IA. Estos hallazgos sugieren que la actitud del usuario frente a la tecnología influye significativamente en el nivel de verificación, análisis y control aplicado al contenido generado por IA.

En el análisis cualitativo, los investigadores identificaron tres dimensiones clave en las que los participantes reportaron cambios en su pensamiento crítico: la verificación de la información, la integración de respuestas y la supervisión de tareas. Algunos usuarios mencionaron que se volvieron más pasivos al aceptar las respuestas generadas por GenAI, mientras que otros afirmaron que la IA los impulsaba a contrastar fuentes, reinterpretar ideas o asumir un rol más reflexivo. Sin embargo, muchos reconocieron una reducción en el esfuerzo cognitivo necesario para resolver tareas complejas.

A partir de estos hallazgos, los autores advierten sobre el riesgo de que las herramientas GenAI refuercen hábitos mentales pasivos si no se diseñan cuidadosamente. Proponen que los diseñadores de interfaces incluyan elementos que fomenten la reflexión, la verificación de datos y la transparencia en los procesos algorítmicos. También destacan la importancia de promover una interacción más crítica y activa entre humanos y máquinas para evitar una dependencia acrítica de la tecnología.

En suma, el estudio proporciona una primera evidencia empírica sobre cómo las herramientas de IA generativa pueden estar moldeando el juicio y la capacidad crítica de los profesionales, tanto positiva como negativamente. Sus implicaciones son relevantes no solo para diseñadores de software, sino también para responsables de formación y políticas de implementación tecnológica en el ámbito laboral.

La narración de historias personales como fuente de conocimiento. La mujer en Morille por Claudia Vaca y Verónica Lis

La mujer en Morille por Claudia Vaca y Veranika Lis

La narración de historias personales representa una forma fundamental de conocimiento que trasciende la mera transmisión de información para convertirse en un vehículo de comprensión profunda del mundo y de nosotros mismos. Claudia Vaca y Verónica Lis, con este trabajo —que incluye entrevistas—buscan reflejar cómo era la vida en un municipio salmantino hace 30 años

Las historias personales funcionan como contenedores de experiencia vivida que preservan no solo los hechos, sino también el contexto emocional, cultural y social en el que ocurrieron. Cuando alguien narra su experiencia de migración, por ejemplo, no solo comunica datos sobre desplazamiento geográfico, sino que transmite conocimiento sobre adaptación, pérdida, esperanza y transformación identitaria que ningún manual académico podría capturar con la misma riqueza.

Esta forma de conocimiento posee características únicas. Es encarnado, surgiendo de la experiencia directa del narrador con el mundo. Es contextual, arraigado en circunstancias específicas de tiempo, lugar y cultura. Es relacional, creando conexiones entre el narrador y quien escucha. Y es transformativo, tanto para quien cuenta como para quien recibe la historia.

El proceso de narrar historias personales implica una construcción activa de significado. No simplemente recordamos eventos; los reorganizamos, los interpretamos y les damos coherencia narrativa. Esta construcción no es falsificación, sino un proceso natural de creación de sentido que revela verdades más profundas sobre la condición humana.

En términos epistemológicos, las historias personales ofrecen acceso a formas de conocimiento que otros métodos no pueden proporcionar. Nos permiten comprender cómo se vive una experiencia desde adentro, cómo se siente navegar ciertas circunstancias, qué significados emerge de eventos particulares. Este conocimiento experiencial complementa y enriquece el conocimiento abstracto o teórico.

Recoger y narrar historias personales también funcionan como puentes entre lo individual y lo colectivo. Una historia personal sobre discriminación, por ejemplo, puede iluminar patrones sociales más amplios, mientras que simultáneamente preserva la singularidad de la experiencia individual. Esta tensión entre lo particular y lo universal es una de las fuentes más ricas del conocimiento narrativo.

En contextos educativos, terapéuticos y comunitarios, las historias personales se han reconocido como herramientas poderosas para el aprendizaje y la sanación. Permiten a las personas procesar experiencias, construir identidad, desarrollar empatía y crear conexiones significativas con otros.

La validez de este tipo de conocimiento no reside en su capacidad de generalización estadística, sino en su capacidad para revelar aspectos auténticos de la experiencia humana que de otra manera permanecerían invisibles. Las historias personales nos recuerdan que el conocimiento no es solo información, sino sabiduría vivida que se transmite de persona a persona a través del acto ancestral de contar y escuchar.

El fin de Internet tal y como lo conocemos: la IA en Comet y Operator

Olinga, Luc. “The End of the Internet As We Know It.” Gizmodo, 9 de julio de 2025. https://gizmodo.com/the-end-of-the-internet-as-we-know-it-2000627194

El artículo analiza una transformación radical que está ocurriendo en el mundo digital: la llegada de navegadores web impulsados por inteligencia artificial que pretenden eliminar el modelo tradicional de navegación basado en clics. Esta revolución está liderada por empresas como Perplexity y OpenAI, que buscan desafiar directamente el dominio de Google Chrome y transformar fundamentalmente cómo interactuamos con internet.

La empresa Perplexity ha lanzado oficialmente Comet, un navegador web revolucionario que funciona más como una conversación que como un sistema de navegación tradicional. Este navegador representa un cambio paradigmático, ya que está diseñado para funcionar como ChatGPT pero con capacidades de navegación integradas. Comet promete actuar como un «segundo cerebro» que puede realizar investigaciones activas, comparar opciones, realizar compras, proporcionar resúmenes diarios y analizar información de manera autónoma, todo sin necesidad de que el usuario navegue a través de múltiples pestañas o enlaces.

El concepto detrás de Comet se basa en la evolución de la inteligencia artificial agentiva, un campo de vanguardia donde los sistemas de IA no solo responden preguntas o generan texto, sino que pueden realizar de forma autónoma una serie de acciones y tomar decisiones para lograr los objetivos del usuario. En lugar de requerir que el usuario especifique cada paso, un navegador agéntico busca comprender la intención del usuario y ejecutar tareas de múltiples pasos, funcionando efectivamente como un asistente inteligente dentro del entorno web.

La aparición de Comet representa una confrontación directa con Google Chrome, que durante décadas ha sido el portal dominante que forma cómo miles de millones de personas navegan por la web. Todo el modelo de Chrome está construido para maximizar la interacción del usuario y, por consecuencia, los ingresos publicitarios. Comet está intentando destruir este modelo, desafiando fundamentalmente la economía de internet basada en la publicidad.

OpenAI, la empresa creadora de ChatGPT, también está preparando su propio navegador web impulsado por IA, que podría lanzarse próximamente según reportes de Reuters. Esta herramienta probablemente integrará el poder de ChatGPT con Operator, el agente web propietario de OpenAI. Operator es un agente de IA capaz de realizar tareas de forma autónoma a través de interacciones con el navegador web, utilizando modelos avanzados para navegar sitios web, llenar formularios, realizar pedidos y gestionar otras tareas repetitivas basadas en el navegador.

El diseño de Operator le permite «observar» las páginas web como lo haría un humano, haciendo clic, escribiendo y desplazándose, con el objetivo de manejar eventualmente la «cola larga» de casos de uso digital. Si se integra completamente en un navegador de OpenAI, podría crear una alternativa completa a Google Chrome y Google Search en un movimiento decisivo, atacando a Google desde ambos extremos: la interfaz del navegador y la funcionalidad de búsqueda.

La propuesta de Perplexity es simple pero provocativa: la web debería responder a los pensamientos del usuario, no interrumpirlos. La empresa sostiene que internet se ha convertido en la mente extendida de la humanidad, pero las herramientas para usarla siguen siendo primitivas. En lugar de navegar a través de pestañas infinitas y perseguir hipervínculos, Comet promete funcionar basándose en el contexto, permitiendo a los usuarios pedir comparaciones de planes de seguros, resúmenes de oraciones confusas o encontrar instantáneamente productos que olvidaron marcar como favoritos.

Esta transformación podría significar el fin de la optimización tradicional para motores de búsqueda (SEO) y la muerte de los familiares «enlaces azules» de los resultados de búsqueda. Los navegadores de IA como Comet no solo amenazan a editores individuales y su tráfico, sino que directamente amenazan los fundamentos del ecosistema de Google Chrome y el dominio de Google Search, que depende en gran medida de dirigir a los usuarios a sitios web externos.

Google Search ya ha estado bajo considerable presión de startups nativas de IA como Perplexity y You.com. Sus propios intentos de integración más profunda de IA, como la Experiencia Generativa de Búsqueda (SGE), han recibido críticas por producir a veces «alucinaciones» (información incorrecta) y resúmenes inadecuados. Simultáneamente, Chrome está enfrentando su propia crisis de identidad, atrapado entre tratar de preservar su masivo flujo de ingresos publicitarios y responder a una oleada de alternativas impulsadas por IA que no dependen de enlaces o clics tradicionales para entregar información útil.

Si Comet o el navegador de OpenAI tienen éxito, el impacto no se limitará solo a interrumpir la búsqueda, sino que redefinirá fundamentalmente cómo funciona toda la internet. Los editores, anunciantes, minoristas en línea e incluso las empresas de software tradicionales pueden encontrarse desintermediados por agentes de IA que pueden resumir su contenido, comparar sus precios, ejecutar sus tareas y evitar completamente sus sitios web e interfaces existentes.

Esta transformación representa un nuevo frente de alto riesgo en la guerra por cómo los humanos interactúan con la información y conducen sus vidas digitales. El navegador de IA ya no es un concepto hipotético: es una realidad presente que está redefiniendo el panorama digital tal como lo conocemos.

La IA saca sobresaliente en los exámenes de Derecho

Sloan, Karen. “Artificial Intelligence Is Now an A+ Law Student, Study Finds.” Reuters, 5 de junio de 2025. https://www.reuters.com/legal/legalindustry/artificial-intelligence-is-now-an-law-student-study-finds-2025-06-05/.

Un estudio reciente realizado por la Universidad de Maryland ha revelado que la última generación de inteligencia artificial generativa, específicamente el modelo o3 de OpenAI, es capaz de obtener calificaciones sobresalientes en los exámenes finales de la Facultad de Derecho Francis King Carey. Este modelo alcanzó calificaciones que van desde A+ hasta B en ocho exámenes de primavera evaluados por profesores de la universidad. Estas calificaciones representan una mejora significativa en comparación con versiones anteriores de ChatGPT, que en estudios previos habían obtenido calificaciones de B, C e incluso D en exámenes similares realizados en 2022 y 2023.

A diferencia de ChatGPT, que genera respuestas de manera inmediata en función de las consultas del usuario, o3 es un modelo de razonamiento. Esto significa que evalúa internamente las preguntas, genera respuestas tentativas y múltiples enfoques, y luego produce el texto final tras un proceso de revisión. Este enfoque le permite abordar problemas legales complejos con mayor precisión y coherencia.

Los resultados obtenidos por o3 en áreas como Derecho Constitucional, Responsabilidad Profesional y Propiedad, donde obtuvo A+, son indicativos de su capacidad para comprender y aplicar principios legales de manera efectiva. Sin embargo, en áreas como Derecho Penal y Procedimientos Penales, donde obtuvo A-, B+ y B, se observan ciertas limitaciones que podrían reflejar la complejidad inherente a estos campos del derecho.

Este avance sugiere que la inteligencia artificial generativa está acercándose al rendimiento de los estudiantes de derecho de alto nivel. No obstante, se destaca que, aunque o3 muestra un rendimiento impresionante, aún existen áreas en las que la intervención humana sigue siendo esencial para garantizar la interpretación adecuada de matices legales y contextuales

Por qué ChatGPT crea citas científicas que no existen

Westreich, Sam. «Why ChatGPT Creates Scientific Citations — That Don’t ExistAge of Awareness, June 4, 2025. https://medium.com/age-of-awareness/why-chatgpt-creates-scientific-citations-that-dont-exist-8978ec973255

Se aborda un fenómeno cada vez más observado en la inteligencia artificial generativa: la creación de referencias bibliográficas falsas o inventadas. Este problema, conocido en la comunidad de IA como “hallucination” (alucinación), consiste en que los modelos de lenguaje como ChatGPT generan respuestas plausibles y estructuradas, pero que no se corresponden con datos reales verificables.

En el caso de las citas científicas, el modelo construye referencias completas que incluyen autores, títulos, años y revistas, pero que no existen en ninguna base de datos académica. Esto ocurre porque la IA no accede directamente a una base de datos específica al generar la respuesta, sino que se basa en patrones probabilísticos aprendidos durante su entrenamiento en grandes corpus textuales.

El fenómeno de la hallucination en modelos de lenguaje ha sido documentado por varios estudios recientes. Por ejemplo, Ji et al. (2023) en su trabajo “Survey of Hallucination in Natural Language Generation” indican que esta tendencia a inventar hechos o detalles es inherente a la forma en que estos modelos predicen palabras en secuencia para maximizar la coherencia textual, pero sin una “conciencia” o acceso en tiempo real a datos verdaderos (Ji et al., 2023, ACM Computing Surveys). Así, el modelo genera lo que “suena correcto” más que lo que es correcto, produciendo con frecuencia referencias falsas, especialmente cuando se le solicita citar fuentes académicas.

El problema de las citas inventadas tiene graves implicaciones en ámbitos científicos y académicos, donde la veracidad y la confiabilidad de las referencias es fundamental para la integridad del conocimiento. Según un artículo publicado en Nature sobre la creciente adopción de IA en la generación de textos académicos, existe preocupación entre investigadores sobre el potencial de estas herramientas para introducir errores difíciles de detectar, que pueden desinformar a estudiantes y profesionales (Nature Editorial, 2024). La confianza que los usuarios depositan en estas IA aumenta el riesgo, dado que una cita bien formada visualmente se asume auténtica, lo que puede propagar información errónea y socavar la credibilidad de trabajos científicos.

Westreich señala que la raíz del problema está en la naturaleza probabilística del entrenamiento del modelo, que aprende a generar texto basado en patrones estadísticos en lugar de verificar hechos. Además, las bases de datos académicas tienen un acceso limitado y no siempre están integradas en los sistemas de generación de lenguaje, lo que impide la validación automática de las citas en tiempo real. Sin embargo, se están explorando soluciones para mitigar este problema. Por ejemplo, la integración de sistemas de búsqueda y recuperación de información en tiempo real (RAG, Retrieval-Augmented Generation) permitiría a los modelos consultar bases de datos académicas fiables durante la generación de texto, reduciendo la producción de referencias falsas (Lewis et al., 2020, NeurIPS).

Otra estrategia recomendada es aumentar la transparencia del modelo, avisando a los usuarios de que las referencias generadas pueden no ser reales y deben ser verificadas independientemente. Instituciones educativas y editoriales también pueden establecer guías para el uso responsable de estas herramientas, fomentando la revisión manual de las citas generadas por IA.

En un análisis crítico más amplio, la producción de citas falsas por IA pone en evidencia la brecha entre la fluidez lingüística y la comprensión real del contenido que tienen estos modelos. Aunque pueden imitar estructuras y formatos, carecen de un sistema de verificación interna que asegure la veracidad. Por ello, investigadores como Bender et al. (2021) advierten que el uso indiscriminado de estas tecnologías sin supervisión puede erosionar la confianza en la información científica y educativa, un problema que debe abordarse con estrategias técnicas, educativas y éticas.

La comunidad científica y tecnológica trabaja para desarrollar métodos que permitan una generación de contenido más responsable, precisa y verificable. Mientras tanto, es imprescindible que los usuarios mantengan un enfoque crítico y verifiquen cualquier referencia proporcionada por estas herramientas, para preservar la integridad académica y evitar la propagación de desinformación.

Los audiolibros forman parte de una larga tradición humana de compartir conocimientos

Abram, Stephen. “Audiobooks are part of a long tradition of how humans share meaning.” Medium (Stephen’s Lighthouse), 12 de julio de 2025. https://medium.com/blog/audiobooks-are-part-of-a-long-tradition-of-how-humans-share-meaning-7b110a2ce575

Desde tiempos ancestrales, la narración oral fue la forma principal de transmitir historias, cultura y conocimiento antes de la escritura. Abram retoma esa larga tradición, argumentando que los audiolibros representan una evolución moderna de una práctica humana milenaria . Los griots en África occidental, por ejemplo, han preservado la historia a través de relatos orales multigeneracionales

Los audiolibros actuales permiten conectar como antaño: ofrecen una experiencia enriquecedora para los sentidos, especialmente al oír una voz cuidada y expresiva, igualando –o incluso superando– aspectos emotivos y cognitivos que ofrece la lectura en papel . Según estudios de psicología narrativa, escuchar relatos puede mejorar la empatía y el bienestar emocional, al involucrar a los oyentes de forma profunda

En el terreno educativo y de desarrollo infantil, los audiolibros se han reconocido como una herramienta eficaz para la alfabetización, especialmente en los niños que enfrentan dificultades lectoras: facilitan la comprensión, amplían el vocabulario, fomentan la escritura y fortalecen el desarrollo socioemocional . El National Literacy Trust, por ejemplo, señaló que el 69.5 % de los niños encuentran más fácil entender audilibros y el 52.9 % sienten que estos aumentan su interés por la lectura.

Además, el consumo de audiolibros contribuye a la salud mental: reducen el estrés, mejoran el sueño y generan bienestar emocional que puede durar hasta dos semanas tras la escucha . También favorecen habilidades importantes como la atención, la memoria auditiva y la inteligencia emocional .

Al nivel cognitivo y cultural, el estudio “The listening Renaissance” (enero 2025) indica que los formatos digitales auditivos como audiolibros y podcasts representan una transformación profunda en cómo consumimos literatura: desarrollan una alfabetización auditiva propia y redefinen lo que significa “leer” en la era digital

Aunque algunos críticos sostienen que escuchar no equivale a leer —citando menor retención o falta de activación cognitiva— varias investigaciones concluyen que, al menos en contextos de ocio o acceso al conocimiento, las diferencias son marginales . Además, la calidad del contenido y la experiencia emocional podrían tener mayor peso que el medio de consumo.

Por último, se subraya que los audiolibros amplían y enriquecen la cultura de la narración: nos conectan con tradiciones orales antiguas, proporcionan experiencias memorables para nuevas generaciones y permiten que más personas accedan al placer de las historias sin obstáculos físicos o prácticos

Decopy.ai: detector y humanizador de texto escrito por IA gratuito

Decopy.ai

https://decopy.ai/

Decopy.ai es una plataforma integral de inteligencia artificial especializada en la detección y análisis de contenido generado por IA. Esta herramienta surge como respuesta a la creciente necesidad de verificar la autenticidad del contenido digital en una era donde la inteligencia artificial puede producir textos, imágenes y otros medios de comunicación con una calidad cada vez más sofisticada. La plataforma se posiciona como una solución confiable para educadores, empresas, creadores de contenido y cualquier persona que requiera verificar la originalidad de material digital.

La funcionalidad central de Decopy.ai es su capacidad para identificar contenido creado por modelos de inteligencia artificial como ChatGPT, Gemini, Claude, LLaMa y otros sistemas similares. La plataforma cuenta con una tasa de precisión que alcanza hasta el 99% en la detección de texto generado por IA, lo que la convierte en una herramienta altamente confiable para verificar la autenticidad del contenido escrito.

Además del análisis textual, Decopy.ai incluye un detector de imágenes basado en IA que permite verificar instantáneamente la autenticidad de las imágenes. Esta funcionalidad es especialmente relevante en un contexto donde las imágenes generadas por IA se vuelven cada vez más realistas y difíciles de distinguir de las fotografías auténticas.

Una característica distintiva de la plataforma es su capacidad para «humanizar» el contenido generado por IA. Esta función transforma el texto producido por inteligencia artificial para que resulte más natural y menos detectable por otros sistemas de verificación. Esta herramienta es particularmente útil para aquellos que desean refinar contenido generado por IA para hacerlo más atractivo y auténtico.

Decopy.ai también funciona como una suite integral de herramientas de escritura que incluye capacidades de paráfrasis, reescritura para mayor claridad, traducción entre idiomas y creación de ensayos bien estructurados. Estas funcionalidades están diseñadas para facilitar el proceso de escritura y mejorar la calidad del contenido producido.

También, la plataforma ofrece capacidades de resumido que permiten a los usuarios procesar documentos extensos y extraer las ideas principales de manera eficiente. Esta función es especialmente valiosa para académicos, estudiantes y profesionales que necesitan procesar grandes volúmenes de información rápidamente.

Una ventaja significativa de Decopy.ai es su soporte para múltiples idiomas, lo que la hace accesible para una audiencia global. Esta característica es particularmente importante dado que el contenido generado por IA se produce en diversos idiomas y requiere herramientas de detección que puedan manejar esta diversidad lingüística.

Adopción de prácticas críticas de catalogación y auditorías de diversidad

Anderson, Jessica K., y Yan Quan Liu. “Adopting Critical Cataloging Practices Post Diversity Audit: Connecting the Community to Your Collection.” Library Resources & Technical Services 69, no. 3 (2025). https://doi.org/10.5860/lrts.69n3.8498

Las bibliotecas públicas son instituciones que conectan a las personas con los recursos. Sin embargo, no todos los usuarios se ven reflejados en los libros seleccionados, y otros tienen dificultades para encontrar resultados relevantes en el catálogo debido a términos de búsqueda obsoletos o problemáticos. Dos estrategias emergentes para abordar estos problemas son las auditorías de diversidad y la catalogación crítica.

El artículo aborda cómo transformar las prácticas de catalogación tradicionales para crear colecciones más inclusivas y accesibles después de realizar auditorías de diversidad. Este trabajo representa un enfoque integral que conecta la evaluación crítica de colecciones con la implementación práctica de cambios significativos en los sistemas de organización del conocimiento.

Las auditorías de diversidad han emergido como herramientas fundamentales para evaluar la representación en las colecciones bibliotecarias. Estas auditorías constituyen un inventario sistemático diseñado para analizar y medir el rango de experiencias, representaciones diversas y puntos de vista encontrados dentro de los recursos bibliotecarios. El proceso proporciona datos concretos y objetivos que informan el desarrollo estratégico de colecciones, asegurando que las bibliotecas mantengan una representación apropiada y equitativa de diversas comunidades y perspectivas. Sin embargo, el verdadero desafío comienza después de completar la auditoría, cuando las instituciones deben traducir los hallazgos en acciones concretas y sostenibles.

La catalogación crítica emerge como el marco teórico y práctico que guía esta transformación. Este enfoque se centra en las implicaciones éticas de los metadatos bibliotecarios, la catalogación y las prácticas de clasificación, estándares e infraestructura. La catalogación crítica examina cómo las prácticas tradicionales pueden perpetuar sesgos sistemáticos, exclusiones y representaciones problemáticas que limitan el acceso equitativo a la información. Este enfoque reconoce que los sistemas de catalogación no son neutrales, sino que reflejan las perspectivas y sesgos de quienes los crearon, frecuentemente excluyendo o marginalizando ciertas comunidades y formas de conocimiento.

Se detallan las metodologías disponibles para realizar auditorías de diversidad, incluyendo el método de búsqueda en catálogo, el método de lista de verificación y el método de inspección de libros. Cada metodología presenta ventajas y desventajas únicas, y la elección del método depende de los recursos disponibles, el alcance de la colección y los objetivos específicos de la institución. La comprensión profunda de estas metodologías es crucial para implementar cambios efectivos en las prácticas de catalogación posteriores a la auditoría.

La implementación post-auditoría representa el núcleo del trabajo de Anderson y Liu. Una vez identificadas las brechas de diversidad y los sesgos sistemáticos en la catalogación, las bibliotecas deben desarrollar estrategias específicas para abordar estas deficiencias. Esto incluye la revisión crítica de los términos de materia, la actualización de descripciones bibliográficas para incluir perspectivas más amplias, y la implementación de prácticas de catalogación que reconozcan y valoren diferentes formas de conocimiento y experiencia cultural. El proceso requiere no solo cambios técnicos, sino también un compromiso institucional con la equidad y la inclusión.

La conexión entre la comunidad y la colección constituye el objetivo final de estas prácticas críticas de catalogación. Las mejoras en la catalogación deben traducirse en mayor accesibilidad y relevancia para diversas comunidades de usuarios. Esto implica crear metadatos que faciliten el descubrimiento de recursos por parte de usuarios que tradicionalmente han sido marginalizados por los sistemas de catalogación convencionales. La catalogación crítica busca eliminar barreras y crear puentes entre los recursos disponibles y las necesidades diversas de las comunidades servidas.

La importancia de este trabajo radica en su capacidad para proporcionar una guía práctica y fundamentada para bibliotecas que han completado auditorías de diversidad pero necesitan orientación sobre cómo implementar cambios significativos. El artículo conecta la evaluación teórica con la aplicación práctica, ofreciendo un marco de trabajo que las instituciones pueden adaptar a sus contextos específicos. Esta conexión entre teoría y práctica es esencial para crear cambios sostenibles en las prácticas bibliotecarias.

El contexto profesional más amplio de este trabajo incluye el movimiento hacia prácticas más equitativas e inclusivas en la bibliotecología. Las auditorías de diversidad se han convertido en herramientas esenciales para evaluar y mejorar las colecciones bibliotecarias, pero su valor real se materializa cuando se traducen en acciones concretas que benefician a las comunidades servidas. El trabajo de Anderson y Liu contribuye significativamente a este movimiento al proporcionar un marco práctico para la implementación de cambios post-auditoría.

En conclusión, este artículo representa una contribución valiosa al campo de la bibliotecología crítica, ofreciendo tanto fundamentos teóricos como orientación práctica para bibliotecas comprometidas con la equidad y la inclusión. La adopción de prácticas críticas de catalogación post-auditoría de diversidad no es simplemente una mejora técnica, sino una transformación fundamental en la forma en que las bibliotecas conceptualizan su rol en la democratización del acceso al conocimiento y la información.

Inteligencia Artificial y ciberseguridad: oportunidades, amenazas y regulación necesaria

Kulothungan, Vikram. “Securing the AI Frontier: Urgent Ethical and Regulatory Imperatives for AI-Driven Cybersecurity.” arXiv, January 15, 2025. https://arxiv.org/abs/2501.10467

El artículo ofrece un análisis exhaustivo sobre el papel transformador de la inteligencia artificial (IA) en el campo de la ciberseguridad. Se destaca cómo la IA ha mejorado significativamente la capacidad para detectar y responder a amenazas cibernéticas, al analizar grandes volúmenes de datos en tiempo real y reconocer patrones anómalos que podrían pasar desapercibidos mediante métodos tradicionales. Según datos recientes, el 58% de los Centros de Operaciones de Seguridad (SOC) ya incorporan tecnologías basadas en IA para agilizar la gestión de alertas y liberar recursos humanos para tareas más estratégicas (Forbes, 2025).

Sin embargo, la adopción de IA no solo presenta beneficios, sino que también introduce nuevos riesgos. Los ciberdelincuentes utilizan estas tecnologías para crear ataques más sofisticados, como phishing automatizado y malware polimórfico que evade la detección convencional. Estudios recientes muestran que el 74% de los profesionales de ciberseguridad consideran que las amenazas impulsadas por IA constituyen un desafío creciente, y el 90% prevé un impacto significativo de estas amenazas en los próximos años (Darktrace, 2024). Esto evidencia una carrera constante entre defensores y atacantes en el uso de IA para obtener ventajas en el campo digital.

Además, la incorporación de IA en la ciberseguridad genera importantes interrogantes éticos y regulatorios. Entre ellos destacan el riesgo de sesgos en los algoritmos, la falta de transparencia en la toma de decisiones automatizadas y la asignación de responsabilidades en caso de fallos o ataques. Para abordar estas cuestiones, expertos como Vikram Kulothungan proponen fomentar la alfabetización en IA y la participación pública en la creación de marcos normativos que regulen su uso, garantizando un equilibrio entre innovación y seguridad (Kulothungan, 2025).

De cara al futuro, se prevé una adopción creciente de soluciones basadas en IA, aunque muchas organizaciones aún no están completamente preparadas para confiar en estas tecnologías sin supervisión humana. Un informe reciente indica que el 64% de las instituciones están evaluando herramientas centradas en IA, pero reconocen la necesidad de mantener un control humano efectivo para evitar errores y maximizar la eficacia (Arctic Wolf, 2025). Por lo tanto, el éxito en la integración de IA en ciberseguridad dependerá de combinar innovación tecnológica con formación, políticas claras y vigilancia constante.

La cuota de mercado de búsquedas de Google cae por debajo del 90% en 2024

Sterling, Greg. “Google’s Search Market Share Drops below 90% in 2024.” Search Engine Land, July 2, 2024. https://searchengineland.com/google-search-market-share-drops-2024-450497.

La hegemonía de Google en el campo de las búsquedas online está enfrentando una transformación sin precedentes. Según Search Engine Land, la cuota de mercado de Google en Estados Unidos cayó por debajo del 90 % en 2024, marcando una ruptura con más de dos décadas de dominio prácticamente absoluto (Sterling 2024).

La cuota de mercado de búsquedas de Google en EE. UU. alcanzó un pico del 90,37% en noviembre, pero cayó al 87,39% en diciembre. En el resto de los meses de 2024, la cuota de mercado de Google en EE. UU. fue bastante constante, oscilando entre el 86% y el 88%.

Esta disminución se relaciona directamente con la emergencia de nuevas herramientas basadas en inteligencia artificial, como ChatGPT, Perplexity o el nuevo motor de búsqueda de Microsoft impulsado por Copilot, que están redefiniendo las expectativas de los usuarios sobre lo que significa «buscar» en Internet. Así lo pone de relieve el estudio de  Search Engine Land, que apunta según una encuesta que el 83% de las personas prefieren herramientas de inteligencia artificial frente a motores de búsqueda tradicionales

La tendencia se ve reforzada por un estudio reciente de Statista que muestra que los jóvenes de entre 18 y 24 años cada vez recurren más a plataformas como TikTok y Reddit para informarse, desplazando a Google como primera fuente de descubrimiento de contenidos. Según un artículo de The Verge, estas plataformas ofrecen resultados más “visuales, personales y reales”, lo cual resuena con una generación que valora la inmediatez, la experiencia del usuario y el contenido generado por personas reales.

Además, el exceso de anuncios y el abuso del SEO en Google han deteriorado la calidad percibida de los resultados. Muchos usuarios sienten que las primeras páginas están dominadas por intereses comerciales antes que por la relevancia informativa. Como apunta un análisis de Wired (2024), esta percepción ha motivado a millones de usuarios a buscar alternativas más limpias, rápidas y conversacionales, como las respuestas generadas por IA, que eliminan el ruido publicitario y ofrecen síntesis directas y comprensibles.

En este contexto, la búsqueda evoluciona de un modelo de enlaces hacia un modelo de respuestas. La inteligencia artificial no solo facilita una búsqueda más eficiente, sino que también transforma el hábito de consumo de información, integrándose en asistentes personales, navegadores y dispositivos móviles con capacidades proactivas. Para Google, este cambio representa un desafío existencial: reinventar su modelo de negocio para seguir siendo competitivo sin alienar a sus usuarios ni depender excesivamente de la publicidad.