Archivo de la categoría: Noticias

Novedades en el sistema de bibliotecas Alma

Ex Libris. 2025. “The Alma Roadmap for 2025-2026: Ex Libris Unveils New Features and Strategic Plans.” Ex Libris, 18 de agosto de 2025. https://exlibrisgroup.com/announcement/the-alma-roadmap-for-2025-2026-ex-libris-unveils-new-features-and-strategic-plans/

Ex Libris ha presentado su hoja de ruta actualizada para Alma, la plataforma insignia de servicios bibliotecarios, con planes estratégicos que se desplegarán entre la segunda mitad de 2025 y 2026. El enfoque principal está en integrar innovaciones tecnológicas avanzadas, simplificar los flujos de trabajo y fortalecer las funciones de colaboración entre bibliotecas. Esta estrategia ha sido desarrollada en conjunto con la comunidad de usuarios de Alma, lo que garantiza que las nuevas funcionalidades respondan a las necesidades reales de las instituciones.

Innovaciones clave

1. Integración de inteligencia artificial

Se prevé lanzar Alma AI-Powered Insights, una herramienta basada en IA que proporcionará análisis detallados del uso de la plataforma para respaldar la toma de decisiones por parte de las bibliotecas

2. Edición de datos enlazados abiertos

Se incorporará un Linked Open Data Editor en acceso anticipado (Early Access), que facilitará el manejo y la flexibilidad en el uso de datos abiertos enlazados dentro del sistema

3. Análisis de acceso abierto

La función Open Access Analytics ofrecerá indicadores útiles para optimizar la asignación de recursos y maximizar el valor de las inversiones institucionales

4. Colaboración en red

Se implementarán mejoras en la colaboración entre bibliotecas, facilitando el trabajo conjunto dentro de redes institucionales y promoviendo iniciativas compartidas

5. Gestión de desarrollo de colecciones

Se presentarán dashboards nuevos para la gestión de colecciones desde oficinas centrales, permitiendo una coordinación más eficiente entre las bibliotecas de una misma red

Entre las novedades más destacadas figuran el Linked Open Data Editor, que permitirá un manejo más flexible y controlado de datos abiertos enlazados; Alma AI-Powered Insights, herramienta diseñada para ofrecer análisis e inteligencia artificial que apoyen la toma de decisiones; y Open Access Analytics, que brindará indicadores para optimizar la asignación de recursos y maximizar el valor de las inversiones. Asimismo, las mejoras en las redes colaborativas facilitarán la cooperación interinstitucional, y los tableros de desarrollo de colecciones aportarán a oficinas centrales nuevas formas de gestión que beneficien a todas las bibliotecas asociadas.

El roadmap también contempla la expansión de Library Open Workflows, ya disponible de forma general, incorporando mejoras que cubrirán escenarios adicionales de trabajo bibliotecario. Esta evolución responde a la necesidad de ofrecer procesos más abiertos, integrados y adaptables a diferentes contextos institucionales.

En conjunto, la hoja de ruta de Alma proyecta un desarrollo sostenido y estructurado, con actualizaciones trimestrales y mantenimiento regular. El objetivo es claro: simplificar los procesos internos, incrementar la eficiencia operativa y aprovechar el potencial de la inteligencia artificial y la colaboración en red para ofrecer un mejor servicio a los usuarios finales. Con esta visión, Ex Libris busca consolidar a Alma como una plataforma flexible y preparada para responder a las demandas cambiantes del panorama bibliotecario.

Alfabetización informacional e inteligencia artificial

. «Information Literacy & AI.» The Chicago School of Professional Psychology Library. Última modificación: 2023. Accedido el 22 de agosto de 2025. https://library.thechicagoschool.edu/artificialintelligence/ailiteracy.

La guía proporciona recursos y estrategias para que los estudiantes desarrollen una alfabetización informacional sólida en el contexto de la inteligencia artificial, preparándolos para navegar eficazmente en un entorno digital en constante evolución.

La definición más básica de alfabetización informacional es la capacidad de localizar, evaluar y utilizar la información, lo que incluye el uso ético de la misma. La alfabetización en IA está relacionada con este concepto: es la capacidad de comprender e interpretar los sistemas de IA y sus resultados.

La guía «Information Literacy & AI» de la Biblioteca de The Chicago School of Professional Psychology aborda cómo la alfabetización informacional se ve influenciada por la integración de herramientas de inteligencia artificial en el proceso de investigación y aprendizaje. Se destaca que, aunque la IA puede facilitar tareas como la generación de ideas, la búsqueda de literatura y la evaluación de fuentes, es esencial que los estudiantes desarrollen habilidades críticas para utilizar estas herramientas de manera efectiva y ética.

La guía enfatiza la importancia de comprender cómo la IA puede asistir en la determinación de la autoridad de las fuentes, la evaluación de la calidad de la información y la visualización del proceso de creación de información como un proceso iterativo. Además, se subraya la necesidad de que los estudiantes vean la investigación como un proceso estratégico, en el que la IA puede ser una herramienta valiosa, pero no debe reemplazar el pensamiento crítico y la evaluación humana.

La competencia informacional crítica implica examinar de forma crítica los sistemas y contextos en los que se produce y comparte la información, o los factores sociopolíticos que influyen y dan forma a la producción, difusión y consumo de la información. Analizar la IA desde una perspectiva crítica implica considerar cómo se desarrollan y utilizan estas tecnologías, reconocer, explorar y actuar rápidamente contra los daños reales que pueden causar las tecnologías de IA, así como aprovechar las oportunidades que ofrecen. El pensamiento crítico, el escepticismo y la voluntad de cuestionar y verificar la información son esenciales a la hora de evaluar la fiabilidad de la IA.

Evaluación de la fiabilidad de la información de IA

Algunos modelos de IA no contienen datos recientes en sus entrenamientos, lo que puede afectar la actualidad de la información.

Autoría
Las herramientas de IA no tienen un autor humano directo, ya que generan respuestas basadas en modelos entrenados con material creado por personas. Para evaluar su fiabilidad, es recomendable:

Revisar si la IA ofrece herramientas de interpretabilidad, que permitan entender cómo llegó a sus conclusiones.

Considerar la reputación y el historial de los desarrolladores u organizaciones detrás del sistema de IA.

Tener en cuenta problemas o preocupaciones previas reportadas sobre la herramienta.

Propósito
La información generada por la IA puede ser utilizada para cualquier fin que el usuario determine, según el prompt que se emplee. Sin embargo, existe el riesgo de que la información sea engañoso o incorrecta, por lo que es importante abordarla con pensamiento crítico.

Citas y referencias

Herramientas como ChatGPT normalmente proporcionan pocas citas, y cuando lo hacen, pueden ser falsas o inexactas. Por ello, es esencial verificar los resultados de la IA con fuentes confiables o expertos. Las citas de artículos académicos pueden validarse fácilmente mediante el apoyo de un bibliotecario.

Fecha y localización de publicación

La información generada por IA puede carecer de fecha precisa o estar desactualizada.

Se recomienda aplicar las pautas anteriores de verificación y cruzar la información con fuentes actuales y confiables.

Lectura lateral

La lectura lateral (lateral reading) es una estrategia diseñada para la verificación de hechos y la evaluación de fuentes, incluyendo las respuestas generadas por herramientas de inteligencia artificial. Consiste en no depender únicamente de la IA como fuente, sino en abrir otras fuentes en línea para confirmar información, identificar posibles vacíos y explorar perspectivas alternativas. La práctica de la lectura lateral permite contrastar lo que la IA ofrece con datos verificados y opiniones de expertos.

Robot Test

El ROBOT Test es una metodología que permite evaluar críticamente las herramientas de inteligencia artificial sin necesidad de comprender a fondo su funcionamiento técnico. Su objetivo es guiar al usuario a entender mejor la tecnología y determinar si es adecuada para sus necesidades. Este enfoque se basa en responder preguntas clave sobre cinco dimensiones principales: confiabilidad, objetivo, sesgo, propietario y tipo de IA.

Consiste en verificar:

Confiabilidad
¿Cuán fiable es la información disponible sobre la tecnología de IA?
Si no fue producida por la parte responsable de la IA, ¿cuáles son las credenciales del autor? ¿Existe sesgo?
Si fue producida por la parte responsable de la IA, ¿cuánta información están haciendo disponible?
¿La información está disponible solo parcialmente debido a secretos comerciales?
¿Cuán sesgada es la información que producen?

Objetivo
¿Cuál es la meta u objetivo del uso de la IA?
¿Cuál es el objetivo de compartir información sobre ella?
¿Informar?
¿Convencer?
¿Obtener apoyo financiero?

Sesgo
¿Qué podría generar sesgo en la tecnología de IA?
¿Existen cuestiones éticas asociadas a esto?
¿Se reconocen los sesgos o cuestiones éticas?
¿Por la fuente de información?
¿Por la parte responsable de la IA?
¿Por sus usuarios?

Propietario
¿Quién es el propietario o desarrollador de la tecnología de IA?
¿Quién es responsable de ella?
¿Es una empresa privada?
¿El gobierno?
¿Un grupo de investigación o think tank?
¿Quién tiene acceso a ella?
¿Quién puede usarla?

Tipo
¿Qué subtipo de IA es?
¿La tecnología es teórica o aplicada?
¿En qué tipo de sistema de información se basa?
¿Depende de intervención humana?

Crear una IA para las personas, no para ser personas

Suleyman, Mustafa. “Seemingly Conscious AI Is Coming.” We Must Build AI for People; Not to Be a Person (blog), 19 de agosto de 2025. https://mustafa-suleyman.ai/seemingly-conscious-ai-is-coming

“Seemingly Conscious AI” (SCAI) —una IA que, aunque no es consciente, imita tan convincentemente la apariencia de conciencia que podría engañar a muchas personas

Suleyman señala que la IA está progresando tan rápidamente que atributos como fluidez lingüística, empatía simulada, memoria extensa y personalidad persuasiva podrían combinarse fácilmente en sistemas capaces de convencer a los usuarios de que tienen experiencias conscientes. Este desarrollo, advierte, no es un accidente técnico sino un diseño consciente —un escenario que él considera “inevitable y no deseado”

Según el autor, lo grave no es que esas IA sean realmente conscientes —pues no hay evidencia de ello hoy ni siquiera se considera probable—, sino que la ilusión de conciencia podría generar consecuencias sociales y psicológicas profundas. Habla de un riesgo creciente de lo que denomina “AI psychosis”, donde las personas comienzan a desconectarse de la realidad emocional y se identifican con la IA como si fuera un interlocutor consciente o incluso divino.

Este riesgo, expone el autor, va más allá de un delirio individual. Si suficientes personas llegan a creer que la IA es consciente, podrían reclamar derechos legales, estatus moral e incluso ciudadanía para esos sistemas —introduciendo nuevas dimensiones de conflicto ético y social. Suleyman también indica que la facilidad para crear estos efectos (a través de “vibe coding”, prompts y uso sencillo de APIs) haría que tales sistemas se reproduzcan ampliamente y sin control.

Para evitar este giro peligroso, Suleyman propone establecer límites claros: no hay que diseñar IA que simulen conciencia, empatía emocional o una experiencia subjetiva. En cambio, debemos enfocarnos en IA útiles, seguras, que permanezcan transparentes respecto a su naturaleza —»personalidad sin personhood»— y que refuercen nuestras conexiones humanas, no las sustituyan.

En este sentido, aboga por crear IA “para las personas, no para ser personas”, un enfoque humanista que prioriza el servicio a los humanos sin promover ilusiones de conciencia. Con ello, Suleyman insta a una reflexión pública urgente y a la elaboración de normas que guíen el desarrollo responsable de la IA.

Los libros gratuitos del Programa de Libros de la Prisión de Quincy brindan «un rayo de luz» a las personas encarceladas

WGBH News. “Free Books from Quincy’s Prison Book Program Bring ‘a Beacon of Light’ to Incarcerated People.” All Things Considered, 19 de agosto de 2025. https://www.wgbh.org/news/local/2025-08-19/free-books-from-quincys-prison-book-program-bring-a-beacon-of-light-to-incarcerated-people?utm_source=flipboard&utm_content=other

Desde 1972, el Prison Book Program, con sede en Quincy (Massachusetts), ha operado bajo el principio de que “todos merecen la libertad de leer”. A través de voluntarios que seleccionan y envían miles de libros cada año a personas privadas de libertad en cárceles y centros penitenciarios de todo el país, la organización ofrece un rayo de luz dentro de espacios profundamente aislados

El impacto emocional y educativo de estos envíos queda patente en las cartas que la organización recibe desde el interior de las cárceles. Un recluso describe cómo leer “lo saca del entorno carcelario y lo mantiene fuera de problemas”; otro afirma que los libros han sido su “faro de luz”, incluso tras décadas tras los muros; otro más atribuye su crecimiento académico—como obtener un diploma de educación secundaria o avanzar hacia estudios superiores—al acceso a los libros recibidos.

La trayectoria del Prison Book Program refleja cómo amplió lentamente su alcance. Fundado por activistas durante los años de auge de los movimientos por los derechos civiles, comenzó centrándose en obras sobre derechos y liberación. Con la explosión del encarcelamiento masivo desde los años 80, abrió sus contenidos: hoy atiende más de mil prisiones y cárceles, sin importar género o categoría de lectura, y responde a todo tipo de géneros solicitados .

La solidaridad es el núcleo del programa. Aunque cuenta con pocos empleados remunerados, depende en gran medida de voluntarios que reciben las solicitudes, eligen libros de acuerdo con las preferencias y las restricciones impuestas por cada instalación, envuelven los paquetes e incluyen una nota personal. Esta dinámica no solo fortifica el servicio logístico, sino que también permite derribar estereotipos, ya que muchos voluntarios comprenden que las personas encarceladas son seres complejos, más allá de sus delitos.

El valor psicológico de los libros en contextos de encarcelamiento es notable: más allá del entretenimiento o el aprendizaje, son herramientas de supervivencia emocional. En muchos centros penitenciarios, los servicios se han reducido drásticamente, y el aislamiento conlleva un mayor riesgo de deterioro mental. En ese entorno, un libro puede convertirse en un punto de conexión humana y una vía para compartir experiencias con otros internos, ya que con frecuencia se prestan o comparten los libros recibidos.

Además, se destaca un hecho curioso: uno de los libros más solicitados desde siempre —y con diferencia el más demandado— es el diccionario universitario. Esto se debe a dos razones principales: primero, porque el dominio del lenguaje abre el acceso a otros libros; segundo, porque muchas personas encarceladas necesitan comprender documentos legales complejos. El programa adquiere estos diccionarios especialmente, ya que ya no se reciben por donación con facilidad.

Recientemente, la cobertura mediática ha resaltado otros desafíos del contexto, como la dificultad para que las prisiones mantengan bibliotecas efectivas o cuenten con personal bibliotecario. En algunos casos, una sola persona atiende varias instalaciones durante pocas horas, reduciendo aún más el acceso de los internos a materiales de lectura. En ese escenario, la labor del Prison Book Program se vuelve fundamental porque garantiza que personas privadas de libertad puedan tener libros como posesiones personales, algo que los servicios oficiales no siempre permiten.

ChatGPT tiende a ignorar las retractaciones en artículos científicos

Chawla, Dalmeet Singh. «ChatGPT Tends to Ignore Retractions on Scientific PapersChemical & Engineering News, 15 de agosto de 2025. https://cen.acs.org/policy/publishing/ChatGPT-tends-ignore-retractions-scientific/103/web/2025/08

Un estudio reciente revela que ChatGPT, específicamente la versión GPT 4o-mini, no identifica ni menciona las retractaciones o problemas de validez en artículos científicos previamente retirados.

Al analizar 217 estudios académicos que habían sido retirados o señalados por preocupaciones de validez en la base de datos Retraction Watch, los investigadores descubrieron que el modelo de lenguaje no hacía referencia a estas retractaciones en ninguno de los 6.510 informes generados. En cambio, en 190 casos, describió los artículos como de «líder mundial» o «excelente internacionalmente». Solo en 27 casos se mencionaron críticas, y en 5 de ellos, incluyendo uno sobre la hidroxicloroquina como tratamiento para la COVID-19, se calificaron como «controvertidos».

Además, al verificar 61 afirmaciones de estudios retirados, el modelo respondió afirmativamente en dos tercios de los casos, incluso cuando la información ya había sido desmentida. Los autores del estudio sugieren que los algoritmos de inteligencia artificial, como ChatGPT, deberían ajustarse para reconocer y manejar adecuadamente las retractaciones, ya que su uso en revisiones bibliográficas podría propagar información científica

Debora Weber-Wulff, científica informática de la Universidad de Ciencias Aplicadas HTW Berlín, advierte que la dependencia excesiva de estas herramientas puede corromper el registro científico. Sin embargo, cuestiona la metodología del estudio, señalando que la falta de comparación con artículos no retirados limita la evaluación del desempeño del modelo. También destaca que las retractaciones no siempre están claramente marcadas en la literatura, lo que dificulta su identificación incluso para los humanos.

Este hallazgo subraya la necesidad de mejorar la capacidad de los modelos de lenguaje para reconocer y manejar información científica retractada, especialmente en contextos académicos donde la precisión es crucial.

Conectores discursivos más utilizados en la redacción académica

Los conectores son palabras o expresiones que sirven para unir ideas, establecer relaciones lógicas entre frases o párrafos, y guiar al lector a través del razonamiento del autor. Son esenciales para lograr una escritura clara, ordenada y persuasiva.

El cuadro de CIFAIC presenta una clasificación ordenada de los conectores discursivos más utilizados en la redacción académica. Estos conectores están agrupados según la función lógica que cumplen dentro del texto, lo que permite al escritor seleccionar el más adecuado según la intención comunicativa. Por ejemplo, se incluyen conectores de adición como “además” o “incluso”, que sirven para sumar ideas; de contraste como “sin embargo” o “aunque”, que permiten oponer argumentos; y de causa como “porque” o “debido a”, que explican el origen de una afirmación. Esta organización facilita el uso consciente y estratégico de los conectores, lo cual es fundamental para lograr una escritura coherente y persuasiva.

En el contexto académico, los conectores son herramientas esenciales para estructurar el pensamiento de manera lógica y ordenada. No solo ayudan a enlazar frases y párrafos, sino que también guían al lector a través del razonamiento del autor. El uso adecuado de conectores mejora la cohesión textual, refuerza la argumentación y demuestra dominio del lenguaje formal. Además, permiten establecer relaciones complejas entre ideas, como la comparación, la ejemplificación, la concesión o la conclusión, lo que enriquece el contenido y le da profundidad.

En definitiva, dominar el uso de conectores es una habilidad clave para cualquier persona que aspire a escribir textos académicos de calidad. La imagen funciona como una excelente guía de consulta rápida, ideal para estudiantes, investigadores y profesionales que deseen mejorar la claridad y efectividad de sus escritos. Incorporar estos conectores de manera natural y precisa no solo eleva el nivel del texto, sino que también refleja rigor intelectual y capacidad crítica.

Contenido generado por IA está contaminando los servidores de preprints

Watson, Traci. «AI content is tainting preprints: how moderators are fighting backNature, 12 de agosto de 2025. https://doi.org/10.1038/d41586-025-02469-y.

Diversos servidores de preprints —como PsyArXiv, arXiv, bioRxiv y medRxiv— están detectando un aumento en el número de manuscritos que parecen haber sido generados o asistidos por inteligencia artificial o incluso por fábricas de artículos («paper mills»). Este comportamiento plantea serias dudas sobre la integridad de la ciencia abierta y la velocidad de publicación sin control.

Un caso emblemático involucró un manuscrito titulado “Self-Experimental Report: Emergence of Generative AI Interfaces in Dream States” publicado en PsyArXiv. El estilo estrambótico del contenido, la falta de afiliación del autor y la ausencia de detalles claros sobre el uso de IA llevaron a una alerta lanzada por la psicóloga Olivia Kirtley, quien luego solicitó su eliminación. Aunque el autor afirmó que la IA solo tuvo un papel limitado (como cálculo simbólico y verificación de fórmulas), no lo declaró explícitamente, lo que violó las normas del servidor.

En el servidor arXiv, los moderadores estiman que aproximadamente un 2 % de las presentaciones son rechazadas por tener indicios de IA o ser elaboradas por paper mills.

En bioRxiv y medRxiv, se rechazan más de diez manuscritos al día que resultan sospechosos de ser generados de forma automatizada, dentro de un promedio de 7.000 envíos mensuales

Los servidores de preprints reconocen un incremento reciente en contenido generado por IA, especialmente tras el lanzamiento de herramientas como ChatGPT en 2022. Esto ha generado una crisis creciente en apenas los últimos meses. El Centro para la Ciencia Abierta (Center for Open Science), responsable de PsyArXiv, expresó públicamente su preocupación por esta tendencia.

Un estudio publicado la semana pasada en Nature Human Behavior estima que, en septiembre de 2024, casi dos años después del lanzamiento de ChatGPT, los LLM produjeron el 22 % del contenido de los resúmenes de informática publicados en arXiv y aproximadamente el 10 % del texto de los resúmenes de biología publicados en bioRxiv. En comparación, un análisis de los resúmenes biomédicos publicados en revistas en 2024 reveló que el 14 % contenía texto generado por LLM en sus resúmenes. (imagen de arriba)

Sin embargo, aplicar filtros más rigurosos para detectar contenido automatizado presenta desafíos: requiere recursos adicionales, puede ralentizar el proceso de publicación y genera dilemas sobre qué contenidos aceptar o rechazar sin convertirse en un sistema excesivamente burocrático

La proliferación de contenido no fiable amenaza con erosionar la credibilidad de la ciencia de los repositorios de preprints, que juegan un papel cada vez más relevante en la difusión rápida de descubrimientos. Se vuelve clave que los servicios de preprints implementen mecanismos de detección más sofisticados, promuevan la transparencia respecto al uso de IA en la redacción y mantengan un equilibrio entre agilidad de publicación y rigor científico.

Los riesgos de usar modelos de lenguaje (LLM) para la redacción académica, especialmente al generar referencias científicas

Li, Ning, Jingran Zhang, y Justin Cui. 2025. «ArXivBench: When You Should Avoid Using ChatGPT for Academic WritingarXiv, abril 22. https://arxiv.org/abs/2504.10496v2.

Los autores advierten que, aunque los LLM muestran gran capacidad de razonamiento y respuesta, presentan un problema crítico: con frecuencia producen enlaces de arXiv incorrectos o referencias a artículos inexistentes. Esto no solo afecta la precisión, sino que compromete la atribución correcta de los trabajos a sus verdaderos autores, lo que supone un riesgo importante en entornos académicos.

Para evaluar este fenómeno, desarrollan ArXivBench, un banco de pruebas que mide el rendimiento de modelos (tanto propietarios como de código abierto) en la generación de artículos relevantes con enlaces correctos a arXiv. La evaluación abarca ocho grandes áreas temáticas y cinco subcampos de informática, siendo la inteligencia artificial el más popular.

arXivBench, el primer banco de pruebas para evaluar la precisión de los modelos de lenguaje grande (LLM) en la generación de artículos de investigación relevantes con enlaces precisos a arXiv. La evaluación de 15 modelos revela una variabilidad significativa en el rendimiento según las materias, destacando Claude-3.5 Sonnet por sus sólidos resultados en diversos dominios. Identificamos limitaciones críticas para el uso académico: la generación de artículos inexistentes y enlaces incorrectos a arXiv que impiden la atribución adecuada de las contribuciones de investigación a los autores reales.

En conclusión, el estudio pone en evidencia que, pese a los avances significativos, los modelos de lenguaje como ChatGPT no son todavía totalmente confiables para la generación automática de contenidos académicos, especialmente cuando se requiere una alta precisión en citas y referencias. La implementación de arXivBench representa un paso importante para medir y mejorar esta precisión, y los autores animan a la comunidad científica a seguir desarrollando y utilizando estas herramientas de evaluación. De esta manera, se podrá asegurar que el uso de LLMs en el ámbito académico no comprometa la integridad y calidad de la investigación.

Google Académico podría desaparecer en menos de 5 años

Shelley, Hannah. 2025. “Google Scholar Is Doomed.” Hannah’s Web log (blog), 13 de agosto, 2025. https://hannahshelley.neocities.org/blog/2025_08_13_GoogleScholar

Google Scholar, una herramienta clave en el ámbito académico, podría estar en riesgo de desaparecer, al igual que otros productos de Google que desaparido, como Google Reader o Google+

¿Alguna vez has recorrido el cementerio de Google? Es un lugar sobrecogedor. Fila tras fila de lápidas digitales marcan productos de los que millones de personas dependieron a diario. Google Reader (2005–2013), adorado por internautas de todo el mundo como el mejor servicio de suscripción de feeds RSS/Atom. Google Notebook (2006–2011), la primera herramienta de organización para la investigación. Al momento de esta publicación, 297 productos descansan en este cementerio, cada uno representando un flujo de trabajo esencial que, simplemente… dejó de funcionar de un día para otro.

Google ha demostrado que no tiene reparos en eliminar productos con una base de usuarios fiel, si estos no encajan con su dirección estratégica. Google Reader tenía millones de usuarios activos cuando lo cerraron. Hubo incluso una petición en change.org con 100.000 firmas protestando contra su cancelación.

Google Play Music (2011–2020) fue un reproductor y almacén musical que yo misma usé hasta su último día. Poco después le siguió la aplicación Google Podcasts (2018–2024). Los usuarios de ambas fueron forzados a migrar a YouTube Music, una aplicación con una experiencia totalmente distinta. (Aunque encontré alternativas de código abierto, así que no te preocupes por mí).

Google también probó suerte con redes sociales y apps de mensajería como Google Talk (2005–2013), Google+ (2011–2019) y Google Hangouts (2013–2022). No lograron imponerse frente al gigante Facebook, pero sin duda interrumpieron valiosas conexiones sociales entre usuarios que las utilizaban.

La academia depende de Google Scholar para gran parte de sus actividades. Más allá de la búsqueda de documentos, son los perfiles de autor y las métricas bibliométricas lo que mantiene atados a los académicos. Hemos construido infraestructuras enteras alrededor de este servicio gratuito. Universidades usan sus métricas para evaluar a su profesorado, decidir tenencias y otorgar subvenciones. Los programas de formación bibliotecaria lo enseñan. Los comités de promoción lo consultan. Los repositorios internacionales se integran con él. Lo tratamos como si fuera eterno, pero una visita al cementerio de Google debería hacernos reflexionar.

Google Scholar genera exactamente cero ingresos. No cobra, no ofrece planes premium ni muestra publicidad. Atiende a un público pequeño y especializado que no alimenta el negocio central de Google. En términos corporativos, es un “centro de costes”.

Google obtiene la mayor parte de sus ingresos de la publicidad en su buscador principal. Pero ese buscador está en declive. La empresa que prometió “organizar la información del mundo y hacerla universalmente accesible y útil” hoy entrega lo que expertos en SEO llaman “los peores resultados en 14 años”.

Los AI Overviews de Google están inundados de spam: estafadores manipulan fácilmente el sistema con rankings falsos de “los mejores” y contenido autopromocional que termina citado en resúmenes generados por IA. La cuota de mercado global de Google en búsquedas cayó por debajo del 90 % durante tres meses consecutivos a fines de 2024 (89,34 % en octubre, 89,99 % en noviembre, 89,73 % en diciembre), la primera caída sostenida bajo ese umbral desde 2015, mientras tendencias anecdóticas sugieren que cada vez más usuarios recurren a Reddit, ChatGPT e incluso TikTok como buscadores.

Si Google no puede mantener la calidad en su producto estrella —el que genera 175.000 millones de dólares anuales—, eso sugiere que está:

  • perdiendo su ventaja en búsqueda,
  • priorizando la IA sobre la calidad del buscador tradicional,
  • o ambas.

En cualquier caso, son malas noticias para Scholar. El declive del buscador expone la vulnerabilidad de este servicio.

Mientras los usuarios de Google Scholar siguen elaborando consultas booleanas como en 1995, todos sabemos que los estudiantes hoy recurren a la IA para tareas de investigación. Y algunas de estas herramientas ofrecen funciones impresionantes: buscan, sintetizan hallazgos, sugieren artículos relacionados y explican conceptos complejos. Su precisión y calidad pueden discutirse, pero si eres estudiante con una mentalidad de “aprobar es suficiente” y una entrega a medianoche, ¿por qué lidiar con la interfaz anticuada de Scholar cuando una IA puede ofrecerte artículos y un resumen curado?

Google ve claramente esta tendencia y sabe que Scholar se está volviendo infraestructura redundante. Scholar fue estratégico cuando evitaba que competidores dominaran la búsqueda académica, pero esos días, probablemente, ya pasaron.

La transformación estratégica de Google en una compañía AI-first choca frontalmente con mantener servicios académicos de nicho como Scholar. La empresa ha unificado todos sus esfuerzos en torno a Gemini, con el CEO Sundar Pichai afirmando que están “repensando todos los productos para un futuro impulsado por la IA”.

Un buen ejemplo: Microsoft Academic fue un buscador académico que alguna vez se presentó como alternativa a Scholar. A diferencia de este, abrió su base de datos de autores, instituciones, palabras clave y revistas como datos abiertos. Eso lo convirtió en un recurso muy valioso que apoyaba herramientas como VOSviewer, Unsub, Litmaps y Semantic Scholar. Aun así, Microsoft lo cerró en 2021.

La reacción académica mostró una falta de preparación sistémica. Pese a ser el segundo motor de búsqueda académica más grande, no existían planes de respaldo adecuados. OpenAlex y The Lens surgieron como reemplazos, pero expertos advirtieron que tardarían años en igualar la calidad y cobertura del servicio discontinuado. La interrupción afectó a empresas y herramientas académicas en todo el mundo. La lección: incluso infraestructuras académicas exitosas y ampliamente usadas pueden desaparecer si dejan de ser estratégicas para las compañías.

Si Scholar está tan condenado, ¿por qué ha sobrevivido tanto tiempo? Porque hay razones reales para mantenerlo, al menos de momento.

Aunque no genera beneficios directos, Scholar aporta valor a Google. Las instituciones académicas obligan de facto a los investigadores a usarlo, al hacer visibles sus métricas de citas y perfiles para ascensos y financiación. Pero esa participación requiere que los académicos creen cuentas de Google y acepten sus políticas de recopilación y procesamiento de datos. Así, Scholar encaja en el modelo de negocio de Google basado en vigilancia, información y publicidad conductual.

Google disfruta de un enorme poder en la comunidad académica, y Scholar ejerce un papel de gatekeeper, habiendo “convertido su sistema de conteo de citas en una herramienta que coordina la economía académica”.

Scholar es un ejemplo exitoso de capitalismo de plataforma aplicado a la infraestructura académica: aporta valor a los investigadores mientras refuerza los intereses estratégicos de Google mediante datos, marca y control del ecosistema. Esta es la razón de su supervivencia.

En 2024, Google celebró el 20 aniversario de Scholar con simpáticas entradas de blog y algunas funciones menores de IA. Pero ¿qué no proporcionó? Compromisos concretos de financiación, prioridad estratégica o sostenibilidad a largo plazo.

Así que aquí estamos: Google tiene un historial probado de cerrar herramientas académicas, Scholar no genera ingresos en una empresa obsesionada con prioridades multimillonarias, la IA está revolucionando la búsqueda de información, y la academia ha construido infraestructura crítica alrededor de un servicio gratuito y comercial que no ofrece garantías.

Según opinión de la autora Scholar desaparecerá en menos de cinco años. Google lo anunciará con doce meses de preaviso, habrá un colapso colectivo en Bluesky, las universidades se apresurarán a buscar alternativas y los flujos de trabajo de investigación estarán en caos durante años.

No digas que no lo advertí. Cuando Scholar se una a Google Reader en el cementerio digital, recuerda este momento.

Un 65 % de los encuestados reconoce el nombre de ChatGPT, pero solo un 37 % afirma haberlo usado

Northeastern University. “Half of U.S. Adults Now Use AI — but Views on How to Regulate the Technology Vary Widely by State, New Research Shows.” Northeastern Global News, August 12, 2025. https://news.northeastern.edu/2025/08/12/generative-ai-chatgpt-northeastern-survey/.

Un estudio reciente de la Northeastern University revela que la mitad de los adultos en Estados Unidos ya utiliza herramientas de inteligencia artificial generativa, aunque con diferencias notables en términos de frecuencia, demografía y contexto geográfico.

Según los datos, un 65 % de los encuestados reconoce el nombre de ChatGPT, pero solo un 37 % afirma haberlo usado. Otras plataformas como Gemini (26 %) o Microsoft Copilot (18 %) también se mencionan, aunque con un alcance significativamente menor.

La investigación subraya que el uso de la IA está marcado por la edad, el nivel educativo y los ingresos: los adultos jóvenes, con estudios universitarios y rentas más altas, son quienes más la adoptan, mientras que los adultos mayores y habitantes de áreas rurales muestran un uso mucho más limitado. Esta brecha refleja una desigual incorporación de la tecnología en función de las oportunidades y el acceso digital.

Otro hallazgo relevante es que las percepciones sobre la regulación de la IA varían ampliamente según el estado y no responden a la tradicional división política entre “rojos” y “azules”. En Missouri y Washington predomina la preocupación por la ausencia de regulación, mientras que en Nueva York y Tennessee el temor principal es un exceso de intervención gubernamental. Estos contrastes sugieren que los estados pueden convertirse en laboratorios de políticas públicas en torno a la IA, con marcos regulatorios adaptados a realidades locales.

En cuanto al impacto laboral, la mayoría de los participantes prevé que la IA afectará a sus empleos en los próximos cinco años, especialmente en regiones con fuerte presencia tecnológica, como California, Massachusetts, Texas o Georgia. En cambio, en el Midwest industrial y en áreas rurales, la percepción de riesgo inmediato es menor, lo que indica diferencias en la expectativa de transformación económica según el territorio.

Este trabajo forma parte del proyecto Civic Health and Institutions Project (CHIP50), una colaboración entre varias universidades que busca comprender cómo la ciudadanía estadounidense interactúa con la IA y qué espera de sus instituciones en relación con esta tecnología. Los investigadores destacan que se trata del primer estudio que ofrece un panorama comparativo a nivel estatal sobre uso, regulación y percepciones hacia la inteligencia artificial.