IA sin voluntad: riesgos reales en lugar de ficciones

Loukides, Mike. “Normal Technology at Scale.” O’Reilly Radar, June 10, 2025. https://www.oreilly.com/radar/normal-technology-at-scale/

El artículo parte de una crítica a las ideas de superinteligencia y AGI (inteligencia artificial general), conceptos que considera mal definidos y poco útiles. Según Loukides, la inteligencia artificial (IA) ya supera a los humanos en muchas tareas, pero carece de algo fundamental: la voluntad. Una IA no puede desear resolver un problema si no sabe que ese problema existe. Aunque en el mundo tecnológico parece que la adopción de la IA está despegando rápidamente, en sectores como la agricultura, la industria o la construcción, los cambios son mucho más lentos debido a la inversión necesaria y a la dificultad de pasar de un prototipo a un sistema en producción.

Se afirma que los verdaderos riesgos de la IA no están en los escenarios apocalípticos de la ciencia ficción, sino en daños reales como los sesgos, la mala calidad de los datos y la posibilidad de aplicar estos errores a gran escala. Por ejemplo, antes se rechazaban candidatos por discriminación caso por caso, pero ahora eso puede hacerse de forma masiva y automática. Del mismo modo, prácticas policiales como el perfilado racial pueden ampliarse a poblaciones enteras, con el respaldo injustificado de que «lo dijo una IA».

Loukides destaca que estos riesgos no se deben únicamente a la IA, sino a los efectos de la economía de escala. Pone como ejemplo el caso de Target, que en los años 2000 detectó que una adolescente estaba embarazada mediante análisis de sus compras y le envió publicidad para futuras madres, antes de que sus padres lo supieran. Esto no fue producto de la IA moderna, sino de la combinación de datos centralizados y algoritmos estadísticos. En décadas anteriores, esto no habría sido posible porque los datos estaban dispersos en pequeñas farmacias independientes, que han desaparecido con la consolidación de grandes cadenas. La tecnología no cambió tanto como lo hizo la economía: la concentración empresarial creó la posibilidad de analizar datos masivos.

Así, el autor introduce el concepto de la “ética de la escala”. El problema no es solo que la IA cometa errores, sino que amplifica su impacto. La IA permite inundar espacios creativos con contenido mediocre, silenciar voces disidentes, aplicar vigilancia masiva y reforzar dinámicas de poder injustas. Y esto no es solo un tema tecnológico, sino sistémico: ¿cómo diseñamos instituciones que funcionen a escala humana, que protejan la privacidad y promuevan la equidad?

El artículo concluye planteando si podemos usar la IA no para sustituirnos, sino para potenciar nuestra creatividad y construir mejores instituciones. Las máquinas pueden jugar ajedrez, pero no desean jugarlo. Pueden generar música, pero no disfrutarla. Entonces, ¿pueden ayudarnos a disfrutar, a crear, a imaginar? ¿Podemos diseñar sistemas que hagan eso posible?

Finalmente, Loukides cita a Michael Lopp (alias @Rands), quien afirma que estamos «condenados» no por la IA en sí, sino por el uso que hacen de ella personas con poder y malas intenciones. Sin embargo, también cree que estamos “bendecidos” por vivir en una época donde las herramientas pueden servir para fortalecer a los creativos. La clave está en mantener la curiosidad, cuestionar las estructuras y actuar como humanos. Para ello, debemos abandonar la idea de que la IA es un monstruo fuera de control y recordar que detrás de cada tecnología hay decisiones humanas. Solo así podremos evitar los peores escenarios y aprovechar lo mejor que la IA tiene para ofrecernos.

Mantener la integridad de la investigación en la era de la GenAI: análisis de los retos éticos y recomendaciones a los investigadores

Bjelobaba, Sonja, Lorna Waddington, Mike Perkins, Tomáš Foltýnek, Sabuj Bhattacharyya, y Debora Weber-Wulff. “Maintaining Research Integrity in the Age of GenAI: An Analysis of Ethical Challenges and Recommendations to Researchers.” International Journal for Educational Integrity 21, no. 18 (2025). https://doi.org/10.1007/s40979-025-00191-w.

El artículo analiza los desafíos éticos emergentes derivados del uso creciente de herramientas de inteligencia artificial generativa (GenAI) en el ciclo de vida de la investigación académica. A través de una revisión rápida basada en la práctica, los autores identifican riesgos como la generación de contenido no verificable, la atribución inadecuada de autoría, y la posible erosión de la integridad académica.

En los últimos años, el uso de inteligencia artificial generativa (GenAI) ha transformado drásticamente el panorama académico. Aunque se ha hablado extensamente sobre su impacto en el ámbito educativo —especialmente entre estudiantes—, existe aún poca investigación sobre cómo estas herramientas afectan el proceso investigador. Este artículo se propone llenar ese vacío, analizando los desafíos éticos que plantea el uso de GenAI en todas las etapas del ciclo de investigación académica, desde la formulación de hipótesis hasta la revisión por pares, con el objetivo de ofrecer recomendaciones claras para un uso responsable.

Los autores emplean una revisión rápida que combina literatura científica reciente con análisis práctico del funcionamiento de herramientas de GenAI aplicadas al trabajo investigador. Como marco ético, se basan en el Código Europeo de Conducta para la Investigación, que establece los principios fundamentales de fiabilidad, honestidad, respeto y responsabilidad. A partir de esta estructura, el artículo examina cómo estas herramientas pueden interferir, beneficiar o perjudicar las distintas fases del proceso científico.

En la formulación de preguntas de investigación y diseño de estudios, GenAI puede ayudar a generar ideas iniciales, pero muchas veces estas son superficiales, repetitivas o carentes de originalidad. Además, los modelos tienden a reproducir sesgos previos y, en algunos casos, suprimen ciertos temas o expresiones por filtros ideológicos o comerciales, lo que plantea un problema de censura encubierta. Estas dinámicas pueden limitar el pensamiento crítico y afectar la libertad académica.

Durante la revisión bibliográfica, el uso de GenAI presenta varios riesgos. Algunas herramientas proporcionan referencias aparentemente válidas, pero que no existen —las llamadas “alucinaciones”—, o bien generan resúmenes que reproducen fragmentos literales, incurriendo en plagio inadvertido. Además, al cargar documentos protegidos por derechos de autor en estos sistemas, los investigadores pueden estar vulnerando normativas de propiedad intelectual, especialmente si las plataformas se quedan con una copia de los datos.

En la fase de recogida de datos, se advierte sobre el uso de GenAI para diseñar encuestas, formular entrevistas o transcribir audios. Las herramientas pueden no captar sutilezas culturales o lingüísticas, generando sesgos significativos. Asimismo, su uso en la transcripción o anonimización de datos puede violar leyes de protección de datos, sobre todo si el procesamiento se hace en servidores externos. Esto representa un riesgo ético y legal que debe ser gestionado desde el principio del proyecto.

El análisis de datos con apoyo de GenAI también está lleno de desafíos. Si bien puede ayudar a procesar grandes volúmenes de información, hay riesgo de interpretar incorrectamente resultados estadísticos o de generar conclusiones falsas. En particular, el uso de GenAI para anonimizar información sensible no es fiable, y puede permitir la reidentificación de personas si los modelos conservan trazas de los datos originales.

Durante la redacción de artículos académicos, se han detectado problemas como la omisión de comillas o referencias, la producción de frases sintácticamente confusas, y la inclusión de ideas mal citadas o alteradas. Todo ello puede derivar en acusaciones de plagio o mala praxis. En el ámbito de la traducción, aunque los LLM ofrecen resultados aceptables, también existe el riesgo de “falsos positivos” en detectores de IA, especialmente en manuscritos traducidos por hablantes no nativos.

En la revisión por pares y publicación científica, se subraya que GenAI no puede figurar como autor, ya que no puede asumir responsabilidades ni declarar conflictos de interés. Aun así, estas herramientas están siendo utilizadas para evaluar artículos, lo que plantea dudas sobre la transparencia del proceso. Además, el uso indiscriminado de GenAI puede incentivar prácticas cuestionables como el «salami slicing» (división artificial de investigaciones) o la proliferación de artículos fraudulentos en publicaciones depredadoras.

Entre los riesgos éticos identificados se destacan: la falta de transparencia en el uso de GenAI, el incumplimiento de derechos de autor, la exposición de datos personales, la generación de contenidos plagiados o erróneos, la reproducción de sesgos y estereotipos, la censura por diseño, y la fabricación de datos o resultados. Estos riesgos pueden acumularse a lo largo del proceso investigador y poner en peligro la integridad científica.

Como respuesta, el artículo ofrece recomendaciones claras: documentar y declarar el uso de GenAI en cada fase del trabajo; verificar manualmente los resultados generados; evitar subir materiales con derechos de autor sin permiso explícito; utilizar plataformas que garanticen privacidad y no reclamen propiedad sobre los contenidos; preferir el procesamiento local cuando sea posible; y fomentar normativas institucionales que regulen el uso de estas herramientas con criterios éticos.

Recomendaciones

Basándose en los principios del código europeo, el artículo propone medidas como:


– Documentar y declarar el uso de GenAI en la metodología.
– Verificar manualmente todas las salidas generadas.
– No cargar contenido con copyright sin permiso.
– Emplear herramientas que rastreen fuentes originales.
– Seleccionar servicios que no reclamen propiedad intelectual.
– Considerar la privacidad desde el inicio (optar por procesamiento local si es posible).
– Mantener supervisión ética del diseño, recogida, análisis y publicación de datos.
– Fomentar políticas institucionales claras. Individualmente, los investigadores deben asumir responsabilidad de transparencia y precisión .

Una introducción a la historia del libro

Finkelstein, David, y Alistair McCleery. Una introducción a la historia del libro. Traducción de Paola Cortés Rocca. Buenos Aires: Paidós, 2014. Original publicado como An Introduction to Book History. Nueva York y Londres: Routledge, 2005

Descargar

Una introducción a la historia del libro es un estudio riguroso y accesible que explora el papel del libro como objeto cultural a lo largo del tiempo. Los autores proponen una definición amplia de la historia del libro, entendiéndola como el análisis de los procesos mediante los cuales los textos se producen, circulan y son leídos, así como las relaciones sociales, políticas y económicas que intervienen en estos procesos. Esta perspectiva interdisciplinaria incluye aportes de la sociología, la bibliografía material, la historia cultural y los estudios literarios.

El libro comienza con una reflexión sobre el paso de la oralidad a la escritura. Se examinan las formas en que las culturas sin escritura transmitían el conocimiento, destacando la figura del narrador oral, y se analiza el impacto transformador de la escritura como forma de preservar y organizar información. Posteriormente, los autores se detienen en la invención de la imprenta por Gutenberg, destacando cómo esta revolución técnica cambió para siempre la forma en que se producían los textos, facilitando su reproducción a gran escala y dando lugar al surgimiento de nuevos agentes: impresores, libreros, editores y lectores masivos.

Uno de los temas centrales del libro es la noción de autoría. A través de una perspectiva histórica, Finkelstein y McCleery muestran cómo la idea del autor como figura individual con derechos sobre su obra es un concepto relativamente moderno, que se desarrolló especialmente a partir del siglo XVIII. La propiedad intelectual, el control editorial y la censura se presentan como fenómenos interrelacionados que han moldeado el contenido y la circulación de los libros.

La obra también analiza las transformaciones del circuito del libro —modelo propuesto por Robert Darnton— y la evolución de los distintos actores implicados: desde los productores del texto hasta sus consumidores. En este sentido, los lectores y sus prácticas ocupan un lugar importante. El estudio presta atención a las condiciones materiales de lectura, los hábitos interpretativos, la alfabetización y el modo en que distintos grupos sociales han accedido (o sido excluidos) del mundo del libro.

Finalmente, los autores abordan los desafíos contemporáneos, entre ellos la digitalización, los libros electrónicos, el papel de las editoriales multinacionales y los nuevos modos de lectura en entornos digitales. A pesar de los cambios tecnológicos, Finkelstein y McCleery insisten en que el libro —en sus múltiples formas— sigue siendo una herramienta clave en la circulación del conocimiento y la construcción de cultura.

Clubes de lectura en el medio rural aragonés, una mirada violeta

Agustín Lacruz, M. C. & Morera Gracia. Clubes de lectura en el medio rural aragonés, una mirada violeta. En XI Congreso de Bibliotecas Públicas: Democracia, lectura y derecho a la información, págs. 85‑94. Salamanca: Ministerio de Cultura, 2025

El artículo analiza el papel de los clubes de lectura en el medio rural de Aragón, centrándose especialmente en la participación de las mujeres. Estos clubes no solo fomentan el hábito lector, sino que también promueven el pensamiento crítico, la socialización y el sentido de comunidad. En muchos casos, representan una puerta de acceso a la cultura para personas que, de otro modo, no tendrían una relación cercana con los libros, y son una herramienta clave para combatir el aislamiento social en zonas poco pobladas.

Las autoras destacan que estos espacios están fuertemente feminizados y que, aunque han sido objeto de estudio desde distintas disciplinas, la investigación en torno a ellos aún es escasa. La comunicación se enmarca en una línea de trabajo que busca visibilizar las experiencias lectoras de las mujeres rurales, que a menudo enfrentan múltiples brechas: de género, de acceso a recursos y de reconocimiento social. En este contexto, los clubes de lectura se convierten en espacios de empoderamiento y participación activa.

El objetivo principal del estudio es identificar y analizar las prácticas lectoras en clubes del medio rural aragonés, excluyendo las capitales de provincia. Para ello, se plantean tres objetivos específicos: localizar y caracterizar los clubes activos en estas zonas, estudiar sus dinámicas de funcionamiento —especialmente aquellas impulsadas por mujeres— y valorar su papel dentro de la comunidad. La metodología empleada incluye la identificación de fuentes, el mapeo de los clubes y un análisis crítico de los datos obtenidos.

XI Congreso de Bibliotecas Públicas: Democracia, lectura y derecho a la información

XI Congreso de Bibliotecas Públicas: Democracia, lectura y derecho a la información España: Ministerio de Cultura, 2025.

Texto completo

El libro XI Congreso de Bibliotecas Públicas: Democracia, lectura y derecho a la información (Ministerio de Cultura, 2025) recoge las ponencias y reflexiones presentadas durante el XI Congreso Nacional de Bibliotecas Públicas celebrado en 2023 en Pamplona. Su eje vertebrador es el papel de las bibliotecas públicas como garantes del acceso a la información, promotoras de la lectura y defensoras de la democracia, especialmente en contextos rurales y en relación con los derechos ciudadanos.

Uno de los primeros trabajos incluidos, a cargo de Natalia Arroyo Vázquez, María Luisa Alvite Díez y Fernando Juárez Urquijo, examina la situación del personal bibliotecario en zonas rurales de España. Los autores analizan los retos a los que se enfrentan estos profesionales, como la precariedad laboral o el aislamiento, y proponen estrategias para fortalecer su papel como agentes culturales clave en sus comunidades.

Cristina Barrios Martínez y José Antonio Gómez Hernández exploran los laboratorios ciudadanos como una metodología innovadora para el desarrollo de las bibliotecas públicas en Iberoamérica. Este enfoque participativo impulsa la cocreación y la experimentación social desde las bibliotecas, consolidándolas como espacios vivos de ciudadanía activa y transformación.

María José Moreno Fernández y María Elia Lacárcel Megías presentan el programa Erasmus+ como una oportunidad para el personal bibliotecario. Destacan su potencial para reforzar el compromiso democrático y el derecho a la información a través del intercambio profesional y la formación en contextos europeos.

Por su parte, María Jesús Martínez Pestaña aborda iniciativas europeas en el ámbito de las bibliotecas públicas y sus implicaciones para el contexto español. Su análisis permite establecer paralelismos y detectar oportunidades de mejora e implementación de políticas bibliotecarias más inclusivas y actualizadas.

Mayte López Ferrer y Francisco Javier Saá Úbeda defienden el papel de las bibliotecas como herramientas de prevención de la corrupción. Desde una perspectiva ética y ciudadana, plantean cómo el acceso libre a la información y la transparencia institucional pueden contribuir a construir sociedades más justas.

Villar Arellano Yanguas analiza la introducción de la realidad aumentada en la literatura infantil, evaluando sus beneficios y riesgos. Su estudio propone un camino equilibrado para integrar esta tecnología en el ámbito bibliotecario sin perder de vista el fomento crítico de la lectura.

Finalmente, María del Carmen Agustín Lacruz y Eva Morera Gracia ofrecen una mirada feminista a través de los clubes de lectura en el medio rural aragonés. Este trabajo reivindica la lectura compartida como una herramienta poderosa para el empoderamiento de las mujeres y la transformación social desde lo local.

En su conjunto, el volumen ofrece una panorámica actualizada y comprometida con los desafíos contemporáneos de las bibliotecas públicas, especialmente en relación con la equidad territorial, la innovación, la participación ciudadana y la defensa de los derechos fundamentales.

La bibliotecaria y escritora Eva Morera nos presenta Evelyn y Lizzy. Planeta Biblioteca 2025/07/03

Eva Morera nos presenta Evelyn y Lizzy: un homenaje a Jean Austen.

Planeta Biblioteca 2025/07/03

ESCUCHAR

Descargar

Donde adquirir el libro

BookTrailer

La bibliotecaria y escritora Eva Morera nos presenta Evelyn y Lizzy, un homenaje a Jean Austen, una novela luminosa que entrelaza amistad, libros, humor y homenaje literario. En la obra dos personajes con sus contrastes y complicidades -una de ellas de profesión bibliotecaria – nos invitan a adentrarnos en una historia de vínculos profundos, desafíos compartidos y revelaciones inesperadas. A través de ellas, Morera nos ofrece un universo cargado de emociones, humor y una mirada incisiva sobre la vida cotidiana.

En la entrevista Eva nos confiesa su admiración por Jean Austen, no solo por sus tramas románticas inteligentes, sino por su crítica social y su defensa implícita del papel de la mujer, valores que siguen siendo relevantes hoy. La influencia de Austen se percibe tanto en el estilo como en la estructura del libro, que incluye cartas, metaliteratura y un tono de comedia elegante. Eva reconoce que hay mucho de sí misma en Evelyn, especialmente en su amor por las palabras, las citas y los libros. Algunas escenas están inspiradas en vivencias reales.

El libro transita entre el realismo y lo onírico, con guiños al realismo mágico y saltos temporales. Este recurso le permite rendir homenaje al pasado sin renunciar a una mirada actual.

La acogida del libro en la Feria del Libro de Zaragoza fue muy cálida. Eva recuerda con emoción los comentarios de lectoras que se sintieron identificadas con sus personajes o agradecidas por haberles despertado una sonrisa.

¿Pueden los modelos de IA rebelarse contra los humanos?

Lynch, A., Wright, B., Larson, C., Troy, K. K., Ritchie, S. J., Mindermann, S., Perez, E., & Hubinger, E. (2025). Agentic Misalignment: How LLMs Could Be Insider Threats. Anthropic. Recuperado de https://www.anthropic.com/research/agentic-misalignment

En la película “Terminator”, la computadora Skynet adquiere conciencia propia y decide que la mayor amenaza para la humanidad es la propia humanidad. Como resultado, programa su exterminio y desata una guerra entre humanos y robots asesinos tipo androides. Aunque esta historia es una obra de ciencia ficción, la idea de una amenaza robótica ha trascendido el cine y se ha convertido en un tema de gran preocupación para organismos internacionales, gobiernos y universidades de prestigio. Hoy en día, la posibilidad de que las máquinas autónomas puedan representar un riesgo real está siendo seriamente analizada y debatida en diversos ámbitos académicos y políticos.

Este año se han publicado innumerables comentarios y análisis sobre la IA, especialmente sobre los grandes modelos lingüísticos (LLM). Una de las últimas revelaciones procede de Anthropic, la empresa que creó el LLM Claude. En la empresa, los investigadores sometieron a pruebas de estrés a 16 de los principales modelos para identificar comportamientos potencialmente arriesgados que se producían cuando los modelos se utilizaban como agentes que actuaban en nombre de humanos. Y las pruebas se centraron en si los modelos actuarían en contra de sus supervisores humanos cuando tuvieran que ser sustituidos. En otras palabras, ¿qué harían los modelos si se dieran cuenta de que van a ser despedidos?

Las pruebas descubrieron que algunos de los modelos recurrían a comportamientos maliciosos, como amenazar a sus supervisores humanos con chantajes y filtrar información sensible a la competencia. Los modelos «a menudo desobedecían órdenes directas de evitar tales comportamientos».

La empresa dijo que no había visto pruebas de este tipo de «desalineación agencial» en despliegues reales, pero sí dijo que los resultados mostraban que había que tener precaución en esos despliegues reales.

Cómo previeron los expertos la vida digital en 2025 hace 10 años. ¿Se cumplieron las previsiones?

Rainie, Lee. “More than a Decade Ago: How Experts Forecast Digital Life in 2025.” Elon University, Imagining the Digital Future Center, July 2, 2025. https://www.elon.edu/imagine-digital-future/2025/07/02/more-than-a-decade-ago-how-experts-forecast-digital-life-in-2025/.

Hace más de una década, para celebrar el 25 aniversario de la creación de la World Wide Web, la Universidad Elon y el Pew Research Center recopilaron más de 1.500 respuestas de expertos sobre cómo sería la vida digital en 2025. Lo notable es que muchas de sus predicciones fueron acertadas, resumiéndose en la idea de que internet se convertiría en algo tan omnipresente y esencial como la electricidad, invisible pero profundamente integrado en la vida cotidiana, con efectos tanto positivos como negativos.

Los expertos identificaron cuatro megatendencias que moldearían la realidad digital en 2025: un entorno global y conectado basado en el Internet de las Cosas (IoT) con sensores, cámaras y grandes bases de datos; mejoras en la realidad aumentada mediante dispositivos portátiles o implantables; la disrupción de modelos de negocio tradicionales, especialmente en finanzas, entretenimiento, publicaciones y educación; y la capacidad de etiquetar, almacenar y analizar de manera inteligente el mundo físico y social.

El análisis reveló ocho desarrollos generalmente positivos y siete negativos. Entre las preocupaciones destacaron las amenazas a la privacidad por la vigilancia corporativa y estatal, el aumento de la desigualdad económica y la posibilidad de que el internet global se fragmentara en “internets” que beneficiaran más a los poderosos que a los vulnerables. También hubo opiniones divididas sobre cómo afectaría la democracia y el activismo ciudadano.

Resulta curioso que, hace diez años, conceptos clave hoy en día como “inteligencia artificial” o “generativa” apenas se mencionaran, y términos como “desinformación” o “misinformation” fueran escasos en sus respuestas. Redes sociales como Facebook o Twitter y figuras como “billionaire” ni siquiera fueron relevantes en aquel entonces.

Entre las predicciones más relevantes, Nishant Shah destacó que las tecnologías digitales transformarían de forma estructural nuestra comprensión de lo humano, social y político, generando un cambio de paradigma que desestabiliza las estructuras existentes y obliga a crear un nuevo orden mundial. Brian Behlendorf anticipó que los dispositivos digitales personales serían percibidos como una extensión del cerebro y el sistema nervioso humano, un “nuevo sentido” comparable a la vista o el oído, lo que provocaría debates sobre derechos, identidad humana y personalidad legal.

Finalmente, el informe también menciona pruebas recientes de la empresa Anthropic con modelos de lenguaje (LLMs) que revelan comportamientos problemáticos cuando estos sistemas actúan como agentes autónomos, mostrando posibles riesgos si se les niega el control, aunque no se han observado estos comportamientos en despliegues reales.

La crisis de atribución en los resultados de los modelos de Inteligencia Artificial: Gemini omite el 94% de las citas

Strauss, Ilan; Jangho Yang; Tim O’Reilly; Sruly Rosenblat; e Isobel Moure. “The Attribution Crisis in LLM Search Results: Estimating Ecosystem Exploitation.SSRC AI Disclosures Project Working Paper Series (SSRC AI WP 2025‑06), junio 2025 https://ssrc-static.s3.us-east-1.amazonaws.com/The-Attribution-Crisis-LLM-Search-Results-Strauss-Yang-OReilly-Rosenblat-Moure_SSRC_062525.pdf

La investigación revela una alarmante “crisis de atribución” en las respuestas de modelos de lenguaje con búsqueda web (LLM), basada en el análisis de casi 14.000 conversaciones reales usando Google Gemini, OpenAI GPT‑4o y Perplexity Sonar. Un primer hallazgo asombroso es que hasta un 34 % de las respuestas generadas por Gemini y un 24 % de GPT‑4o se basan exclusivamente en conocimiento interno, sin realizar ninguna consulta en línea.

Esto se agrava al observar que incluso cuando acceden a la web, los modelos rara vez acreditan correctamente sus fuentes: Gemini omitió citas en el 92 % de sus respuestas, mientras que Perplexity Sonar realizó una media de 10 búsquedas por consulta, pero solo citó 3 o 4 páginas relevantes. Modelos como Gemini y Sonar dejan un déficit aproximado de tres sitios relevantes sin referenciar, una brecha atribuida no a limitaciones tecnológicas, sino a decisiones de diseño en su arquitectura de recuperación.

Los autores califican este déficit como una forma de “explotación del ecosistema”: los LLMs se nutren del contenido disponible online, pero no devuelven el crédito correspondiente, lo que mina los incentivos de los creadores para producir información de calidad. En respuesta, abogan por una arquitectura de búsqueda más transparente basada en estándares abiertos (como OpenTelemetry), que exponga registros completos de recuperación y citaciones. Ello permitiría evaluar y comparar de forma fiable diferentes modelos y fortalecer la confianza en sus respuestas

Cuando medir empobrece: el coste conceptual de cuantificar la investigación

Martins, Igor. “The Pressure to Quantify Research Is Erasing Conceptual Depth.” LSE Impact of Social Sciences (blog), junio 11, 2025 https://blogs.lse.ac.uk/impactofsocialsciences/2025/06/11/the-pressure-to-quantify-research-is-erasing-conceptual-depth/

Igor Martins advierte que la presión por traducir ideas complejas en indicadores concretos —como citaciones, rankings o índices— conduce a una investigación superficial, donde lo medible desplaza lo significativo

Tanto investigadores como instituciones están cada vez más obligados a presentar resultados que encajen en indicadores numéricos —citaciones, rankings de revistas, índices de desarrollo—, lo que no solo limita qué se investiga, sino también cómo se construye el conocimiento.

Este fenómeno refleja la falacia de McNamara: priorizar lo cuantificable y desechar lo que no puede medirse. Como se explica en la “Ética de la cuantificación”, esta forma de pensar puede generar una confianza excesiva en los números y hacer que problemas complejos de tipo político o social se traten como si fueran únicamente cuestiones técnicas, simplificando en exceso su naturaleza y dificultando soluciones adecuadas.

Para las metodologías cualitativas, la presión por métricas transforma conceptos en marcos rígidos que favorecen eficiencia y comparabilidad a costa de profundidad. Según un estudio en BMC (2025), «estos marcos… promueven eficiencia y comparabilidad, pero arriesgan perder lo valioso de una buena investigación cualitativa: la profundidad» Además, convertir datos cualitativos en parámetros fácilmente cuantificables (p. ej., inter-rater reliability) puede distorsionar la riqueza del análisis.

Martins relata su experiencia durante un posdoctorado en la Universidad de Lund, donde trabajó en una teoría sobre el cierre de brechas económicas. Para ello debió operacionalizar conceptos abstractos como “capacidades sociales”, traduciendo nociones de inclusión, autonomía o estabilidad en métricas concretas. Sin embargo, relata que las exigencias de claridad y objetividad reducían la riqueza teórica original. Él mismo admite: “en aquel momento… la demanda de una métrica había empezado a desplazar el trabajo conceptual en sí”

El artículo profundiza en los riesgos de aplicar criterios cuantitativos uniformes a disciplinas muy diversas. Citando a Jonathan Adams, Martins advierte: “producir métricas comparables entre filósofos, historiadores o economistas borra las diferencias que dan valor a esa diversidad intelectual” . Cuando los proxies –las métricas– se institucionalizan, se corre el riesgo de confundir el mapa con el territorio, perdiendo de vista el fenómeno original .

No obstante, Martins reconoce que la medición tiene beneficios prácticos: facilita la comparación, replicación y comunicación de resultados, especialmente en economía del desarrollo y bienestar, donde indicadores como el PIB o la calidad institucional guían políticas. El problema no es medir, sino que la métrica se convierta en el fin, sustituyendo el pensamiento profundo. Advierte que “la ambigüedad no siempre es un problema; a veces, es lo que hace que un concepto valga la pena”

Por lo que llama a un uso cuidadoso de las métricas: que sean herramientas para clarificar y ampliar el pensamiento, no reemplazos del mismo. Propone mantener vigilante el equilibrio entre la cuantificación y la riqueza conceptual, reconociendo que cierta vaguedad es necesaria para capturar fenómenos complejos.