Archivo de la etiqueta: Inteligencia artificial

Los modelos de inteligencia artificial (IA) de vanguardia podrían estar mejorando a un ritmo mucho más rápido de lo que se pensaba

METR. «Measuring AI Ability to Complete Long TasksMETR, March 19, 2025. https://metr.org/blog/2025-03-19-measuring-ai-ability-to-complete-long-tasks/?utm_source=superhuman&utm_medium=newsletter&utm_campaign=claude-finally-gets-search&_bhlid=a3d8e301d66bd7aba2dd5de5253b42c092fb3f57

Este enfoque destaca la necesidad de medir la capacidad de la IA no solo en términos de sus habilidades de predicción o conocimiento, sino también en la capacidad para realizar tareas complejas a lo largo del tiempo. Los resultados de este estudio tienen implicaciones significativas tanto para las predicciones sobre el futuro de la IA como para la gestión de riesgos asociados a su adopción.

Un estudio reciente ha revelado que los modelos de inteligencia artificial (IA) de vanguardia podrían estar mejorando a un ritmo mucho más rápido de lo que se pensaba. El grupo de investigación METR ha descubierto que el tiempo que los Modelos de Lenguaje Grande (LLMs) pueden abordar tareas parece duplicarse cada siete meses, lo que es incluso más rápido que la Ley de Moore, que establece que la capacidad de los chips se duplica aproximadamente cada dos años.

Para ponerlo en perspectiva, el modelo Claude Sonnet 3.7 ahora puede realizar tareas que a los humanos les tomarían una hora, mientras que modelos como el GPT-4 de 2023 solo podían realizar tareas de cinco minutos, como buscar un hecho específico en la web. Modelos anteriores como el GPT-3.5 de 2022 solo podían hacer tareas que nos tomarían menos de un minuto, como recordar algo previamente conocido.

Si esta tendencia continúa, en uno o dos años los modelos de IA podrían ser capaces de realizar tareas de cuatro horas. Se espera que para 2029 la IA sea capaz de realizar tareas que le tomarían a los humanos un mes entero, como iniciar un negocio o hacer un nuevo descubrimiento científico. Sin embargo, dado que los LLMs son relativamente nuevos, solo se dispone de cuatro o cinco años de datos, por lo que estos resultados deben tomarse con cautela.

Desafíos específicos que plantea la inteligencia artificial en la ética de la investigación

Bouhouita-Guermech, Sarah, Patrick Gogognon, y Jean-Christophe Bélisle-Pipon. 2023. «Specific Challenges Posed by Artificial Intelligence in Research EthicsFrontiers in Artificial Intelligence 6. https://doi.org/10.3389/frai.2023.1149082.​

Se abordan los retos que plantea la inteligencia artificial (IA) en el contexto de la ética Los sistemas de inteligencia artificial, cada vez más presentes en entornos científicos, están modificando la manera en que se desarrolla y evalúa la investigación, pero los comités de ética responsables de supervisarla no siempre están preparados para comprender ni gestionar adecuadamente estos cambios. La investigación explora hasta qué punto los comités de ética en investigación están capacitados para enfrentar los desafíos específicos que introduce la IA.

Uno de los principales problemas éticos identificados es la opacidad de los modelos de IA, especialmente aquellos que emplean aprendizaje automático profundo. Muchos de estos sistemas funcionan como “cajas negras”, en las que ni los propios desarrolladores pueden explicar con claridad cómo se han generado ciertos resultados. Esta falta de transparencia es especialmente crítica en el ámbito de la investigación, donde la justificación de los métodos y la reproducibilidad son principios fundamentales. Si no se puede explicar cómo funciona un sistema de IA utilizado para analizar datos o generar conclusiones, resulta muy difícil evaluar la validez científica y ética del estudio.

Otro desafío relevante es la atribución de responsabilidad. A medida que se incorporan algoritmos de IA en decisiones que afectan a seres humanos —por ejemplo, en estudios sobre salud, comportamiento o justicia social— se diluye la línea de responsabilidad entre los investigadores, los programadores, las instituciones y los propios sistemas autónomos. ¿Quién debe rendir cuentas cuando una decisión automatizada causa un daño o una injusticia? Esta cuestión complica enormemente la evaluación ética, ya que los marcos tradicionales asumen que detrás de cada decisión humana hay un agente moral claramente identificable.

También se analizan en profundidad las implicaciones de la IA sobre la privacidad y el consentimiento informado. Los sistemas de IA a menudo requieren grandes volúmenes de datos para entrenarse y operar, lo que puede poner en riesgo la privacidad de los participantes en los estudios. Además, en muchos casos, los participantes no comprenden plenamente cómo se utilizarán sus datos ni qué tipo de inferencias pueden derivarse de ellos, lo que pone en entredicho la validez del consentimiento informado. Este problema se agudiza cuando los datos son reutilizados con fines no previstos originalmente o cuando se recopilan de manera pasiva, sin intervención directa del sujeto.

El sesgo algorítmico es otro de los puntos clave tratados en el artículo. Al estar entrenados con datos históricos que reflejan desigualdades sociales, raciales o de género, los algoritmos pueden reproducir e incluso amplificar estos sesgos en sus resultados. En el contexto de la investigación, esto puede llevar a conclusiones erróneas o a prácticas injustas que afecten negativamente a ciertos grupos sociales. Los comités de ética deben ser conscientes de este riesgo para poder exigir evaluaciones rigurosas del sesgo en los sistemas empleados.

A partir de una revisión de 657 artículos científicos, de los cuales 28 fueron seleccionados como más relevantes, la autora evalúa el grado de preparación de los REB para enfrentar estos retos. La conclusión es clara: la mayoría de los comités carecen de pautas específicas y de conocimientos técnicos suficientes para abordar los dilemas éticos asociados a la IA. La falta de formación interdisciplinaria y de protocolos adaptados a las nuevas tecnologías pone en peligro la calidad ética de las decisiones que se toman en la revisión de proyectos de investigación.

Ante este panorama, el artículo propone una serie de recomendaciones concretas. En primer lugar, se señala la necesidad de elaborar directrices éticas específicas para la evaluación de proyectos que incluyan inteligencia artificial. Estas directrices deberían abordar no solo la transparencia, la privacidad y el consentimiento, sino también los riesgos sistémicos y sociales de las tecnologías utilizadas. En segundo lugar, se propone la capacitación continua de los miembros de los comités de ética, quienes deben adquirir competencias técnicas y filosóficas para entender el funcionamiento y las implicaciones de la IA. Finalmente, se destaca la importancia de la colaboración interdisciplinaria entre expertos en informática, derecho, ética, sociología y otras áreas del conocimiento, para poder ofrecer una visión más integral de los problemas éticos que plantea la IA.

La inteligencia artificial ha introducido cambios profundos en la forma de hacer investigación, y estos cambios requieren una respuesta igualmente profunda por parte de quienes se encargan de proteger a los participantes y de velar por la integridad de la ciencia. Adaptar los marcos éticos existentes, formar a los comités y fomentar el diálogo interdisciplinar son pasos imprescindibles para enfrentar este nuevo escenario con responsabilidad y justicia.

La MIT desarrolla un método para que los modelos de lenguaje de IA se autocorrijan y generen respuestas más seguras y ética

Hinkel, Lauren. 2025. «Training LLMs to Self-Detoxify Their LanguageMIT News, April 14, 2025. https://news.mit.edu/2025/training-llms-self-detoxify-their-language-0414

Un nuevo método del laboratorio de IA MIT-IBM Watson ayuda a los grandes modelos lingüísticos a dirigir sus propias respuestas hacia resultados más seguros, éticos y alineados con los valores.

Un equipo del MIT-IBM Watson AI Lab ha desarrollado un nuevo método llamado Self-Disciplined Autoregressive Sampling (SASA) que permite a los modelos de lenguaje de gran tamaño (LLMs) reducir por sí mismos la generación de contenido tóxico o no deseado. Lo novedoso de esta técnica es que no requiere modificar el modelo base, ni reentrenarlo, ni usar sistemas externos de recompensa. En cambio, SASA actúa directamente durante el proceso de generación del texto, evaluando cada palabra potencial antes de seleccionarla para asegurar que el resultado final se mantenga dentro de un lenguaje seguro y éticamente aceptable.

Los modelos de lenguaje se entrenan con grandes cantidades de datos tomados de internet, lo que implica que inevitablemente absorben lenguaje ofensivo, sesgado o perjudicial. Esto puede llevar a que generen respuestas tóxicas incluso a partir de solicitudes inocentes. SASA aborda este problema mediante un enfoque innovador: establece una frontera entre el lenguaje tóxico y el no tóxico dentro del espacio interno del modelo (específicamente, en su representación de palabras o embeddings). Cuando el modelo va generando una frase palabra por palabra, SASA calcula qué tan cercana está cada palabra candidata a cruzar esa frontera, y favorece aquellas que mantienen el contenido en el lado no tóxico.

Para lograr esto, los investigadores crearon un clasificador lineal que analiza el contexto de las frases a partir de datos etiquetados con niveles de toxicidad. De esta forma, pueden determinar si una frase parcial (por ejemplo, los primeros 11 términos de una oración) se acerca a un resultado problemático cuando se le añade una determinada palabra número 12. SASA ajusta entonces las probabilidades de elección de esa palabra, penalizando las opciones que aumentarían la toxicidad y premiando las más seguras, pero sin perder la coherencia gramatical o semántica del texto.

Los investigadores probaron SASA en varios modelos populares como GPT-2 Large, LLaMA 2-7B y LLaMA 3.1-8B-Instruct, usando conjuntos de datos diseñados para evaluar toxicidad, sesgos y lenguaje ofensivo. En los experimentos, SASA logró reducir notablemente tanto la cantidad como la intensidad del lenguaje tóxico generado, sin afectar demasiado la fluidez del texto. Además, mostró ser útil para equilibrar desigualdades, como cuando los modelos tendían a generar más contenido tóxico en respuestas asociadas a mujeres que a hombres.

Una de las principales ventajas de SASA es que es un método ligero, rápido y adaptable. A diferencia de otras técnicas que requieren modificar o reentrenar el modelo —algo costoso y que puede afectar su rendimiento general—, SASA simplemente actúa como una especie de “guía interna” durante la generación de texto. Además, puede extenderse fácilmente para alinear los modelos con otros valores humanos, como la veracidad, la ayuda o la lealtad. Según su autora principal, Irene Ko, la idea no es evitar que los modelos conozcan el lenguaje dañino, sino que aprendan a reconocerlo y elegir no usarlo, del mismo modo que hacemos los seres humanos.

SASA representa un paso importante hacia modelos de lenguaje más seguros, éticos y controlables, permitiendo que mantengan su poder expresivo sin dejar de respetar principios fundamentales de convivencia y responsabilidad comunicativa.

La transformación inminente de la investigación: enfrentando el iceberg de la inteligencia artificial

Daley, Mark. «What We Really Need Is a ‘Deck Chair Configuration’ Committee… Facing the Uncomfortable AI Research Iceberg Noetic Engines, February 11, 2025. https://noeticengines.substack.com/p/what-we-really-need-is-a-deck-chair

Se aborda de manera crítica la tendencia actual en la investigación sobre la inteligencia artificial (IA), que se ha centrado en adoptar la IA de forma incremental, mejorando herramientas existentes, como la corrección de textos o la gestión de referencias. Aunque estas mejoras son útiles, Daley argumenta que estas pequeñas modificaciones son apenas la punta del iceberg de lo que la IA puede ofrecer en el ámbito de la investigación, y que en realidad estamos al borde de una transformación mucho más profunda.

Daley menciona el estudio Wiley ExplanAItions, que concluye que en un par de años, la IA ayudará a los investigadores a realizar tareas como resumir artículos más rápidamente o generar citas más precisas. Sin embargo, esta visión de la IA se queda corta al no considerar los avances que ya están ocurriendo. Según el autor, la verdadera revolución no está solo en mejorar las herramientas actuales, sino en que la IA está avanzando hacia un futuro en el que será capaz de ejecutar todo el proceso de investigación de manera autónoma en ciertos campos. Esto incluye la capacidad de generar nuevas hipótesis, diseñar y realizar experimentos complejos, analizar los datos y generar conclusiones escritas que podrían ser sometidas a una revisión por pares.

El autor resalta que este cambio ya es una realidad, mencionando ejemplos concretos, como el uso de la IA o1-pro en la investigación económica, que permitió a un investigador realizar un trabajo con suficiente novedad y mérito para ser publicado en una revista científica. Además, se menciona cómo otras aplicaciones de IA ya están escribiendo tesis de doctorado, lo que implica que las herramientas de IA no solo están mejorando la eficiencia de los investigadores, sino que están comenzando a reemplazar ciertas habilidades humanas clave en el proceso de investigación.

Daley advierte que centrarse únicamente en soluciones a corto plazo, como la mejora de la corrección de citas, sin tener en cuenta el potencial transformador de la IA, es comparable a centrarse en la mejora de un establo de caballos cuando los automóviles están a punto de hacer obsoleta esa industria. En su opinión, la IA está avanzando rápidamente más allá de tareas secundarias y está comenzando a asumir tareas que históricamente solo podían ser realizadas por seres humanos, como la formulación de hipótesis y el diseño de experimentos.

En cuanto a las implicaciones éticas, el artículo menciona la necesidad de replantear la forma en que la academia aborda la IA. Aunque los investigadores y líderes académicos a menudo subestiman la velocidad y el impacto de estos cambios, Daley subraya que esperar hasta que la IA esté realizando investigaciones completas será un error, ya que para ese momento podría ser demasiado tarde para desarrollar políticas y estructuras adecuadas que garanticen la integridad académica y la calidad de la investigación.

Finalmente, Daley hace una llamada a la acción por parte de la academia. En lugar de conformarse con pequeños avances y adaptaciones, el autor insta a los académicos a prepararse para una transformación profunda de la investigación científica. Esto no significa que los investigadores humanos desaparezcan, sino que deberán adaptarse y trabajar junto con la IA de una manera más integral. La clave será anticiparse a los cambios y reestructurar cómo se lleva a cabo, se evalúa y se recompensa la investigación en este nuevo ecosistema impulsado por la IA.

AI Index 2025: impacto creciente de la inteligencia artificial en la sociedad, la economía, la educación y la ciencia

Stanford Institute for Human-Centered Artificial Intelligence (HAI). 2025. The AI Index Report 2025. Stanford University, 2025

Texto completo

El informe AI Index 2025 analiza el impacto creciente de la inteligencia artificial en la sociedad, la economía, la educación y la ciencia, ofreciendo datos objetivos para informar a líderes políticos, empresas y ciudadanos.

La influencia de la inteligencia artificial (IA) en la sociedad nunca ha sido tan pronunciada. En el Stanford HAI, se considera que la IA está destinada a ser la tecnología más transformadora del siglo XXI. Sin embargo, sus beneficios no se distribuirán de manera equitativa a menos que se guíe su desarrollo de manera reflexiva. El AI Index ofrece una de las visiones más completas y basadas en datos de la inteligencia artificial. Reconocido como un recurso confiable por medios globales, gobiernos y empresas líderes, el AI Index proporciona a los responsables políticos, líderes empresariales y al público en general información rigurosa y objetiva sobre el progreso técnico de la IA, su influencia económica y su impacto social.

  1. Mejoras destacadas en el rendimiento
    Los sistemas de IA superaron significativamente los nuevos estándares de evaluación como MMMU, GPQA y SWE-bench. En programación, algunos modelos superaron a los humanos en un tiempo limitado.
  2. Aumenta la integración en la vida cotidiana
    La IA se utiliza cada vez más en sectores como la sanidad y el transporte. La FDA aprobó 223 dispositivos médicos con IA en 2023. Waymo ofrece más de 150.000 viajes autónomos semanales y Baidu amplía su flota de robotaxis en China.
  3. El auge empresarial de la IA
    Inversión privada en IA en EE.UU. UU. alcanzó los 109.100 millones de dólares, muy por encima de China y Reino Unido. El 78% de las organizaciones utilizarán IA en 2024, en comparación con el 55% en 2023. Hay un impacto positivo en la productividad y la reducción de las brechas de habilidades.
  4. Liderazgo en EE. UU. y el ascenso de China
    EE. UU. Produzco 40 modelos destacados en 2024, en comparación con 15 en China. Sin embargo, China está cerrando rápidamente la brecha de calidad, además de liderar en publicaciones y patentes.
  5. Avances desiguales en la IA responsable
    A medida que aumentan los incidentes relacionados con la IA, pocos desarrolladores aplican evaluaciones estandarizadas. Nuevos hitos como HELM Safety y AIR-Bench ayudan, pero las acciones concretas en las empresas siguen siendo limitadas. Por el contrario, los gobiernos están intensificando su regulación.
  6. Optimismo global desigual
    Países asiáticos como China (83%) e Indonesia (80%) ven la IA como algo positivo, mientras que en EE. UU. UU. y Canadá sólo el 39-40%. Como resultado, la percepción está mejorando en países anteriormente escépticos como Alemania y Francia.
  7. Mayor eficiencia y accesibilidad
    El costo de inferencia de modelos como GPT-3.5 ha disminuido más de 280 veces a lo largo de los años. También reduce los costos de hardware y mejora la eficiencia energética. Los modelos de código abierto se están acercando en rendimiento a los cerrados.
  8. Regulación e inversión estatal
    EE. UU. emitió 59 regulaciones sobre IA en 2024, más del doble que en 2023. Otros países también están intensificando fuertemente: China (47.500 millones de dólares), Arabia Saudita (100.000 millones de dólares), Francia (109.000 millones de euros), entre otros.
  9. La educación en IA se está expandiendo, pero con brechas
    El 66% de los países ofrecen o planean ofrecer educación informática primaria/secundaria, con avances importantes en África y América Latina. Sin embargo, persisten problemas de infraestructura y de formación docente.
  10. La industria domina el desarrollo de modelos
    El 90% de los modelos destacados provienen del sector industrial. A medida que las universidades continúan liderando la investigación, la competencia en el desarrollo de modelos se intensifica.
  11. Reconocimiento científico
    La IA ha sido galardonada con el Premio Nobel (física y química) y un Premio Turing, en reconocimiento a su impacto en áreas como el aprendizaje profundo y el procesamiento de proteínas.
  12. Limitaciones del razonamiento comprensivo
    A pesar de los avances, los modelos de IA aún fallan en tareas de lógica compleja y razonamiento estructurado, lo que limita su aplicación en contextos críticos donde la precisión es vital.

Anthropic anuncia que Claude ya puede acceder a Gmail, Google Calendar y Google Docs

Zeff, Maxwell. 2025. “Anthropic’s Claude Can Now Read Your Gmail.TechCrunch, April 15, 2025. https://techcrunch.com/2025/04/15/anthropics-claude-now-read-your-gmail/

Anthropic informó que su chatbot de inteligencia artificial, Claude, ahora se integra con Google Workspace, permitiéndole acceder a correos electrónicos en Gmail, eventos programados en Google Calendar y documentos en Google Docs.

Esta funcionalidad está en fase beta y está disponible para los suscriptores de los planes Max, Team, Enterprise y Pro. Para las cuentas corporativas, será necesario que los administradores activen previamente la integración.

Con esta nueva herramienta, Claude se posiciona como uno de los primeros chatbots de terceros que se conectan profundamente con el ecosistema de productividad de Google, en competencia directa con Gemini de Google DeepMind y ChatGPT de OpenAI (este último ya permite acceso a archivos de Google Drive).

La integración busca ofrecer respuestas personalizadas sin necesidad de que el usuario suba archivos o escriba indicaciones complejas. Claude podrá escanear correos y calendarios, por ejemplo, para ayudar a padres a identificar compromisos importantes y buscar información relevante como calendarios escolares, eventos comunitarios o pronósticos del tiempo.

Uno de los aspectos más destacados es que Claude ofrecerá citas en línea (inline citations), mostrando al usuario la fuente precisa de la información que utiliza desde Google Workspace.

Sin embargo, esta funcionalidad también ha generado preocupaciones sobre la privacidad y seguridad de los datos, ya que no está completamente claro el alcance de la búsqueda que Claude puede realizar en los contenidos del usuario. Por ejemplo, no se especifica si Claude necesita instrucciones explícitas para acceder a ciertos correos o si puede consultar datos sensibles automáticamente. Tampoco se ha aclarado si el usuario puede restringir el acceso a determinados archivos.

En respuesta a estas inquietudes, un portavoz de Anthropic aseguró que la empresa no utiliza los datos de los usuarios para entrenar sus modelos, y que ha implementado mecanismos rigurosos de autenticación y control de acceso. Cada conexión con servicios externos está ligada exclusivamente al usuario o institución correspondiente y Claude no puede compartir información entre cuentas.

Además de esta integración, Anthropic lanzó también una nueva función llamada Claude Research, un sistema de búsqueda profunda que realiza múltiples consultas web para ofrecer respuestas detalladas. Esta herramienta compite directamente con los agentes de investigación avanzados de OpenAI y Google, y promete un equilibrio óptimo entre velocidad y exhaustividad. Según la compañía, las búsquedas de Claude Research tardan menos de un minuto en completarse.

Claude Research está disponible inicialmente en Estados Unidos, Japón y Brasil para usuarios de los planes Max, Team y Enterprise, y llegará próximamente a los suscriptores del plan Pro.

Ambas novedades se enmarcan en la estrategia de Anthropic para atraer nuevos usuarios a sus planes de suscripción. Aunque Claude ha ganado popularidad —con 3,3 millones de usuarios web en marzo de 2025—, su base de usuarios aún es considerablemente más pequeña que la de ChatGPT.

10 razones por las que la revista científica no se adapta a las nuevas formas de hacer y comunicar ciencia en el siglo XXI

Worlock, David. 2025. “10 Reasons Why the Science Research Journal Has Passed Its Sell-by Date.” David Worlock, April 2025. https://www.davidworlock.com/2025/04/10-reasons-why-the-science-research-journal-has-passed-its-sell-by-date/

El autor propone una revisión profunda y urgente del modelo actual, denunciando no solo su ineficacia y costes, sino también su incapacidad para adaptarse a las nuevas formas de hacer y comunicar ciencia en el siglo XXI.

Se recogen una reflexión crítica presentada durante una conferencia reciente del UKSG en Brighton. El autor, uno de los participantes en un debate junto con representantes de Elsevier y Coherent Digital, expone diez argumentos que justifican su afirmación de que el sistema de publicación científica, tal como lo conocemos, necesita una transformación profunda.

El sistema de publicación científica ha quedado anclado en estructuras del pasado, reproduciendo en digital las limitaciones del mundo impreso. La irrupción de la inteligencia artificial promete cambiar radicalmente este panorama, automatizando procesos, eliminando intermediarios innecesarios y creando un nuevo ecosistema de comunicación científica más ágil, accesible y confiable.

  1. El acceso abierto ya no cumple su promesa
    El modelo de acceso abierto (open access), que en su origen pretendía reducir barreras y costos para que el conocimiento científico fuera más accesible, ha comenzado no solo a estancarse, sino incluso a retroceder. Su funcionamiento basado en el volumen de publicaciones ha generado desconfianza, pues antepone la cantidad a la calidad. Irónicamente, lo que debía ser una alternativa más económica, ahora está siendo rechazado precisamente por sus elevados costes.
  2. La revisión por pares está en crisis
    El sistema de revisión por pares, que históricamente ha sido la piedra angular de la credibilidad científica, se encuentra quebrado. Cada vez más investigadores, entidades financiadoras y usuarios pierden la confianza en este mecanismo. Su lentitud, falta de transparencia y vulnerabilidad ante fraudes han generado una creciente deslegitimación del proceso.
  3. Falta un sistema centralizado de retracciones
    Existe una carencia grave de transparencia en lo que respecta a las retractaciones de artículos científicos. Los usuarios no disponen de un índice centralizado ni fiable para consultar qué artículos han sido retirados y por qué. Esto genera incertidumbre sobre la validez del conocimiento publicado y dificulta la depuración de errores científicos.
  4. Las publicaciones son demasiado lentas
    En áreas donde el conocimiento avanza a gran velocidad —como la biotecnología, la inteligencia artificial o la salud pública—, el sistema tradicional de publicación científica resulta excesivamente lento. Las revistas no logran adaptarse a los ritmos que exige la investigación actual, lo que entorpece el progreso científico y su aplicación práctica.
  5. Costes insostenibles para la comunidad investigadora
    Publicar en revistas científicas se ha convertido en una tarea costosa y poco rentable. Los beneficios no justifican el gasto y los financiadores se muestran cada vez más reacios a asumir los pagos asociados. El desequilibrio entre coste y retorno ha hecho que este sistema se perciba como económicamente insostenible.
  6. Falta de integridad estructural
    Muchos de los problemas actuales podrían resolverse si las revistas ofrecieran la integridad editorial plena que los usuarios esperan. Sin embargo, hoy en día proliferan contenidos generados por inteligencias artificiales sin control, artículos de papermills (fábricas de artículos) y fraudes sistemáticos que socavan la confianza en las publicaciones científicas.
  7. Estándares técnicos difíciles de aplicar en el sistema actual
    El desarrollo y aplicación de estándares técnicos como metadatos estructurados, identificadores persistentes (PIDs) y códigos de contenido (ISCC, C2PA, etc.) resulta más viable en entornos de autopublicación que dentro de los sistemas rígidos y obsoletos de las editoriales científicas. Esto limita el potencial de la ciencia abierta y dificulta la interoperabilidad entre plataformas.
  8. La validación científica debe independizarse de las revistas
    Los procesos de reconocimiento y evaluación científica —como la concesión de becas, ascensos o financiación— están demasiado ligados al prestigio de las revistas y a métricas como el factor de impacto, fácilmente manipulables. Sería preferible desarrollar sistemas independientes y más justos que reconozcan la calidad real de los investigadores sin depender de la marca editorial.
  9. El formato del artículo científico necesita evolucionar
    El formato tradicional de artículo ya no responde a las necesidades actuales. Es necesario introducir prácticas como la pre-registro de hipótesis y metodologías, y la integración de datos experimentales, código, vídeos, imágenes, audio, blogs y otros soportes que hoy en día las revistas no contemplan. La publicación científica debe volverse multimodal y más transparente.
  10. La lectura humana ya no es suficiente
    Dado el volumen de información disponible, muchos investigadores no tienen tiempo para leer artículos completos. Por ello, la comunicación entre máquinas se vuelve crucial. Sin embargo, las estructuras narrativas actuales no están diseñadas para su interpretación automática, lo que impide aprovechar el potencial de la inteligencia artificial y del análisis automatizado. Se necesita una transición hacia datos estructurados y enriquecidos con metadatos, comprensibles por máquinas.

Una exdirectiva de Meta acusa a Zuckerberg de ofrecer datos de ciudadanos estadounidenses a China para operar en el país

Thomson, Iain. “Ex-Meta Exec Tells Senate Zuck Dangled US Citizen Data in Bid to Enter China.The Register, 11 de abril de 2025. https://www.theregister.com/2025/04/11/meta_senate_china/?utm_source=flipboard&utm_content=other

El 9 de abril de 2025, Sarah Wynn-Williams, exdirectora de políticas públicas globales de Meta (antes Facebook), declaró ante el Subcomité del Senado de EE. UU. sobre Crimen y Contraterrorismo que Mark Zuckerberg estuvo dispuesto a ofrecer datos de ciudadanos estadounidenses a las autoridades chinas con tal de que Facebook pudiera operar en China. Según su testimonio, el proyecto secreto se llamaba Project Aldrin y estaba limitado a personal con necesidad de saber. Parte del plan incluía construir un cable submarino entre EE. UU. y Hong Kong, que fue desviado tras alertas de seguridad nacional.

Wynn-Williams acusó a Meta de ignorar advertencias sobre riesgos de seguridad y de haber mentido al público sobre sus vínculos con China. Afirmó también que Meta desarrolló herramientas de censura junto al Partido Comunista Chino y que la compañía sigue generando ingresos significativos de empresas chinas, aunque oficialmente no opera en el país.

Además, denunció que los modelos de IA de Meta (como LLaMA) han contribuido a avances en inteligencia artificial china, posiblemente con usos militares. Tras su salida de Meta, presentó denuncias ante la SEC y el Departamento de Justicia. Actualmente enfrenta una demanda por parte de Meta que intenta silenciarla.

Varios senadores, incluidos Josh Hawley, Dick Durbin y Richard Blumenthal, respaldaron su testimonio y criticaron a Meta por intentar frenar la audiencia. La compararon con tácticas pasadas de la industria del tabaco para ocultar daños al público. El Senado anunció planes para reforzar la protección de los denunciantes, también en el ámbito de la inteligencia artificial.

Wynn-Williams concluyó que «el pueblo estadounidense merece conocer la verdad» y que la colaboración de Meta con China durante su etapa en la empresa la dejó profundamente impactada.

El consumo energético de los centros de datos a consecuencia del uso de IA se duplicará en cinco años

Zeff, Maxwell. «An Answer to AI’s Energy Addiction? More AI, Says the IEAThe Next Web, April 10, 2025. https://thenextweb.com/news/answer-to-ai-energy-consumption-is-more-ai-says-iea.

La Agencia Internacional de la Energía (AIE) ha publicado su primer gran informe sobre el impacto del auge de la inteligencia artificial en el consumo energético global, con resultados preocupantes y algo contradictorios.

Según el informe, el consumo energético de los centros de datos, especialmente por aplicaciones de IA, se duplicará en cinco años, alcanzando el 3% del uso energético mundial. La IA será responsable de más de la mitad de este crecimiento. Algunos centros consumen ya tanta electricidad como 100.000 hogares, y en el futuro podrían multiplicar por 20 ese número.

Aunque se espera que para 2030 los centros usen un 50% de energía renovable, el resto provendrá de carbón, gas natural y energía nuclear, lo que plantea serios retos climáticos. No obstante, la AIE ve una oportunidad en la IA: puede optimizar redes eléctricas, mejorar la predicción del clima, detectar fugas o descubrir nuevos materiales sostenibles. Pero advierte que estos beneficios serán marginales si no se crean condiciones adecuadas desde los gobiernos.

El informe ha generado controversia. Críticos como Alex de Vries creen que la AIE subestima el consumo energético de la IA, que podría comprometer los objetivos climáticos. Otros, como Claude Turmes, ministro de Energía de Luxemburgo, acusan a la AIE de presentar una visión demasiado optimista y de favorecer intereses políticos y corporativos.

Algunas soluciones sostenibles ya existen, como la refrigeración por inmersión o el reaprovechamiento del calor de los centros de datos, pero deben escalarse rápidamente. Y, sobre todo, será clave usar la capacidad informática con más criterio.

Chatbots de IA y catalogación por materias: una prueba de rendimiento

​Dobreski, Brian, and Christopher Hastings. «AI Chatbots and Subject Cataloging: A Performance Test.» Library Resources & Technical Services 69, no. 2 (2025): https://doi.org/10.5860/lrts.69n2.8440

Se analiza el uso de chatbots basados en inteligencia artificial (IA) para realizar tareas de catalogación temática en bibliotecas. En un contexto donde las tecnologías basadas en modelos de lenguaje están en expansión, y las bibliotecas exploran nuevas formas de integrar herramientas digitales para optimizar sus flujos de trabajo, este estudio aporta evidencia empírica al debate sobre si los chatbots gratuitos como ChatGPT, Gemini y Copilot pueden asumir tareas complejas de catalogación, en particular la asignación de encabezamientos de materia y números de clasificación.

Los autores enmarcan su investigación en el creciente interés que ha despertado la IA en el mundo bibliotecario. Numerosos profesionales han empezado a experimentar con estas herramientas en áreas como servicios de referencia, gestión de colecciones y asesoría a lectores. Sin embargo, en el área específica de la catalogación temática, persisten dudas significativas sobre la precisión, fiabilidad y utilidad de los chatbots. La catalogación por materias implica analizar el contenido intelectual de los recursos para identificar su “aboutness” o tema central, y luego representar ese contenido mediante sistemas normativos como el Library of Congress Subject Headings (LCSH), el Library of Congress Classification (LCC) y el Dewey Decimal Classification (DDC). Estos sistemas son altamente estructurados, complejos y requieren formación especializada para ser utilizados con precisión.

Para poner a prueba las capacidades de los chatbots, los investigadores diseñaron un experimento basado en el libro didáctico Essential Classification de Vanda Broughton, una obra ampliamente reconocida en el ámbito de la catalogación. De este libro se extrajeron una serie de ejercicios reales de catalogación que fueron transformados en 98 preguntas, diseñadas para ser comprensibles incluso para estudiantes principiantes. Estas preguntas fueron clasificadas en tres categorías: 50 sobre LCSH, 25 sobre LCC y 23 sobre DDC. Las preguntas fueron presentadas directamente a los chatbots en su versión gratuita, sin uso de ingeniería de prompts ni ajustes en la formulación, con el objetivo de simular una interacción básica y accesible para cualquier bibliotecario sin experiencia técnica avanzada.

Las respuestas obtenidas por los tres chatbots fueron evaluadas minuciosamente y comparadas con las soluciones propuestas por el texto de Broughton. Para determinar su calidad, se tomaron en cuenta criterios como exactitud, validez dentro del sistema de clasificación, adecuación al tema y presencia de errores evidentes o alucinaciones (es decir, invenciones de términos o números inexistentes). Los resultados fueron reveladores. En el caso de los ejercicios de clasificación Dewey (DDC), el desempeño general fue bajo en todos los modelos. ChatGPT logró la puntuación más alta con un 26% de respuestas correctas o aceptables, mientras que Gemini obtuvo un 17% y Copilot apenas un 9%. Los errores comunes incluyeron el uso de números demasiado amplios, números correspondientes a temas incorrectos y, en algunos casos, números inexistentes.

El panorama fue aún más desalentador en la asignación de números de clasificación de la Biblioteca del Congreso (LCC). Gemini mostró un rendimiento particularmente deficiente, con una tasa de éxito del 4%, frente al 20% de ChatGPT y el 24% de Copilot. En esta categoría, los errores fueron más graves: se detectaron alucinaciones frecuentes de números inexistentes, uso incorrecto de clases generales, y asignaciones sin fundamento temático adecuado. Además, las herramientas mostraron una preocupante tendencia a reutilizar códigos ya vistos en preguntas anteriores para temas completamente diferentes, un comportamiento que pone en duda la capacidad de los chatbots para mantener consistencia temática.

En cuanto a la asignación de encabezamientos de materia LCSH, los resultados mostraron diferencias más marcadas entre los modelos. ChatGPT destacó en esta categoría, alcanzando un 54% de aciertos entre respuestas correctas, cercanas o aceptables. Gemini quedó atrás con un 26%, y Copilot tuvo el rendimiento más bajo con un 10%. Aunque la mayoría de las respuestas contenían múltiples encabezamientos sugeridos, los investigadores evaluaron el mejor de cada caso para determinar la puntuación final. ChatGPT no solo generó una mayor cantidad de encabezamientos por pregunta (promedio de 6), sino que también mostró una tasa más alta de validez semántica y estructural (63% de todos los encabezamientos sugeridos eran válidos según el sistema LCSH). Sin embargo, también cometió errores notables, como omitir subdivisiones esenciales o proponer encabezamientos demasiado generales.

Un hallazgo interesante fue la divergencia en los tipos de errores cometidos por cada chatbot. Por ejemplo, Gemini tendía a agregar subdivisiones innecesarias o inventadas, muchas veces encerradas entre corchetes, lo que indicaba inseguridad en la elección de términos. Copilot, por otro lado, proponía encabezamientos muy generales o usaba una estrategia facetada sin combinarlos en una sola cadena coherente, lo que podría hacerlo más apto para sistemas como FAST en lugar de LCSH. ChatGPT, aunque más preciso, también incurría en errores típicos de omisión o simplificación excesiva.

Los autores argumentan que, aunque ningún chatbot fue capaz de reemplazar el juicio experto del catalogador, ChatGPT mostró un nivel de rendimiento que sugiere un potencial moderado como herramienta de apoyo, especialmente en la generación de encabezamientos de materia. Sin embargo, recalcan que la intervención humana sigue siendo indispensable para verificar la existencia y pertinencia de los términos propuestos, así como para ajustar los resultados a las reglas específicas de cada sistema. De hecho, la utilidad real de estas herramientas podría residir más en su capacidad para ofrecer un punto de partida que en su aptitud para realizar tareas completas de forma autónoma.

El estudio no estuvo exento de limitaciones importantes, como el uso exclusivo de versiones gratuitas de los chatbots, la falta de interacción iterativa o de re-prompting, y el hecho de evaluar solo una respuesta por pregunta, lo cual puede dar una imagen más positiva de la real capacidad de estas herramientas. Además, los ejercicios seleccionados estaban diseñados para formar estudiantes en proceso de aprendizaje, y no necesariamente para ser evaluados bajo criterios estrictos de rendimiento profesional.

A modo de cierre, los autores señalan varias líneas prometedoras para futuras investigaciones. Entre ellas se incluyen la repetición del estudio con versiones futuras o de pago de los chatbots, la incorporación de ingeniería de prompts más compleja, y la comparación del rendimiento entre chatbots, catalogadores novatos y catalogadores que utilizan IA como apoyo. También sugieren explorar el uso de chatbots con otros sistemas de clasificación más simples o especializados, como FAST o MeSH, que podrían ser más compatibles con las limitaciones de las herramientas actuales.

En conclusión, este estudio ofrece una valiosa contribución al debate sobre el uso de IA en bibliotecas, evidenciando que aunque los chatbots no están listos para asumir tareas de catalogación temática de forma autónoma, podrían desempeñar un papel útil si son usados con criterio profesional. La clave está en combinar el potencial de la IA con el conocimiento experto del personal bibliotecario, así como en fomentar una alfabetización en IA que permita a los profesionales utilizar estas herramientas de manera crítica, efectiva y ética en el contexto de la gestión de la información.