Archivo de la etiqueta: Inteligencia artificial

La inteligencia artificial en la publicación académica: un estudio sobre las directrices y políticas de las revistas de Biblioteconomía y Documentación


Gao, W., Liu, G., Huang, M. B., & Yao, H. (2025). AI in Scholarly Publishing: A Study on LIS Journals’ Guidelines and PoliciesInternational Journal of Librarianship10(2), 85–100. https://doi.org/10.23974/ijol.2025.vol10.2.419

Se investiga el panorama actual de las directrices y políticas relacionadas con el uso de inteligencia artificial generativa en revistas del ámbito de la Bibliotecología y Ciencias de la Información (LIS).

En un contexto en el que herramientas como ChatGPT se han popularizado para realizar tareas como corrección gramatical, análisis estadístico o redacción de manuscritos, los autores destacan preocupaciones éticas sobre autoría, derecho de autor, reproducibilidad y transparencia en la investigación

Mediante un enfoque metodológico descriptivo, se revisaron las normas editoriales de un conjunto de revistas LIS seleccionadas a partir de la lista de Nixon y se aplicaron estadísticas básicas para comparar revistas con y sin políticas explícitas sobre IA generativa.

Los resultados revelan que, de las 45 revistas estudiadas, 31 (69 %) incluyen algún tipo de declaración sobre el uso de IA en sus directrices. La mayoría exige a los autores declarar el uso de estas herramientas, y algunas (16) extienden regulaciones también a editores y revisores, incluyendo prohibiciones como el uso de manuscritos en sistemas de IA externos.

Además, se observa una carencia notable de tales políticas en revistas de acceso abierto, lo que plantea riesgos en cuanto a la calidad editorial y la proliferación de prácticas predatorias. Los autores concluyen subrayando la necesidad de estandarizar las declaraciones sobre el uso de IA generativa para fortalecer la integridad del proceso de publicación académica.

Diseño de IA ética para estudiantes: manual de IA generativa para la educación primaria y secundaria

AI Advisory Boards. “Designing Ethical AI for Learners- Generative AI Playbook for K-12 Education (Quill).” AI Advisory Boards (blog), 28 de abril de 2025.

Texto completo

Quill.org ha elaborado un «playbook» práctico y fundamentado en la investigación para diseñar inteligencia artificial (IA) ética en entornos educativos K-12. Basado en más de seis años de experiencia y utilizado por más de diez millones de estudiantes, especialmente en escuelas con menos recursos, su enfoque demuestra que la IA puede reflejar el juicio de educadores expertos si se implementa de manera adecuada

El playbook se estructura en cuatro pasos fundamentales: primero, realizar investigación antes de escribir código, definiendo con claridad lo que significa un aprendizaje exitoso en cada contexto; segundo, crear datasets propios con entre 50 y 100 respuestas reales de estudiantes acompañadas de retroalimentación docente de alta calidad; tercero, evaluar la IA de forma temprana y continua, revisando manualmente más de 100,000 respuestas al año y aplicando pruebas A/B; y cuarto, crear un consejo asesor docente –el Teacher Advisory Council– compuesto por más de 300 profesores que revisan y prueban cada actividad en múltiples ciclos antes de su lanzamiento.

Además, el enfoque se basa en tres principios clave para que la retroalimentación de la IA sea efectiva: diseñar prompts textuales que fomenten respuestas fundamentadas; definir respuestas ejemplares mediante criterios claros y revisión de numerosos ejemplos; y ofrecer retroalimentación constructiva y accionable que promueva la revisión y el crecimiento del estudiante, sin sustituir al docente.

Este playbook invita a educadores y desarrolladores de tecnología educativa a adoptar un proceso ético, colaborativo, riguroso y centrado en la pedagogía, asegurando que la IA actúe como un verdadero aliado en el aprendizaje.

Uso de la Inteligencia Artificial en la preparación de artículos científicos más accesibles para personas con discapacidad

Los modelos de lenguaje grandes (LLMs), como ChatGPT 4o, pueden facilitar la conversión de documentos científicos, especialmente archivos en LaTeX, hacia formatos accesibles que cumplan con los estándares de accesibilidad para personas con discapacidad visual.

La necesidad de esta transformación radica en superar las limitaciones del formato visual (como negritas o centrados) que dificulta el uso de tecnologías asistivas como lectores de pantalla. A diferencia del formato visual, el formato lógico —como usar comandos específicos de LaTeX (\title{}, \section{}, \author{})— permite una estructura semántica reconocible tanto para humanos con discapacidad como para máquinas

Durante un hackatón de tres días organizado por la Chan Zuckerberg Initiative en septiembre de 2024, los autores probaron un método zero-shot: sin entrenamiento específico, ChatGPT intentaba convertir archivos con formato visual en otros más estructurados y accesibles. Los resultados fueron mixtos: aunque en algunos casos logró reemplazar adecuadamente elementos como título, autores o secciones mediante comandos LaTeX semánticos, muchas veces alternó estilos visuales por comandos incorrectos, alterando el contenido, generando errores de compilación o incluso sustituyendo autores entre documentos no relacionados.

Ante estos desafíos, los investigadores identificaron que los LLMs requerían supervisión humana constante y prompts más precisos. En particular, la generación de un diálogo iterativo permitió mejorar los resultados; sin embargo, la fiabilidad seguía siendo insuficiente para implementaciones a gran escala sin revisión adicional

Como alternativa más prometedora, se propone entrenar un modelo personalizado: partir de un corpus de documentos accesibles correctamente etiquetados, generar versiones con formato visual, y entrenar al modelo para revertir ese proceso de forma precisa. Este enfoque podría superar las limitaciones observadas en el enfoque zero-shot actual

OpenAI lanza GPT-5, la última versión de su modelo de IA ChatGPT

AP News. 2025. “OpenAI Launches GPT-5.” August 7. https://apnews.com/article/gpt5-openai-chatgpt-artificial-intelligence-d12cd2d6310a2515042067b5d3965aa1

GPT-5 es la última versión del modelo de lenguaje que impulsa ChatGPT. Representa un salto significativo en capacidades de razonamiento, precisión, velocidad y adaptabilidad. Está diseñado para ofrecer respuestas más útiles, seguras y contextualmente relevantes.

Este modelo representa un avance notable en la capacidad de comprender y resolver tareas complejas, desde problemas matemáticos hasta redacción profesional, programación y análisis en áreas como salud y finanzas.

Entre sus principales novedades, GPT-5 puede ajustar su nivel de “esfuerzo cognitivo” según la tarea, lo que permite respuestas más rápidas o más profundas dependiendo del contexto. También ofrece explicaciones previas antes de utilizar herramientas externas, lo que mejora la transparencia en sus decisiones. Además, se ha optimizado para interactuar de forma más natural y eficiente, adaptándose al estilo y necesidades del usuario sin requerir configuraciones manuales.

El modelo está disponible en distintos planes: gratuito, Plus ($20/mes), Pro ($200/mes) y empresarial. Incluso en la versión gratuita se puede acceder a GPT-5, aunque con

Principales mejoras

  • Razonamiento avanzado: GPT-5 se comporta como un experto con doctorado en múltiples disciplinas. Puede resolver problemas complejos de matemáticas, ciencias, programación y salud.
  • Codificación instantánea: Capaz de generar software funcional completo a partir de simples instrucciones en texto, lo que OpenAI denomina “vibe-coding”.
  • Redacción profesional: Mejora la calidad, coherencia y estilo de textos técnicos, creativos y empresariales.
  • Salud y finanzas: Ofrece respuestas más precisas en temas médicos y financieros, aunque no sustituye a profesionales humanos.
  • Interacción adaptativa: El modelo decide en tiempo real qué priorizar (velocidad, profundidad, estilo) según la tarea, sin necesidad de seleccionar versiones específicas.

ciertas limitaciones.

Sam Altman, CEO de OpenAI, ha comparado su impacto con el del primer iPhone, destacando que aunque el salto respecto a GPT-4 no es radical, GPT-5 sobresale por su fiabilidad y competencia general.

La fiabilidad de ChatGPT en la detección de artículos retractados y la veracidad de la información académica

Thelwall, M., Lehtisaari, M., Katsirea, I., Holmberg, K., & Zheng, E.-T. (2025). Does ChatGPT ignore article retractions and other reliability concerns? Learned Publishing. Advance online publication. https://doi.org/10.1002/leap.2018

El trabajo destaca la necesidad de un uso crítico y cuidadoso de herramientas como ChatGPT en contextos académicos, donde la precisión y la confiabilidad de la información son esenciales.

El estudio examina cómo los modelos de lenguaje grande (LLMs), específicamente ChatGPT 4o-mini, manejan información sobre artículos académicos que han sido retractados o que presentan problemas de confiabilidad. Los autores recopilaron un conjunto de 217 estudios académicos que habían sido retractados o señalados por problemas, todos con alta repercusión en redes sociales (altmetrics). Se pidió a ChatGPT 4o-mini que evaluara la calidad de estos artículos en múltiples ocasiones (un total de 6510 evaluaciones). Sorprendentemente, en ninguna de las respuestas se mencionó que los artículos estaban retractados ni que tenían errores significativos, y en muchas ocasiones se les asignaron calificaciones altas, como «de clase mundial» o «excelente a nivel internacional».

Además, en un análisis complementario, se tomaron 61 afirmaciones extraídas de estos artículos problemáticos y se consultó a ChatGPT si cada una era verdadera. En dos tercios de los casos, el modelo respondió afirmativamente, incluyendo afirmaciones que ya habían sido desmentidas hacía más de diez años. Estos hallazgos ponen de relieve un riesgo importante: aunque los LLMs son cada vez más utilizados para apoyar revisiones académicas y búsquedas de información, no siempre detectan ni advierten sobre la retirada o la invalidez de la información que manejan. Por lo tanto, los usuarios deben ser cautelosos y verificar cuidadosamente cualquier contenido generado por estos modelos para evitar la propagación de información falsa o desactualizada.

Anthropic acelera su defensa de “uso justo” en juicio por derechos de autor de entrenamiento con libros pirateados

Davis, W. (2025, 5 de agosto). Anthropic presses for fast appeal in copyright fight. MediaPost. Recuperado de MediaPost. https://www.mediapost.com/publications/article/407952/anthropic-presses-for-fast-appeal-in-copyright-fig.html

Anthropic, la empresa detrás del chatbot Claude, solicita que un tribunal de apelación federal se pronuncie de inmediato sobre su defensa basada en el “uso justo” (fair use) frente a las acusaciones de infracción de derechos de autor. Los demandantes—las autoras Andrea Bartz, Charles Graeber y Kirk Wallace Johnson—afirmaron que la compañía entrenó el modelo con libros descargados de sitios pirata sin autorización. Anthropic justificó su defensa argumentando que el uso de materiales con fines de entrenamiento de IA constituye «uso justo», independientemente del origen de dichos textos.

Anteriormente, el juez William Alsup determinó que el entrenamiento del modelo con libros adquiridos legalmente fue “altamente transformativo” y, por tanto, protegido bajo fair use. Sin embargo, negó la misma protección en los casos en que se emplearon textos descargados de fuentes ilícitas

Anthropic subraya que el fallo supone un riesgo potencial de responsabilidad económica masiva —cientos de miles de millones de dólares— si el caso continúa como juicio de clase, sin que se clarifiquen primero los lineamientos legales mediante una apelación. La empresa argumenta además que el hecho de que el material se haya adquirido de forma no autorizada no debería invalidar una defensa de fair use, ya que dicho principio existe precisamente para permitir usos sin permiso.

El juez Alsup programó una audiencia para abordar estas peticiones el 28 de agosto de 2025. Además, se ha autorizado que el caso continúe como demanda colectiva en representación de autores cuyos libros fueron descargados desde las bibliotecas pirata LibGen y PiLiMi, aunque con ciertas limitaciones sobre quiénes pueden reclamar

Escribir es pensar: reflexión crítica sobre el papel de la IA en la redacción científica

Writing is thinking. Nat Rev Bioeng 3, 431 (2025). https://doi.org/10.1038/s44222-025-00323-4

El texto subraya que escribir no se reduce a comunicar resultados, sino que es una herramienta esencial para descubrir y ordenar ideas de manera estructurada. Al plasmar pensamientos en palabras, se logra transformar años de investigación en una narrativa coherente que permite definir claramente el mensaje central y el impacto del trabajo científico

Escribir artículos científicos es una parte integral del método científico y una práctica habitual para comunicar los resultados de la investigación. Sin embargo, escribir no consiste únicamente en informar de resultados; también es una herramienta para descubrir nuevos pensamientos e ideas. La escritura nos obliga a pensar —no de la forma caótica y no lineal en la que nuestra mente suele divagar, sino de manera estructurada e intencional—. Al ponerlo por escrito, podemos ordenar años de investigación, datos y análisis en una historia coherente, identificando así nuestro mensaje principal y la influencia de nuestro trabajo. Esto no es solo una observación filosófica; está respaldada por evidencias científicas. Por ejemplo, escribir a mano puede generar una amplia conectividad cerebral y tener efectos positivos sobre el aprendizaje y la memoria.

Aunque los modelos de lenguaje grandes (LLMs) pueden generar artículos y hasta revisiones de pares en pocos minutos, el editorial advierte que carecen de responsabilidad ética y académica. Además, su contenido puede contener errores, como referencias inventadas o hallazgos inexactos (fenómeno conocido como hallucination), lo que exige una verificación exhaustiva

Los LLMs actuales también pueden equivocarse, un fenómeno conocido como alucinación. Por ello, el texto generado por estos modelos debe ser revisado y verificado minuciosamente (incluyendo cada referencia, ya que podría ser inventada). Esto pone en duda cuánto tiempo ahorran realmente los LLMs en la actualidad. Puede resultar incluso más difícil y llevar más tiempo editar un texto generado por un LLM que redactar un artículo o un informe de revisión por pares desde cero, en parte porque para poder editarlo es necesario comprender el razonamiento que hay detrás. Algunos de estos problemas podrían abordarse con LLMs entrenados únicamente con bases de datos científicas, como se describe en un artículo de revisión de Fenglin Liu y su equipo incluido en este mismo número. El tiempo lo dirá.

No obstante, los LLMs pueden tener un papel útil: ayudan a mejorar la gramática y la claridad, especialmente para quienes no son hablantes nativos de inglés. También pueden servir para resumir literatura, estimular la creatividad o superar bloqueos de escritura, Sin embargo, el editorial concluye que delegar completamente la escritura a estos modelos puede impedirnos reflexionar profundamente y elaborar una narrativa memorable, una habilidad valiosa más allá del ámbito académico

NISO publica los resultados de una encuesta sobre IA y sistemas de descubrimiento en bibliotecas

NISO Open Discovery Initiative. Generative Artificial Intelligence and Web‑Scale Discovery: Survey Report. Baltimore, MD: National Information Standards Organization, agosto 2025.

Texto completo

El 5 de agosto de 2025, la National Information Standards Organization (NISO) divulgó los resultados de una encuesta que indagó en las expectativas y desafíos vinculados a la integración de la inteligencia artificial generativa (GenAI) en los sistemas de descubrimiento bibliográfico a gran escala

.

El resultado clave destaca la complejidad de adaptar la IA generativa en las herramientas de descubrimiento de bibliotecas, tal como expresó Ken Varnum, copresidente del comité ODI, señalando la multiplicidad de variables técnicas, éticas y operativas que involucra dicha incorporación .

La encuesta —lanzada en otoño de 2024 y cerrada el 31 de octubre de ese año— fue diseñada para recopilar insights de proveedores de discovery, entidades de contenido y bibliotecas, con el fin de orientar el trabajo futuro del comité en términos de estándares y buenas prácticas

Resultados clave:

  • Preocupación generalizada por la precisión de GenAI: Muchos participantes expresaron inquietud sobre la posibilidad de que GenAI proporcione respuestas inexactas o engañosas en contextos académicos y de investigación.
  • Fuerte interés en el potencial de GenAI: A pesar de las preocupaciones, se reconoce que GenAI podría mejorar la experiencia de búsqueda, generar resúmenes automáticos, responder a preguntas complejas y ofrecer interfaces más intuitivas.
  • Dudas sobre la transparencia algorítmica: Bibliotecas y proveedores demandan mayor claridad sobre cómo GenAI genera sus respuestas y qué fuentes utiliza, para garantizar la confiabilidad y evitar sesgos.
  • Desigual nivel de preparación: Algunas bibliotecas ya están explorando activamente la integración de GenAI, mientras que otras aún no lo consideran una prioridad o carecen de recursos y conocimientos técnicos para hacerlo.
  • Preocupación por la autoría y propiedad intelectual: Se identifican vacíos en torno a quién es responsable del contenido generado por IA, especialmente en servicios que entregan resultados textuales o recomendaciones automáticas.
  • Necesidad urgente de normas y buenas prácticas: Los encuestados coinciden en que se requieren marcos normativos, principios éticos y pautas técnicas claras para integrar GenAI en entornos bibliotecarios sin comprometer la calidad ni la integridad académica.
  • Riesgo de opacidad en los sistemas de descubrimiento: Se teme que al incorporar GenAI sin transparencia, los sistemas de descubrimie

Actualmente, el comité ya está preparando un white paper con recomendaciones basadas en los resultados de la encuesta. Este informe se encuentra en las etapas finales de edición y será presentado próximamente al Comité Temático de Intercambio e Interoperación de Información (IDI)

Profesiones en alto riesgo de sustitución con el avance de la Inteligencia Artificial

Melo, M. Floencia. Las profesiones en alerta roja por el avance de la IA: análisis basado en más de 200,000 conversaciones entre usuarios estadounidenses y Microsoft Copilot en 2024. Visualización: Statista.

Texto completo

Aunque no se prevé una eliminación inmediata de las profesiones con mayor porcentaje de tareas automatizables, el informe anticipa una transformación profunda en la naturaleza de estos trabajos. Los perfiles más expuestos a la inteligencia artificial —como traductores, correctores, escritores o matemáticos— no desaparecerán por completo, pero sí experimentarán un desplazamiento hacia funciones nuevas.

En el centro del análisis de Microsoft Research, basado en más de 200 000 interacciones con su herramienta Copilot, se destaca cómo la inteligencia artificial ya demuestra una capacidad muy elevada para llevar a cabo tareas laborales de alta complejidad en ciertas profesiones. Encabezando la lista, los intérpretes y traductores muestran un potencial de automatización del 98% de sus tareas, mientras que historiadores, correctores de textos y matemáticos presentan un porcentaje igualmente alto, en torno al 91%

Si bien esto no implica la eliminación inmediata de estos trabajos, sí anticipa una transformación profunda de roles, donde los profesionales podrían desplazarse hacia funciones más críticas, como la supervisión, revisión o integración de contenidos generados por la IA. Por ejemplo, un corrector tradicional podría convertirse en un editor especializado en IA, y un traductor podría centrarse en curar matices culturales o contextuales que los modelos aún no captan

Datos clave y observaciones

  • Intérpretes y traductores lideran la lista con un sorprendente 98%, lo que indica que gran parte de sus tareas pueden ser sustituidas por IA, gracias al desarrollo de herramientas avanzadas de traducción automática como DeepL o Google Translate, y modelos como GPT-4.
  • Profesiones ligadas al análisis de datos y lenguaje (historiadores, correctores, escritores, matemáticos) también se sitúan en la zona crítica, con un 91% o más de tareas automatizables. Esto pone de manifiesto que la IA no solo reemplaza tareas repetitivas, sino también funciones intelectuales y creativas.
  • Incluso campos técnicos y manuales, como la programación de máquinas CNC, presentan un alto grado de automatización potencial (90%), lo que sugiere una expansión de la IA más allá del trabajo de oficina.
  • Profesiones con fuerte componente comunicacional y analítico como representantes de ventas y asistentes estadísticos también muestran vulnerabilidad, con un 84–85%.

A pesar de esto, la automatización no se limitaría a tareas mecánicas o repetitivas; también afecta funciones intelectuales antes consideradas exclusivas del intelecto humano—como el análisis, la redacción o la interpretación de datos. Este escenario subraya la necesidad de potenciar habilidades blandas, pensamiento estratégico y creatividad, las cuales siguen escapando a la capacidad de los algoritmos

Además, casi todas las profesiones —incluidas aquellas que parecen menos vulnerables— poseen cierto grado de potencial para colaboración con IA. Esto sugiere una reconversión global, donde lo relevante deja de ser si una tarea puede automatizarse, para enfocarse en qué tareas deben continuar siendo asumidas por el ser humano

La apuesta de Zuckerberg: hacia una superinteligencia personal que transforme nuestra vida (y el negocio de Meta)

Zuckerberg, M. (2025). Personal Superintelligence. Meta. https://www.meta.com/superintelligence/

Mark Zuckerberg ha presentado recientemente una visión ambiciosa y polémica: construir una «superinteligencia personal», una inteligencia artificial que no solo sea más inteligente que los humanos, sino que esté profundamente personalizada para cada usuario.

Mark Zuckerberg está apostando el futuro de Meta —y buena parte de su capital— a la creación de una inteligencia artificial que transforme la relación entre las personas y la tecnología. Esta “superinteligencia personal” promete eficiencia, libertad y una nueva era de experiencias asistidas por IA. Pero también plantea interrogantes críticos sobre la economía de la atención, la privacidad, el modelo de negocio y los riesgos éticos que supone poner un asistente todopoderoso en manos de una compañía con intereses comerciales tan potentes como Meta.

Esta idea fue expuesta tanto en su carta pública titulada Personal Superintelligence (Meta, julio de 2025) como durante la presentación de resultados del segundo trimestre de Meta, donde también se destacó un crecimiento récord de ingresos, impulsado por mejoras en productos gracias a la IA.

En su manifiesto, Zuckerberg describe esta superinteligencia como un asistente que gestionará prácticamente todos los aspectos de la vida diaria del usuario: desde la organización de tareas hasta la creatividad personal, pasando por relaciones sociales, entretenimiento y desarrollo personal. El objetivo declarado es liberar a las personas del tiempo que pasan frente a las pantallas y permitir que vivan experiencias más ricas con la ayuda de interfaces más naturales, como gafas inteligentes. Meta ya ha dado pasos significativos en esa dirección con la popularización de sus gafas Ray-Ban con IA, cuyas ventas se triplicaron en el último año.

Zuckerberg subraya que la ventaja competitiva de Meta reside en su escala: la posibilidad de entrenar sistemas con datos procedentes de miles de millones de usuarios. Esto permitiría crear AIs altamente personalizadas y eficientes, que vayan mucho más allá de los chatbots actuales. En paralelo, Meta ha abierto sus modelos LLaMA 3, lo que fortalece su imagen como impulsora del desarrollo de IA abierta, aunque persisten dudas sobre cuán abierta es realmente esta apertura.

Sin embargo, esta visión no está exenta de tensiones ni contradicciones. Mientras Zuckerberg promete un futuro en el que pasamos menos tiempo frente a pantallas, los propios informes financieros muestran que las mejoras en IA han llevado a un aumento del 5–6% en el tiempo que los usuarios pasan en Facebook e Instagram. Es decir, la IA actual de Meta está siendo usada principalmente para captar atención, no para liberarla. A esto se suma la paradoja de que, si los usuarios pasan menos tiempo en las plataformas, el modelo de negocio basado en publicidad se vuelve menos rentable. Una posible solución sería migrar hacia un sistema de comisiones por transacciones realizadas mediante IA, similar al modelo que Sam Altman propone para ChatGPT.

Además, el término “superinteligencia” ha sido históricamente asociado a advertencias sobre riesgos existenciales. Aunque Zuckerberg matiza que el problema no está en la inteligencia en sí, sino en su mal uso, su visión entra en territorio delicado: el de delegar a una IA decisiones íntimas, emocionales y éticas. La confianza del usuario en Meta será clave para que esta propuesta tenga éxito, y esa confianza, históricamente, ha sido frágil debido a los escándalos de privacidad y manipulación algorítmica.

Más información

Wired. Mark Zuckerberg Details Meta’s Plan for Self-Improving, Superintelligent AI. https://www.wired.com/story/meta-earnings-superintelligence-q2-2025/

Mashable. Zuck outlines Meta’s vision for AI ‘personal superintelligence’. https://mashable.com/article/mark-zuckerberg-outlines-metas-vision-ai-personal-superintelligence

Business Insider. Mark Zuckerberg just shared his vision for ‘personal superintelligence’. https://www.businessinsider.com/mark-zuckerberg-meta-personal-superintelligence-ai-letter-meta-2025-7

The Neuron. Mark releases his vision for “personal superintelligence”. Via The AI Report. 31 de julio de 2025.