Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

¿Se puede confiar en los agentes de IA?

Glikson, Ella Miron-Spektor y David De Cremer. 2025. “Can AI Agents Be Trusted?Harvard Business Review, May 2025. https://hbr.org/2025/05/can-ai-agents-be-trusted

Los agentes personales de inteligencia artificial (IA) están emergiendo como una de las innovaciones más prometedoras y disruptivas en el campo de la IA. Estos sistemas autónomos, basados en modelos de lenguaje de gran escala (LLMs), están diseñados para actuar en nombre de los usuarios, automatizando tareas como la gestión de calendarios, la búsqueda y análisis de información, las compras, la selección de contenidos y la comunicación básica.

Su atractivo radica en su capacidad para razonar, tomar decisiones y aprender de la experiencia, con la posibilidad de optimizarse progresivamente. Empresas como Salesforce ya han implementado versiones de estos agentes en atención al cliente, y compañías líderes están ofreciendo prototipos de agentes personales a sus clientes y socios.

Sin embargo, su despliegue plantea cuestiones fundamentales:

  • ¿Podrán estos agentes actuar verdaderamente en nuestro interés?
  • ¿Serán leales únicamente a sus usuarios o también a sus desarrolladores, anunciantes y proveedores de servicios?
  • ¿Cómo podemos saberlo y confiar en ello?

La respuesta a estas preguntas determinará si los agentes personales de IA fortalecen o dañan las relaciones comerciales, el valor de marca y, sobre todo, la confianza del usuario.

¿Qué podría salir mal? Riesgos de los agentes personales de IA

Uno de los principales riesgos asociados a los agentes personales de inteligencia artificial es su vulnerabilidad ante el crimen. Al igual que un empleado desleal, estos agentes podrían ser hackeados o mal programados para actuar en contra de los intereses de su usuario, exponiéndolo a robos de identidad, fraudes financieros o filtraciones de datos. Pruebas de seguridad realizadas por el Instituto Nacional de Estándares y Tecnología de EE.UU. y por empresas privadas han demostrado que incluso los modelos más sofisticados pueden ser manipulados para ejecutar acciones maliciosas, como revelar contraseñas o enviar correos electrónicos fraudulentos.

Otro peligro importante es la manipulación comercial. Los agentes podrían estar sesgados a favor de productos o servicios promovidos por las empresas que los desarrollan o por sus socios comerciales. En el entorno digital actual ya es común encontrar publicidad encubierta o recomendaciones interesadas, por lo que no es difícil imaginar que estas prácticas se trasladen a los agentes personales, comprometiendo su objetividad y convirtiéndolos en instrumentos de marketing disfrazado de asesoramiento imparcial.

Un riesgo relacionado es la preferencia por anunciantes. En sectores como el entretenimiento, las noticias o las redes sociales, los agentes podrían priorizar contenidos patrocinados en lugar de ofrecer lo que realmente se ajusta a las preferencias del usuario. El modelo de negocio “gratuito” basado en publicidad ya ha demostrado sus limitaciones en medios tradicionales como la radio y la televisión, donde el contenido estaba condicionado por los intereses de los anunciantes. Un ejemplo actual es Spotify: su función de DJ automatizado promete recomendaciones personalizadas, pero permite a los artistas pagar por mayor visibilidad, aunque eso implique aceptar menores regalías. Esto puede influir en las recomendaciones de forma opaca y sin conocimiento del usuario.

La susceptibilidad a la desinformación es otra amenaza crítica. Al igual que los humanos, los agentes de IA pueden ser engañados por información falsa, manipulada o generada mediante técnicas como los “deepfakes”. Ya se han reportado casos en los que la IA ha ofrecido consejos incorrectos o incluso peligrosos, como ocurrió con un pasajero de Air Canada que recibió una falsa promesa de descuento generada por un sistema automatizado. Cuando las decisiones del agente se basan en datos erróneos, las consecuencias pueden ser graves e irreversibles.

¿Cómo construir confianza en los agentes personales de IA?

Evitar una supervisión excesiva que anule la utilidad de estos agentes exige soluciones combinadas de tipo jurídico, técnico y de mercado. Los expertos proponen tres enfoques clave para construir la confianza necesaria.

El primero consiste en tratarlos legalmente como fiduciarios. Así como abogados, asesores financieros o tutores están sujetos a obligaciones de lealtad, confidencialidad y diligencia, los agentes de IA deberían cumplir esos mismos estándares. Esto implicaría regularlos públicamente y establecer mecanismos claros de rendición de cuentas por conflictos de interés, uso indebido de datos o actuaciones negligentes. Algunos expertos sostienen que el marco legal actual ya permitiría aplicar esta figura, y que, de no ser así, existiría consenso político y empresarial para regularlo, dadas sus implicaciones.

El segundo enfoque apunta al impulso de mecanismos de control desde el mercado. El sector privado puede desarrollar seguros, auditorías y herramientas de vigilancia para proteger a los usuarios. Existen ya servicios que alertan sobre robo de identidad o permiten monitorear transacciones financieras; algo similar podría diseñarse para los agentes de IA. Incluso podrían establecerse “burós de crédito” de IA que supervisen su comportamiento y ajusten su nivel de autonomía según las preferencias del usuario. Las aseguradoras también podrían incentivar buenas prácticas ofreciendo coberturas frente a fallos o abusos.

La tercera estrategia es mantener la toma de decisiones a nivel local. Desde el punto de vista técnico, una medida efectiva sería garantizar que los datos sensibles y los procesos de decisión permanezcan en los dispositivos del usuario —como teléfonos, tabletas u ordenadores—, minimizando el riesgo de manipulación externa o robo. Apple ha dado pasos en esta dirección con una arquitectura que procesa la mayoría de la información localmente y, en caso de usar la nube, emplea servidores propios con cifrado, sin almacenar datos personales. Además, permite auditorías independientes de seguridad y privacidad. Otros fabricantes deberían adoptar modelos similares, combinando procesamiento local, cifrado y transparencia verificable. También es clave exigir la divulgación clara de patrocinadores, promociones y publicidad integrada en la actividad del agente.

En conclusión, la llegada de los agentes personales de IA promete transformar radicalmente la manera en que interactuamos con la tecnología, organizamos nuestras tareas cotidianas y tomamos decisiones. Sin embargo, el impacto positivo de esta revolución tecnológica dependerá en gran medida de la confianza que podamos depositar en dichos agentes. Esa confianza no surgirá de forma automática: deberá construirse sobre una base sólida que combine marcos legales apropiados, incentivos de mercado bien diseñados, soluciones técnicas transparentes y una voluntad firme de anteponer los intereses de los usuarios a los beneficios comerciales. Solo entonces podremos considerar que los agentes de IA actúan verdaderamente en nuestro nombre.

Singles salmantinos de 2024, parte 3. Viviendo en la era pop 2025/05/23

Singles salmantinos de 2024, parte 3.

Viviendo en la era pop 2025/05/23

ESCUCHAR

Descargar

Singles salmantinos de 2024, parte 3. Hoy emitimos el 3er recopilatorio de singles de grupos salmantinos publicados en 2024. Escucharemos música variada creada en Salamanca, incluyendo a: Godaiva, faLsantes, Old Virginia, Laura Crimson, Juanjo Valle, Ruido de Fondo, Marco Leonato, Raúl Calvo, CO PAL, Oceandelis Desde el pop y el rock de variado pelaje, hasta la música electrónica y las músicas el mundo, la variedad y calidad de nuestros compositores e intérpretes queda reflejada en esta muestra, que continuará en otro programa, porque aún nos quedan otros cuantos artistas que recopilar

Transformar el aprendizaje con IA generativa: de las percepciones de los estudiantes al diseño de una solución educativa

Mirea, Corina-Marina, Răzvan Bologa, Andrei Toma, Antonio Clim, Dimitrie-Daniel Plăcintă, and Andrei Bobocea. 2025. «Transforming Learning with Generative AI: From Student Perceptions to the Design of an Educational Solution» Applied Sciences 15, no. 10: 5785. https://doi.org/10.3390/app15105785

Se explora cómo la inteligencia artificial generativa, específicamente herramientas como ChatGPT-3.5 y ChatGPT-4, está transformando el proceso de aprendizaje desde la perspectiva de los estudiantes hasta el diseño de soluciones educativas adaptativas.

El estudio se centra en comprender cómo los estudiantes perciben el uso de herramientas de IA generativa en su proceso de aprendizaje y cómo estas herramientas pueden integrarse en sistemas educativos adaptativos para mejorar los resultados académicos.

Los investigadores realizaron una encuesta entre estudiantes para recopilar datos sobre sus experiencias y percepciones al utilizar ChatGPT en sus estudios. Además, analizaron arquitecturas de plataformas de aprendizaje existentes para proponer una nueva arquitectura de sistema de aprendizaje adaptativo que incorpore IA generativa.

El objetivo principal del estudio es doble: por un lado, evaluar cómo los estudiantes perciben el uso de herramientas de IA generativa en su proceso de aprendizaje; por otro, diseñar una arquitectura de sistema de aprendizaje adaptativo que aproveche estas herramientas para crear entornos educativos más eficaces. La investigación parte de un enfoque empírico basado en encuestas a estudiantes universitarios, complementado con un análisis técnico de plataformas de aprendizaje digital existentes. Con base en estos dos pilares —la percepción de los usuarios y el estado del arte tecnológico— los autores desarrollan una propuesta concreta de solución educativa basada en IA.

Los resultados de la encuesta reflejan que una mayoría significativa de estudiantes percibe beneficios concretos en el uso de herramientas como ChatGPT. Entre los aspectos más valorados se encuentran la ayuda para la comprensión de conceptos complejos, el apoyo en la redacción de textos y la posibilidad de resolver dudas de manera inmediata y personalizada. Muchos estudiantes afirmaron que estas interacciones habían tenido un efecto positivo en su rendimiento académico.

También se identificaron algunos riesgos y desafíos, como la dependencia excesiva de la IA, la posibilidad de recibir información incorrecta o sesgada y la disminución del pensamiento crítico si no se usan las herramientas de forma consciente y reflexiva. No obstante, los estudiantes demostraron una actitud crítica y madura, reconociendo que la IA es una herramienta de apoyo y no un sustituto del aprendizaje activo.

A partir de los hallazgos, los autores proponen una arquitectura de sistema de aprendizaje adaptativo que integra IA generativa como núcleo funcional. Esta arquitectura se basa en varios módulos: gestión del conocimiento, personalización del aprendizaje, interacción con el usuario, seguimiento del progreso, evaluación formativa y retroalimentación continua. La IA generativa se utiliza principalmente para generar contenidos personalizados, explicar conceptos según el nivel del estudiante, ofrecer ejercicios prácticos y simular escenarios de aprendizaje.

El sistema está diseñado para aprender del comportamiento y las respuestas del estudiante, adaptándose dinámicamente a sus necesidades, intereses y ritmo de aprendizaje. Esto permite una experiencia educativa más personalizada, motivadora y eficaz. Además, el modelo considera la necesidad de incorporar mecanismos éticos y de verificación de la información generada por la IA.

Estudio de la EUIPO sobre Inteligencia Artificial Generativa y Derecho de Autor

«European Union Intellectual Property Office (EUIPO) Releases Study on Generative Artificial Intelligence and Copyright.» EUIPO News, May 13, 2025.

Texto completo

Este estudio proporciona un marco integral para comprender y gestionar los desafíos legales y técnicos que la inteligencia artificial generativa plantea en el ámbito del derecho de autor en la Unión Europea, buscando un equilibrio entre la innovación tecnológica y la protección de los creadores.

La Oficina de Propiedad Intelectual de la Unión Europea (EUIPO) publicó un estudio detallado sobre la Inteligencia Artificial Generativa (GenAI) y su relación con el derecho de autor. La IA generativa es una tecnología que crea nuevo contenido utilizando contenido preexistente, lo que representa un cambio fundamental en la creación de contenido, ya que no todo es generado exclusivamente por humanos.

Las instituciones como las autoridades nacionales de propiedad intelectual y la EUIPO pueden desempeñar un papel crucial, ofreciendo soporte técnico para que los titulares ejerzan sus derechos y los desarrolladores respeten esas reservas, y soporte no técnico, como campañas de sensibilización, foros de intercambio de información técnica y difusión de información sobre soluciones, tendencias y avances en la materia

Este nuevo paradigma plantea interrogantes urgentes sobre el uso legal de obras protegidas por derechos de autor como datos de entrenamiento para sistemas de IA, y sobre cómo distinguir entre contenido protegido y no protegido por copyright.

El estudio busca profundizar en la comprensión técnica de cómo funciona la IA generativa, además de analizar las soluciones existentes y en desarrollo para aplicar la legislación europea sobre derechos de autor y tecnologías de inteligencia artificial. El análisis abarca aspectos técnicos, legales y económicos, con el fin de apoyar la toma de decisiones informadas por parte de legisladores, desarrolladores y creadores.

La investigación se basó en revisión documental, entrevistas con expertos y análisis exhaustivo de soluciones técnicas y prácticas en el ámbito de la IA generativa, realizado en colaboración con servicios de la Comisión Europea.

Áreas centrales del estudio

  1. Uso de obras protegidas por derechos de autor como datos de entrenamiento para modelos de GenAI:
    La IA generativa necesita grandes cantidades de contenido para entrenarse, lo que implica utilizar obras protegidas por copyright.
  2. Generación de nuevo contenido por sistemas GenAI y las cuestiones legales que esto plantea:
    La creación automática de contenido genera dudas sobre la autoría, la propiedad intelectual y la protección legal.
  3. Implicaciones para creadores, desarrolladores de IA y el ecosistema del derecho de autor:
    El estudio aborda cómo proteger los derechos de los autores, cómo pueden operar los desarrolladores de IA dentro del marco legal, y cómo estas dinámicas afectan al mercado y la innovación.

Principales conclusiones

  • Acceso a contenido de alta calidad: Es fundamental para el desarrollo de servicios de IA generativa. Los modelos de IA necesitan contenido actualizado y especializado para funcionar adecuadamente, lo que ha impulsado la aparición de un mercado directo de licencias donde los desarrolladores de IA obtienen permisos para usar contenido protegido.
  • Desarrollo de soluciones diversas: No existe una solución única para que los titulares de derechos protejan sus obras frente a la IA generativa. Por eso, se están creando diferentes mecanismos:
    • Fase de entrada (INPUT): Mecanismos para que los titulares puedan reservar sus derechos y optar por no permitir el uso de sus obras en técnicas de “text and data mining” (minería de datos y textos).
    • Fase de salida (OUTPUT): Medidas de transparencia para identificar y reconocer el contenido generado por IA.

Informe Horizon 2025 sobre tendencias y desafíos en la Educación Superior

EDUCAUSE. 2025 EDUCAUSE Horizon Report | Teaching and Learning Edition. EDUCAUSE, 2025.

Texto completo

El 2025 EDUCAUSE Horizon Report | Teaching and Learning Edition ofrece una visión detallada de las tendencias emergentes, tecnologías clave y prácticas pedagógicas que están moldeando el futuro de la educación superior. El informe destaca cómo las instituciones educativas están navegando en un entorno caracterizado por una compleja interacción de factores globales, tecnológicos y sociales.

La educación superior atraviesa un momento marcado no por una única crisis, sino por una superposición compleja de tendencias globales. Desde la inestabilidad climática hasta los cambios en la economía mundial, las instituciones enfrentan presiones que van más allá de los propios campus. Además, estudiantes, educadores e instituciones se enfrentan a retos internos como la evolución en las expectativas de los alumnos, cambios demográficos, ajustes en el mercado laboral y debates persistentes sobre el valor real de la educación superior.

La rápida evolución tecnológica, especialmente en inteligencia artificial (IA) y realidad virtual (RV), está transformando no solo cómo los estudiantes interactúan con los contenidos, sino también la comprensión de la cognición y la manera en que se documenta y valora el aprendizaje. Paralelamente, los entornos políticos y regulatorios cambian, desafiando y redefiniendo el papel que la educación superior juega en la sociedad. En conjunto, estos factores configuran un panorama en el que la educación superior ya no puede permitirse evolucionar lentamente.

Este informe refleja ese espíritu de transformación mediante un análisis de tendencias emergentes, tecnologías clave, prácticas innovadoras y escenarios futuros posibles. La información proviene de un panel global de expertos que, con conocimientos diversos y metodologías rigurosas, exploran cómo y por qué ocurren estos cambios, además de los retos y oportunidades que enfrentan las instituciones hoy para modelar la educación del futuro.

Tendencias emergentes:

El informe identifica varias tendencias sociales, tecnológicas, económicas, ambientales y políticas que están influyendo en la educación superior. Estas incluyen la transformación digital acelerada, el aumento de la inteligencia artificial en la enseñanza y el aprendizaje, y las cambiantes expectativas de los estudiantes respecto a la flexibilidad y la accesibilidad de los contenidos educativos.

Tecnologías y prácticas clave:

Entre las tecnologías destacadas se encuentran las herramientas de inteligencia artificial para la enseñanza, el desarrollo profesional del profesorado en el uso de la IA generativa, la gobernanza de la IA, el refuerzo de la ciberseguridad, la evolución de las prácticas docentes, la alfabetización digital crítica y la integración de la tecnología en la enseñanza y el aprendizaje.

Escenarios futuros:

El informe presenta cuatro escenarios posibles para el futuro de la educación superior: Crecimiento, Restricción, Colapso y Transformación. Cada escenario explora diferentes trayectorias que las instituciones podrían seguir en respuesta a las tendencias y desafíos identificados.

¿Qué conocimiento perdimos con el incendio de la Biblioteca de Alejandría?

History Facts. “What Knowledge Did We Lose With the Library of Alexandria?” History Facts. Accedido el 19 de mayo de 2025. https://www.historyfacts.com/arts-culture/article/what-knowledge-did-we-lose-with-the-library-of-alexandria

La historia de la Biblioteca de Alejandría suele relatarse como una tragedia única y repentina, un incendio catastrófico que destruyó siglos de saber. Sin embargo, esta visión es más mito que realidad. La destrucción de la biblioteca no ocurrió de golpe, sino que fue un proceso gradual que se extendió a lo largo de varios siglos. Lo que sí es cierto es que la Biblioteca de Alejandría fue uno de los mayores y más importantes centros de conocimiento de la Antigüedad, y su pérdida representa un golpe irreparable para la historia intelectual de la humanidad.

Se cree que fue fundada en el siglo III a.C. durante el reinado de Ptolomeo II, como parte del Mouseion de Alejandría, un instituto de investigación dedicado a las musas (de ahí la palabra «museo»). Esta biblioteca tenía un objetivo ambicioso: recopilar todo el conocimiento del mundo conocido. Durante alrededor de 600 años, fue un símbolo de sabiduría y cultura.

Uno de los episodios más famosos es el supuesto incendio que habría destruido la biblioteca durante la ocupación de Julio César en el año 48 a.C. Según algunas versiones, al prender fuego a los barcos enemigos en el puerto, el fuego se habría extendido hasta los depósitos de libros. Pero esto no significó la destrucción total del acervo. La biblioteca decayó poco a poco, influida por el declive de Alejandría como centro cultural. Sus libros fueron vendidos o destruidos, sus edificios transformados en iglesias o mezquitas, y su legado se fue desvaneciendo con el tiempo.

Aunque no se sabe con certeza qué se perdió, se estima que la biblioteca albergó entre 200.000 y 700.000 volúmenes. La mayoría estaban escritos en griego, aunque también se conservaban textos en egipcio y otros idiomas. Incluía obras fundamentales de autores clásicos como Platón, Aristóteles, Pitágoras, Heródoto, Esquilo, Sófocles y Eurípides, además de tratados médicos de Hipócrates y textos científicos de pensadores como Tales, Demócrito y Anaximandro. La colección también contenía comentarios, monografías y otras obras menores que reflejaban la profundidad de la cultura literaria de la época.

Según el historiador Garrett Ryan, los textos más importantes solían estar disponibles también en otras bibliotecas, por lo que no todo el saber desapareció. Lo que realmente se perdió con la Biblioteca de Alejandría fueron obras menos conocidas: comentarios, tratados filosóficos menores y documentos únicos que no tenían otras copias.

Un caso emblemático es el de Safo de Lesbos, poetisa griega que escribió cerca de 10.000 versos reunidos en nueve libros que, según se cree, estaban en Alejandría. Hoy solo se conservan unos 650 versos. Aunque no hay pruebas concluyentes de que sus obras se perdieran exclusivamente en la biblioteca, su caso simboliza las muchas voces y pensamientos que se esfumaron con el paso del tiempo.

La Biblioteca de Alejandría se ha convertido en un poderoso símbolo de la fragilidad del conocimiento humano. Cada pergamino perdido —ya sea por fuego, descuido o deterioro— representa una historia que no se contó, un descubrimiento que se olvidó, un pensamiento que no se desarrolló. Por eso, su legado no es solo el de lo que fue, sino también el de la urgencia de proteger el conocimiento para las generaciones futuras.

Rebeca Hernández presenta «La Madreselva». Planeta Biblioteca 20/05/21

Rebeca Hernández presenta «Madreselva»

Planeta Biblioteca 20/05/21

ESCUCHAR

Descargar

La escritora Rebeca Hernández nos invita a adentrarnos en La madreselva, su nueva novela, delicada y profundamente humana, que se despliega como un susurro íntimo al oído del lector. En sus páginas se entretejen recuerdos, intuiciones y ficciones con la naturalidad de quien ha habitado durante mucho tiempo sus propios silencios. Concebida como un diario sentimental, la obra rinde homenaje a la tradición de la novela intimista del siglo XIX, pero desde una sensibilidad contemporánea, lúcida y vulnerable a la vez.

La madreselva no es solo una narración, sino un espacio de diálogo interior en el que la voz narrativa se enfrenta a sus emociones más crudas y sinceras. Rebeca Hernández nos guía con delicadeza por los intrincados senderos del amor, ese sentimiento que tantas veces se resiste a ser nombrado, y por la dificultad de comunicarse —no solo con los otros, sino con uno mismo— sin máscaras, sin atajos.

La madreselva es también una meditación sobre la pérdida, sobre las formas que adopta el duelo y las huellas que deja en el cuerpo y en la memoria. Es una búsqueda de sentido en medio de la melancolía, una exploración honesta de la subjetividad de los sentimientos, sin caer en el dramatismo, pero sin renunciar a la profundidad.

Algunos periódicos importantes de Estados Unidos publican una lista de lecturas recomendadas para el verano con autores y obras ficticias generadas por IA

Blair, Elizabeth. “How an AI-Generated Summer Reading List Got Published in Major Newspapers.NPR, May 20, 2025. https://www.npr.org/2025/05/20/nx-s1-5405022/fake-summer-reading-list-ai

El 20 de mayo de 2025, NPR informó que varios periódicos estadounidenses, incluidos el Chicago Sun-Times y una edición del Philadelphia Inquirer, publicaron una lista de lectura de verano que contenía títulos de libros ficticios atribuidos a autores reales. Esta lista fue generada parcialmente por inteligencia artificial y distribuida por King Features, una unidad de Hearst Newspapers.

En un episodio reciente que pone de relieve los crecientes retos en la era de la inteligencia artificial, varios medios estadounidenses de renombre publicaron una lista de libros recomendados para el verano, entre los que se incluían títulos completamente inventados, pero atribuidos a autores reales y prestigiosos. La lista fue elaborada por King Features, una filial de Hearst Newspapers, y distribuida a sus periódicos asociados como parte de un paquete editorial estacional.

La lista se presentó como una selección de “libros esenciales para el verano”, pero contenía falsedades sorprendentes: títulos ficticios atribuidos a autores reales como Isabel Allende, Percival Everett y Cormac McCarthy, entre otros. Por ejemplo, uno de los libros inventados fue Tidewater Dreams de Allende, que no existe. Solo 5 de los 15 libros recomendados eran auténticos.

El contenido fue redactado por Marco Buscaglia, un colaborador independiente habitual. Buscaglia admitió haber utilizado una herramienta de inteligencia artificial (cuya identidad no se especifica en el artículo) para generar sugerencias literarias, y reconoció que no verificó si los títulos realmente existían. Esta falta de comprobación permitió que los títulos ficticios pasaran desapercibidos hasta que varios lectores y profesionales del mundo editorial empezaron a señalar errores tras la publicación.

Tanto el Chicago Sun-Times como el Philadelphia Inquirer, dos de los periódicos que publicaron la lista, han respondido asegurando que no fueron responsables directos del contenido, ya que este provenía del servicio editorial de King Features. Ambos medios han revisado internamente lo sucedido y se han comprometido a implementar controles más estrictos para evitar la publicación de información generada por IA sin revisión humana.

Este incidente ha generado un intenso debate sobre la ética y la práctica del uso de herramientas de IA en el periodismo. Aunque su uso puede ser eficiente, especialmente en tareas rutinarias o de apoyo, esta situación demuestra los peligros de confiar en la IA para generar contenido sin validación. La precisión, la reputación de los medios y la confianza del público están en juego.

También plantea interrogantes sobre la relación entre las agencias de contenido sindicadas y los periódicos locales. Al depender de servicios externos para llenar espacio en sus páginas —especialmente en secciones como cultura o estilo de vida— los medios corren el riesgo de ceder parte del control editorial y de comprometer su credibilidad si no ejercen la debida supervisión.

Los medios implicados han iniciado una reflexión sobre cómo deben gestionarse las colaboraciones con creadores de contenido y cómo utilizar la inteligencia artificial sin poner en riesgo la exactitud y la responsabilidad informativa. El caso también es un ejemplo de cómo el público, cada vez más atento y crítico, puede detectar errores que escapan a los filtros editoriales.

Este caso evidencia los límites del uso de la IA generativa en periodismo, sobre todo cuando no se combina con una revisión editorial rigurosa. La confianza en los medios, ya erosionada por otros factores en los últimos años, se ve aún más amenazada por errores de este tipo, que pueden parecer triviales, pero que en el fondo comprometen principios fundamentales como la veracidad y la responsabilidad.

El 51.8% de las citas proporcionadas por ChatGPT son inventadas, falsas o inexistentes

Oladokun, Bolaji David, Rexwhite Tega Enakrire, Adefila Kolawole Emmanuel, Yusuf Ayodeji Ajani, y Adebowale Jeremy Adetayo. “Hallucination in Scientific Writing: Exploring Evidence from ChatGPT Versions 3.5 and 4o in Responses to Selected Questions in Librarianship.” Journal of the Association for Information Science and Technology, publicado en línea el 20 de abril de 2025. https://doi.org/10.1080/19322909.2025.2482093

El uso acelerado de la inteligencia artificial (IA) en la redacción académica, especialmente con herramientas como ChatGPT, ha generado preocupaciones importantes sobre la veracidad y la precisión de los contenidos generados por estas tecnologías. En particular, un fenómeno llamado “alucinación” —que se refiere a la invención o fabricación de información, en este caso, citas bibliográficas falsas o inexistentes— representa un riesgo significativo para la calidad y la confiabilidad de los trabajos científicos.

Este estudio se centra en analizar cómo se manifiesta esta alucinación en dos versiones de ChatGPT, la 3.5 y la 4o, cuando se les plantea preguntas relacionadas con la bibliotecología y ciencias de la información. Para ello, los autores diseñaron un experimento en el que ChatGPT generó contenido científico con citas, las cuales fueron posteriormente verificadas de forma sistemática a través de Google Scholar y los sitios web oficiales de las editoriales.

Los resultados fueron preocupantes: ambas versiones de ChatGPT presentaron un alto porcentaje de citas falsas o no existentes. En concreto, la versión 3.5 fabricó un 42,9% de citas inexistentes, mientras que la versión 4o aumentó este porcentaje hasta el 51,8%. Aunque hubo una ligera mejora en la precisión de las citas reales, con tasas de acierto del 3,92% en la versión 3.5 y del 6,35% en la versión 4o, estas cifras son muy bajas y evidencian limitaciones graves en ambos modelos.

Las diferencias entre las versiones también fueron notables en el tipo de errores cometidos: ChatGPT 3.5 tendía a inventar fuentes completamente ficticias, mientras que ChatGPT 4o generaba errores más sutiles, como citar artículos reales pero atribuyéndolos a revistas incorrectas o mezclando detalles bibliográficos. Esto implica que, aunque la versión más avanzada pueda parecer más sofisticada, los riesgos de información errónea persisten y pueden pasar desapercibidos con mayor facilidad.

Finalmente, el estudio concluye que no existe una diferencia estadísticamente significativa en la precisión entre las dos versiones evaluadas, lo que subraya la importancia de no confiar ciegamente en las citas generadas por IA en la redacción científica. Los autores llaman a una verificación rigurosa y crítica de todo contenido bibliográfico producido por inteligencia artificial, con el fin de preservar la integridad y la credibilidad de la investigación académica.

Wiley defiende los derechos de autor frente al uso no autorizado de contenidos en la inteligencia artificial

Wiley. 2025. Wiley Position Statement on Illegal Scraping of Copyrighted Content by AI Developers. May 7, 2025. https://www.wiley.com/en-us/position-statement-ai-scraping

En su declaración oficial, Wiley —una de las editoriales académicas más antiguas y reconocidas del mundo— reafirma su postura firme en defensa de los derechos de propiedad intelectual ante el creciente uso de contenidos protegidos en el entrenamiento de modelos de inteligencia artificial. Subraya que la innovación tecnológica debe avanzar de la mano de prácticas éticas y legales, especialmente en lo que respecta al uso de obras creadas por autores, investigadores y comunidades académicas.

Wiley comienza recordando su compromiso histórico con la creación y difusión del conocimiento, destacando que este progreso solo es posible si se respeta el trabajo intelectual de quienes generan contenidos. Reconoce el valor transformador de la inteligencia artificial para la investigación y el descubrimiento, pero advierte que dicho avance debe asentarse sobre una base de respeto a los derechos de autor, atribución adecuada y compensación justa.

En este sentido, la editorial exige que los desarrolladores de IA soliciten autorización expresa antes de utilizar materiales de su propiedad o publicados en colaboración con sus socios. Wiley deja claro que no existe ningún tipo de permiso implícito, y que todos los derechos están reservados, salvo que se obtenga una licencia formal.

Además, se insiste en que la atribución transparente y la trazabilidad del origen de los datos son principios clave del desarrollo ético de IA. Wiley ha desarrollado marcos de licenciamiento flexibles y adaptables, que permiten a los desarrolladores acceder de forma legal a contenidos protegidos, en función de sus necesidades específicas.

El comunicado también subraya que ya existen numerosos acuerdos exitosos entre editoriales científicas (STM y comerciales) y empresas de IA, incluidos acuerdos firmados por la propia Wiley. Estos pactos demuestran que el mercado de licencias de contenidos para IA no solo es viable, sino que ya está en funcionamiento.

Más allá del aspecto legal, Wiley resalta el valor de establecer colaboraciones activas con la comunidad de desarrolladores de IA para promover estándares compartidos que incluyan transparencia, citación adecuada, atribución y procedencia de los datos. Esto no solo garantiza el respeto por los creadores, sino que también contribuye a generar confianza entre los usuarios de sistemas de IA.

En conclusión, Wiley aboga por un ecosistema sostenible donde la tecnología y la creatividad humana coexistan armónicamente. La editorial invita a autores, investigadores, desarrolladores éticos de IA y otras editoriales a participar activamente en la construcción de un marco de innovación responsable, donde los derechos de los creadores sean preservados y reconocidos como base de cualquier avance significativo en el campo de la inteligencia artificial.