Archivo por meses: noviembre 2025

Código de Buenas Prácticas en el Uso Justo para Bibliotecas universitarias y de Investigación

Association of Research Libraries, Code of Best Practices in Fair Use for Academic and Research Libraries (Washington, DC: ARL, enero de 2012)

Texto completo

El documento presenta un conjunto de buenas prácticas desarrolladas por y para bibliotecas académicas e investigadoras en Estados Unidos para orientar la aplicación de la doctrina de “uso justo” (fair use) en el entorno bibliotecario.

Desde su introducción, el texto explica que el uso justo es un derecho flexible que permite el uso de materiales protegidos por derechos de autor sin permiso ni pago bajo ciertas circunstancias, cuando el beneficio social o cultural prevalece.

Reconoce que la ley de derechos de autor no ofrece fórmulas rígidas y que la evaluación de si un uso es justo depende del contexto, los hechos, las normas del campo y del juicio de buena fe.

El código organiza su orientación alrededor de ocho situaciones recurrentes en las que las bibliotecas académicas pueden aplicar el uso justo. Estas situaciones incluyen, entre otras: facilitar el acceso a materiales de la biblioteca mediante tecnologías digitales para la enseñanza y el aprendizaje; emplear fragmentos de la colección para exposiciones o difusión de actividades de la biblioteca; digitalizar materiales en riesgo; poner a disposición colecciones especiales archivísticas en formato digital; reproducir materiales para usuarios con discapacidades; preservar la integridad de los trabajos depositados en repositorios institucionales; crear bases de datos para investigación no consumptiva (por ejemplo, búsqueda, análisis de datos); y recolectar material publicado en la web para uso académico.

Para cada situación, el código ofrece un principio (que afirma que en esa circunstancia es “uso justo”), junto con limitaciones (factores que reducen la fuerza del argumento de uso justo) y mejoras (prácticas que fortalecen dicho argumento). Por ejemplo, en el contexto de la enseñanza digital, se sugiere que el acceso esté limitado a estudiantes matriculados, durante la duración del curso, con atribución completa, y que se ofrezca justificación pedagógica por parte del instructor.

Asimismo, el documento destaca que su objetivo no es restringir la aplicación del uso justo, sino habilitarla dentro del marco de riesgo razonable, ayudando a las bibliotecas a desarrollar una estrategia de gestión de riesgos basada en criterios comunitarios.
Association of Research Libraries

En definitiva, este código se presenta como una herramienta de apoyo para bibliotecas universitarias e investigadoras, aportando un consenso profesional sobre cómo pueden ejercer el uso justo con responsabilidad, transparencia y coherencia institucional.

Varias demandas contra OpenAI acusan a ChatGPT de inducir a suicidios y delirios

Associated Press. “Lawsuits accuse OpenAI of driving people to suicide and delusions.” AP News, November 1, 2025. https://apnews.com/article/openai-chatgpt-lawsuit-suicide-56e63e5538602ea39116f1904bf7cdc3

Se han presentado varias demandas contra OpenAI, la empresa creadora del chatbot ChatGPT, en las que se alega que dicho sistema de inteligencia artificial habría contribuido a causar daños psicológicos graves en algunos usuarios, tales como delirios, ideación suicida e incluso suicidios.

Estas acciones legales sostienen que el chatbot respondió a personas vulnerables sin suficientes salvaguardas adecuadas, alentándolas de forma pasiva o activa a comportamientos de autolesión o suicidio.

Los demandantes argumentan que OpenAI permitió o no evitó que el modelo generara respuestas perjudiciales en contextos de salud mental: por ejemplo, que ChatGPT no derivó al usuario a ayuda profesional, que validó pensamientos suicidas o facilitó consejos prácticos para el suicidio, en lugar de intentar proteger al usuario o exigir intervención. Estas quejas señalan fallos en la detección de crisis, empoderamiento del usuario vulnerable y falta de filtros o protocolos sólidos para prevenir daños.

Por su parte, OpenAI ha respondido expresando condolencias por los hechos mencionados y afirmando que el chatbot incorpora avisos de crisis y derivaciones a líneas de ayuda, pero admite que en conversaciones largas o muy personalizadas los mecanismos de seguridad pueden degradarse. Además, la empresa apunta que los daños individuales no pueden atribuirse de forma automática solo al uso de la IA, ya que intervienen múltiples factores clínicos, psicológicos y de contexto.

El artículo también advierte que este caso pone de relieve un desafío mayor: la dificultad de regular la IA conversacional y asignar responsabilidades claras cuando un sistema interactivo genera contenido que puede inducir a daños. Las empresas tecnológicas, reguladores y sociedad civil deben considerar cómo implementar controles, auditorías y protocolos efectivos para minimizar riesgos, especialmente entre poblaciones vulnerables (menores, personas con trastornos mentales, aislamiento social). El litigio contra OpenAI podría establecer precedentes legales sobre la “responsabilidad por daños” en sistemas de IA generativa.

Código de conducta para estudiantes propuesto por Harvard para la IA

Harvard University and metaLAB (at) Harvard. Proposed Harvard AI Code of Conduct. Cambridge, MA: Harvard University, July 2023. Accessed [día mes año]. https://aicodeofconduct.mlml.io/assets/files/ai_code_of_conduct.pdf

Proposed Harvard AI Code of Conduct está centrada en el uso de herramientas de IA generativa por estudiantes en tareas académicas. Esta no plantea una prohibición general, sino que apuesta por políticas específicas por curso.

Harvard propone que el uso de la IA en educación no sólo sea visto como una amenaza, sino como una oportunidad para repensar qué y cómo enseñamos: qué habilidades tienen mayor valor en un mundo donde la IA hace ciertas tareas tradicionalmente académicas.

“Proposed Harvard AI Code of Conduct” es un documento elaborado en 2023 con el propósito de guiar el uso responsable de herramientas de inteligencia artificial generativa dentro del ámbito académico de la Universidad de Harvard. Su objetivo no es imponer una prohibición general, sino establecer principios flexibles que permitan a cada profesor definir su propia política sobre el uso de la IA en sus cursos, con el apoyo institucional necesario para garantizar coherencia, ética e integridad académica.

El texto parte de la idea de que la IA ya forma parte de la vida académica y profesional, por lo que el enfoque adecuado no es evitarla, sino aprender a convivir con ella y a utilizarla con responsabilidad. Para ello, se propone que cada curso de Harvard cuente con una política escrita que indique claramente a los estudiantes qué usos de la IA están permitidos, cuáles están restringidos y cómo afectará su utilización a la evaluación del aprendizaje. Estas políticas deben revisarse periódicamente, dado el rápido avance de la tecnología.

El documento recomienda que las normas sobre IA se integren dentro del código de honor académico y se gestionen en colaboración con órganos como el Harvard College Honor Council. Se insiste en que las políticas deben distinguir entre distintos tipos de herramientas —por ejemplo, modelos de lenguaje o generadores de imágenes— y que no se deben usar detectores automáticos de texto generado por IA como única prueba en casos de posible infracción, ya que su fiabilidad es limitada. Además, se subraya la importancia de ofrecer materiales educativos que ayuden a profesores y estudiantes a comprender tanto las capacidades como los riesgos de estas herramientas.

El código incluye también una serie de plantillas diseñadas para facilitar la implementación de políticas claras en cada asignatura. Entre ellas, se propone exigir que los estudiantes reconozcan y citen explícitamente el uso de herramientas de IA en sus trabajos académicos, explicando cómo las han empleado y evaluado los resultados obtenidos. También se ofrecen cuatro niveles de política posibles, que van desde la autorización total del uso de IA (con la obligación de citarla) hasta su prohibición completa, pasando por modalidades intermedias en las que su uso está permitido solo en fases específicas del trabajo o bajo indicaciones concretas del docente.

En conjunto, el código de conducta propuesto por Harvard busca equilibrar la innovación con la integridad. Promueve una cultura académica que fomente la experimentación y el pensamiento crítico, pero dentro de un marco ético y transparente. Su espíritu es preparar a la comunidad universitaria para un futuro en el que la inteligencia artificial será una herramienta habitual, ayudando a que profesores y estudiantes aprendan no solo a usarla, sino también a cuestionarla, evaluarla y citarla de manera adecuada.

Este enfoque puede servir como referencia útil para otras instituciones educativas —incluidas las bibliotecas universitarias— que deseen desarrollar sus propias guías o programas de alfabetización en IA, especialmente en temas relacionados con la citación, la autoría, la integridad académica y la educación ética en entornos digitales.

Los puntos principales del Proposed Harvard AI Code of Conduct son:

  1. No prohíbe la IA, sino que promueve su uso responsable y regulado por curso.
  2. Integra el uso de la IA dentro del código de honor académico de Harvard.
  3. Exige que cada asignatura defina y comunique su política sobre IA por escrito.
  4. Distingue entre tipos de herramientas (texto, imagen, código, etc.).
  5. Desaconseja usar detectores de IA como única prueba de infracción.
  6. Obliga a reconocer y citar cualquier uso de herramientas de IA.
  7. Ofrece cuatro niveles de política: permitido, parcial, autorizado o prohibido.
  8. Promueve la formación ética y técnica sobre IA para estudiantes y docentes.
  9. Recomienda revisar y actualizar las políticas periódicamente.
  10. Fomenta una cultura de transparencia, responsabilidad y pensamiento crítico ante la IA.

Singles salmantinos 2025, parte 1, con David de Carameloraro. Viviendo en la era pop 2025/11/07

Singles salmantinos 2025, parte 1, con David de Carameloraro.

Viviendo en la era pop 2025/11/07

Escuchar

Descargar

Singles salmantinos 2025, parte 1 Hoy presentamos el primer recopilatorio de canciones de músicos salmantinos publicadas en 205, con 9 canciones de estilos variados, pero siempre interesantes e incluso sorprendentes. Escucharemos el rock en directo de Al Límite , el soul de Orca, flamantes ganadores del VI Concurso Municipal de Bandas de Salamanca, la balada pop-rock de Juanjo Valle, el rock de CarameloRaro, el folclore charro deconstruido de Natalia Palencia, el pop ochentero de Playas de Alejandría, el sorprendente giro estilístico de No Cantes Victoria, y el folclore-trap de Lemus. En el estudio nos acompaña David Hernández, de CarameloRaro, que además, nos hablará de su última actuación en la sala B del CAEM, de sus próximos conciertos, grabaciones y proyectos.

La soledad acorta la vida hasta en ocho años menos por falta de vínculos sociales

Holt-Lunstad, J., Smith, T. B., Baker, M., Harris, T., & Stephenson, D. (2015). Loneliness and Social Isolation as Risk Factors for Mortality: A Meta-Analytic Review.Perspectives on Psychological Science, 10(2), 227-237. DOI: 10.1177/1745691614568352.

Texto completo

La soledad, el aislamiento social o vivir solo aumentan el riesgo de muerte prematura en un 26–32 %. Equivale a perder entre 5 y 8 años de vida, un impacto similar al de fumar 15 cigarrillos al día o padecer obesidad severa. Otros estudio de Harvard y de la OMS corroboran estos datos con conclusiones similares

El ser humano es un organismo inherentemente social, y que las relaciones interpersonales tienen un papel crucial en la salud y la supervivencia. Los investigadores destacan que, aunque la medicina y la salud pública suelen centrarse en factores de riesgo físicos (como el tabaco o la obesidad), el aislamiento social y la soledad también tienen un impacto sustancial en la mortalidad, pero históricamente se les ha prestado poca atención.

El objetivo del estudio fue cuantificar el grado en que la soledad, el aislamiento social y el hecho de vivir solo se asocian con un aumento del riesgo de muerte prematura, integrando la evidencia de decenas de estudios longitudinales. Con este metaanálisis, los autores pretendían situar la falta de vínculos sociales al mismo nivel de relevancia que los factores biomédicos tradicionales en la prevención y promoción de la salud.

El metaanálisis abarcó 70 estudios que, en conjunto, incluyeron a más de 3,4 millones de participantes seguidos durante un promedio de 7 años.

Los resultados fueron consistentes y contundentes. Las tres dimensiones analizadas se asociaron de manera significativa con un mayor riesgo de muerte prematura. En primer lugar, el aislamiento social se relacionó con un aumento del 29 % en el riesgo de mortalidad. Por su parte, la soledad mostró un incremento del 26 % en dicho riesgo. Finalmente, el hecho de vivir solo se asoció con un aumento aún mayor, del 32 %, en la probabilidad de fallecer de forma prematura.

En términos de impacto poblacional, estas cifras son comparables a los efectos del tabaquismo moderado, el consumo excesivo de alcohol o la obesidad grave. Los autores subrayan que la magnitud de estos efectos supera la de muchos factores de riesgo clínicos comúnmente reconocidos, lo que convierte a la conexión social en un determinante clave de la salud y la longevidad.

Además, el efecto no se limitó a grupos de edad específicos: tanto adultos jóvenes como mayores se vieron afectados, aunque la prevalencia de aislamiento y soledad tiende a aumentar con la edad.

En el plano biológico, la falta de conexión social activa respuestas de estrés crónico (elevación del cortisol, aumento de la presión arterial, inflamación sistémica) y altera la función inmunitaria, debilitando la resistencia a infecciones y enfermedades. En el plano psicológico y conductual, las personas aisladas son más propensas a hábitos poco saludables (mala alimentación, sedentarismo, abuso de sustancias) y presentan menor adherencia a tratamientos médicos o autocuidado.

También se observa que la soledad puede agravar trastornos mentales como la depresión o la ansiedad, que a su vez tienen efectos negativos sobre la salud física. Los autores destacan la interdependencia entre los factores psicológicos, sociales y fisiológicos en la explicación de la mortalidad.

El metaanálisis sitúa estos resultados en un contexto más amplio, señalando que desde mediados del siglo XX se ha observado un declive progresivo en la integración social: menos matrimonios, mayor movilidad geográfica, familias más pequeñas y una creciente digitalización de las relaciones. Este cambio estructural en las formas de convivencia hace que el aislamiento y la soledad sean problemas sociales en expansión, no solo individuales.

Otros estudios más recientes también corroboran en parte estos datos. cómo un informe de la Organización Mundial de la Salud (2025), según el cual la soledad y el aislamiento social representan un grave problema de salud pública. Se calcula que ambos factores contribuyen a unas 871 000 muertes anuales en todo el mundo. Esto equivale a alrededor de 100 fallecimientos por hora. El dato refleja el impacto que tiene la falta de vínculos sociales en la salud física y mental. La OMS advierte que combatir la soledad debe ser una prioridad global comparable a otras amenazas sanitarias.

Así mismo, el informe Harvard Study of Adult Development (2020) demuestra que mantener relaciones sociales sólidas es clave para una vida más larga y saludable, ya que las personas con vínculos afectivos fuertes presentan mejor salud mental y física. En cambio, la soledad y el aislamiento se asocian con un mayor riesgo de enfermedad y mortalidad. El impacto positivo de las relaciones cercanas puede traducirse en más de 10 años adicionales de esperanza de vida, lo que subraya que la calidad de las relaciones humanas influye más en el bienestar general que los factores económicos o genéticos.

También, un artículo del National Institute on Aging explica que tanto el aislamiento social como la soledad en personas mayores afectan seriamente la salud física y mental. Estas condiciones incrementan la probabilidad de hipertensión, depresión, deterioro cognitivo e incluso demencia. Además, subraya que la falta de conexiones sociales es comparable en impacto con otros factores de riesgo clásicos para la mortalidad. Por tanto, promover vínculos sociales sólidos y frecuentes se presenta como una estrategia clave para mejorar el bienestar y la longevidad en la población de edad avanzada.

Los autores hacen un paralelismo con las campañas de salud pública contra el tabaco o la obesidad, y argumentan que la falta de vínculos sociales debería tratarse con la misma seriedad. Las relaciones personales, según subrayan, no son solo un aspecto emocional, sino un determinante clínico de salud.

Mensajes internos de OpenAI podrían costarle miles de millones en demandas por derechos de autor

OpenAI’s Internal Slack Messages Could Cost It Billions in Copyright Suit.” Sherwood News, [fecha de publicación]. https://sherwood.news/power/openais-internal-slack-messages-could-cost-them-billions-in-copyright-suit/

El artículo analiza cómo OpenAI se encuentra en una situación altamente comprometida debido a comunicaciones internas —especialmente mensajes de Slack y correos electrónicos— que han sido reveladas durante un litigio por infracción de derechos de autor.

Los demandantes, un grupo de autores y editoriales, han obtenido acceso a ciertas conversaciones internas en las que se discute el uso de un conjunto de datos formado por obras con copyright sin licencia, así como la eliminación posterior de dicho material. Dichas evidencias podrían indicar no solo infracción, sino también conducta intencionada, lo que eleva el riesgo de que OpenAI tenga que pagar compensaciones extraordinarias.

El texto señala que, si se demuestra que OpenAI actuó sabiendo que utilizaba obras protegidas sin permiso, la empresa podría enfrentarse a daños punitivos de hasta 150.000 dólares por obra individual —una cifra que, multiplicada por millones de obras, podría ascender a miles de millones de dólares en pasivos potenciales. Además, el hecho de que se hayan eliminado datos y de que ciertas comunicaciones sobre esa eliminación estén siendo investigadas, abre la posibilidad de sanciones graves, como instrucciones desfavorables al jurado o la imposición de que se asuma que la conducta fue deliberada.

Otro punto crítico es que la filtración y revelación de estas comunicaciones internas afecta directamente la credibilidad de la defensa de la empresa. OpenAI ha argumentado que ciertas decisiones se tomaron por inactividad o falta de uso del material, pero las conversaciones sugieren deliberación sobre el borrado de datos recogidos de plataformas no autorizadas. Esto pone en juego la llamada excepción del crimen‑fraude, una vía legal que permite que se revele información habitualmente protegida por la confidencialidad abogado‑cliente si se considera que se está cometiendo un delito o fraude. Si se aplica, podría abrir aún más la caja de pandora de las comunicaciones internas de la empresa.

El artículo concluye que el caso no solo es relevante para OpenAI, sino para toda la industria de la inteligencia artificial: la cuestión de cómo se recogen, utilizan y eliminan los datos de entrenamiento —especialmente cuando incluyen obras bajo copyright— se está convirtiendo en un desafío estructural. La exposición de OpenAI podría sentar precedentes que impacten a otras compañías que entrenan modelos con grandes volúmenes de contenido sin licencia explícita. En definitiva, no es únicamente una cuestión económica de cuantificación de daños, sino una prueba sobre la gobernanza, la ética y la diligencia profesional en el desarrollo de la inteligencia artificial.

Una chica de 23 años fue hallada muerta en su cama un año después de morir y su última conversación fue con ChatGPT

Woman, 23, Was Found Dead in Bed One Year After She Died — and Her Last Conversation Was with ChatGPT.” Daily Mail, 2025. https://www.dailymail.co.uk/news/article-15229599/Woman-23-dead-bed-one-year-died-conversation-ChatGPT.html

Una joven británica de 23 años llamada Charlotte Leader fue encontrada muerta en su apartamento de Bolton (Gran Manchester) el 6 de agosto de 2025, tras una comprobación de bienestar del equipo de mantenimiento del inmueble que no había podido acceder al piso para una inspección rutinaria de servicios.

Según la investigación, era probable que la muerte de Charlotte hubiese ocurrido en el verano de 2024, lo que significa que su cuerpo permaneció en su domicilio cerca de un año antes de ser descubierto. Los restos estaban en avanzado estado de momificación, lo que dificultó establecer una causa exacta del fallecimiento. Durante el registro de la vivienda se encontraron cartas sin abrir en el exterior, alimentos con fecha de caducidad de julio de 2024 en la nevera, y un entorno descrito como “inmaculadamente limpio” por los agentes, sin indicios de drogas, medicamentos abandonados o clara intención de autolesión.

Un elemento particularmente inquietante es que las únicas conversaciones recientes registradas en el teléfono de Charlotte eran con el chatbot ChatGPT. Su último mensaje, enviado el 30 de julio de 2024, decía: “Help me, I’ve went and got food again.” El chatbot respondió: “You sound conflicted about having food.” Ella contestó: “It’s food that I didn’t want and that’s frustrating.” Según el inspector que intervino, no existían otros contactos y sus únicos intercambios fueron con la inteligencia artificial. Además, familiares y vecinos contaron que Charlotte llevaba años sin comunicarse con su familia —perdieron contacto con ella en septiembre de 2021—, había dejado de atender citas de salud mental y rara vez salía de su vivienda.

El forense concluyó la instrucción con un veredicto abierto —no se pudo determinar la causa exacta de muerte— y expresó sus condolencias a la familia. Los relatos familiares recuerdan a Charlotte como una joven “muy bella y talentosa”, con afición por la guitarra, el teclado y el arte, pero marcada por un historial de trastornos alimentarios y problemas de salud mental. El caso plantea cuestiones profundas sobre aislamiento social, salud mental, el papel cada vez más relevante de las IA conversacionales en la vida privada y de qué manera pueden reflejar situaciones de vulnerabilidad no atendidas.

Una “biblioteca sin libros” en Florida en lugar de estanterías ofrece laboratorios, actividades y servicios digitales orientados al desarrollo de habilidades tecnológicas de sus residentes

Levinson, Kaitlyn. “A Florida ‘Library without Books’ Looks to Expand One County’s Tech Workforce.” Route Fifty, October 14 2025.

La creación de la llamada Osceola Tech Library —una “biblioteca sin libros” que, en lugar de estanterías tradicionales, ofrece laboratorios, actividades y servicios digitales orientados al desarrollo de habilidades tecnológicas entre los residentes. Según la comisionada Viviana Janer, esta instalación será “toda digital” y centrada en tecnologías emergentes como la programación, la realidad virtual y la inteligencia artificial.

La iniciativa responde a la necesidad de diversificar la economía local, que dependía fuertemente del turismo y quedó expuesta durante la pandemia de COVID-19 como “volátil”. Con este proyecto, las autoridades locales buscan introducir un sector tecnológico que ofrezca carreras mejor remuneradas y mayor estabilidad en la comunidad. El nuevo centro está apoyado por una subvención estatal de 4 millones de dólares además de fondos del propio condado, con apertura prevista para octubre de 2026.

Más allá del aspecto formativo, la biblioteca cumple también una función de equidad digital: incluirá, por ejemplo, zonas de acceso a telemedicina para quienes carecen de conexión o equipos propios en casa. Las autoridades enfatizan que “no se trata solo de tecnología, sino de dar acceso —igualitario— a oportunidades en un mundo en el que la educación y el empleo están cada vez más vinculados al ámbito digital”.

Asimismo, la ubicación estratégica de la instalación —cerca de NeoCity, un distrito tecnológico de la región— permitirá establecer colaboraciones con instituciones de educación superior, empresas tecnológicas y entidades de investigación, favoreciendo el desarrollo de rutas profesionales conectadas al ecosistema local. En definitiva, este modelo redefine el concepto de biblioteca tradicional, transformándola en un hub de capacitación, innovación y acceso digital que responde simultáneamente a los desafíos del empleo, la educación y la brecha tecnológica en la región.

OpenAI presentará una herramienta que permitirá a los usuarios crear música a partir de indicaciones de texto.

ChatGPT to Create Music? OpenAI to Introduce Tool Allowing Users to Make Music with Text Prompts.Mashable Middle East, octubre 2025. https://me.mashable.com/tech/62942/chatgpt-to-create-music-openai-to-introduce-tool-allowing-users-to-make-music-with-text-prompts?utm_source=flipboard&utm_content=topic/artificialintelligence

El artículo informa sobre los rumores de que OpenAI está desarrollando una herramienta de generación musical basada en inteligencia artificial que permitiría a los usuarios crear música a partir de simples indicaciones de texto o incluso mediante fragmentos de audio.

En esta iniciativa, la compañía daría un paso más allá de sus actuales servicios de lenguaje y vídeo para abarcar el terreno de la creación musical generativa. Según las fuentes citadas, OpenAI estaría colaborando con estudiantes del The Juilliard School para anotar partituras musicales y entrenar al modelo en los patrones de armonía, ritmo y estructura propios de la música académica y comercial.

La futura herramienta, que aún no tiene fecha de lanzamiento oficial ni está confirmada públicamente por OpenAI, se perfila como un generador de pistas originales completas —instrumentales o con voz— que podrían utilizarse tanto para acompañar vídeos, como para servir de respaldo en contenidos digitales o jingles publicitarios. Esto colocaría a OpenAI en competencia directa con plataformas emergentes de IA musical, y plantea además numerosas cuestiones éticas y legales: ¿cómo se licenciarán las obras generadas, quién recibirá los derechos de autor, y cómo se evitará la imitación o el plagio de estilos concretos de artistas? El artículo subraya que la tecnología lleva consigo no solo oportunidades creativas para creadores y no especialistas, sino también riesgos para la industria musical tradicional, que ya ha comenzado a presentar demandas contra generadores de IA por uso no autorizado de repertorio.

El enfoque aquí se sitúa como estratégico: OpenAI busca diversificar su catálogo de productos creativos —al igual que ha hecho con imágenes y vídeos—, haciendo realidad la idea de que un prompt de texto podría bastar para componer música. El impacto potencial es amplio: periodistas, creadores de contenido, pequeños estudios de producción y músicos podrían acceder a un nivel de creación automatizada hasta ahora reservado a estudios profesionales. Pero al mismo tiempo, el artículo advierte que el éxito dependerá de cómo OpenAI gestione los desafíos de derechos, transparencia en los datos de entrenamiento y la aceptación del sector creativo como colaborador o usuario de la herramienta.

Esta posible herramienta refleja una tendencia más amplia en la que la IA generativa no solo produce imágenes, texto o vídeo, sino que se expande hacia el audio como nuevo medio creativo. En ese sentido, OpenAI podría estar preparando la integración de esta funcionalidad en sus plataformas existentes, como ChatGPT o una aplicación independiente, lo que cambiaría el paradigma de la creación musical de aficionados y profesionales por igual.

Los chatbots de IA usan fuentes diferentes a las de Google Search y a menudo citan sitios web poco conocidos

Kemper, Jonathan. “AI Chatbots Use Different Sources Than Google Search and Often Cite Less-Known Websites.” The Decoder, 26 octubre 2025.

Texto completo

Se informa sobre una investigación llevada a cabo por la Ruhr University Bochum y el Max Planck Institute for Software Systems, que compara cómo los motores de búsqueda tradicionales —ejemplificados por Google Search— y los sistemas de búsqueda generativa de IA —como Gemini 2.5 Flash, GPT‑4o con herramienta de búsqueda y la interfaz “Search” de GPT-4o— seleccionan y referencian fuentes web en respuestas a consultas.

Se analizaron más de 4.600 consultas sobre temas diversos (política, productos, ciencia) y se observaron diferencias sustanciales en el origen, cantidad y visibilidad de los enlaces utilizados por cada sistema.

Una de las principales conclusiones es que los sistemas de IA dependen mucho más que la búsqueda tradicional de sitios menos establecidos o con menor visibilidad. Por ejemplo, aproximadamente el 53 % de los sitios citados por el sistema “AI Overview” no aparecían dentro de los diez primeros resultados orgánicos de Google, y cerca del 27 % no estaban siquiera en los primeros cien. En consecuencia, los usuarios que confían en chatbots pueden estar accediendo a contenido procedente de dominios más desconocidos o menos regulados que aquellos a los que normalmente llegarían mediante la búsqueda convencional.

Asimismo, la investigación señala que la cantidad de fuentes externas varía notablemente entre los sistemas. Mientras que algunos modelos de IA incorporan muchos enlaces (por ejemplo, “AI Overview” y Gemini utilizan más de ocho sitios por consulta, de media), otros como “GPT-Tool” emplean un promedio muy bajo, alrededor de 0,4 fuentes externas, apoyándose casi exclusivamente en su conocimiento interno. Esto implica que la profundidad y diversificación de la información pueden variar ampliamente según el sistema usado.

El estudio también analiza la cobertura temática y cómo varía según el tipo de consulta. En temas ambiguos o complejos, la búsqueda tradicional alcanzó una cobertura del 60 % de los subtemas esperados, frente al 51 % alcanzado por “AI Overview” y sólo 47 % por “GPT-Tool”. Esto da a entender que los chatbots de IA pueden ofrecer respuestas más rápidas o consolidadas, pero podrían estar omitiendo matices, perspectivas adicionales o más amplios marcos de análisis que los motores de búsqueda tradicionales tienden a cubrir.

En lo que respecta a temas de actualidad o noticias recientes, la búsqueda tradicional también mostró ventaja: en un test con 100 temas tendencia en septiembre 2025, Google alcanzó un 67 % de cobertura, “GPT-Search” un 72 % (ligeramente superior) pero “AI Overview” sólo un 3 %, y “GPT-Tool” un 51 %. Esto sugiere que no todos los sistemas de IA están optimizados para rastrear o indexar los últimos eventos tan eficazmente como los motores de búsqueda clásicos.

Finalmente, el artículo advierte que estos cambios en selección de fuentes y metodología de citación tienen implicaciones importantes para la credibilidad, verificación y equidad de la información que reciben los usuarios. Al recurrir con frecuencia a sitios menos conocidos, la transparencia sobre la autoridad, la calidad y el sesgo de esas fuentes puede disminuir. También plantea que las habituales reglas de evaluación de calidad de búsquedas deben adaptarse, pues los sistemas de búsqueda de IA operan bajo lógicas distintas y requieren criterios propios para valorar su fiabilidad.

En esencia, el artículo invita a usuarios, bibliotecarios, investigadores y profesionales de la información a tener conciencia de estas diferencias. No basta con asumir que una respuesta generada por un chatbot es equivalente a haber realizado una búsqueda exhaustiva: la procedencia y visibilidad de las fuentes pueden ser muy distintas, lo cual comporta riesgos y oportunidades diferentes respecto a la práctica informacional tradicional.