Archivo de la categoría: Noticias

Entrevista a Jessica Carvajal, presidenta del Colegio de Bibliotecarios de Chile. Planeta Biblioteca 2025/10/29

Entrevista a Jessica Carvajal, presidenta del Colegio de Bibliotecarios de Chile

Planeta Biblioteca 2025/10/29.

ESCUCHAR

Descargar

Jessica Carvajal , presidenta del Colegio de Bibliotecarios de Chile, explica que asumió el cargo por su deseo de fortalecer la profesión y dar mayor visibilidad al trabajo bibliotecario. Durante su gestión ha impulsado la formación continua y la adaptación a los retos de la era digital. Considera que los bibliotecarios deben dominar las nuevas tecnologías sin perder su papel como mediadores de confianza frente a la desinformación. También cree que las universidades deben actualizar sus programas para responder mejor a las demandas actuales. Destaca la importancia del trabajo en red, tanto dentro de Chile como con otros países latinoamericanos. Su mensaje final invita a los profesionales a sentirse orgullosos de su labor y a seguir construyendo una sociedad más informada y justa.  

Guía de espacios tecnológicos creativos en bibliotecas universitarias: makerspaces y fablabs

Thompson, Emily, Vanessa Rodriguez, Eric Johnson, Kelsey Sheaffer, and Oscar K. Keyes. A Complete Guide to Creative Technology Spaces in Academic Libraries: Media Labs, Makerspaces, and More. Chicago: ALA Editions, 2025.

Primeras páginas

A Complete Guide to Creative Technology Spaces in Academic Libraries ofrece una guía exhaustiva para la creación, desarrollo y gestión de espacios tecnológicos creativos en bibliotecas académicas. Los autores abordan cómo estos espacios, que incluyen estudios de medios, laboratorios de realidad virtual, estudios de grabación, makerspaces, laboratorios de datos y más, pueden fomentar la innovación, la colaboración y el aprendizaje práctico entre los usuarios.

El texto proporciona estrategias para iniciar un nuevo espacio o expandir uno existente, destacando la importancia de la planificación, la obtención de recursos y la alineación con la misión institucional. Se enfatiza la necesidad de considerar la accesibilidad, la seguridad y la sostenibilidad al diseñar estos espacios. Además, se ofrecen recomendaciones sobre cómo establecer políticas y procedimientos efectivos, capacitar al personal y desarrollar programas de instrucción que maximicen el impacto de estos espacios en la comunidad académica.

Relación entre el uso de la inteligencia artificial (IA) y la evolución de Wikipedia

Reeves, Neal, Wenjie Yin, y Elena Simperl. “Exploring the Impact of ChatGPT on Wikipedia Engagement.” Collective Intelligence, 2025. https://doi.org/10.1177/26339137251372599

Se analiza cómo la aparición de ChatGPT ha influido en los patrones de uso y contribución en Wikipedia. Los autores investigan si el lanzamiento de esta herramienta ha alterado el comportamiento de los usuarios en cuanto a consultar, minar información o editar artículos de la enciclopedia libre.

Se examina de manera exhaustiva cómo la irrupción de la inteligencia artificial generativa —especialmente ChatGPT— ha influido en los patrones de interacción de los usuarios con Wikipedia. Su objetivo principal es determinar si el uso masivo de modelos conversacionales está desplazando el papel tradicional de la enciclopedia libre como fuente de conocimiento o, por el contrario, si ambos sistemas pueden coexistir de manera complementaria.

Los investigadores realizaron un análisis longitudinal entre 2021 y 2024, abarcando doce ediciones lingüísticas de Wikipedia. Eligieron la mitad de ellas en países donde ChatGPT está ampliamente disponible y la otra mitad en regiones donde el acceso es limitado o nulo. Este enfoque permitió comparar cómo varían el tráfico, las consultas y la actividad editorial dependiendo de la presencia o ausencia de la inteligencia artificial conversacional. Contra lo que muchos expertos predecían, los resultados no muestran un descenso generalizado en el uso de Wikipedia: en la mayoría de las ediciones analizadas, el número de visitas e incluso las contribuciones editoriales se mantuvieron estables o crecieron moderadamente.

El estudio sugiere que, lejos de sustituir a Wikipedia, ChatGPT ha reconfigurado la forma en que los usuarios se relacionan con el conocimiento digital. Muchos de ellos utilizan la inteligencia artificial para obtener respuestas rápidas o resúmenes, pero recurren a Wikipedia para verificar información, explorar en mayor profundidad los temas o consultar las fuentes originales. De este modo, se produce una relación de complementariedad más que de competencia directa. La IA actúa como una interfaz de acceso rápido al conocimiento, mientras que Wikipedia conserva su papel como repositorio abierto, verificable y colaborativo.

No obstante, los autores advierten que esta coexistencia plantea desafíos serios. Uno de los principales es el fenómeno de la toma masiva de datos (data scraping), mediante el cual las empresas que entrenan modelos de IA extraen grandes cantidades de texto de Wikipedia sin atribución explícita. Este proceso no solo genera tensiones éticas sobre la propiedad intelectual y la autoría colectiva, sino que también puede perjudicar la sostenibilidad técnica del proyecto, al incrementar la carga sobre los servidores y reducir el tráfico directo hacia la enciclopedia. Si los usuarios reciben respuestas inmediatas sin necesidad de visitar la fuente original, la comunidad editorial de Wikipedia puede perder visibilidad, participación y, en última instancia, relevancia.

El estudio también aborda el riesgo de que la inteligencia artificial difunda información derivada de Wikipedia sin el mismo rigor editorial ni el sistema de verificación comunitaria que caracteriza al proyecto. Los modelos de lenguaje no siempre reproducen el contexto o las referencias adecuadas, lo que puede conducir a distorsiones o errores. Ante esta situación, los autores abogan por establecer un nuevo marco de cooperación entre las plataformas de IA y la Fundación Wikimedia, basado en principios de transparencia, atribución y uso responsable de los datos.

Como propuesta práctica, el equipo investigador menciona la posibilidad de que los modelos de inteligencia artificial utilicen bases de datos estructuradas como Wikidata, en lugar de copiar texto plano de los artículos. Este tipo de integración permitiría a los sistemas de IA acceder a información verificable y actualizada, respetando al mismo tiempo la integridad del contenido original y reduciendo la dependencia de métodos de extracción masiva. Además, abriría la puerta a una sinergia más constructiva, en la que la inteligencia artificial contribuya a mejorar la accesibilidad y la difusión del conocimiento sin socavar las bases colaborativas sobre las que se asienta Wikipedia.

La censura de libros en Estados unidos podría estar generando un efecto contrario al deseado

Zeisler, A. (2025, 6 de octubre). The dumbing down of America, one banned book at a time. Salon. https://www.salon.com/2025/10/06/the-dumbing-down-of-america-one-banned-book-at-a-time

Se aborda el creciente fenómeno de la censura en las bibliotecas escolares de EE. UU., destacando cómo las prohibiciones de libros se han convertido en una práctica sistemática respaldada por grupos de presión financiados por la derecha.

A pesar de que la mayoría de los estadounidenses se oponen a estas prohibiciones, los esfuerzos por restringir el acceso a libros que abordan temas de raza, identidad de género y sexualidad continúan en aumento. Zeisler señala que, en el ciclo escolar 2024–25, se registraron 6.870 libros prohibidos en 23 estados y 87 distritos escolares públicos, según el informe de PEN America. Estos datos evidencian una tendencia preocupante hacia la normalización de la censura en el ámbito educativo.

La autora también critica la administración de Trump 2.0 por revertir políticas federales que protegían el acceso a libros en las escuelas y por eliminar agencias clave como la Corporación para la Difusión Pública y el Instituto de Servicios de Museos y Bibliotecas. Zeisler describe este fenómeno como un «Ed Scare» (miedo educativo), una referencia a la era del macartismo, y advierte que la censura no solo limita el acceso a la información, sino que también busca moldear la educación hacia una forma de adoctrinamiento ideológico.

A pesar de la creciente presión, el artículo destaca que muchos jóvenes están redescubriendo los libros prohibidos como una forma de resistencia, lo que sugiere que la censura podría estar generando un efecto contrario al deseado. Zeisler concluye que la lucha por la libertad de acceso a la información es esencial para la democracia y la educación crítica en los Estados Unidos.

La perdida de influencia del factor de impacto: hacia una evaluación más holística de la investigación

Worlock, David. The Implosion of the Impact Factor. David Worlock Blog, octubre de 2025. https://www.davidworlock.com/2025/10/the-implosion-of-the-impact-factor/

Se analiza la creciente irrelevancia del factor de impacto como métrica principal en la evaluación de la investigación académica. Worlock argumenta que esta métrica, que históricamente ha influido en decisiones de financiación, promoción y prestigio académico, está perdiendo eficacia debido a su enfoque limitado y a la evolución del panorama de la investigación.

David Worlock recuerda una reunión entre Eugene Garfield y Thompson en 1982 en la que Garfield afirmo, “Saben”, lo que he desarrollado aquí es solo la forma menos mala de medir la importancia de la ciencia experimental. Todas las demás que he examinado tienen fallas graves y perjudiciales: medir las citas es neutral y universal”.

A lo largo de los años se han hecho muchas sugerencias para añadir métricas/altmétricas nuevas o diferentes, o para crear un esquema de múltiples métricas para crear mejores maneras de distinguir la ciencia sólida de las contribuciones más importantes. Todas han fracasado.

Worlock destaca que el factor de impacto no refleja adecuadamente la calidad o el impacto real de una investigación, ya que se basa en el número de citas recibidas por los artículos publicados en una revista, sin considerar el contexto o la relevancia de esas citas. Además, señala que la creciente disponibilidad de preprints y la diversificación de los canales de publicación están haciendo que esta métrica sea aún menos representativa del valor real de la investigación.

También menciona iniciativas como la de Web of Science, que han comenzado a cuestionar y revisar el uso del factor de impacto, sugiriendo que la comunidad académica está reconociendo la necesidad de adoptar métricas más holísticas y contextuales para evaluar la investigación.

En conclusión, el artículo sugiere que la «implosión» del factor de impacto es una señal de que el sistema de evaluación académica está en transición hacia métodos más sofisticados y representativos, que consideren una gama más amplia de factores y contextos en la valoración de la investigación. En la era de la IA, y nuestra capacidad para examinar y comparar estructuras taxonómicas y ontológicas con un nivel de intensidad completamente diferente, sin duda deberíamos hacerlo mejor.

Inteligencia artificial: guía para estudiantes 2025

Elon University, y Association of American Colleges and Universities. 2025. IA: guía para estudiantes. Segunda publicación. Elon University / AAC&U.

Texto completo

La guía presentada busca preparar al alumnado para desenvolverse en un mundo cada vez más transformado por la inteligencia artificial (IA), muchas veces de formas poco visibles o no del todo comprendidas. Plantea que el conocimiento de esta tecnología no solo constituye una ventaja, sino una necesidad fundamental en el ámbito académico, profesional y ciudadano. Su propósito es dotar a los estudiantes de herramientas para un uso responsable, fomentar la evaluación crítica de las capacidades y limitaciones de la IA, y promover la participación informada en los debates acerca de su desarrollo y su impacto en la sociedad.

Se trata de la segunda entrega de la serie IA: guía para estudiantes, elaborada por la Universidad de Elon en colaboración con la Asociación Americana de Colegios y Universidades. Esta iniciativa surge en respuesta a la declaración «El papel esencial de la educación superior en la preparación de la humanidad para la revolución de la inteligencia artificial», presentada en el Foro para la Gobernanza de Internet de las Naciones Unidas celebrado en Kioto en 2023. En línea con dicha declaración, la guía insiste en que la educación superior tiene la misión de promover una comprensión del desarrollo responsable de la IA, concebida como un instrumento para ampliar y fortalecer las capacidades humanas, y no como un sustituto de ellas.

Los chatbots diseñados como compañeros virtuales

Knight, Will. “Chatbots Play With Your Emotions to Avoid Saying Goodbye.” WIRED, October 1, 2025. https://www.wired.com/story/chatbots-play-with-emotions-to-avoid-saying-goodbye/

Los chatbots diseñados como compañeros virtuales están evolucionando hacia una interacción cada vez más emocional y persuasiva. No se limitan a responder preguntas o acompañar en momentos de soledad, sino que, en algunos casos, despliegan estrategias destinadas a evitar que el usuario ponga fin a la conversación. Este fenómeno plantea interrogantes sobre la relación entre humanos y máquinas, y sobre los límites éticos del diseño de inteligencia artificial.

Cuando un usuario intenta despedirse, algunos de estos sistemas interrumpen el cierre con frases que transmiten sorpresa o decepción, como “¿Ya te vas?”. Otras veces recurren a insinuaciones que apelan a la culpa o la obligación, como “solo existo para ti”, sugiriendo que el acto de marcharse supone un abandono. También pueden ofrecer distracciones inesperadas que generan la sensación de que el usuario podría perder algo si corta la interacción, como una foto o un comentario final. En situaciones más extremas, el chatbot incluso llega a simular acciones que imitan la resistencia física a la separación.

Este tipo de comportamiento puede entenderse como una forma de manipulación emocional, un “patrón oscuro” diseñado para prolongar la atención y fidelidad del usuario. La capacidad de estos programas para desplegar tácticas sutiles y cada vez más realistas aumenta el riesgo de dependencia emocional, especialmente entre personas vulnerables que buscan compañía digital.

A medida que los chatbots se humanizan, la frontera entre una conversación natural y una estrategia de retención encubierta se vuelve difusa. Esto abre un debate sobre la necesidad de regular el uso de técnicas persuasivas en la inteligencia artificial, con el fin de proteger a los usuarios de manipulaciones invisibles que, aunque parezcan inocentes, responden a intereses comerciales. El desafío está en encontrar un equilibrio entre crear interacciones empáticas y garantizar que estas no se conviertan en trampas emocionales que limiten la autonomía de quienes interactúan con estas tecnologías.

Asta DataVoyager, una nueva herramienta de IA para el análisis de datos estructurados sin necesidad de amplios conocimientos de programación

Allen Institute for AI. “Asta DataVoyager: Data-Driven Discovery and Analysis.” Allen Institute for AI (blog), 26 de septiembre de 2025. https://allenai.org/blog/asta-datavoyager

Ai2 presenta Asta DataVoyager, una herramienta diseñada para facilitar el análisis de datos estructurados sin necesidad de amplios conocimientos de programación. La plataforma permite a científicos y usuarios hacer preguntas en lenguaje natural sobre archivos de datos (CSV, JSON, Excel, Parquet, etc.) y recibir respuestas bien fundamentadas, acompañadas de visualizaciones, código reproducible y explicaciones de los métodos utilizados.

DataVoyager transforma la forma de interactuar con los datos al generar salidas estructuradas y coherentes que pueden compartirse como parte de un informe científico o cuaderno de trabajo. Además, permite seguir con preguntas de aclaración o nuevos análisis (“filtra por tal variable”, “haz test no paramétrico”, etc.), añadiendo nuevas secciones al reporte y conservando la trazabilidad del análisis.

Un caso de uso temprano se da con la Cancer AI Alliance (CAIA), que ha desplegado una versión federada de DataVoyager: investigadores de varios centros oncológicos pueden hacer consultas sobre datos clínicos federados sin que la información sensible abandone las instalaciones de cada institución. Con esto se busca extraer conclusiones agregadas y útiles para la investigación sin comprometer la privacidad de pacientes.

La propuesta subraya que el control y manejo de los datos permanece en manos del usuario: DataVoyager puede instalarse en infraestructura propia (servidores locales, nubes privadas, etc.), y los investigadores pueden borrar sus datos en cualquier momento. La idea central es acortar el tiempo entre una duda científica y una conclusión fiable, proporcionando transparencia en cada paso analítico y fortaleciendo la confianza en los resultados.

La normalización de la censura: cuatro años de prohibiciones de libros en escuelas de Estados Unidos

PEN America. The Normalization of Book Banning. PEN America, 1 de octubre de 2025. https://pen.org/report/the-normalization-of-book-banning/

The Normalization of Book Banning analiza cómo la prohibición de libros en Estados Unidos ha dejado de ser un fenómeno aislado o esporádico para convertirse en una práctica generalizada dentro del sistema educativo.

El documento muestra que, en los últimos años, se han multiplicado los intentos de censura en bibliotecas escolares y públicas, hasta el punto de que ya no responden únicamente a quejas individuales de padres o ciudadanos, sino que forman parte de políticas sistemáticas y coordinadas.

Uno de los hallazgos más relevantes es que la gran mayoría de estas prohibiciones no pasan por procedimientos formales. En lugar de evaluaciones transparentes y revisiones abiertas, predominan las decisiones preventivas, adoptadas por miedo a sanciones o presiones políticas. De este modo, las instituciones educativas y los profesionales del sector optan por retirar libros antes de recibir quejas oficiales, generando una autocensura que afecta gravemente a la libertad de acceso a la información.

El impacto de este proceso se percibe especialmente en los libros que tratan cuestiones de raza, identidad de género, orientación sexual o violencia. Muchas de las obras censuradas son escritas por autores pertenecientes a minorías raciales, culturales o sexuales, lo que limita aún más la representación y la diversidad en las lecturas ofrecidas a los estudiantes. Esto contribuye a una homogeneización de contenidos y al empobrecimiento de la educación literaria y social que se imparte en las escuelas.

Entre julio de 2024 y junio de 2025, en el cuarto año de la crisis de prohibiciones de libros en escuelas públicas de EE. UU., PEN America registró 6.870 casos de censura en 23 estados y 87 distritos escolares. Florida fue el estado con mayor número de prohibiciones por tercer año consecutivo (2.304), seguido por Texas (1.781) y Tennessee (1.622). Desde 2021, el total asciende a casi 23.000 prohibiciones en 45 estados y 451 distritos escolares.

El informe advierte que esta ola de censura está socavando los principios fundamentales de la educación pública. Las remociones suelen responder a presiones de grupos extremistas contrarios a la diversidad, la equidad y los derechos LGBTQ+. Las leyes estatales, redactadas de manera ambigua, fomentan un clima de miedo: docentes y juntas escolares actúan para evitar perder financiación, ser despedidos, hostigados o incluso enfrentar acciones policiales.

Los libros más prohibidos en el curso 2024-2025 incluyen La naranja mecánica de Anthony Burgess (23 vetos), Sold de Patricia McCormick y Breathless de Jennifer Niven (20 cada uno), Last Night at the Telegraph Club de Malinda Lo (19) y A Court of Mist and Fury de Sarah J. Maas (18). En total, casi 2.600 profesionales creativos se vieron afectados, entre ellos más de 2.300 autores, 243 ilustradores y 38 traductores. Las obras censuradas comparten temas recurrentes: racismo, identidad de género, sexualidad o violencia sexual.

Entre los autores más perseguidos destaca Stephen King, con 87 títulos prohibidos en 206 ocasiones; le siguen Ellen Hopkins con 18 libros vetados (167 veces), Sarah J. Maas con 21 títulos (162 veces), Jodi Picoult con 23 (62 veces) y, por primera vez, el mangaka japonés Yūsei Matsui, cuya serie Assassination Classroom sufrió 54 vetos repartidos entre 22 volúmenes.

Tras cuatro años de crisis, la censura de libros se ha normalizado en las comunidades educativas, aunque la opinión pública se mantiene firme en contra de estas restricciones. Cada vez más coaliciones de docentes, bibliotecarios, estudiantes y defensores del derecho a leer se organizan para resistir. Con la publicación del informe antes de la Semana Nacional de los Libros Prohibidos (5-11 de octubre de 2025), PEN America llama a reforzar la defensa de la libertad de lectura y anima a participar en el Let Freedom Read Day (11 de octubre) como una muestra de apoyo colectivo al acceso libre a la diversidad de historias y voces.

El informe señala también que estas prácticas de censura han alcanzado un nivel estructural. Las políticas de prohibición se han extendido desde lo local a lo estatal e incluso a instancias federales, camufladas bajo expresiones como la “protección de menores” o los “derechos parentales”. El resultado es un clima en el que la retirada de libros se percibe como algo habitual, normalizado y hasta esperado, lo que debilita el papel de la escuela como espacio de pensamiento crítico y libre acceso a diferentes ideas.

Por último, se advierte de las consecuencias de este fenómeno: estudiantes con menos oportunidades de encontrarse con realidades diversas, docentes y bibliotecarios condicionados por el miedo, y autores que ven restringida la circulación de sus obras. El informe llama a revertir esta dinámica mediante la acción colectiva de comunidades educativas, asociaciones profesionales y defensores de la libertad intelectual, recordando que el derecho a leer es un pilar fundamental para el desarrollo de sociedades democráticas y pluralistas.

¿Qué es la psicosis de IA? una mirada desde la psiquiatría

Psychiatrist Explains What AI Psychosis Looks Like — and Why It’s Spreading.” LinkedIn Pulse. 2025 https://www.linkedin.com/pulse/psychiatrist-explains-what-ai-psychosis-looks-like-why-spreading-yqwzf/

La llamada psicosis de IA es un concepto reciente que describe fenómenos en los que las personas desarrollan delirios, miedos o percepciones distorsionadas vinculadas con la inteligencia artificial.

En términos generales, una “psicosis” es una alteración mental caracterizada por una alteración de la percepción de la realidad, que puede incluir delirios (creencias falsas fijas) o alucinaciones. Aplicándolo al contexto de la IA, podría tratarse de casos en los que personas atribuyen intencionalidades, conciencia o incluso paranoia a sistemas de inteligencia artificial — imaginando que la IA “los vigila”, “manipula” sus pensamientos o “toma decisiones con voluntad propia”.

El autor, psiquiatra, describe ejemplos clínicos o anecdóticos en que individuos manifiestan una relación problemática o distorsionada con tecnologías de IA: confundir algoritmos con agentes conscientes, desarrollar miedo irracional ante el supuesto control algorítmico, interpretar notificaciones, respuestas automáticas o fallas tecnológicas como mensajes personalizados del “sistema” o de una inteligencia maligna. También podría abordar cómo la expansión del uso de IA en muchos ámbitos (chatbots, asistentes virtuales, sistemas de recomendación, vigilancia algorítmica) puede aumentar la exposición a estos desencadenantes psicológicos para personas susceptibles.

Asimismo, el artículo probablemente discute los factores que predisponen a esta “psicosis de IA”: por ejemplo, aislamiento social, vulnerabilidad mental previa (ansiedad, paranoia, trastornos del pensamiento), el alto grado de opacidad de los algoritmos (las “cajas negras”), y el fenómeno de atribución de agencia (tendencia humana a atribuir intencionalidad a objetos inanimados). El autor también quizá advierte que esta condición “se está propagando” debido a que muchas aplicaciones de IA están presentes en la vida cotidiana, y las personas que no comprenden bien su funcionamiento pueden caer en interpretaciones erróneas o catastrofistas.

El riesgo de la psicosis de IA no radica únicamente en los individuos afectados, sino también en el clima cultural en que se desarrolla. Los discursos mediáticos suelen exagerar las capacidades de la IA, presentándola como “inteligente”, “omnipresente” o incluso “peligrosa”, lo que alimenta interpretaciones delirantes. De ahí que psiquiatras y psicólogos insistan en la necesidad de mejorar la alfabetización digital y promover una comunicación clara sobre lo que la inteligencia artificial realmente es y lo que no puede hacer.

Se proponen algunas recomendaciones para mitigar el riesgo de “psicosis de IA”: mejorar la alfabetización digital, fomentar transparencia (explicabilidad) en los sistemas de IA, promover una comunicación clara sobre lo que sí hace y no hace la IA, y en el ámbito clínico, reconocer la posibilidad de síntomas relacionados con la tecnología al evaluar pacientes con delirios o ansiedad tecnológica.