Archivo de la categoría: Noticias

Las universidades recurren a la IA para controlar los exámenes en línea ante la preocupación de posibles trampas con los modelos generativos

CBC News. 2025. “Universities Turn to AI to Monitor Exams Amid ChatGPT Concerns.” CBC News, 22 de junio de 2025. https://www.cbc.ca/news/canada/university-ai-exams-1.7551617.

Las universidades canadienses están usando inteligencia artificial para supervisar exámenes y prevenir el uso no autorizado de herramientas como ChatGPT, pero esto genera preocupaciones sobre la privacidad y posibles errores en la detección. Algunas instituciones buscan alternativas menos invasivas para equilibrar integridad académica y derechos estudiantiles. Este debate refleja el desafío de integrar IA en la educación de manera ética y efectiva.

Las universidades canadienses están adoptando cada vez más herramientas de inteligencia artificial (IA) para la supervisión de exámenes, con el objetivo de prevenir el uso de tecnologías como ChatGPT por parte de los estudiantes. Instituciones como la Universidad de Toronto, la Universidad de Columbia Británica y la Universidad McMaster han implementado sistemas de monitoreo basados en IA que analizan el comportamiento de los estudiantes durante las evaluaciones en línea. Estos sistemas pueden detectar patrones inusuales, como la falta de interacción con el teclado o movimientos sospechosos, lo que podría indicar el uso de dispositivos no autorizados.

Sin embargo, esta tendencia ha generado preocupaciones entre estudiantes y defensores de la privacidad. Estudios indican que las herramientas de detección de IA, como las utilizadas por Turnitin, pueden no ser precisas y, en algunos casos, pueden identificar erróneamente trabajos legítimos como generados por IA, lo que podría llevar a acusaciones injustas de plagio

En respuesta a estas preocupaciones, algunas universidades están revisando sus políticas de monitoreo y buscando un equilibrio entre la integridad académica y la protección de la privacidad de los estudiantes. Se están considerando alternativas como la implementación de evaluaciones en persona o el uso de tecnologías menos invasivas para supervisar los exámenes en línea.

El uso de herramientas de inteligencia artificial generativa (IA Gen) en la redacción de textos académicos

Hosseini, Mohammad, Bert Gordijn, Gregory Kaebnick y Kristi Holmes. 2025. “Disclosing Generative AI Use for Writing Assistance Should Be Voluntary.Research Ethics, junio de 2025. https://doi.org/10.1177/17470161251345499

El artículo defiende una postura equilibrada que respeta el derecho de los autores a apoyarse en herramientas tecnológicas sin ser estigmatizados, al tiempo que reconoce la importancia de la transparencia en determinados casos. La IA generativa se ha convertido en una herramienta más dentro del ecosistema de la escritura científica, y su uso no debería ser tratado de forma excepcional si no aporta una contribución sustancial al contenido o al razonamiento del manuscrito. Este enfoque voluntario evita riesgos de discriminación y promueve un entorno editorial más justo y realista en la era de la inteligencia artificial.

Durante los últimos años, especialmente desde la irrupción de modelos como ChatGPT, ha aumentado considerablemente el número de investigadores que emplean estas herramientas para mejorar o redactar sus manuscritos. Frente a esta realidad, surgieron propuestas para exigir que los autores declarasen explícitamente el uso de IA en sus textos. Esta obligación pretendía evitar que los lectores atribuyeran erróneamente a los autores humanos contenidos generados por máquinas, facilitar el trabajo de los revisores y asegurar el cumplimiento de las políticas editoriales.

Sin embargo, los autores del artículo, tras una evaluación crítica de la evolución y el uso actual de estas tecnologías, han modificado su postura y ahora proponen que la declaración del uso de IA sea voluntaria. Este cambio de posición se basa en tres argumentos principales.

  • Primero, consideran que el aporte de las herramientas generativas a los textos académicos es, en la mayoría de los casos, superficial y poco distinguible, por lo que no alcanza el umbral que justifique su reconocimiento formal.
  • Segundo, destacan que actualmente es casi imposible determinar con precisión qué fragmentos fueron generados por IA, ya que muchas herramientas actúan como asistentes que sugieren frases o corrigen estilo, funciones similares a las de los correctores ortográficos avanzados.
  • Tercero, y no menos importante, señalan que exigir la declaración obligatoria podría perjudicar especialmente a autores cuya lengua materna no es el inglés, ya que estos investigadores suelen apoyarse en herramientas de IA para mejorar la calidad lingüística de sus manuscritos. Obligarles a declarar este uso podría introducir sesgos y discriminación en el proceso de revisión por pares.

A partir de estos argumentos, los autores sugieren una alternativa: permitir que la declaración del uso de IA sea voluntaria, mediante un sistema opcional —como un checkbox— dentro de la plataforma de envío del manuscrito. Este aviso no debería aparecer en el artículo publicado, sino solo ser visible para los editores, con el fin de garantizar transparencia sin afectar la percepción del texto por parte de los evaluadores o lectores. La declaración voluntaria sería especialmente útil en disciplinas donde el estilo literario y la autoría personal del texto son fundamentales, o cuando los propios autores consideren que su uso de IA merece ser conocido por razones éticas o contextuales.

Silencio y Bibliotecas

«Tenemos un lema ‘el silencio ha abandonado el edificio’. Si el espacio está completamente silencioso, llegas a pensar ‘esto no está funcionando como yo quiero´’. Deseo que haya más conversación, más reuniones y más socialización’.

Gregor Smart, director de The Kirstein Business Library & Innovation Center (KBLIC) de la Biblioteca Pública de Boston

De: Callahan, Cloey. «Remote Workers Flock to Libraries for Resources, Collaboration». WorkLife (blog), 3 de mayo de 2023. https://www.worklife.news/spaces/remote-work-libraries/.

Presentación del libro «Poesía por Palestina» con Ferchu de Castro. Planeta Biblioteca 2025/06/25

ESCUCHAR

Descargar

Conversamos con Ferchu de Castro sobre Poesía por Palestina, una obra colectiva en la que más de cincuenta creadores salmantinos —entre ellos los poetas Antonio Colinas y María Ángeles Pérez López— han unido sus voces para denunciar la tragedia en Gaza. El libro, nacido tras el recital “Versos contra el genocidio” celebrado en enero de 2024, reúne poesía e ilustraciones cedidas de forma altruista. Se presentó el 30 de mayo en la Biblioteca Torrente Ballester, en un acto que combinó arte, palabra y memoria histórica como formas de resistencia. Los beneficios —10 € por ejemplar en librerías La Nave y Letras Corsarias— se destinarán a apoyar a la infancia palestina.

La inteligencia artificial (IA) está influyendo en nuestro vocabulario

Cambridge University Press & Assessment. 2025. “Cambridge Dictionary Tracks New AI Words.” Cambridge University Press & Assessment Newsroom, 24 de junio de 2025. https://www.cambridge.org/news-and-insights/cambridge-dictionary-tracks-new-ai-words

El 24 de junio de 2025, Cambridge Dictionary publicó una nota destacando cómo la inteligencia artificial (IA) está influyendo en nuestro vocabulario. El equipo de lexicógrafos de Cambridge ha estado monitoreando de cerca los términos emergentes relacionados con la IA, seleccionando aquellos que reflejan tendencias lingüísticas recientes

Entre los nuevos términos rastreados se encuentran expresiones como “slop”, utilizado para referirse a contenido de baja calidad generado por IA; “AI washing”, que describe prácticas corporativas que pretenden parecer impulsadas por IA sin serlo realmente; y “decel”, una abreviatura que alude a la desaceleración en el desarrollo o adopción de tecnologías de IA. Estas inclusiones reflejan la rápida aparición de vocablos vinculados a debates sobre la calidad, autenticidad y progreso tecnológico en IA.

La entrada de “slop” es particularmente notable: Cambridge Dictionary ha actualizado su definición para incluir esta acepción asociada a la IA—contenido pobre o irrelevante producido por algoritmos—lo cual evidencia una creciente preocupación pública por el exceso y baja calidad de determinados resultados generados automáticamente .

Este seguimiento sistemático forma parte de una estrategia continua: Cambridge Dictionary registra y evalúa semanalmente nuevos términos relacionados con IA (“newly emerging words”), muchos de los cuales luego se incorporan a su base de datos principal. Así, lexicógrafos aseguran que el diccionario responda con agilidad a los cambios en el uso del inglés, especialmente en contextos tecnológicos de rápida evolución.

Con más de 170.000 definiciones y millones de visitas anuales, Cambridge Dictionary refuerza así su papel como referencia global para aprendizajes de idioma, incorporando sistemáticamente vocabulario contemporáneo de la era digital .

Alfabetización en IA y la importancia de las bibliotecas públicas

Feeney, Drew. “AI Literacy & the Criticality of Public Libraries.” Information Literacy Website, Infolit.org.uk. Publicado en 2025. https://infolit.org.uk/ai-literacy-the-criticality-of-public-libraries/

El auge de herramientas generativas de IA ha generado incertidumbre y preguntas profundas: ¿cómo funciona realmente la IA?, ¿es ético su uso?, y ¿qué impacto tendrá en nuestra vida diaria? Estas preguntas reflejan una nueva era informativa que exige habilidades críticas renovadas

Las bibliotecas públicas, que desde hace décadas han sido pilares de la alfabetización digital comunitaria, se encuentran en una posición privilegiada para asumir también esta misión en la era de la IA. No solo deben ayudar a la gente a acceder a estas tecnologías, sino también a comprenderlas críticamente. Feeney se pregunta: ¿cómo apoyar a los usuarios con poca competencia digital para que se alfabeticen en IA y participen activamente en un entorno cada vez más automatizado?

El artículo cita un informe de la Good Things Foundation que sugiere que la alfabetización digital y mediática es requisito previo para la alfabetización en IA. Esto revela la importancia de que las bibliotecas fortalezcan sus programas tradicionales de alfabetización digital, ya que solo con una base sólida estas nuevas competencias podrán arraigar eficazmente en las comunidades más vulnerables

Feeney concluye que las bibliotecas deben continuar promoviendo activamente la alfabetización digital, mediática e informacional si quieren ser eficaces espacios de aprendizaje en torno a la IA. Su rol como espacios comunitarios confiables y accesibles las convierte en agentes esenciales para reducir la brecha digital y garantizar que nadie quede rezagado en esta transición tecnológica.

Papel esencial de los editores como garantes de la confianza en el ecosistema de la comunicación científica

Ghildiyal, Ashutosh. «Gatekeepers of Trust: Reaffirming the Publisher’s Role in Service of the Reader.» The Scholarly Kitchen, 12 de mayo de 2025. https://scholarlykitchen.sspnet.org/2025/05/12/guest-post-gatekeepers-of-trust-reaffirming-the-publishers-role-in-service-of-the-reader/

Se propone una reflexión profunda sobre el papel esencial de los editores académicos como guardianes de confianza en el ecosistema de la comunicación científica. Frente a un entorno editorial marcado por la presión del acceso abierto, el avance de la inteligencia artificial y las crecientes demandas de productividad, el autor hace una llamada a recobrar la centralidad del lector y de la calidad editorial.

Ghildiyal afirma que los editores no son simples intermediarios entre autores y lectores, ni gestores técnicos del proceso de publicación. Son, más bien, custodios de la integridad intelectual y científica. Su función clave consiste en proteger a los lectores asegurando que la información publicada sea rigurosa, fiable y relevante. Esta tarea implica un compromiso con la verdad, con el progreso del conocimiento y con el fortalecimiento del bien público.

Uno de los principales desafíos identificados en el texto es la tensión entre cantidad y calidad. Las presiones comerciales —como el modelo de publicación por pago (APC), las métricas de impacto, o la necesidad de escalar la producción editorial— han llevado a priorizar el volumen de publicaciones por encima de su valor sustantivo. Esto amenaza la confianza de los lectores y debilita el rol crítico de los editores como filtros de calidad.

El artículo destaca que el lector debe volver a ocupar el centro del trabajo editorial. Más allá de las exigencias de autores o instituciones, el contenido publicado debe ser útil, claro y confiable para quienes lo consultan: investigadores, profesionales, docentes y ciudadanos informados. La confianza en la ciencia y en la comunicación académica se construye, principalmente, en esa relación entre editor y lector.

En este contexto, Ghildiyal propone una colaboración efectiva entre inteligencia artificial y juicio editorial humano. Las herramientas automatizadas pueden ser útiles para detectar errores formales, verificar datos o acelerar tareas repetitivas. Sin embargo, es imprescindible que los editores humanos mantengan el control sobre las decisiones críticas: evaluar la originalidad, la claridad conceptual y la relevancia social de los contenidos.

Finalmente, el autor advierte que la viabilidad futura de la edición académica depende de un equilibrio estratégico: aprovechar la tecnología sin sacrificar el rigor, y responder a las demandas del mercado sin diluir los principios de integridad. Para ello, propone prácticas editoriales transparentes, consistentes y centradas en ofrecer retroalimentación constructiva a los autores, siempre al servicio del lector.

Ghildiyal defiende que los editores deben reafirmar su compromiso con el lector como núcleo de su misión. Ser guardianes de confianza no es solo una metáfora: es una responsabilidad crítica para preservar la credibilidad de la ciencia y la utilidad social de la publicación académica en un mundo complejo y cambiante.

Ataques de bots maliciosos impulsados por IA a los catálogos de las bibliotecas

Panitch, Judy. 2025. “Library IT vs. the AI bots.” University Libraries News, 9 de junio de 2025. https://library.unc.edu/news/library-it-vs-the-ai-bots/.

A principios de diciembre de 2024, se produjo un incidente inusual en el catálogo en línea de las bibliotecas de la Universidad de Carolina del Norte: los usuarios informaron que les aparecían de mensajes de error como “este sitio web está bajo alta carga (cola llena)”. Esto no era normal, incluso durante épocas de alta demanda, como las finales de curso. Las investigaciones internas revelaron que el problema no era un aumento normal de tráfico, sino un ataque deliberado potenciado por inteligencia artificial.

Las investigaciones internas revelaron que el problema no era un aumento normal de tráfico, sino un ataque deliberado potenciado por inteligencia artificial. El sistema del catálogo estaba siendo bombardeado con peticiones automatizadas generadas por bots, cuyo volumen superaba cualquier uso legítimo, y saturaba la infraestructura técnica.

Este escenario puso a prueba la capacidad del equipo de TI de las bibliotecas. El personal tuvo que responder con rapidez e ingenio para implementar filtros y bloqueos contra las IP sospechosas, ajustar límites de conexión y optimizar la gestión de sesiones. El objetivo era mitigar el ataque sin interrumpir el acceso auténtico de estudiantes, docentes y personal, exponiendo así la necesidad de sistemas capaces de distinguir entre tráfico legítimo y malicioso automatizado.

El suceso sacó a la luz un lado oscuro de la inteligencia artificial: su capacidad para coordinar ataques automatizados y sofisticados, que pueden desestabilizar recursos digitales de alta demanda. A pesar de su carácter invisible, estas IA maliciosas pueden generar consecuencias reales y perjudiciales para servicios imprescindibles.

El artículo destaca el valor de contar con equipos de TI ágiles, bien entrenados y preparados para responder ante amenazas automatizadas. Asimismo, subraya la importancia de incorporar inteligencia artificial defensiva: sistemas capaces de identificar tráfico sospechoso, analizar patrones anómalos y responder en tiempo real.

En última instancia, “Library IT vs. the AI bots” no solo narra un incidente técnico, sino que actúa como llamada de atención sobre los riesgos emergentes en un mundo donde la inteligencia artificial —usada tanto para bien como para fines maliciosos— exige una seguridad más sofisticada y adaptativa.

¿Por que los modelos de IA nos conducen a reforzar lo que ya creemos?

Eugina Leung, The Scientific Reason Why ChatGPT Leads You Down Rabbit Holes,” CNET, 10 de junio de 2025, https://www.cnet.com/tech/services-and-software/the-scientific-reason-why-chatgpt-leads-you-down-rabbit-holes/

El artículo cuenta por qué herramientas como ChatGPT pueden llevar a los usuarios a profundizar en líneas de pensamiento cada vez más específicas, a veces hasta puntos extremos o sesgados, en lo que comúnmente se conoce como “caer en un sesgo o bucle de confirmación” digital.

El sesgo de confirmación (también llamado sesgo confirmatorio) es una tendencia psicológica que lleva a las personas a buscar, interpretar y recordar información de manera que confirme sus propias creencias y expectativas preexistentes, mientras ignoran o desestiman información que las contradiga.

Según Leung, este comportamiento no se debe únicamente al diseño del modelo de lenguaje, sino a un patrón compartido con los motores de búsqueda y otras herramientas digitales: las personas tienden a confirmar sus creencias iniciales. Esto se traduce en que, cuando un usuario realiza una consulta a ChatGPT, lo hace ya desde una postura determinada. Por ejemplo, si alguien sospecha que cierto alimento es dañino, probablemente formulará su pregunta de forma que ya presupone esa posibilidad. El sistema, a su vez, genera respuestas que encajan con esa narrativa, confirmando la suposición en lugar de cuestionarla.

Esta interacción desencadena un bucle de retroalimentación. Cuanto más pregunta el usuario en esa dirección, más contenido relacionado obtiene, lo que le lleva a profundizar aún más en esa perspectiva. Este proceso es lo que se conoce como “cascada de profundidad” y puede dar lugar a una especie de efecto túnel, donde se van perdiendo matices, dudas o puntos de vista alternativos. En el caso de temas sensibles como la política, la salud, las creencias personales o las teorías de la conspiración, este efecto puede ser especialmente problemático, ya que facilita la consolidación de ideas erróneas o distorsionadas.

Uno de los elementos clave de este fenómeno es la forma en que los modelos responden a las preguntas: su diseño se basa en ofrecer respuestas que parezcan relevantes, coherentes y satisfactorias según el contexto de la conversación. Sin embargo, esto no siempre equivale a una respuesta imparcial o equilibrada. En muchos casos, el sistema simplemente sigue la lógica del usuario y refuerza su hipótesis, en lugar de introducir elementos de contraste o una visión crítica.

Aunque el artículo no presenta una solución definitiva, sí deja entrever algunas estrategias útiles para contrarrestar este efecto. En primer lugar, es esencial que los usuarios sean conscientes de sus propios sesgos y del modo en que estos influyen en la formulación de preguntas. También se sugiere que se practique la variación intencional de las consultas, explorando diferentes formas de abordar un mismo tema. Finalmente, se menciona la posibilidad de diseñar modelos que incluyan mecanismos para ofrecer perspectivas alternativas o advertencias sobre posibles sesgos presentes en la conversación.

En conclusión, ChatGPT tiene una base científica y psicológica sólida. La tendencia humana a buscar confirmación de nuestras ideas, unida al diseño de las respuestas generadas por IA, puede llevarnos a reforzar creencias sin darnos cuenta. Este descubrimiento invita tanto a usuarios como a desarrolladores a promover un uso más consciente, crítico y equilibrado de estas herramientas.

Tomás García Merino presenta «Sentir el viento». Planeta Biblioteca 2025/06/09

Tomás García Merino presenta «Sentir el viento».

Planeta Biblioteca 2025/06/09

ESCUCHAR

Descargar

Sentir el viento marca la incursión de Tomás García Merino en el género negro, tras una trayectoria previa centrada en la novela realista e histórica. Ambientada en escenarios cercanos como Béjar, Salamanca, Mogarraz y Candelario, la historia arranca durante el Festival de Blues de Béjar y busca implicar emocionalmente al lector situando los crímenes en lugares cotidianos. La obra destaca por un estilo cinematográfico, un ritmo ágil y una construcción cuidada de personajes que evitan los clichés del género. García Merino apuesta por una trama contemporánea bien documentada, en la que el entorno juega un papel clave en la tensión narrativa.

Comprar la novela Sentir el viento