Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

Consensus: motor de búsqueda impulsado por inteligencia artificial (IA) para facilitar la investigación científica y académica con fuentes confiables

Consensus

https://consensus.app/

Consensus es un motor de búsqueda impulsado por inteligencia artificial (IA) diseñado para facilitar la investigación científica y académica. A diferencia de los motores de búsqueda tradicionales, Consensus permite a los usuarios realizar preguntas en lenguaje natural y obtener respuestas basadas en evidencia extraídas de más de 200 millones de artículos científicos revisados por pares. La plataforma utiliza modelos de lenguaje avanzados para analizar y sintetizar la información relevante, proporcionando resúmenes claros y concisos con citas directas a las fuentes originales.

Cuando un usuario formula una pregunta, Consensus realiza una búsqueda en su base de datos de artículos científicos y utiliza algoritmos de IA para generar una respuesta que resume los hallazgos más relevantes. Cada respuesta incluye citas numeradas que corresponden a los artículos de donde se extrajo la información, permitiendo a los usuarios verificar y profundizar en las fuentes originales .

Consensus es especialmente útil para investigadores, estudiantes y profesionales que buscan acceder rápidamente a información científica confiable. Es ideal para:

  • Realizar revisiones de literatura
  • Obtener resúmenes de estudios científicos.
  • Identificar tendencias y consensos en la investigación.
  • Generar contenido académico respaldado por evidencia.

Los detectores de escritura con IA marcan erróneamente el 60 % de textos de hablantes no nativos como escritos por IA

Myers, Andrew. «AI-Detectors Biased Against Non-Native English WritersStanford Institute for Human-Centered Artificial Intelligence, 15 de mayo de 2023. https://hai.stanford.edu/news/ai-detectors-biased-against-non-native-english-writers.

Los detectores de escritura con IA funcionan mejor con hablantes nativos de inglés. Los ensayos de estudiantes nacidos en EE. UU. fueron evaluados con alta precisión, mientras que los textos de hablantes no nativos fueron clasificados erróneamente como generados por IA en más del 60 % de los casos.

Un estudio de la Universidad de Stanford revela que los detectores de contenido generado por inteligencia artificial (IA) presentan sesgos significativos contra los escritores no nativos de inglés. Estos sistemas, diseñados para identificar textos producidos por IA, muestran una precisión notablemente baja al evaluar ensayos escritos por estudiantes cuya lengua materna no es el inglés.

La investigación, dirigida por el profesor James Zou, encontró que mientras los detectores alcanzaban una precisión casi perfecta al evaluar ensayos de estudiantes nacidos en EE. UU., clasificaron erróneamente más del 61% de los ensayos del TOEFL (Test of English as a Foreign Language) como generados por IA. Además, todos los detectores identificaron como IA 18 de los 91 ensayos evaluados (19%), y al menos uno de ellos marcó 89 de los 91 ensayos (97%) como potencialmente generados por IA.

Este sesgo se atribuye al uso de métricas como la «perplejidad», que mide la complejidad lingüística. Los escritores no nativos suelen obtener puntuaciones más bajas en aspectos como riqueza léxica, diversidad léxica, complejidad sintáctica y gramatical, lo que los hace más susceptibles a ser identificados erróneamente como generadores de IA. Además, los sistemas actuales son fácilmente manipulables mediante técnicas como la «ingeniería de indicaciones», donde se solicita a una IA generativa que reescriba un texto utilizando un lenguaje más sofisticado, lo que puede engañar a los detectores.

Los autores del estudio advierten sobre los riesgos éticos de utilizar estos detectores sin una evaluación rigurosa, ya que podrían llevar a acusaciones injustas o sanciones para estudiantes y trabajadores extranjeros. Proponen evitar su uso en entornos educativos con alta presencia de hablantes no nativos de inglés y sugieren el desarrollo de métodos más sofisticados, como la incorporación de marcas de agua digitales en los textos generados por IA, para mejorar la fiabilidad de los sistemas de detección.

Fiabilidad de los detectores de escritura con IA

La fiabilidad de los detectores de texto generado por inteligencia artificial (IA) es un tema de creciente preocupación y debate en diversos ámbitos, como la educación, el periodismo y la investigación académica. Aunque existen herramientas comerciales que afirman altos niveles de precisión, diversos estudios han evidenciado limitaciones significativas en su desempeño.

Investigaciones han revelado que muchos detectores de IA presentan tasas de precisión inferiores al 80%. Por ejemplo, un estudio realizado por Weber-Wulff y colaboradores en 2023 evaluó 14 herramientas de detección, incluyendo Turnitin y GPTZero, y encontró que «todos puntuaron por debajo del 80% de precisión, y solo 5 superaron el 70%» . Además, estas herramientas tienden a clasificar los textos más como humanos que como generados por IA, y su precisión disminuye al parafrasear el contenido.

Un estudio adicional de la Universidad de Maryland destacó que los detectores actuales no son fiables en escenarios prácticos, con un rendimiento apenas superior al de un clasificador aleatorio. Además, técnicas de parafraseo pueden reducir significativamente la tasa de detección.

El uso de detectores de IA también ha suscitado preocupaciones éticas. Investigaciones han demostrado que estos sistemas tienden a clasificar erróneamente los textos de personas no nativas en inglés como generados por IA. Por ejemplo, un estudio reveló que los ensayos de escritores no nativos fueron clasificados como generados por IA en un 61,3% de los casos, en comparación con solo el 10% de los ensayos de escritores nativos.

Además, se ha observado que los detectores de IA pueden tener dificultades para identificar contenido generado por modelos avanzados como GPT-4, lo que plantea desafíos adicionales para su aplicación en contextos académicos y profesionales.

Dado el panorama actual, se recomienda utilizar los detectores de IA como herramientas complementarias y no como métodos definitivos para evaluar la autoría de un texto. Es esencial considerar el contexto y aplicar un juicio humano informado al interpretar los resultados de estas herramientas. Además, se destaca la importancia de desarrollar tecnologías de detección más avanzadas y éticamente responsables para abordar los desafíos emergentes en la identificación de contenido generado por IA.

Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación

Teruel Rodríguez, Laura, María Livia García Faroldi y José Alberto España Pérez, eds. Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación. Valencia: Tirant lo Blanch, 2025 https://open.tirant.com/cloudLibrary/ebook/info/9788411839358

Esta obra colectiva reúne a expertos en comunicación, periodismo, derecho y tecnología para analizar cómo los medios de comunicación enfrentan los desafíos impuestos por la desinformación en la era digital.

El volumen se estructura en varios capítulos que abordan temas como el impacto de la inteligencia artificial en la creación y difusión de contenidos, la proliferación de discursos de odio y teorías de la conspiración en plataformas digitales, y las estrategias de verificación empleadas por los medios para garantizar la veracidad de la información. Cada capítulo ofrece una perspectiva crítica y multidisciplinar, destacando tanto los riesgos como las oportunidades que presentan estas problemáticas para el ejercicio del periodismo y la democracia.

Además de los análisis teóricos, el libro incluye estudios de caso que ilustran cómo los medios de comunicación han respondido a situaciones concretas de desinformación, proporcionando ejemplos prácticos y lecciones aprendidas. Se presta especial atención a la formación de los profesionales de la comunicación en habilidades digitales y éticas, así como al papel de las instituciones y la legislación en la regulación de la información en línea.

Esta obra está dirigida a estudiantes, investigadores y profesionales interesados en comprender los retos actuales de la comunicación en el contexto digital y en desarrollar estrategias efectivas para combatir la desinformación. Ofrece una visión amplia y actualizada de los desafíos y oportunidades que presentan estas problemáticas en el ámbito mediático.

Inteligencia artificial y nuevas tecnologías en las ciencias sociales y en las humanidades

Inteligencia artificial y nuevas tecnologías en las ciencias sociales y en las humanidades, coordinado por Ana Cristina del Paso Gallego, Luis Gabriel Martínez Montenegro y Marcos Sánchez-Elez Martín, es una obra colectiva publicada por Tirant lo Blanch en 2025

Texto completo

Este volumen reúne catorce capítulos escritos por cuarenta expertos que analizan cómo la inteligencia artificial (IA) y las nuevas tecnologías están transformando la investigación, la docencia y la práctica profesional en diversas disciplinas de las ciencias sociales y las humanidades. Los temas abordados incluyen el impacto de la IA en áreas como la economía, la comunicación, la educación, el trabajo social, la filología, la psicología, el derecho, el periodismo, la ciberseguridad y la ética. Cada capítulo ofrece una perspectiva crítica y multidisciplinar, destacando tanto los beneficios como los riesgos asociados al uso de estas tecnologías.

Además de los capítulos principales, el libro presenta comunicaciones seleccionadas de un congreso celebrado en la Universidad Complutense de Madrid en abril de 2024, que aportan casos prácticos y reflexiones adicionales sobre la aplicación de la IA en contextos reales.

Esta obra está dirigida a estudiantes, investigadores y profesionales interesados en comprender cómo la IA y las nuevas tecnologías están moldeando el futuro de las ciencias sociales y las humanidades. Ofrece una visión amplia y actualizada de los desafíos y oportunidades que presentan estas herramientas en el ámbito académico y profesional.

La IA está haciendo que leer libros parezca obsoleto y los estudiantes tienen mucho que perder

Baron, Naomi S. – “AI Is Making Reading Books Feel Obsolete – and Students Have a Lot to Lose.The Conversation, August 14, 2023. https://theconversation.com/ai-is-making-reading-books-feel-obsolete-and-students-have-a-lot-to-lose-262680

El artículo aborda cómo la inteligencia artificial está cambiando la forma en que los estudiantes interactúan con la lectura y el aprendizaje.

«Se está gestando una tormenta perfecta para la lectura. La inteligencia artificial (IA) ha llegado en un momento en el que tanto los niños como los adultos ya dedicaban menos tiempo a leer libros que en un pasado no muy lejano. Como lingüista, estudio cómo la tecnología influye en la forma en que las personas leen, escriben y piensan. Esto incluye el impacto de la IA, que está cambiando drásticamente la forma en que las personas se relacionan con los libros u otros tipos de escritos, ya sea por obligación, para investigar o por placer. Me preocupa que la IA esté acelerando un cambio continuo en el valor que las personas otorgan a la lectura como actividad humana».

Naomi S. Barón

La autora, profesora y experta en educación, señala que las herramientas de IA, como los resúmenes automáticos y los asistentes de escritura, están reduciendo la necesidad de leer libros completos. Esto puede llevar a una comprensión superficial de los contenidos y a una pérdida de habilidades críticas como el análisis profundo y la reflexión personal.

Además, se destaca que la dependencia de la IA para tareas académicas puede disminuir la capacidad de los estudiantes para desarrollar habilidades cognitivas esenciales, como la concentración sostenida y el pensamiento crítico. La autora advierte que esta tendencia podría tener consecuencias a largo plazo en la formación intelectual de las nuevas generaciones.

Por último, se sugiere que, aunque la IA puede ser una herramienta útil, no debe reemplazar la experiencia de lectura profunda y reflexiva que los libros ofrecen. Se hace un llamado a equilibrar el uso de la tecnología con métodos tradicionales de aprendizaje para preservar el desarrollo cognitivo integral de los estudiantes.

Este análisis invita a reflexionar sobre cómo la tecnología está transformando la educación y la importancia de mantener prácticas que fomenten el pensamiento crítico y la comprensión profunda.

Novedades en el sistema de bibliotecas Alma

Ex Libris. 2025. “The Alma Roadmap for 2025-2026: Ex Libris Unveils New Features and Strategic Plans.” Ex Libris, 18 de agosto de 2025. https://exlibrisgroup.com/announcement/the-alma-roadmap-for-2025-2026-ex-libris-unveils-new-features-and-strategic-plans/

Ex Libris ha presentado su hoja de ruta actualizada para Alma, la plataforma insignia de servicios bibliotecarios, con planes estratégicos que se desplegarán entre la segunda mitad de 2025 y 2026. El enfoque principal está en integrar innovaciones tecnológicas avanzadas, simplificar los flujos de trabajo y fortalecer las funciones de colaboración entre bibliotecas. Esta estrategia ha sido desarrollada en conjunto con la comunidad de usuarios de Alma, lo que garantiza que las nuevas funcionalidades respondan a las necesidades reales de las instituciones.

Innovaciones clave

1. Integración de inteligencia artificial

Se prevé lanzar Alma AI-Powered Insights, una herramienta basada en IA que proporcionará análisis detallados del uso de la plataforma para respaldar la toma de decisiones por parte de las bibliotecas

2. Edición de datos enlazados abiertos

Se incorporará un Linked Open Data Editor en acceso anticipado (Early Access), que facilitará el manejo y la flexibilidad en el uso de datos abiertos enlazados dentro del sistema

3. Análisis de acceso abierto

La función Open Access Analytics ofrecerá indicadores útiles para optimizar la asignación de recursos y maximizar el valor de las inversiones institucionales

4. Colaboración en red

Se implementarán mejoras en la colaboración entre bibliotecas, facilitando el trabajo conjunto dentro de redes institucionales y promoviendo iniciativas compartidas

5. Gestión de desarrollo de colecciones

Se presentarán dashboards nuevos para la gestión de colecciones desde oficinas centrales, permitiendo una coordinación más eficiente entre las bibliotecas de una misma red

Entre las novedades más destacadas figuran el Linked Open Data Editor, que permitirá un manejo más flexible y controlado de datos abiertos enlazados; Alma AI-Powered Insights, herramienta diseñada para ofrecer análisis e inteligencia artificial que apoyen la toma de decisiones; y Open Access Analytics, que brindará indicadores para optimizar la asignación de recursos y maximizar el valor de las inversiones. Asimismo, las mejoras en las redes colaborativas facilitarán la cooperación interinstitucional, y los tableros de desarrollo de colecciones aportarán a oficinas centrales nuevas formas de gestión que beneficien a todas las bibliotecas asociadas.

El roadmap también contempla la expansión de Library Open Workflows, ya disponible de forma general, incorporando mejoras que cubrirán escenarios adicionales de trabajo bibliotecario. Esta evolución responde a la necesidad de ofrecer procesos más abiertos, integrados y adaptables a diferentes contextos institucionales.

En conjunto, la hoja de ruta de Alma proyecta un desarrollo sostenido y estructurado, con actualizaciones trimestrales y mantenimiento regular. El objetivo es claro: simplificar los procesos internos, incrementar la eficiencia operativa y aprovechar el potencial de la inteligencia artificial y la colaboración en red para ofrecer un mejor servicio a los usuarios finales. Con esta visión, Ex Libris busca consolidar a Alma como una plataforma flexible y preparada para responder a las demandas cambiantes del panorama bibliotecario.

Impacto del uso de la inteligencia artificial en el desarrollo cognitivo y emocional de niños y adolescentes

Masur, C. “Is AI Taking Over Your Kid’s Brain?Psychology Today, junio 12, 2025. https://www.psychologytoday.com/us/blog/parenting-matters/202506/is-ai-taking-over-your-kids-brain

Se analiza cómo el uso creciente de herramientas de inteligencia artificial (IA) por parte de niños y adolescentes —para tareas escolares, la redacción de ensayos y exámenes, o incluso para resolver conflictos interpersonales— puede tener efectos negativos en su desarrollo cognitivo y emocional

Se presenta un estudio del Pew Research Center que muestra que un 26 % de los adolescentes usan IA para tareas escolares, cifra que sube al 31 % entre adolescentes negros e hispanos, y entre estudiantes de 11.º y 12.º grado. Además, el 54 % considera aceptable usar ChatGPT para investigar y 29 % para resolver problemas matemáticos. Entre quienes conocen la plataforma, 79 % lo ve como herramienta válida para la investigación.

En el ámbito universitario, el uso de IA es aún más común, con un 86 % de estudiantes utilizándola para escribir, investigar y completar tareas de manera recurrente. Se desglosa cómo emplean estas herramientas: 69 % para buscar información, 42 % para corregir gramática, 33 % para resumir documentos, 28 % para parafrasear, y 24 % para redactar borradores iniciales.

Se expresa una preocupación central: al delegar tareas intelectuales en la IA, los jóvenes podrían ver afectadas capacidades esenciales como el razonamiento lógico, la construcción de argumentos convincente y la expresión precisa de ideas; habilidades que se desarrollan procesando ideas por cuenta propia.

Por todo ello, se plantean preguntas éticas y educativas: ¿Estamos sacrificando el pensamiento crítico y la autonomía intelectual al permitir una dependencia creciente de la IA? ¿O estamos simplemente adaptándonos a una tendencia inevitable, considerando que muchas profesiones ya integran estas herramientas en su práctica diaria —como la medicina o el derecho—?

Las habilidades del bibliotecario y las necesidades de la inteligencia artificial

Harper, Corey A., y Paul Groth. 2025. “The Librarian Skillset and the Needs of Artificial Intelligence.” Cataloging & Classification Quarterly. https://doi.org/10.1080/01639374.2025.2539787

En un contexto donde nuevos roles emergen en la industria, la academia y el gobierno —como los de gestión responsable de IA, ingeniería de sistemas de IA, entre otros— existe una sorprendente alineación entre lo que históricamente ha sido la formación bibliotecaria y lo que demanda el ecosistema tecnológico actual.

El artículo destaca que competencias centrales del bibliotecariado —como la organización de la información, la elaboración de documentación, la evaluación del impacto social y el trabajo colaborativo con comunidades de usuarios y desarrolladores— son altamente relevantes en el entorno de desarrollo de IA. Estas capacidades permiten, entre otras cosas, que los sistemas de IA sean más transparentes, éticos y contextualizados.

A fin de hacer tangible esta correspondencia, los autores realizan un mapeo estructurado entre las competencias definidas por la American Library Association (ALA) y los planes de estudio de Biblioteconomía e Información y las competencias requeridas por los roles emergentes en IA. Este ejercicio identificó cinco áreas clave de alineación: (1) IA responsable, (2) justicia social, (3) ingeniería de datos, (4) evaluación, y (5) trabajo con comunidades.

Finalmente, el artículo subraya que el perfil bibliotecario —tradicionalmente vinculado a la gestión del conocimiento, la ética y el acceso equitativo a la información— tiene un potencial significativo para influir en el desarrollo y la supervisión de sistemas de IA. En particular, aporta una perspectiva orientada a la equidad, la transparencia y la inclusión, que resulta fundamental en la gobernanza de tecnologías emergentes.