Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

¿Por qué están desapareciendo los espacios silencios en las bibliotecas?

Gioia, Ted. “Why Are Quiet Spaces Disappearing?The Honest Broker (blog), July 26, 2025.

Se analiza cómo los espacios silenciosos están desapareciendo y qué consecuencias tiene esta pérdida en nuestra vida cotidiana.

El autor comienza relatando la experiencia de un amigo que viaja en los trenes Amtrak y aprovecha el llamado Quiet Car, donde las normas establecen hablar en voz baja, prohibir llamadas telefónicas y usar dispositivos electrónicos solo con auriculares a volumen reducido. Sin embargo, en la práctica, este espacio no siempre es silencioso y muchas veces resulta tan ruidoso como el resto del tren. Gioia conecta este ejemplo con un fenómeno más amplio: la desaparición de la tranquilidad en lugares donde antes se consideraba esencial. Museos y bibliotecas, antaño santuarios de silencio, ahora están llenos de ruido. Los museos se convierten en espacios bulliciosos, con niños jugando y familias conversando en voz alta. Las bibliotecas, que durante décadas eran templos de quietud vigilados por bibliotecarios que imponían el silencio, se han transformado en centros sociales que incluyen cafeterías y zonas de reunión, promoviendo deliberadamente la interacción antes reprimida.

El autor sugiere que uno de los factores que ha acelerado este cambio es la pandemia. Durante el confinamiento se modificaron las normas sociales y, al regresar a los espacios compartidos, muchas personas olvidaron o ignoraron las reglas de cortesía: llamadas en altavoz, música sin auriculares, reuniones grabadas sin cuidado. Gioia compara esta situación con la teoría de las “ventanas rotas”: cuando un espacio se percibe como desordenado o ruidoso, la falta de respeto se multiplica rápidamente. La consecuencia es que los espacios públicos que antes eran refugios de silencio hoy están contaminados por el ruido constante.

Ante este panorama, Gioia plantea la necesidad de buscar refugios alternativos. En la vida urbana, los lugares más accesibles son los privados: cerrar la puerta de una habitación, aislarse en un baño o, para quienes tienen recursos, retirarse a espacios naturales como bosques, montañas o jardines. Sin embargo, advierte que estos entornos suelen ser limitados o costosos, por lo que propone recuperar o reinventar espacios de contemplación, como ermitas modernas o centros de relajación, que ofrezcan la posibilidad de “chill out” sin presiones comerciales. Incluso lo sugiere como una oportunidad de negocio y, al mismo tiempo, como una reivindicación cultural que puede empezar en instituciones no lucrativas como bibliotecas y museos.

Las reacciones de la comunidad refuerzan este diagnóstico. Un trabajador de biblioteca comenta que, aunque existen áreas silenciosas, en la mayoría de los espacios los niveles de ruido varían y muchos bibliotecarios evitan pedir silencio por miedo a confrontaciones. Otros usuarios señalan que las bibliotecas se han convertido en centros comunitarios, supliendo la falta de “terceros espacios” gratuitos, lo que ha hecho que el silencio deje de ser prioridad. Entre los comentarios predomina la nostalgia por la cultura del “shushing” (onomatopeya “shhh”) y la frustración por la pérdida de zonas de calma en la vida urbana.

Evaluación de la eficacia de las herramientas de detección de contenido generado por IA

Elkhatat, Ahmed M., Khaled Elsaid y Saeed Almeer. «Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text.» International Journal for Educational Integrity 19, artículo 17 (2023). https://doi.org/10.1007/s40979-023-00140-5.

Se evalúa la eficacia de diversas herramientas de detección de contenido generado por inteligencia artificial (IA), como OpenAI, Writer, Copyleaks, GPTZero y CrossPlag, para diferenciar entre textos escritos por humanos y generados por IA.

Para la investigación, se generaron 15 párrafos con el modelo ChatGPT 3.5, 15 con el modelo 4 y 5 respuestas de control escritas por humanos, todas sobre el tema de torres de enfriamiento en procesos de ingeniería. Las herramientas evaluadas incluyeron OpenAI, Writer, Copyleaks, GPTZero y CrossPlag.

Los resultados indicaron que las herramientas de detección fueron más precisas al identificar contenido generado por GPT-3.5 que por GPT-4. Sin embargo, al aplicarlas a las respuestas de control escritas por humanos, las herramientas mostraron inconsistencias, produciendo falsos positivos y clasificaciones inciertas. Estos hallazgos subrayan la necesidad de desarrollar y perfeccionar las herramientas de detección de contenido generado por IA, ya que el contenido generado por IA se vuelve más sofisticado y difícil de distinguir del texto escrito por humanos.

Aunque las herramientas de detección de IA ofrecen una funcionalidad valiosa, su fiabilidad y precisión actuales son limitadas. Es crucial abordar estos desafíos para garantizar una evaluación justa y precisa en diversos contextos académicos y profesionales.

Capacidades de generación de texto de las principales herramientas de inteligencia artificial

Las capacidades de generación de texto de las principales herramientas de inteligencia artificial varían significativamente de un modelo a otro, y esto determina no solo la longitud de las respuestas que pueden ofrecer, sino también su utilidad en diferentes contextos.

En el caso de GitHub Copilot, su límite de 2.048 tokens (aproximadamente entre 1.000 y 1.500 palabras) responde a su orientación hacia la asistencia en programación. Copilot no está diseñado para elaborar ensayos largos o análisis extensos, sino para generar fragmentos de código, explicaciones puntuales y apoyo inmediato a desarrolladores. Su límite reducido refleja la necesidad de respuestas rápidas, concisas y contextualizadas en un entorno de trabajo técnico.

Por otro lado, ChatGPT en su versión GPT-3.5 ya dobla esa capacidad, llegando a los 4.096 tokens, lo que equivale a entre 1.500 y 3.000 palabras. Este salto le permite manejar conversaciones más fluidas, mantener cierta coherencia en textos largos y elaborar respuestas con un mayor nivel de detalle. Sin embargo, al tratarse de una versión intermedia, todavía presenta dificultades cuando se le pide que mantenga un hilo narrativo o argumentativo muy prolongado.

La mejora con ChatGPT (GPT-4) es significativa: su límite de 8.192 tokens le otorga la posibilidad de trabajar con entre 3.000 y 6.000 palabras, lo que ya le permite redactar documentos académicos completos, informes extensos o incluso capítulos de libros. Esta capacidad no solo se traduce en mayor volumen de texto, sino en una mejor gestión del contexto, lo que evita repeticiones y aporta coherencia a producciones largas.

En la misma línea, Claude (Anthropic) se sitúa en un rango muy competitivo, con unos 9.000 tokens (aproximadamente 3.500 a 6.500 palabras). Aunque la diferencia con GPT-4 en números absolutos no parece tan grande, su arquitectura está pensada para procesar instrucciones complejas y sostener interacciones prolongadas, lo que lo convierte en una herramienta atractiva para quienes necesitan trabajar con grandes volúmenes de información en una sola sesión.

El caso de Gemini (Google DeepMind) es particularmente interesante porque ofrece una gran flexibilidad: sus modelos abarcan desde 8.192 hasta 32.768 tokens, lo que equivale a textos de entre 3.000 y 12.000–25.000 palabras. Esto lo sitúa como uno de los modelos más potentes en cuanto a capacidad de entrada y salida de información, lo cual es clave en tareas de investigación avanzada, redacción de informes técnicos de gran extensión o síntesis de múltiples fuentes documentales.

Finalmente, Perplexity AI, aunque no tiene un límite fijo, se mueve en torno a las 6.000 palabras, situándose en un rango intermedio. Su particularidad no está tanto en la longitud como en su integración con la búsqueda web, lo que le da una ventaja en la actualización de la información frente a modelos cerrados.

Dominios de conciencia sobre la IA en la educación: un marco integral para su integración ética y pedagógica

Dilkes, Dani, y Centre for Teaching and Learning. Domain of AI-Awareness for Education. London, Ontario: Western University, Instructional Technology Resource Centre (ITRC), 2025. eCampusOntario Pressbooks. https://ecampusontario.pressbooks.pub/aihighereducation

El libro Domain of AI-Awareness for Education, desarrollado por Dani Dilkes y el Centre for Teaching and Learning, propone un marco comprensivo para guiar la integración de la inteligencia artificial generativa (IA) en entornos educativos. Organizado en siete dominios fundamentales, ofrece una mirada multidimensional que abarca desde conocimientos técnicos hasta consideraciones éticas, emocionales y pedagógicas —e incluso cómo estos se entrelazan con valores y contextos sociopolíticos más amplios.

  1. Conocimiento (Knowledge): Esta sección introduce los principios básicos de la IA generativa, como qué es y cómo funcionan los modelos de lenguaje (LLMs), además de reflexionar sobre su presencia en el entorno educativo.
  2. Ética (Ethics): Explora temas críticos como la privacidad, propiedad intelectual, accesibilidad, impacto ambiental, sesgos y desinformación. Propone reflexiones profundas sobre las implicaciones éticas que emergen al emplear IA en contextos educativos.
  3. Afecto (Affect): Se centra en la inteligencia emocional y cómo las respuestas emocionales hacia la IA influyen en nuestra disposición a utilizarla, particularmente en entornos docentes y de aprendizaje.
  4. Habilidades (Skill): Aborda técnicas concretas como la ingeniería de prompts (prompt engineering) y la evaluación crítica de los resultados generados por IA. Aquí se busca fortalecer la competencia práctica para un uso consciente y eficaz.
  5. Valores (Values): Incluye la reflexión sobre los valores individuales y profesionales, la integridad académica y cómo dichos valores informan la práctica docente. Destaca también la importancia de redactar declaraciones en los sílabos que clarifiquen las políticas de IA de manera alineada con valores institucionales.
  6. Pedagogía (Pedagogy): Revisa cómo la IA puede integrarse en los procesos de enseñanza y aprendizaje: desde su impacto en los resultados de aprendizaje y diseño de evaluaciones, hasta niveles de integración de IA y su uso como herramienta de andamiaje (scaffolding).
  7. Interconexión (Interconnectedness): Aunque no siempre se detalla por separado en los capítulos, este dominio aborda cómo la IA se inserta en sistemas más amplios, considerando relaciones sociales, políticas y estructurales.

Finalmente, el recurso es dinámico: se actualiza periódicamente para adaptarse a la evolución de la IA generativa y refinar este marco de concienciación

BookAI.chat: herramienta de inteligencia artificial que permite a los usuarios interactuar con libros a través de una interfaz de chat

https://www.bookai.chat/

BookAI.chat es una herramienta de inteligencia artificial que permite a los usuarios interactuar con libros a través de una interfaz de chat. Solo necesitas proporcionar el título y el autor del libro, y la IA se encarga del resto, generando respuestas basadas en el contenido del libro. Esta plataforma utiliza modelos avanzados de lenguaje como GPT-3 y GPT-4 para ofrecer una experiencia de lectura interactiva y personalizada.

Características principales:

  • Interacción con cualquier libro: Puedes agregar nuevos libros a tu biblioteca proporcionando su título y autor, sin necesidad de leerlos previamente.
  • Multilingüe: Soporta más de 30 idiomas, lo que permite interactuar con los libros en tu lengua materna o en el idioma que estás aprendiendo.
  • Basado en IA avanzada: Utiliza los modelos de lenguaje GPT-3 y GPT-4 para generar respuestas coherentes y contextuales basadas en el contenido del libro.
  • Acceso gratuito: La plataforma ofrece acceso gratuito, permitiendo a los usuarios explorar y conversar con una amplia variedad de libros sin costo alguno.

Esta herramienta es ideal para cualquier persona interesada en profundizar en el contenido de un libro sin necesidad de leerlo completamente. Sin embargo, es importante tener en cuenta que, aunque la IA puede proporcionar información útil y respuestas detalladas, la interpretación y el análisis crítico del texto siguen siendo esenciales para una comprensión profunda.

OpenAlex y OJS: hacia la indexación universal

Chavarro, Diego; Juan Pablo Alperin; y John Willinsky. 2025. “On the Open Road to Universal Indexing: OpenAlex and Open Journal Systems.” Quantitative Science Studies (abril de 2025). https://doi.org/10.1162/qss.a.17/132192

Se analiza cómo OpenAlex indexa revistas que utilizan el sistema de gestión editorial de código abierto Open Journal Systems (OJS), lo que refleja dos iniciativas de software libre enfocadas en expandir la participación en la producción académica.

A partir de una base de datos de 47 625 revistas OJS activas, se observa que el 71 % de estas revistas tienen al menos un artículo indexado en OpenAlex. Además, el estudio destaca que el papel de los DOI proporcionados por Crossref es central: el 97 % de las revistas que emplean DOIs de Crossref están incluidas en OpenAlex, lo que sugiere que la disponibilidad de estos identificadores persistentes es clave para aparecer en el índice.

No obstante, esta dependencia tecnológica también manifiesta inequidades estructurales: las revistas con recursos limitados —en especial aquellas provenientes de países de bajos ingresos (que representan el 47 % del total de revistas OJS) y aquellas publicadas en idiomas distintos al inglés (entre el 55 % y 64 % de las revistas OJS)— presentan una representación significativamente menor en OpenAlex. El estudio plantea implicaciones teóricas importantes sobre cómo la infraestructura académica perpetúa tales disparidades, argumentando que incluso bases de datos bibliográficas de acceso abierto como OpenAlex deben abordar activamente las barreras financieras, infraestructurales y lingüísticas para promover un índice más equitativo a nivel mundial.

La mayoría de las personas usan IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada

«Major Survey Finds Most People Use AI Regularly at Work, but Almost Half Admit to Doing So InappropriatelyThe Conversation, 25 de agosto de 2025. https://theconversation.com/major-survey-finds-most-people-use-ai-regularly-at-work-but-almost-half-admit-to-doing-so-inappropriately-255405

Un estudio de la Universidad de Tecnología de Queensland revela que la mayoría de los empleados usa IA regularmente en el trabajo, pero casi la mitad admite hacerlo de manera inapropiada. Muchos desconocen las limitaciones de estas herramientas, lo que puede generar contenido inexacto o conflictos de responsabilidad. Los expertos recomiendan formación, políticas claras y cultura de responsabilidad digital para un uso ético y eficaz de la IA.

Un reciente estudio realizado por la Universidad de Tecnología de Queensland analiza cómo los empleados utilizan la inteligencia artificial (IA) en su entorno laboral y revela hallazgos preocupantes. La encuesta, que incluyó a más de 1.000 trabajadores de diferentes sectores, muestra que la mayoría de ellos emplea herramientas de IA, como ChatGPT, de manera regular para redactar correos electrónicos, informes, presentaciones y otro tipo de documentación profesional. Este fenómeno refleja la rápida adopción de la IA generativa en tareas cotidianas, pero también evidencia un uso que no siempre sigue buenas prácticas ni criterios éticos claros

A pesar de su popularidad, casi la mitad de los encuestados admite utilizar la IA de manera inapropiada. Muchos no comprenden completamente cómo funcionan estas herramientas ni sus limitaciones, lo que puede derivar en la producción de contenido inexacto, sesgado o incluso plagio involuntario. Además, el estudio señala que alrededor del 30 % de los participantes ha delegado en la IA tareas que originalmente correspondían a otros colegas, generando conflictos de responsabilidad y cuestionamientos éticos en el lugar de trabajo. Los investigadores enfatizan que estas prácticas pueden afectar tanto la productividad como la confianza dentro de los equipos.

El estudio también identifica diferencias significativas según la edad y el nivel educativo de los empleados. Los trabajadores más jóvenes tienden a adoptar la IA con mayor frecuencia, pero son también los que más reportan un uso inapropiado. Por otro lado, aquellos con formación técnica tienden a utilizar estas herramientas con mayor comprensión de sus riesgos, reduciendo la probabilidad de errores o mal uso. Esto sugiere la importancia de la formación y la alfabetización digital como factores clave para un uso responsable de la IA en el trabajo.

Los expertos consultados recomiendan que las organizaciones implementen políticas claras sobre el uso de la IA, incluyendo guías de buenas prácticas, límites en la delegación de tareas y procedimientos de verificación de contenido. También se sugiere fomentar una cultura de transparencia y responsabilidad digital, asegurando que los empleados comprendan que el uso inadecuado puede tener consecuencias legales, éticas y de reputación. El objetivo es equilibrar la eficiencia que la IA ofrece con la integridad y confiabilidad del trabajo realizado.

Aunque la inteligencia artificial se ha convertido en una herramienta cotidiana en el entorno laboral, su adopción rápida sin capacitación ni supervisión adecuada puede generar riesgos importantes. La clave está en la educación digital, la claridad en las políticas internas y la cultura de responsabilidad, para que la IA mejore la productividad sin comprometer la ética, la precisión o la confianza en los equipos de trabajo.

El programa PISA integrará alfabetización mediática e inteligencia artificial (IA) en 2029

Organisation for Economic Co-operation and Development (OECD). “PISA 2029 Media & Artificial Intelligence Literacy (MAIL).” OECD, consultado April 2025. https://www.oecd.org/en/about/projects/pisa-2029-media-and-artificial-intelligence-literacy.html

Según se indica, la nueva edición pondrá en el centro del análisis y evaluación escolar competencias como el pensamiento crítico, la conciencia algorítmica y la capacidad de evaluar críticamente los medios, reflejando la necesidad de preparar a los estudiantes para un entorno digital cada vez más complejo.

El programa PISA, desarrollado por la Organización para la Cooperación y el Desarrollo Económicos (OCDE), es reconocido por evaluar las habilidades de estudiantes de 15 años en lectura, matemáticas y ciencias en contextos del mundo real. La edición de 2029 incluye un nuevo dominio innovador: la alfabetización mediática y en inteligencia artificial, conocida como MAIL (Media & Artificial Intelligence Literacy), que amplía significativamente el alcance tradicional de la evaluación. El dominio MAIL busca evaluar si los estudiantes han tenido oportunidades de aprender a participar de modo proactivo y crítico en un mundo mediado por herramientas digitales y de inteligencia artificial.

La evaluación MAIL se diseñará como un entorno simulado—incluyendo redes sociales, internet y herramientas generativas de IA—que permitirá evaluar de forma realista competencias relacionadas con el análisis de credibilidad del contenido digital, el uso ético de la IA y la colaboración en entornos digitales.

La edición de 2029 planteará una agenda educativa más adaptativa e integral, centrada en la alfabetización mediática (comprensión crítica de contenido digital y medios) y en la alfabetización sobre IA, lo que incluye entender cómo funcionan los algoritmos, cómo influyen en la sociedad y cómo interactuar con las herramientas digitales de manera ética e informada.

Este cambio significativo en PISA orienta a las escuelas y responsables de políticas educativas hacia una actualización de los currículos. Es esencial que las instituciones incluyan en sus programas de estudios contenidos específicos sobre IA y medios digitales, y que desarrollen metodologías que evalúen estas competencias emergentes. De este modo, no solo se adaptan a los cambios en las herramientas de evaluación internacional, sino que contribuyen a formar estudiantes más preparados para un mundo donde la tecnología digital y algorítmica es omnipresente.

Informe OBS: eLearning 2024: tendencias emergentes e impacto de la inteligencia artificial en la educación superior

Espino, Erika. OBS Report: eLearning 2024 – Emerging Trends and the Impact of Artificial Intelligence in Higher Education, OBS Business School, 29 October 2024.

Texto completo

El uso de IA en e-learning es cada vez más evidente: se emplea en la supervisión de evaluaciones online, servicios bibliotecarios, procesos de admisión y en el análisis del comportamiento estudiantil mediante reconocimiento emocional, predicción de rendimiento y detección temprana de abandono. Por otra parte, la IA generativa está transformando los métodos de evaluación y permitiendo verificar la autenticidad del trabajo de los estudiantes.

Pese al reconocimiento del valor de la IA tanto por estudiantes como por profesores, el estudio detecta una alfabetización digital insuficiente en ambos grupos. Este déficit dificulta el uso efectivo de las plataformas digitales. Además, se observa una disminución en el pensamiento crítico y creativo, lo cual refuerza la necesidad de promover la integridad académica y la autonomía intelectual.

Los estudiantes de educación superior utilizan habitualmente plataformas como Blackboard, Moodle, Canvas y Google Classroom durante su formación online. La mayoría de ellos valora positivamente su primera experiencia en e-learning y lo recomienda. Asimismo, los estudiantes complementan su aprendizaje con herramientas de IA como ChatGPT, traductores y asistentes virtuales, vislumbrando un gran potencial para estas tecnologías en la creación de contenidos educativos.

a gamificación se destaca como una estrategia clave para modernizar el aprendizaje online, incentivando la motivación y la competencia saludable. Se fomenta además la interacción mediante discusiones sincrónicas y asincrónicas, resolución de estudios de caso y evaluación entre pares, todo ello acompañado de espacios colaborativos como documentos compartidos y salas de trabajo grupales, fundamentales para desarrollar habilidades de comunicación y trabajo en equipo. No obstante, uno de los grandes retos persiste en diseñar programas que promuevan una mayor interacción entre estudiantes y docentes, algo que depende tanto del involucramiento del profesorado como de la iniciativa y disciplina de los alumnos.

Un desafío crítico que afecta tanto a estudiantes como a docentes es la protección de la privacidad de los datos y la seguridad de la información, materia en la que aún se está avanzando activamente.

Hacer que la inteligencia artificial sea generativa para la educación superior

CNI. 2025. “Making Artificial Intelligence Generative for Higher Education: A Multi-Institution Research Project.” Accessed August 27, 2025. https://www.cni.org/topics/teaching-learning/making-artificial-intelligence-generative-for-higher-education-a-multi-institution-research-project

El proyecto Making Artificial Intelligence Generative for Higher Education, liderado por Ithaka S+R, reunió a 18 instituciones de educación superior de EE. UU. y Canadá para investigar cómo la inteligencia artificial generativa (IA generativa) está transformando la enseñanza, el aprendizaje y la investigación en la educación superior.

Desde su inicio en septiembre de 2023 hasta su culminación en el verano de 2025, el proyecto recopiló datos a través de entrevistas semiestructuradas con docentes e investigadores, proporcionando información valiosa sobre la adopción de la IA generativa en estos contexto.

Los hallazgos del estudio destacan que la IA generativa se está integrando de manera significativa en diversas áreas académicas, desde la creación de contenidos hasta la asistencia en la investigación. Sin embargo, también se identificaron desafíos importantes, como la necesidad de formación adecuada para los usuarios y la gestión de preocupaciones éticas relacionadas con el uso de estas tecnologías. Además, se subrayó la importancia de desarrollar infraestructuras de apoyo que faciliten la implementación efectiva de la IA generativa en el ámbito académico.

Este proyecto no solo proporciona una visión detallada de las tendencias actuales en el uso de la IA generativa en la educación superior, sino que también ofrece recomendaciones prácticas para instituciones que buscan integrar estas tecnologías de manera efectiva y ética en sus entornos académicos.