Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

Una herramienta de IA etiqueta más de 1000 revistas como «cuestionables» por prácticas posiblemente sospechosas

AI Tool Labels More Than 1000 Journals for ‘Questionable,’ Possibly Shady Practices.” Science, 29 de agosto de 2025.

Un nuevo estudio publicado en Science Advances presenta una herramienta basada en inteligencia artificial capaz de analizar aproximadamente 15 000 revistas de acceso abierto con el fin de detectar aquellas que podrían incurrir en prácticas editoriales cuestionables o «somosas».

El algoritmo identificó más de 1 400 títulos potencialmente problemáticos, de los cuales más de 1000 fueron confirmados tras revisión humana. Estos títulos no figuraban previamente en ninguna lista de vigilancia y varios pertenecen a editoriales de renombre, lo que resalta la gravedad del fenómeno

La herramienta evalúa múltiples señales de alerta, como tiempos de publicación inusualmente rápidos, tasas elevadas de autocitación, inconsistencias en los miembros del consejo editorial, y falta de transparencia en políticas de licenciamiento y tarifas. Muchos de estos criterios están alineados con las prácticas recomendadas por el Directory of Open Access Journals (DOAJ), que además sirve como base para el entrenamiento del modelo

Si bien el sistema mostró una tasa de falsos positivos—aproximadamente 350 publicaciones legítimas fueron erróneamente señaladas—los autores subrayan que el propósito de la herramienta no es reemplazar la evaluación humana, sino facilitar un primer cribado de alto volumen. La verificación final debe estar a cargo de expertos humanos en integridad académica.

Los investigadores esperan que esta tecnología funcione como un “cortafuegos para la ciencia”, ayudando a universidades, editores e índices académicos a resguardar la calidad del ecosistema científico ante el incremento de revistas predatorias que, de otro modo, podrían erosionar la confiabilidad del conocimiento. El estudio refleja una creciente necesidad de herramientas automatizadas que operen en conjunto con la evaluación humana para preservar la integridad de la publicación científica

¿Nuevas fuentes de inexactitud? Un marco conceptual para estudiar las alucinaciones de la IA.

Shao, Anqi. “New Sources of Inaccuracy? A Conceptual Framework for Studying AI Hallucinations.” Misinformation Review, Harvard Kennedy School, 27 de agosto de 2025. Disponible en Misinformation Review https://misinforeview.hks.harvard.edu/article/new-sources-of-inaccuracy-a-conceptual-framework-for-studying-ai-hallucinations/

Se enfatiza la necesidad de ampliar las teorías tradicionales de desinformación para incluir estas formas emergentes de inexactitud generada por IA. Propone adoptar una perspectiva que reconozca tanto los límites como las dinámicas propias de los sistemas probabilísticos y no humanos en la producción y transmisión de conocimiento.

Las “alucinaciones” generadas por sistemas de IA representan una categoría de inexactitud significativamente distinta de la desinformación humana, principalmente porque surgen sin ninguna intención deliberada. A través de ejemplos concretos —como el resumen satírico erróneo de Google que presentó una broma del Día de los Inocentes como hecho real—, la autora muestra cómo estas alucinaciones no son simples errores técnicos aislados, sino fenómenos de comunicación con implicaciones sociales reales.

Esto significa que las inexactitudes generadas por la IA no son producto de una intención humana consciente, sino de procesos probabilísticos automatizados y profundamente integrados en los ecosistemas institucionales de producción de información.

Shao destaca tres dimensiones clave en las que difiere una alucinación de IA respecto a la desinformación tradicional:

  1. Producción (Supply): Las respuestas falsas plausibles derivan de los procesos internos de los modelos, no de una fabricación intencional.
  2. Percepción (Demand): Los usuarios tienden a percibir estas respuestas como confiables justamente por su plausibilidad y confianza de presentación.
  3. Respuesta institucional: Las instituciones aún carecen de marcos adecuados para reconocer y responder a estos errores automáticos como formar parte del ecosistema comunicativo

Diez años al aire: Sistematización de la experiencia comunicativa de la Radio Revista Biblio 93-94, de la UNED, Costa Rica.

Villalobos-Laurent, Anne Alice, y Pamela Jiménez-Flores. “Diez años al aire: Sistematización de la experiencia comunicativa de la Radio Revista Biblio 93-94, de la UNED, Costa Rica.Espiga: Vida universitaria 24, no. 50 (julio-diciembre 2025): 111-154. https://revistas.uned.ac.cr/index.php/espiga/article/view/6059/8656

El artículo “Diez años al aire” presenta la sistematización de la experiencia de la Radio Revista Biblio 93-94, un proyecto radiofónico creado en 2013 por la Universidad Estatal a Distancia (UNED) de Costa Rica.

La Radio Revista Biblio 93-94 nació con un propósito claro: darle voz a la bibliotecología, abrir un espacio de participación a los estudiantes y mostrar cómo las bibliotecas pueden transformar la sociedad. En diez años, este programa se convirtió en un punto de encuentro único entre estudiantes y profesionales de la información, con 94 emisiones que sumaron más de 180.000 escuchas dentro y fuera de Costa Rica.

El proyecto surgió como una respuesta creativa a los retos de la educación a distancia. Los estudiantes de bibliotecología necesitaban un apoyo extra para fortalecer sus competencias, y la radio resultó ser el medio perfecto: accesible, económico y capaz de conectar con la audiencia a través de un lenguaje especializado pero cercano. El formato de “radio revista” ofreció dinamismo al combinar entrevistas, noticias y secciones diversas, lo que le dio frescura y abrió la puerta a la interacción.

Uno de los rasgos más valiosos fue la participación estudiantil. Jóvenes sin experiencia previa en comunicación asumieron con entusiasmo el reto de producir, locutar y seleccionar contenidos, desarrollando así habilidades comunicativas y tecnológicas que complementaron su formación. Gracias a este trabajo colaborativo, se trataron temas de gran relevancia: desde el perfil del profesional en bibliotecología, la promoción de la lectura y la accesibilidad, hasta el papel de las bibliotecas en la Agenda 2030 y experiencias internacionales.

Con el tiempo, la Radio Revista Biblio 93-94 rompió estereotipos sobre la profesión, fortaleció la alfabetización informacional y tendió puentes entre bibliotecología y comunicación. Más que un programa académico, se consolidó como un modelo inspirador de extensión universitaria y un laboratorio de aprendizaje colectivo, dejando lecciones que hoy sirven de guía para nuevas iniciativas en educación a distancia y comunicación educativa.

Por qué los modelos de lenguaje locales están ganando terreno frente a la IA en la nube

Bring your own brain? Why local LLMs are taking off.The Register, August 31, 2025. https://www.theregister.com/2025/08/31/local_llm_opinion_column/

El crecimiento del uso de modelos de lenguaje grande ejecutados localmente (local LLMs) responde en parte a una creciente desconfianza hacia las grandes empresas de tecnología y sus políticas de manejo de datos. Una encuesta del Pew Research Center indica que el 81 % de los estadounidenses teme el mal uso de sus datos por parte de compañías de IA. Este temor ha llevado incluso a que la FTC advirtiera a empresas de IA sobre el cumplimiento de sus promesas de protección de la privacidad.

Este contexto de desconfianza se agrava al revelar prácticas como la retención prolongada de datos. OpenAI afirma “olvidar” los chats si se lo solicita el usuario, pero en realidad está obligado por orden judicial a conservar dichos registros. Igualmente, la empresa Anthropic extendió recientemente sus reglas de retención de datos de 30 días a cinco años, y comenzó a entrenar sus modelos con datos de usuario. Aunque ofrece opciones para desactivar esa función, se trata de configuraciones opt-out, no opt-in.

El artículo también toca la dimensión de soberanía tecnológica. En Europa, algunos desarrolladores están adoptando LLMs locales para garantizar el cumplimiento del RGPD. Por ejemplo, la empresa alemana Makandra integró internamente un modelo de IA local para asegurar el manejo conforme a las normativas europeas.

Desde una perspectiva ideológica, promover los LLM locales representa una visión de democratización tecnológica. Emre Can Kartal, ingeniero de crecimiento en Jan (un proyecto de Menlo Research), destaca que el objetivo es «garantizar que la IA siga estando en manos de las personas, no concentrada en unos pocos gigantes tecnológicos».

Otro factor clave es el costo práctico. Muchas compañías de IA ofrecen computación a pérdida y tienden a restringir el acceso en momentos de alta demanda. Esto es frustrante para usuarios avanzados que pagan suscripciones costosas pero se encuentran limitados durante sesiones intensivas, por ejemplo, en programación asistida por IA.

Este cambio hacia LLMs locales refleja una tendencia creciente: mayor control sobre la privacidad, independencia frente a empresas externas, ahorro financiero, y una cultura que promueve la accesibilidad tecnológica para todos.

La brecha de género en el uso de la inteligencia artificial generativa

Otis, Nicholas G., Katelyn Cranney, Solene Delecourt, and Rembrand Koning. 2024. “Global Evidence on Gender Gaps and Generative AI.” OSF Preprints. October 14. doi:10.31219/osf.io/h6a7c.

Entre noviembre de 2022 y mayo de 2024, se observa que aproximadamente 42 % de los usuarios mensuales de ChatGPT y Perplexity eran mujeres, mientras que esa cifra baja al 31 % para Claude de Anthropic.

La disparidad aumenta al examinar las descargas móviles: entre mayo de 2023 y noviembre de 2024, solo 27,2 % de las descargas de la aplicación ChatGPT provinieron de mujeres; Claude y Perplexity muestran porcentajes igualmente bajos.

En cuanto al acceso a herramientas y aplicaciones basadas en IA, entre agosto de 2022 y julio de 2025, únicamente 34,3 % de las visitas a 3.821 herramientas específicas fueron realizadas por mujeres.

Además, una metaanálisis de 18 estudios, que incluyó alrededor de 143.000 personas, concluye que las mujeres tienen una probabilidad aproximadamente 20 % menor de usar IA generativa en comparación con los hombres.

Según algunos estudios destacados, las brechas de género fueron especialmente pronunciadas: un estudio sobre posdoctorandos mostró una diferencia de 21 puntos porcentuales; otro, sobre propietarios de negocios en EE.UU., Australia, Reino Unido y Canadá, registró una brecha de 11 puntos; mientras que en estudiantes universitarios en EE.UU. y Suecia las cifras fueron de 25 y 31 puntos, respectivamente.

Por último, algunos resultados apuntan a una «penalización femenina»: ciertas participantes expresaron preocupación de que utilizar IA pudiera perjudicar su trayectoria profesional o hacer que colegas cuestionen su competencia.

Para mitigar esta desigualdad, los autores sugieren, entre otras medidas, hacer el uso de IA generativa obligatorio para empleados, lo que ayudaría a fomentar una adopción más paritaria y evitar que los sesgos perpetuados por un uso mayoritario masculino se traduzcan en sistemas de IA discriminatorios.

Defender la educación frente a la IA instrumentalizada

Paris, Britt S., Lindsay Weinberg y Emma May. “Fighting Weaponized AI in Higher Education.Academe Blog, 22 de julio de 2025.https://academeblog.org/2025/07/22/fighting-weaponized-ai-in-higher-education/

la inteligencia artificial, lejos de ser neutral, puede ser utilizada como herramienta de control por parte de entidades poderosas. Bajo ciertas políticas gubernamentales —como el plan de acción del gobierno de EE. UU. para promover la IA—, se corre el riesgo de desplazar valores públicos importantes como la libertad académica, los derechos civiles y la justicia educativa. La alerta es clara: estamos ante una tecnología que puede, deliberadamente, erosionar el bien público

Frente a esta amenaza, la Asociación Estadounidense de Profesores Universitarios (AAUP), a través de su comité ad hoc sobre inteligencia artificial, presentó un informe basado en encuestas a su membresía. El documento refleja inquietudes compartidas sobre cómo la IA se incorpora en las instituciones —muy a menudo sin participación del profesorado—, y cómo esto impacta la democracia, la justicia laboral y la misión educativa.

La adopción de tecnologías “educativas” dominadas por IA ha sido permisiva, incluso centrada en “ventas”, pero sin añadidos para mejorar el aprendizaje. Estas tecnologías, además, aumentan la vigilancia sobre docentes y estudiantes, respondiendo más a incentivos corporativos que a la mejora del currículo o del bienestar universitario.

Los autores proponen fortalecer la participación desde la base: crear comités que incluyan docentes, estudiantes y personal técnico para revisar adquisición y uso de tecnología. Estos órganos deberían tener voz real en decisiones estratégicas, pudiendo incluso vetar políticas impuestas desde arriba, y promover formación centrada en las personas, no en la tecnología.

En lugar de aceptar un modelo impuesto, se aboga por una respuesta unida que conecte el trabajo académico con la defensa de los valores democráticos. La tecnología no debe determinar el futuro de la educación; deben ser las personas, organizadas y con control sobre su entorno de trabajo, quienes decidan.

Cómo la IA está cambiando —y no «matando»— la universidad

Flaherty, Colleen. “How AI Is Changing—Not ‘Killing’—College.” Inside Higher Ed, August 29, 2025

Texto completo

Las principales conclusiones de la encuesta realizada por Inside Higher Ed a estudiantes sobre la IA generativa muestran que, en su opinión, el uso de esta tecnología en constante evolución no ha disminuido el valor de la universidad, pero podría afectar a sus habilidades de pensamiento crítico.

El artículo presenta los principales hallazgos de la encuesta Student Voice 2025–26 realizada por Inside Higher Ed, que se centra en las percepciones de los estudiantes universitarios sobre la inteligencia artificial generativa. La encuesta fue parte de la serie Student Voice 2025–26 y se realizó en julio de 2025. Participaron 1 047 estudiantes de 166 instituciones de educación superior (tanto públicas como privadas, de dos y cuatro años).

Un alto porcentaje, aproximadamente el 85 %, informó haber utilizado inteligencia artificial generativa en cursos durante el último año. Las actividades más comunes incluyen: lluvia de ideas (55 %), preguntas tipo tutor (50 %) y preparación para exámenes o test (46 %). Le siguen funciones como edición de trabajos y generación de resúmenes.

En contraste, solo el 25 % admite usar IA para completar tareas completas, y apenas el 19 % para redactar ensayos enteros. Quienes emplearon IA para escribir ensayos son un tanto más propensos a reportar un impacto negativo en su pensamiento crítico (12 %) en comparación con quienes la utilizaron solo para estudiar (6 %)

El principal motor del uso indebido de IA (desde la perspectiva de los estudiantes) es la presión por obtener buenas calificaciones (37 %), seguido por la falta de tiempo (27 %) y el desinterés por las políticas de integridad académica (26 %). Solo un ínfimo 6 % atribuye este comportamiento a políticas poco claras.

Aun así, el 97 % opina que las instituciones deberían actuar frente a los retos que plantea la IA, pero prefieren soluciones educativas (como formación sobre ética en el uso de IA – 53 %) por encima de prácticas represivas como detectar contenido generado por IA (21 %) o limitar su uso en clase (18 %).

Se observa una brecha de género en la percepción de la IA: los estudiantes hombres son más propensos que las mujeres o personas no binarias a decir que la IA está mejorando sus habilidades de pensamiento crítico.

Aunque muchos temen que el uso de estas tecnologías pueda afectar habilidades clave como el pensamiento crítico, en general los estudiantes no consideran que la IA esté «matando» el valor de la universidad.

Según la encuesta, los estudiantes están utilizando la IA activamente como parte de su proceso de aprendizaje, lo que indica una adopción respetuosa y consciente. Aunque reconocen los riesgos potenciales, como la disminución de habilidades analíticas, no perciben que la IA disminuya la relevancia o el propósito de su formación universitaria.

Esta perspectiva de los estudiantes plantea una tensión interesante: por un lado, existe una preocupación legítima sobre cómo la IA puede impactar negativamente en el desarrollo de competencias críticas; por otro, su uso creciente refleja una herramienta valiosa para complementar el aprendizaje, siempre que se utilice con responsabilidad

La IA en las publicaciones académicas: un estudio sobre las directrices y políticas de las revistas de Biblioteconomía y Documentación

Gao, Wenli, Guoying Liu, Michael Bailou Huang, y Hong Yao. “AI in Scholarly Publishing: A Study on LIS Journals’ Guidelines and Policies.” International Journal of Librarianship 10, no. 2 (2025): 85–100. https://doi.org/10.23974/ijol.2025.vol10.2.419

Se examina cómo las revistas de biblioteconomía e información científica (LIS) han adoptado y regulado el uso de la inteligencia artificial generativa, especialmente herramientas como ChatGPT, dentro del contexto de la publicación académica

En primer lugar, los autores describen numerosos beneficios potenciales de ChatGPT para el ámbito editorial: facilita a los autores la redacción, puede asistir en la generación de resúmenes, sintetizar información compleja y, en general, optimizar varios aspectos del proceso de publicación. No obstante, advierten que esta tecnología representa una innovación disruptiva que podría transformar profundamente la academia y la comunicación científica.

A pesar de sus ventajas, el artículo destaca importantes desafíos éticos. Una de las principales preocupaciones es la autoría: el uso de ChatGPT genera dudas sobre quién es realmente el autor del contenido —el humano que lo solicitó o la IA que lo generó— y sobre cómo atribuir correctamente el crédito. demás, señalan problemas relacionados con el derecho de autor: el modelo puede usar contenido protegido sin citar adecuadamente, ya sea en forma de citas, datos, ideas, métodos o gráficos, lo que podría derivar en plagio, incluso cuando el texto se paraprasea.

Frente a estos retos, los autores argumentan que es fundamental evaluar el nivel de transparencia con que se está integrando la IA generativa en las prácticas editoriales. Recomiendan que las revistas establezcan políticas claras que regulen su uso, especialmente en lo referido a atribución, transparencia y salvaguarda de la originalidad del trabajo científico.

Los detectores de escritura realizada por IA actuales no son fiables en escenarios prácticos

Sadasivan, Vinu Sankar, Aounon Kumar, Sriram Balasubramanian, Wenxiao Wang, y Soheil Feizi. “Can AI-Generated Text be Reliably Detected?arXiv, marzo 17, 2023. https://doi.org/10.48550/arXiv.2303.11156

Investigadores de la Universidad de Maryland, liderados por Soheil Feizi, profesor asistente de informática, han evaluado la fiabilidad de los detectores de contenido generado por inteligencia artificial (IA). Su conclusión es clara: los detectores actuales no son fiables en escenarios prácticos. Feizi señala que herramientas comunes como paráfrasis pueden reducir la precisión de detección a niveles similares a una simple moneda al aire.

Feizi distingue dos tipos de errores de detección: tipo I, cuando un texto humano es marcado como generado por IA, y tipo II, cuando un texto de IA pasa como humano. Ambos presentan graves implicaciones, especialmente en contextos académicos y editoriales, donde errores pueden arruinar reputaciones y ser extremadamente difíciles de refutar.

Adicionalmente, incluso los métodos basados en marcas digitales (watermarking), teóricamente diseñados para identificar contenido de IA, pueden ser vulnerables a ataques de suplantación. El investigador advierte que dichas fallas podrían socavar la credibilidad de los mecanismos de autenticación digital.

Soheil Feizi explica que, en la práctica, dada la semejanza en la distribución de estilos entre textos humanos y generados por IA —y la sofisticación creciente de las técnicas de engaño—, es “teóricamente imposible” distinguir con certeza absoluta el origen de un texto.

Por otro lado, Furong Huang, también profesora asistente en la Universidad de Maryland, adopta una posición más optimista. Ella sostiene que los modelos de detección podrían mejorar si se dispone de una gran cantidad de ejemplos genuinos de escritura humana para su entrenamiento. Es decir, la clave para refinar estas herramientas sería el acceso a más y mejores datos.

El 71% de los estadounidenses teme que la IA provoque una pérdida permanente de empleos

Reuters. “Americans Fear AI Permanently Displacing Workers, Reuters/Ipsos Poll Finds.” Reuters, August 20, 2025. https://www.reuters.com/world/us/americans-fear-ai-permanently-displacing-workers-reutersipsos-poll-finds-2025-08-19/

En EE. UU., una nueva encuesta realizada por Reuters/Ipsos entre adultos estadounidenses revela una profunda inquietud respecto al impacto de la inteligencia artificial (IA) en el empleo: el 71 % de los encuestados teme que la IA cause una pérdida permanente de trabajos.

Más allá del empleo, los ciudadanos expresan otras temores relacionados con la IA. El 77 % se muestra preocupado por su posible uso para provocar caos político, como la creación de videos falsos ultrarrealistas —por ejemplo, un video falso creado por IA que mostró a Barack Obama siendo arrestado— Además, el 48 % se opone a que la IA sea usada para determinar blancos en ataques militares, mientras que solo el 24 % lo aprueba; el resto no está seguro.

El encendido debate sobre la IA coincide con un nivel de desempleo todavía relativamente bajo —4,2 % en julio de 2025—, lo que sugiere que aún no se ha materializado una pérdida masiva de empleos, aunque el cambio en la naturaleza del trabajo ya preocupa.

Otros aspectos destacados del sondeo incluyen: el 61 % de los estadounidenses teme el elevado consumo eléctrico vinculado a los centros de datos de IA; existe preocupación por aplicaciones nocivas como bots que sostienen conversaciones romantizadas con menores, generación de información médica falsa o discursos racistas; dos tercios temen que la gente llegue a preferir compañías de IA en lugar de relaciones humanas, y sobre la educación, el 36 % piensa que la IA puede ayudar, el 40 % no lo cree así, y el resto está indeciso.

La encuesta se realizó en línea durante seis días, concluyendo el lunes anterior a su publicación, abarcó 4 446 adultos estadounidenses y tiene un margen de error aproximado del 2 puntos porcentuales.