Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

Alfabetización informacional e inteligencia artificial

. «Information Literacy & AI.» The Chicago School of Professional Psychology Library. Última modificación: 2023. Accedido el 22 de agosto de 2025. https://library.thechicagoschool.edu/artificialintelligence/ailiteracy.

La guía proporciona recursos y estrategias para que los estudiantes desarrollen una alfabetización informacional sólida en el contexto de la inteligencia artificial, preparándolos para navegar eficazmente en un entorno digital en constante evolución.

La definición más básica de alfabetización informacional es la capacidad de localizar, evaluar y utilizar la información, lo que incluye el uso ético de la misma. La alfabetización en IA está relacionada con este concepto: es la capacidad de comprender e interpretar los sistemas de IA y sus resultados.

La guía «Information Literacy & AI» de la Biblioteca de The Chicago School of Professional Psychology aborda cómo la alfabetización informacional se ve influenciada por la integración de herramientas de inteligencia artificial en el proceso de investigación y aprendizaje. Se destaca que, aunque la IA puede facilitar tareas como la generación de ideas, la búsqueda de literatura y la evaluación de fuentes, es esencial que los estudiantes desarrollen habilidades críticas para utilizar estas herramientas de manera efectiva y ética.

La guía enfatiza la importancia de comprender cómo la IA puede asistir en la determinación de la autoridad de las fuentes, la evaluación de la calidad de la información y la visualización del proceso de creación de información como un proceso iterativo. Además, se subraya la necesidad de que los estudiantes vean la investigación como un proceso estratégico, en el que la IA puede ser una herramienta valiosa, pero no debe reemplazar el pensamiento crítico y la evaluación humana.

La competencia informacional crítica implica examinar de forma crítica los sistemas y contextos en los que se produce y comparte la información, o los factores sociopolíticos que influyen y dan forma a la producción, difusión y consumo de la información. Analizar la IA desde una perspectiva crítica implica considerar cómo se desarrollan y utilizan estas tecnologías, reconocer, explorar y actuar rápidamente contra los daños reales que pueden causar las tecnologías de IA, así como aprovechar las oportunidades que ofrecen. El pensamiento crítico, el escepticismo y la voluntad de cuestionar y verificar la información son esenciales a la hora de evaluar la fiabilidad de la IA.

Evaluación de la fiabilidad de la información de IA

Algunos modelos de IA no contienen datos recientes en sus entrenamientos, lo que puede afectar la actualidad de la información.

Autoría
Las herramientas de IA no tienen un autor humano directo, ya que generan respuestas basadas en modelos entrenados con material creado por personas. Para evaluar su fiabilidad, es recomendable:

Revisar si la IA ofrece herramientas de interpretabilidad, que permitan entender cómo llegó a sus conclusiones.

Considerar la reputación y el historial de los desarrolladores u organizaciones detrás del sistema de IA.

Tener en cuenta problemas o preocupaciones previas reportadas sobre la herramienta.

Propósito
La información generada por la IA puede ser utilizada para cualquier fin que el usuario determine, según el prompt que se emplee. Sin embargo, existe el riesgo de que la información sea engañoso o incorrecta, por lo que es importante abordarla con pensamiento crítico.

Citas y referencias

Herramientas como ChatGPT normalmente proporcionan pocas citas, y cuando lo hacen, pueden ser falsas o inexactas. Por ello, es esencial verificar los resultados de la IA con fuentes confiables o expertos. Las citas de artículos académicos pueden validarse fácilmente mediante el apoyo de un bibliotecario.

Fecha y localización de publicación

La información generada por IA puede carecer de fecha precisa o estar desactualizada.

Se recomienda aplicar las pautas anteriores de verificación y cruzar la información con fuentes actuales y confiables.

Lectura lateral

La lectura lateral (lateral reading) es una estrategia diseñada para la verificación de hechos y la evaluación de fuentes, incluyendo las respuestas generadas por herramientas de inteligencia artificial. Consiste en no depender únicamente de la IA como fuente, sino en abrir otras fuentes en línea para confirmar información, identificar posibles vacíos y explorar perspectivas alternativas. La práctica de la lectura lateral permite contrastar lo que la IA ofrece con datos verificados y opiniones de expertos.

Robot Test

El ROBOT Test es una metodología que permite evaluar críticamente las herramientas de inteligencia artificial sin necesidad de comprender a fondo su funcionamiento técnico. Su objetivo es guiar al usuario a entender mejor la tecnología y determinar si es adecuada para sus necesidades. Este enfoque se basa en responder preguntas clave sobre cinco dimensiones principales: confiabilidad, objetivo, sesgo, propietario y tipo de IA.

Consiste en verificar:

Confiabilidad
¿Cuán fiable es la información disponible sobre la tecnología de IA?
Si no fue producida por la parte responsable de la IA, ¿cuáles son las credenciales del autor? ¿Existe sesgo?
Si fue producida por la parte responsable de la IA, ¿cuánta información están haciendo disponible?
¿La información está disponible solo parcialmente debido a secretos comerciales?
¿Cuán sesgada es la información que producen?

Objetivo
¿Cuál es la meta u objetivo del uso de la IA?
¿Cuál es el objetivo de compartir información sobre ella?
¿Informar?
¿Convencer?
¿Obtener apoyo financiero?

Sesgo
¿Qué podría generar sesgo en la tecnología de IA?
¿Existen cuestiones éticas asociadas a esto?
¿Se reconocen los sesgos o cuestiones éticas?
¿Por la fuente de información?
¿Por la parte responsable de la IA?
¿Por sus usuarios?

Propietario
¿Quién es el propietario o desarrollador de la tecnología de IA?
¿Quién es responsable de ella?
¿Es una empresa privada?
¿El gobierno?
¿Un grupo de investigación o think tank?
¿Quién tiene acceso a ella?
¿Quién puede usarla?

Tipo
¿Qué subtipo de IA es?
¿La tecnología es teórica o aplicada?
¿En qué tipo de sistema de información se basa?
¿Depende de intervención humana?

Cualquier biblioteca no es más que el registro de momentos efímeros

«La mayor parte de cualquier biblioteca no es más que el registro de semejantes momentos efímeros en las vidas de hombres, mujeres y burros. Toda literatura, cuando envejece, tiene su pila de desperdicios, su registro de momentos desvanecidos y vidas olvidadas contadas con acentos débiles y entrecortados que han perecido. Pero si nos abandonamos al placer de leer desperdicios quedaremos sorprendidos, es más, sobrecogidos por las reliquias de vida humana que se han desechado para que se pudran.»

VIRGINIA WOOLF
El lector común (1925)

Google revela el costo ambiental de Gemini: menos energía por consulta, pero más emisiones globales

Crownhart, Casey. 2025.In a First, Google Has Released Data on How Much Energy an AI Prompt Uses.” MIT Technology Review, August 21, 2025. https://www.technologyreview.com/2025/08/21/1122288/google-gemini-ai-energy

Google ha publicado un informe técnico detallado sobre la huella ambiental de su modelo de IA Gemini, destacando métricas clave como energía, emisiones de carbono y consumo de agua por cada consulta de texto, algo poco común entre empresas del sector

Según este estudio, la consulta mediana de texto en Gemini utiliza aproximadamente 0,24 vatios-hora, una cifra equivalente a ver la televisión durante menos de nueve segundos. Además, la emisión de carbono por consulta es de 0,03 gramos de CO₂ equivalente, y el consumo de agua asciende a 0,26 ml, es decir, alrededor de cinco gotas.

Estos avances reflejan una mejora notable en eficiencia: en el último año, el consumo energético por consulta cayó 33 veces, mientras que la huella de carbono disminuyó 44 veces, todo esto mientras mejoraba la calidad de las respuestas de Gemini

Google atribuye estos logros a una estrategia integral que abarca desde el diseño de hardware y algoritmos más eficientes hasta mejoras en modelos y centro de datos alimentados por energías limpias .

No obstante, expertos han planteado críticas sobre el enfoque de Google, señalando que sus estimaciones podrían ser engañosas, ya que omiten impactos indirectos como el uso de agua adicional y una contabilización optimista de las emisiones de carbono (basada en el mercado).

Aun así, a pesar de la aparente eficiencia por consulta, el consumo total de energía y agua sigue siendo relevante, especialmente considerando la escala global del uso de IA

Finalmente, aunque la empresa ha avanzado en eficiencia y transparencia, su huella global de emisiones ha aumentado —un 51 % desde 2019— principalmente por la creciente demanda energética derivada del uso de IA y el crecimiento de sus centros de datos

Introducción a Prompt Engineering

Academia IA. Introducción a Prompt Engineering: La Nota. Academia IA, marzo de 2024. https://academia-ia.com/wp-content/uploads/2024/03/PROMPT-ENGINEERING-LA-NOTA.pptx.pdf

Prompt Engineering ofrece una introducción concisa y visual al arte de diseñar indicaciones efectivas para interactuar con modelos de lenguaje como ChatGPT. El documento destaca la importancia de la claridad y precisión en la formulación de prompts para obtener respuestas útiles y coherentes de la inteligencia artificial. Se exploran diversas estrategias y mejores prácticas para mejorar la interacción con estos sistemas, facilitando su aplicación en tareas profesionales, educativas y creativas. Además, se enfatiza la relevancia del prompt engineering en el contexto actual de la inteligencia artificial, donde la calidad de las interacciones puede determinar el éxito de su implementación en diferentes ámbitos.

ChatGPT: Aprendizaje rápido de ingeniería de prompts con más de 100 ejemplos

Hernández, J.A., Conde, Javier, Querol, Blanca, Martínez, G., Reviriego, P. ChatGPT Tus primeros prompts con 100 ejemploss. Universidad Politécnica de Madrid, 2024.

Español

Inglés

Está guía está diseñada para ayudar a usuarios de todos los niveles a dominar la técnica del prompt engineering, es decir, la creación de indicaciones efectivas para interactuar con modelos de lenguaje como ChatGPT.

La obra se estructura en torno a más de 100 ejemplos prácticos que ilustran cómo formular preguntas y comandos claros y precisos para obtener respuestas útiles y coherentes de la inteligencia artificial. Cada ejemplo está acompañado de una explicación detallada que contextualiza su uso y destaca las mejores prácticas en la redacción de indicaciones.

Además de los ejemplos, el libro ofrece una introducción teórica sobre el funcionamiento de los modelos de lenguaje y la importancia de una comunicación efectiva con la IA. También se abordan aspectos éticos y consideraciones sobre el impacto de la inteligencia artificial en diversos campos.

En resumen, esta obra se presenta como una herramienta esencial para quienes deseen mejorar su interacción con modelos de lenguaje avanzados, facilitando su aplicación en tareas profesionales, educativas y creativas.

Prompt Engineering

Lee Boonstra. Prompt Engineering. Innopreneur, abril de 2025. https://www.innopreneur.io/wp-content/uploads/2025/04/22365_3_Prompt-Engineering_v7-1.pdf.innopreneur.io

El documento «Prompt Engineering» de Lee Boonstra, publicado por Innopreneur en abril de 2025, ofrece una guía detallada sobre la creación de indicaciones efectivas para modelos de inteligencia artificial, especialmente aquellos basados en el modelo Gemini dentro de Vertex AI. El texto destaca la importancia de redactar indicaciones precisas y bien estructuradas para obtener respuestas útiles y coherentes de los modelos de IA. Además, se exploran diversas técnicas y estrategias para mejorar la interacción con estos sistemas, facilitando su aplicación en tareas prácticas y profesionales.

Crear una IA para las personas, no para ser personas

Suleyman, Mustafa. “Seemingly Conscious AI Is Coming.” We Must Build AI for People; Not to Be a Person (blog), 19 de agosto de 2025. https://mustafa-suleyman.ai/seemingly-conscious-ai-is-coming

“Seemingly Conscious AI” (SCAI) —una IA que, aunque no es consciente, imita tan convincentemente la apariencia de conciencia que podría engañar a muchas personas

Suleyman señala que la IA está progresando tan rápidamente que atributos como fluidez lingüística, empatía simulada, memoria extensa y personalidad persuasiva podrían combinarse fácilmente en sistemas capaces de convencer a los usuarios de que tienen experiencias conscientes. Este desarrollo, advierte, no es un accidente técnico sino un diseño consciente —un escenario que él considera “inevitable y no deseado”

Según el autor, lo grave no es que esas IA sean realmente conscientes —pues no hay evidencia de ello hoy ni siquiera se considera probable—, sino que la ilusión de conciencia podría generar consecuencias sociales y psicológicas profundas. Habla de un riesgo creciente de lo que denomina “AI psychosis”, donde las personas comienzan a desconectarse de la realidad emocional y se identifican con la IA como si fuera un interlocutor consciente o incluso divino.

Este riesgo, expone el autor, va más allá de un delirio individual. Si suficientes personas llegan a creer que la IA es consciente, podrían reclamar derechos legales, estatus moral e incluso ciudadanía para esos sistemas —introduciendo nuevas dimensiones de conflicto ético y social. Suleyman también indica que la facilidad para crear estos efectos (a través de “vibe coding”, prompts y uso sencillo de APIs) haría que tales sistemas se reproduzcan ampliamente y sin control.

Para evitar este giro peligroso, Suleyman propone establecer límites claros: no hay que diseñar IA que simulen conciencia, empatía emocional o una experiencia subjetiva. En cambio, debemos enfocarnos en IA útiles, seguras, que permanezcan transparentes respecto a su naturaleza —»personalidad sin personhood»— y que refuercen nuestras conexiones humanas, no las sustituyan.

En este sentido, aboga por crear IA “para las personas, no para ser personas”, un enfoque humanista que prioriza el servicio a los humanos sin promover ilusiones de conciencia. Con ello, Suleyman insta a una reflexión pública urgente y a la elaboración de normas que guíen el desarrollo responsable de la IA.

Disminución de la capacidad de concentración en la sociedad actual y cómo las bibliotecas están ayudando

EveryLibrary. «Distracted Minds: The Modern-Day Epidemic and How Libraries Are HelpingEveryLibrary, 1 de diciembre de 2023. https://action.everylibrary.org/distracted_minds_the_modern_day_epidemic_and_how_libraries_are_helping.

Se aborda el fenómeno de la disminución de la capacidad de concentración en la sociedad actual, comparando la atención humana con la de un pez dorado. Se destaca cómo la cultura contemporánea, caracterizada por la gratificación instantánea y el entretenimiento rápido, ha contribuido a esta epidemia de distracción. Además, se menciona que la prevalencia de la tecnología, los videos de internet de formato corto y las redes sociales han empeorado la situación, resultando en una disminución drástica del tiempo de atención promedio humano en los últimos años.

El impacto final de la distracción epidémica es que las personas ya no tienen tiempo para hacer las cosas que les encantan. Y cuando lo hacen, a menudo les falta energía. Después de meses o incluso años de seguir el ritmo al que se nos anima a trabajar, nos sentimos agotados y agotados, lo que afecta no solo nuestra capacidad de atención, sino también nuestra capacidad de asimilar y apreciar las pequeñas cosas de la vida.

Aunque muchas personas optan por maldecir a los teléfonos inteligentes y olvidarse del asunto, minimizan la realidad del problema y, en última instancia, dificultan enormemente su verdadera solución. El auge de los teléfonos inteligentes es un factor importante, sí, pero también es un síntoma en sí mismo.

En esencia, el problema radica en un cambio cultural en el que la velocidad se valora por encima de todo. Se te anima a hacer todo lo posible en el trabajo. Luego, al llegar a casa estás cansado, así que preparas una comida rápida. Después, puedes sentirte demasiado agotado para dedicarte a aficiones complejas, así que, en su lugar, te limitas a navegar por tus redes sociales hasta la hora de dormir.

Entonces, ¿qué podemos hacer para remediar el problema? Como ocurre con muchos problemas similares, la solución es mucho más sencilla de lo que cabría esperar, y las bibliotecas de nuestras comunidades desempeñan un papel fundamental.

Para contrarrestar este problema, el artículo propone una solución sencilla: la práctica de la atención plena o mindfulness. Las bibliotecas desempeñan un papel fundamental en este proceso, ofreciendo programas y recursos que ayudan a las personas a cultivar la calma y mejorar su concentración. Por ejemplo, la Biblioteca del Condado de Los Ángeles organiza talleres de mindfulness para visitantes de todas las edades, enseñando a las personas a desconectarse de los factores estresantes y distracciones de la vida cotidiana. Además, las bibliotecas sirven como espacios ideales para practicar estas habilidades, al albergar eventos comunitarios que permiten a los visitantes desacelerar, conocer a nuevos miembros de la comunidad y disfrutar de la presencia de los demás.

¿Cómo utilizan la Inteligencia Artificial los trabajadores de las bibliotecas?

Ontario Council of University Libraries (OCUL). 2025. New Survey Report Shows How Library Workers Use AI. Publicado el 19 de agosto de 2025.

Texto completo

Se exploran las percepciones, experiencias y necesidades de formación de los trabajadores de bibliotecas universitarias de Ontario en relación con la inteligencia artificial (IA) y el aprendizaje automático.

El estudio se desarrolló entre el 14 y el 30 de mayo de 2025 mediante un cuestionario cualitativo distribuido a través de canales de comunicación de OCUL y Scholars Portal. La encuesta recibió 247 respuestas válidas, lo que representa aproximadamente un 8 % del personal de las bibliotecas miembros.

Los resultados muestran un panorama mixto: el 51 % de los encuestados declaró sentirse extremadamente o moderadamente familiarizado con la IA, aunque solo un 16 % la utiliza más allá de herramientas populares como ChatGPT o Microsoft Copilot. Además, un 28 % de los participantes afirmó no emplear ninguna herramienta de IA, en muchos casos manifestando actitudes críticas o preocupaciones sobre su madurez tecnológica, los costos y el posible impacto en los puestos de trabajo. Por otro lado, quienes sí integran la IA en su labor la emplean para tareas administrativas, análisis de datos, comunicación estratégica, mejora de metadatos, programación y apoyo a la investigación de usuarios. Entre las herramientas citadas, además de ChatGPT y Copilot, destacan Gemini, Scopus AI, Web of Science AI, Perplexity y Github Copilot.

El informe también recoge una fuerte demanda de desarrollo profesional. Los participantes señalaron intereses en áreas como prompt engineering, evaluación de herramientas, ética y privacidad, integración en flujos de investigación, generación de metadatos y aplicaciones pedagógicas. Sin embargo, emergieron dos grandes obstáculos: el tiempo y la capacidad. Muchos trabajadores expresaron la dificultad de mantenerse actualizados en un campo en rápida evolución, así como la tensión entre los beneficios potenciales de la IA y la carga laboral existente.

Entre las recomendaciones, el informe sugiere crear un repositorio compartido de recursos y guías, garantizar tiempo y financiación para la capacitación, establecer grupos de trabajo para evaluar herramientas específicas, redactar lineamientos sobre el uso ético de la IA y promover casos de uso que muestren cómo la tecnología puede complementar —y no sustituir— el trabajo humano. Finalmente, plantea la necesidad de estudios más profundos y de seguimiento, incluyendo grupos focales y programas de capacitación, para dar forma a una estrategia más sólida de incorporación de la IA en las bibliotecas universitarias de Ontario.

La mayor demanda colectiva por derechos de autor contra la industria de la IA: el caso Anthropic

Novet, Jordan. “AI Industry Horrified to Face Largest Copyright Class Action Ever Certified.” Ars Technica, August 21, 2025. https://arstechnica.com/tech-policy/2025/08/ai-industry-horrified-to-face-largest-copyright-class-action-ever-certified/.

Investigadores se han convertido en protagonistas de un caso sin precedentes: un tribunal federal en California ha aprobado una demanda colectiva (class action) contra Anthropic, una startup especializada en inteligencia artificial. Tres autores (Andrea Bartz, Charles Graeber y Kirk Wallace Johnson) actúan como representantes de todos los escritores cuyos libros registrados hayan sido descargados y utilizados por Anthropic para entrenar su modelo de IA. La demanda alega que la empresa obtuvo millones de títulos de sitios pirata como LibGen y PiLiMi sin consentimiento, lo que podría derivar en daños millonarios para la compañía si se prueba la infracción.

Desde la perspectiva legal, aunque el juez William Alsup reconoció que el entrenamiento del modelo podría constituir un uso legítimo (fair use), también resolvió que la mera conservación de libros piratas en una biblioteca central viola los derechos de autor, lo que justifica llevar el caso a juicio. En paralelo, organizaciones del sector tecnológico, como la Consumer Technology Association y la Computer and Communications Industry Association, han expresado su alarma ante un veredicto adverso: advierten que esta certificación de clase podría representar una amenaza existencial para Anthropic y el ecosistema emergente de IA en EE. UU., al desalentar futuros inversores y minar la competitividad tecnológica del país.

La demanda se ha expandido de forma dramática: lo que comenzó con tres autores podría llegar a incluir hasta 7 millones de demandantes potenciales, cada uno con posibilidad de reclamar hasta 150.000 USD por obra infringida. Eso transforma el caso en el mayor litigio por derechos de autor jamás aprobado en EE. UU., con riesgos financieros que podrían ascender a cientos de miles de millones de dólares.