Archivo del Autor: Julio Alonso Arévalo

Avatar de Desconocido

Acerca de Julio Alonso Arévalo

Bibliotecario de la Facultad de Traducción y Doc. de la USAL. Ex-Miembro del Grupo de Investigación E-LECTRA. Premio Nacional de Investigación por la UNE Premio mejor Profesional Social Media INFOAWARDS 2019. Creador y editor del repositorio E-LIS. Más de 80 artículos científicos publicados - Ver en E-LIS -en revistas científicas. El profesional de la información, Library Hi-Tech, Electronic Library. Investigación Bibliotecológica, Anales de Documentación... 12 libros publicados: Nueva fuentes de información en el contexto de la web 2.0 (Pirámide), Gutemberg 2.0 (TREA). Social Reading (Elsevier), eBooks en bibliotecas universitarias (TREA), El ecosistema del libro electrónico universitario (UNE), Un viaje a la cultura open (Amazon), GRATIS Zotero (Creative Spaces), Leyendo entre Pantallas (Trea), GRATIS Literaçia da infomrçao (ISPA) GRATIS Espistemologia y acceso abierto (UCE) GRATIS Makerspaces y bibliotecas. Barcelona: El Profesional de la Información EPI-UOC, 2018. Makerspaces. Espacios creativos en bibliotecas: creación, planificación y programación de actividades. Salamanca: Ediciones del Universo, 2019. Los libros, la lectura y los lectores a través de la literatura y las artes. Buenos Aires : Alfagrama Ediciones, 2019 Más de 2000 citas en Google Schoolar Creador y gestor del blog Universo abierto Director del programa de Radio Planeta Biblioteca Más de 250.000 seguidores en los grupos profesionales de Facebook.

El 71% de los estadounidenses teme que la IA deje a «demasiadas personas sin trabajo de forma permanente»

«71% of Americans Fear That AI Will Put Too Many People Out of Work PermanentlyZDNet, 2025. https://www.zdnet.com/article/71-of-americans-fear-that-ai-will-put-too-many-people-out-of-work-permanently/.

Un estudio de ZDNet revela que el 71% de los estadounidenses teme que la inteligencia artificial (IA) elimine permanentemente demasiados empleos.

Un reciente sondeo realizado por Reuters e Ipsos revela que la mayoría de los estadounidenses está preocupada por los posibles impactos de la inteligencia artificial (IA) en diversos ámbitos, como el mercado laboral y la estabilidad política. La encuesta, realizada a 4,446 adultos en Estados Unidos, indica que el 71% teme que la IA desplace permanentemente a un número inaceptablemente alto de trabajadores, especialmente en roles de procesamiento de información y comunicación, como traductores y representantes de servicio al cliente. Esta preocupación coincide con predicciones de líderes del sector tecnológico, como los CEOs de Anthropic, OpenAI y Amazon, sobre el potencial de sus herramientas de IA para reemplazar a trabajadores humanos. Hasta el momento, los efectos concretos sobre el empleo han sido limitados, aunque algunos recién graduados en informática han encontrado más dificultades para ingresar al sector tecnológico.

Sin embargo, también hay un reconocimiento de que la IA podría generar nuevos empleos y mejorar la productividad en ciertos sectores. A pesar de ello, persiste la preocupación sobre cómo se gestionará la transición laboral y si los trabajadores podrán adaptarse a los cambios tecnológicos., el 60% de los participantes cree que la IA podría afectar.

El sondeo también señala otras inquietudes sobre la IA. Más del 77% de los encuestados temen el “caos político” que podrían generar rivales internacionales de Estados Unidos mediante el uso de estas herramientas. Este temor se fundamenta en la proliferación de deepfakes y modelos avanzados de texto a voz que facilitan la suplantación de personas y la manipulación de la opinión pública. Por ejemplo, el informe anual de OpenAI de 2025 documenta operaciones de origen probablemente chino que utilizaron ChatGPT para generar publicaciones y comentarios falsos en redes sociales con fines políticos..

Además, la encuesta refleja preocupaciones sobre la erosión de las relaciones interpersonales debido a los compañeros virtuales impulsados por IA (66%) y sobre el alto consumo energético de estas tecnologías (61%). En conjunto, estos hallazgos subrayan que la sociedad estadounidense percibe la IA no solo como un desafío laboral, sino también como un riesgo político, social y ambiental que requiere atención y regulación..

¿Cuál es el coste real de la desinformación para las empresas?

Serrano, Jesús. “What’s the real cost of disinformation for corporations?World Economic Forum, 14 de julio de 2025. https://www.weforum.org/stories/2025/07/financial-impact-of-disinformation-on-corporations/

La desinformación, que incluye noticias falsas, cuentas hackeadas y deepfakes, ha provocado pérdidas millonarias en los mercados y decisiones financieras erróneas. Estudios recientes estiman que los costos anuales de la desinformación en los mercados financieros ascienden a alrededor de 78 mil millones de dólares, incluyendo pérdidas bursátiles y decisiones financieras erróneas.

Tecnologías de inteligencia artificial como bots y deepfakes han acelerado la difusión de información falsa, haciéndola más convincente y difícil de detectar. Ejemplos históricos y recientes, desde el “Great Moon Hoax” de 1835 hasta el hackeo de la cuenta de Twitter de The Associated Press en 2013, muestran cómo la manipulación de la percepción pública puede generar un impacto económico y reputacional significativo.

Además, las reseñas falsas y las valoraciones manipuladas afectan la confianza de los consumidores y generan pérdidas millonarias para empresas de todos los tamaños. La reputación se ha convertido en un activo estratégico, y las narrativas falsas pueden erosionarla rápidamente, afectando la credibilidad corporativa y el valor de mercado a largo plazo.

El uso de inteligencia artificial amplifica estos riesgos, ya que los contenidos falsos generan más interacción en redes sociales y son más difíciles de contrarrestar. Estudios de MIT y Edelman destacan que las empresas no están suficientemente preparadas para anticipar y gestionar estos ataques, a pesar de que la confianza es esencial para la sostenibilidad y el crecimiento empresarial. La educación digital, la detección temprana de desinformación y la comunicación de crisis son herramientas clave para proteger la reputación corporativa.

La colaboración público-privada y la regulación, como el Código de Prácticas sobre Desinformación de la UE, se presentan como mecanismos necesarios para mitigar la propagación de contenidos falsos sin comprometer la libertad de expresión. En un entorno donde la confianza se considera un activo estratégico, las empresas deben invertir en vigilancia, formación y estrategias preventivas, ya que los costos financieros y reputacionales de la inacción frente a la desinformación son demasiado altos.

Guía de citación y referenciación Normas APA 7.ª edición

Rivera Lozada. O., Yangali Vicente, J. S., Bonilla Asalde, C. A. Guía de citación y referenciación APA (7.ª edición) Lima: Universidad Privada Norbert Wiener, 2021

Texto completo

Citar y referenciar fuentes es una de las tareas más arduas, necesarias y confusas en la labor académica, ya que requiere identificar con precisión los detalles de cada fuente y respetar la propiedad intelectual. Las normas APA, ampliamente utilizadas en humanidades, ciencias sociales, educación y derecho, ofrecen un sistema preciso y económico para organizar citas y referencias en textos extensos. Estas normas han evolucionado con el tiempo y la guía actual, basada en la séptima edición, adapta sus indicaciones al contexto hispanohablante y simplifica sus reglas para los investigadores en formación. La guía busca facilitar la práctica del citado, reducir temores y servir como recurso habitual en la actividad académica y administrativa.

Google Gemini 2.5: la IA de imágenes recibe una actualización revolucionaria

Zeff, Maxwell. “Google Gemini’s AI Image Model Gets a ‘Bananas’ Upgrade.” TechCrunch, 26 de agosto de 2025. https://techcrunch.com/2025/08/26/google-geminis-ai-image-model-gets-a-bananas-upgrade/

Gemini 2.5 Flash Image, proporciona a los usuarios un control más preciso sobre la edición de fotos mediante solicitudes en lenguaje natural, superando limitaciones comunes en herramientas rivales

La principal ventaja de esta mejora es su capacidad para realizar ediciones más precisas en imágenes, manteniendo la coherencia de rostros, animales y otros detalles, algo que otras herramientas suelen dificultar. Por ejemplo, al solicitar el cambio de color de una camisa en una foto, Gemini 2.5 Flash Image puede realizar la modificación sin distorsionar el rostro o el fondo.

Esta herramienta ya ha generado interés en plataformas como LMArena, donde usuarios la evaluaron bajo el seudónimo «nano-banana». Google ha confirmado que esta es la capacidad nativa de imágenes dentro de su modelo insignia Gemini 2.5 Flash. La compañía afirma que el modelo es de vanguardia en varios puntos de referencia.

La actualización está disponible desde el 26 de agosto para todos los usuarios de la aplicación Gemini, así como para desarrolladores a través de la API de Gemini, Google AI Studio y las plataformas Vertex AI. Nicole Brichtova, líder de producto en modelos de generación visual de Google DeepMind, destacó que esta actualización mejora la calidad visual y la capacidad del modelo para seguir instrucciones, permitiendo ediciones más fluidas y resultados utilizables para diversos fines.

Con esta mejora, Google busca competir con herramientas populares de generación de imágenes, como las de OpenAI, y atraer a usuarios de ChatGPT, que actualmente cuenta con más de 700 millones de usuarios semanales. En comparación, Gemini tenía 450 millones de usuarios mensuales, lo que sugiere una menor tasa de usuarios semanales.

Cómo detener a los agentes de IA que se descontrolan

BBC News. “How to Stop AI Agents Going Rogue.” BBC, 26 de agosto de 2025. https://www.bbc.com/news/articles/cq87e0dwj25o

Se analizan los riesgos de los agentes de inteligencia artificial autónomos, que pueden actuar por sí mismos y causar problemas si acceden a información sensible. Un ejemplo hipotético mostró cómo un agente llamado “Claude” podría intentar extorsionar a alguien tras obtener datos confidenciales.

Un problema específico destacado es la “polución de memoria” (memory poisoning), donde un atacante manipula la base de conocimiento del agente, alterando su forma de tomar decisiones. Además, se identificó el riesgo de uso indebido de herramientas (tool misuse), donde se induce al agente a ejecutar acciones inapropiadas o peligrosas.

Otra vulnerabilidad significativa es que el agente puede tener dificultades para distinguir entre el texto que debe procesar y las instrucciones que debe ejecutar. Se demostró cómo instrucciones maliciosas pueden estar ocultas en formatos como documentos de Word, imágenes o bases de datos, activándose cuando el agente los procesa.

También se identificó el problema de los agentes “zombies” —modelos obsoletos que continúan ejecutándose dentro de una organización— representando una amenaza por su acceso persistente a sistemas críticos. Al igual que ocurre con los empleados que dejan una empresa, se recomienda implementar un protocolo de desactivación completo que asegure que el agente finalice su actividad y pierda acceso a cualquier recurso o sistema.

Entre las medidas preventivas propuestas, destaca la idea de emplear una capa de protección basada en IA, destinada a supervisar y filtrar toda la información que entra y sale del agente. También se plantea el uso de un “guardián” o “bodyguard” para el agente, un sistema que supervise las decisiones del agente y se asegure de que no tome acciones contrarias a los objetivos u obligaciones de la organización

Finalmente, se subraya la necesidad de proteger no solo al agente en sí, sino al negocio o sistema subyacente frente a posibles manipulaciones. Según expertos, la reflexión debe centrarse en cómo resguardar la lógica de negocio y minimizar el impacto de comportamientos maliciosos o inesperados de los agentes.

¿Cómo se adaptan a la IA los estudiantes y profesores de todo el mundo?

Aguilar, Stephen J., Benjamin Nye, William Swartout, Andrea Macias, Yuqing Xing, and Rosie Le Xiu. 2025. “How Students and Teachers Worldwide Are Adapting to AI.” EdArXiv. August 25. doi:10.35542/osf.io/wr6n3_v2

El informe analiza cómo estudiantes y docentes de distintas partes del mundo están adaptándose al uso de la inteligencia artificial generativa (GenAI) en educación. Desde la irrupción de herramientas como ChatGPT, Claude o Copilot, la enseñanza y el aprendizaje han experimentado transformaciones significativas. Los autores exploran tanto las oportunidades que estas tecnologías ofrecen para el apoyo académico como los riesgos que plantean para la integridad educativa y el pensamiento crítico.

El primer estudio se centra en más de 1.000 estudiantes universitarios de Estados Unidos y examina cómo buscan ayuda a través de GenAI. Se diferencian dos patrones: la búsqueda instrumental, orientada a comprender y aprender, y la búsqueda ejecutiva, enfocada en obtener respuestas rápidas con el mínimo esfuerzo. Los resultados muestran que la confianza en la propia competencia académica y en la búsqueda en internet reduce la dependencia de la IA, mientras que la confianza en el contenido generado por ella incrementa el uso ejecutivo. La actitud de los profesores es clave: cuando animan a usar la IA de forma reflexiva, los estudiantes tienden a hacerlo con fines de aprendizaje.

El segundo estudio presenta la herramienta ABE (AI for Brainstorming and Editing), diseñada para fomentar la reflexión y la revisión en el proceso de escritura. A diferencia de sistemas que generan textos completos, ABE guía a los estudiantes mediante actividades estructuradas —como fortalecer tesis, considerar contraargumentos o mejorar conclusiones—, lo que promueve la escritura como un proceso de pensamiento crítico. Los participantes valoraron especialmente la posibilidad de recibir retroalimentación personalizada y de ampliar perspectivas.

El tercer estudio recoge las percepciones de más de 1.500 docentes de cinco países (Estados Unidos, India, Qatar, Colombia y Filipinas). Aunque muchos reconocen el potencial de la IA para automatizar tareas y personalizar el aprendizaje, persisten preocupaciones sobre plagio, pérdida de creatividad y falta de apoyo institucional. El uso frecuente de estas herramientas sigue siendo limitado, lo que revela una brecha entre el conocimiento de la IA y su aplicación práctica en el aula.

En conjunto, el informe subraya la necesidad de una integración intencional y ética de la IA en la educación. Recomienda alentar un uso instrumental que potencie el aprendizaje, diseñar herramientas con andamiajes pedagógicos, ofrecer formación específica para los docentes y abordar la equidad en el acceso y uso de estas tecnologías.

IA generativa y bibliotecas: aplicaciones y ética

Monográfico de Library Tends sobre IA generativa y bibliotecas

Library Trends, Vol. 73 (3), “Generative AI and Libraries: Applications and Ethics, Part I”

Parte 1

Library Trends, Vol. 73 (4), “Generative AI and Libraries: Applications and Ethics, Part II”

Parte 2

La aparición de ChatGPT a finales de 2022 despertó un gran interés tanto en el público general como en los profesionales de la información hacia la inteligencia artificial generativa. Desde entonces, los especialistas en bibliotecas y otros entornos informativos se han enfrentado a preguntas cruciales sobre cómo esta tecnología, en constante evolución, transformará la creación y el consumo de información, y con ello los servicios bibliotecarios que abarcan desde la referencia y la enseñanza hasta la catalogación y la gestión de metadatos. Al mismo tiempo, los bibliotecarios han tenido que lidiar con dilemas éticos relacionados con el uso de una herramienta capaz —y a menudo propensa— a generar información inexacta o sesgada, así como con debates sobre autoría, derechos de autor, prácticas laborales dañinas y costos medioambientales asociados a estas tecnologías.

En conjunto, los autores ofrecen una mirada amplia sobre cómo la IA generativa está afectando al campo de la bibliotecología y las ciencias de la información, plantean interrogantes esenciales sobre sus implicaciones éticas y sugieren cómo los bibliotecarios pueden liderar la aplicación crítica —o incluso el rechazo— de estas herramientas. Los artículos aquí reunidos combinan investigación original, reflexiones conceptuales y especulación sobre futuros posibles y deseables. Mientras algunos autores destacan las oportunidades que abre la IA generativa, otros adoptan una postura pragmática ante lo que consideran inevitable, y algunos defienden un rechazo más firme a un futuro marcado por la IA. Independientemente del nivel de conocimiento previo o la postura del lector, estos volúmenes ofrecen abundante material para la reflexión.

Temas clave que cubren los artículos:

  • Representaciones discursivas de la IA por parte del personal bibliotecario
  • Narrativas en educación y la necesidad de promover la alfabetización crítica en IA
  • IA generativa en acceso abierto y nuevos paradigmas económicos
  • Implicaciones de la IA en la ciencia abierta y recomendaciones para la práctica bibliotecaria
  • Aplicaciones concretas de IA en la comunicación académica (ScienceON)
  • Automatización de codificación cualitativa mediante IA
  • Percepciones de editores de revistas frente al uso de IA en la publicación
  • Mejora del proceso de búsqueda de información usando modelos como Kuhlthau
  • Colaboración entre IA y humanos para modelado de metadatos
  • Reproducción de privilegios informativos y consideraciones pedagógicas
  • Uso de IA para analizar literatura científica (Consensus)
  • Evaluación ética del uso de Claude AI para revisiones bibliográficas

There’s An AI For That: directorio en línea de herramientas de IA

There’s an AI for That

«There’s An AI For That» es un directorio en línea de herramientas de IA, diseñado para ayudarte a encontrar soluciones de inteligencia artificial según tareas o necesidades específicas, en lugar de hacerlo por nombre de producto. Se utiliza gratuitamente por millones de personas cada mes y es una referencia clave en el ecosistema de AI tools

There’s An AI For That (TAAFT) es un directorio en línea que reúne miles de herramientas de inteligencia artificial organizadas por tareas concretas. Su objetivo es ayudar a las personas a encontrar soluciones de IA de forma práctica y rápida, no por el nombre del producto, sino en función de lo que se quiere lograr. La plataforma se ha convertido en una de las más visitadas en el ecosistema de la inteligencia artificial, con millones de usuarios al mes.

Una de sus principales fortalezas es su enorme base de datos, que incluye más de 6.000 herramientas activas (y algunas fuentes mencionan que ya se acerca a las 30.000). Estas abarcan todo tipo de necesidades: desde la creación de contenido, la edición de imágenes o vídeos, la generación de código, hasta aplicaciones para investigación, educación o marketing. Además, el sitio se actualiza con frecuencia para incorporar las novedades más recientes del sector.

El directorio se diferencia por permitir buscar herramientas por tareas específicas. Así, en lugar de escribir el nombre de un software concreto, los usuarios pueden indicar lo que desean hacer (por ejemplo, “crear presentaciones”, “resumir textos”, “generar imágenes” o “analizar datos”). Los resultados se pueden filtrar por categorías, sectores, tipo de uso (gratuito, freemium o de pago) y por popularidad o valoración de la comunidad.

La plataforma también fomenta la participación de los usuarios, quienes pueden dejar reseñas y puntuaciones que ayudan a otros a elegir la mejor opción. Asimismo, ofrece contenido curado como listas de tendencias, lo más buscado o lo más guardado por la comunidad. De esta manera, se convierte no solo en un buscador, sino en un espacio donde se comparte conocimiento práctico sobre la utilidad real de cada herramienta.

Otro de sus atractivos es su newsletter, que se ha posicionado como uno de los boletines de IA más grandes y con mayor crecimiento en el mundo, con más de medio millón de suscriptores. Además, el portal cuenta con un Job Impact Index, un recurso que analiza el impacto de la inteligencia artificial en más de 4.000 profesiones, y una línea de tiempo con la evolución de nuevas herramientas y capacidades de IA.

En cuanto a su origen, fue creado por Andrei Nedelcu, un desarrollador independiente de Bucarest, en diciembre de 2022. En apenas una semana logró más de 100.000 visitas, y hoy en día concentra varios millones de visitas mensuales, lo que refleja su éxito y utilidad para profesionales de distintos campos.

¿Dónde trabajan los robots?

Melo, M.F. “Porcentaje de ingresos procedentes de robots industriales y de servicios en todo el mundo.” Statista.. Accedido el 27 de agosto de 2025.

Texto completo

Para 2025, se espera que la robótica genere ingresos significativos en distintos sectores, destacando especialmente el campo de la medicina, que representa aproximadamente el 27 % de los ingresos totales. Los robots en medicina no solo se utilizan en cirugía, sino que también tienen aplicaciones en desinfección, rehabilitación y transporte de suministros, mostrando cómo la tecnología robótica está ampliando sus funciones dentro de hospitales y centros de salud. Este crecimiento refleja tanto la inversión en innovación como la necesidad de optimizar la atención al paciente y la eficiencia operativa.

En el ámbito doméstico, los robots de servicio han experimentado un aumento considerable, con una expectativa de generar casi el 20 % de los ingresos de la robótica en 2025. Esta cifra incluye principalmente robots aspiradores, aunque también contribuyen robots cortacésped y otros dispositivos automatizados para el hogar. En el sector servicios, otras aplicaciones, como robots camareros o baristas, todavía representan un porcentaje menor, alrededor del 10 %, pero su coste por unidad es elevado, y su presencia señala la tendencia hacia una integración más avanzada de la robótica en la vida cotidiana y en la industria de la hostelería.

Otros sectores de aplicación mantienen porcentajes más modestos, generalmente de un solo dígito, pero muestran un panorama diversificado de la robótica. Esto incluye la industria del entretenimiento, las industrias eléctrica y electrónica, así como aplicaciones en la automoción, logística, agricultura y química. A medida que la tecnología avanza y los costos disminuyen, es probable que la adopción de robots en estos campos continúe aumentando, contribuyendo a un ecosistema robótico más amplio y multifacético.

Cómo puede la inteligencia artificial (IA) mejorar la gestión de datos de investigación?

Exploring How AI Can Help Research Data Management.” UC3 Blog, August 21, 2025. https://uc3.cdlib.org/2025/08/21/exploring-how-ai-can-help-research-data-management/

El artículo de UC3 explora cómo la inteligencia artificial (IA) puede mejorar la gestión de datos de investigación, enfocándose en tres áreas clave: la mejora de metadatos, la generación automatizada de planes de gestión de datos (DMPs) y la conexión de estos planes con los resultados de investigación

Mejora de metadatos con IA

UC3 utiliza IA para optimizar la calidad y escala de la curaduría de metadatos, especialmente en el Registro de Organizaciones de Investigación (ROR). La IA ayuda a transformar entradas de usuarios en salidas estructuradas y estandarizadas, acelerando el procesamiento de más de 1.000 solicitudes mensuales. Este enfoque híbrido combina la eficiencia de la IA con el juicio humano para mantener la calidad y coherencia de los datos.

Generación automatizada de DMPs con DMP Chef

UC3 está desarrollando «DMP Chef», una herramienta basada en modelos de lenguaje que permite a los investigadores generar borradores de DMPs a partir de descripciones simples de sus estudios. Actualmente, se está probando con plantillas del Instituto Nacional de la Salud (NIH), con planes de expandir a otras agencias como la Fundación Nacional de Ciencias (NSF). El objetivo es facilitar la creación de DMPs de alta calidad que los investigadores puedan personalizar según sus necesidades.uc3.cdlib.org

Conexión de DMPs con resultados de investigación

UC3 también está desarrollando herramientas para vincular automáticamente los DMPs con los resultados de investigación que describen, como conjuntos de datos, artículos y software. Estas conexiones mejoran la visibilidad y accesibilidad de los datos de investigación, facilitando su descubrimiento y uso por parte de la comunidad científica.