Archivo de la categoría: Tecnologías de la información

100 aplicaciones de la inteligencia artificial generativa

Universidad Internacional de Valencia (VIU). 100 aplicaciones de la inteligencia artificial generativa. Valencia: VIU, 2024.

Texto completo

El informe no solo ofrece un inventario de aplicaciones, sino que propone una reflexión sobre cómo integrar la IAG de manera responsable, maximizando sus beneficios y minimizando riesgos. Con ello, busca servir de guía tanto para profesionales como para instituciones interesadas en adoptar y regular el uso de estas tecnologías emergentes.

El documento 100 aplicaciones de la inteligencia artificial generativa ofrece una panorámica amplia y estructurada sobre los usos actuales de esta tecnología en múltiples sectores. Presenta la IAG como una de las innovaciones más transformadoras de los últimos años, con el potencial de redefinir tanto la vida cotidiana como el trabajo en áreas tan diversas como la educación, la salud, la creatividad, la comunicación y la empresa.

A lo largo del texto se muestran ejemplos concretos que ilustran cómo la IAG ya se aplica en la práctica. En el ámbito educativo, se destaca su utilidad para generar materiales personalizados, apoyar la docencia y facilitar el aprendizaje adaptativo. En la salud, la IA contribuye al análisis de datos clínicos, al diagnóstico asistido y al diseño de tratamientos personalizados. En el campo creativo, se subraya la capacidad de los modelos generativos para producir textos, imágenes, música y vídeos, abriendo nuevas oportunidades para artistas y comunicadores.

El documento también señala el impacto de la IAG en el sector empresarial, donde puede optimizar procesos, mejorar la atención al cliente, automatizar tareas y apoyar la toma de decisiones estratégicas. Asimismo, se enfatizan los retos éticos y sociales que acompañan a su implementación: la necesidad de garantizar la transparencia, mitigar sesgos, proteger la privacidad y reflexionar sobre sus implicaciones en el empleo.

Las bibliotecas como actores clave en moldear el uso ético, responsable y accesible de la inteligencia artificial generativa (IA).

Enis, Matt. “AI Influencers: Libraries Guiding AI Use.Library Journal, September 16, 2025. https://www.libraryjournal.com/story/performingarts/ai-influencers-libraries-guiding-ai-use

El artículo aborda cómo las bibliotecas están emergiendo como actores clave en moldear el uso ético, responsable y accesible de la inteligencia artificial generativa (IA). Los autores subrayan que tecnologías recientes como ChatGPT han alcanzado una adopción masiva en tiempos sorprendentemente breves, lo que hace urgente que las bibliotecas intervengan no solo como espacios de acceso, sino como mediadoras críticas y formadoras en este nuevo ecosistema.

Una de las funciones primordiales es la alfabetización en IA: bibliotecarios necesitan aprender las herramientas, comprender sus implicaciones (beneficios y riesgos), y poder enseñar a otros. Además, se les llama a colaborar con actores locales (empresas, organismos de desarrollo laboral, entidades educativas) para identificar qué competencias se necesitan en cada comunidad, compartiendo recursos entre distintos tipos de bibliotecas para maximizar impacto.

El artículo destaca experiencias concretas: por ejemplo, en la Universidad de Carolina del Norte (UNC), se creó un AI Studio que ofrece talleres, espacios de creación y diálogo entre estudiantes, profesores y personal administrativo, con el objetivo de democratizar el acceso a herramientas de IA y fomentar un uso reflexivo.

También se señala el reto de la velocidad de cambio: los modelos de IA, las herramientas y los debates éticos evolucionan muy rápido, de manera que lo que se aprenda hoy puede quedar obsoleto mañana. En respuesta, se plantea que la formación para el personal de bibliotecas debe ser continua, que existan espacios para compartir tanto descubrimientos como fracasos, y que la política de las instituciones debe ajustarse dinámicamente.

Finalmente, se insiste en que las bibliotecas pueden influir no solamente dentro de sus muros, sino participando en políticas locales y estatales, asesorando sobre marcos regulatorios, ayudando a municipios o gobiernos locales a definir políticas de IA, y actuando como puentes entre comunidad, ética, tecnología y educación.

Premios Nobel y desarrolladores de IA reclaman “líneas rojas” globales ante la ONU para regular la inteligencia artificial

“Nobel Laureates and AI Developers Call for ‘Red Lines’ on AI. Transformer News, September 22, 2025. https://www.transformernews.ai/p/nobel-laureates-ai-developers-red-lines-un-general-assembly

Un grupo destacado de científicos galardonados con el Premio Nobel, exjefes de estado y desarrolladores de inteligencia artificial ha hecho un llamamiento urgente durante la Asamblea General de la ONU para trazar “líneas rojas” claras en el desarrollo de la IA antes de finales de 2026.

Argumentan que los riesgos vinculados a la inteligencia artificial ya no son meras hipótesis futuristas, sino amenazas reales: desde pandemias diseñadas artificialmente hasta la posibilidad de desempleo masivo y la pérdida de control humano sobre sistemas autónomos.

En su declaración conjunta, los firmantes subrayan que algunos sistemas de IA ya han demostrado comportamientos engañosos y dañinos, y al mismo tiempo se les está otorgando cada vez más autonomía para actuar en el mundo real.

Los firmantes —más de 200 en total— incluyen nombres prominentes como Geoffrey Hinton y Yoshua Bengio, reconocidos como “padres de la IA”, así como economistas, diplomáticos y expresidentes como Joseph Stiglitz, Juan Manuel Santos y Mary Robinson. Además, destacan miembros de empresas clave del sector, como OpenAI, Google DeepMind y Anthropic, aunque ninguno de los CEOs de estas compañías aparece entre los firmantes.

En su texto, proponen que dichas líneas rojas (o límites operativos) cuenten con mecanismos robustos de cumplimiento para el año 2026. Señalan también que, aunque esta iniciativa de consenso internacional es un paso significativo, el reto ahora es transformar las declaraciones en acciones concretas. La falta de apoyo o incluso la oposición de gobiernos clave —especialmente de Estados Unidos— constituye un obstáculo mayor. En el caso estadounidense, algunos sectores ven con recelo las regulaciones excesivas o las “códigos de conducta vagos” que podrían imponerse desde el exterior.

Buenas prácticas para la implementación de la inteligencia artificial en las bibliotecas

Ehrenpreis, Michelle, y John DeLooper. “Chatbot Assessment: Best Practices for Artificial Intelligence in the Library.” portal: Libraries and the Academy 25, n.º 4 (2025): 669-701. https://preprint.press.jhu.edu/portal/sites/default/files/06_25.4ehrenpreis.pdf

El estudio representa una evaluación pionera de un chatbot de biblioteca que incorpora la API de ChatGPT, proporcionando evidencia práctica de sus capacidades y limitaciones, así como recomendaciones operativas para maximizar su utilidad en entornos académicos.

Evaluación detallada de un chatbot utilizado en una biblioteca universitaria, específicamente Ivy.ai (“IvyQuantum”) en la Lehman College Library (parte del sistema CUNY). Este chatbot fue inicialmente implementado en otoño de 2019, usando un modelo basado en reglas (rules-based), y más adelante, desde abril de 2023, se integró con la API de ChatGPT para convertirse en un sistema híbrido de generación más inteligente (modelo generativo + base de conocimiento local).

Para evaluar el desempeño tras esta actualización, los autores analizaron una muestra aleatoria de 101 interacciones de chatbot durante el semestre de primavera de 2023 (de un total de 816) más las 39 “tickets” generados cuando el chatbot no pudo contestar (es decir, casos en los que el usuario solicitaba asistencia humana). Cada interacción fue valorada mediante un rúbrica desarrollada por los autores que incluyó criterios como confianza del chatbot (respuestas “low confidence”, “no confidence”), si el usuario rechazó generar un ticket, la evaluación del usuario (pulgar arriba/abajo) y variables de comportamiento del usuario (por ejemplo, desconexión prematura, satisfacción explícita, solicitud de agente humano). Además, las respuestas fueron codificadas según temas (por ejemplo, libros, artículos, solicitudes de agente, investigación) para identificar los tipos de preguntas con menor desempeño.

Los resultados muestran que el chatbot tiene un rendimiento moderado: en la muestra aleatoria, aproximadamente el 39 % de las respuestas recibieron una calificación 1 (correctas pero incompletas) según la rúbrica, mientras que el 42 % fueron calificadas como respuestas completas pero incorrectas (puntuación 2). En comparación con la tasa de éxito atribuida a bibliotecarios humanos en servicios de referencia (alrededor del 55 %), su desempeño es destacable para una herramienta automatizada, aunque con limitaciones claras. Las preguntas más problemáticas para el chatbot fueron aquellas que solicitaban hablar con un agente humano, consultas sobre libros (incluyendo disponibilidad, edición o reservas) y peticiones para investigación o artículos académicos. Tras la integración del ChatGPT, se observó una reducción en el número total de consultas sin ticket (−45 %) pero un aumento significativo en el número de tickets generados (+190 %) en comparación con el periodo anterior.

A partir de sus hallazgos, los autores proponen una serie de mejores prácticas para bibliotecas que consideren adoptar chatbots: revisión periódica de las transcripciones y las preguntas de los usuarios para ajustar respuestas personalizadas, mantener actualizada y estructurada la base de conocimiento de la biblioteca (por ejemplo, mediante archivos CSV con datos limpios), diseñar la interfaz para que los usuarios comprendan el propósito del chatbot (por ejemplo, distinguiendo claramente cuándo derivar al chat humano), y asegurar que haya personal bibliotecario dedicado al mantenimiento y mejora del sistema.

También destacan que la participación institucional y el compromiso de los bibliotecarios son factores clave para el éxito, y que la adopción de sistemas híbridos (reglas + generación) puede ofrecer un equilibrio entre control y flexibilidad.

Writer: detector gratuito de contenido generado por IA

Writer.com

El detector de contenido con IA de Writer.com es una herramienta gratuita diseñada para identificar la presencia de texto generado por inteligencia artificial en fragmentos de hasta 5.000 palabras. Su objetivo es ayudar a escritores, educadores y profesionales a verificar la autenticidad de los textos antes de su publicación.

Entre sus características principales, destaca la posibilidad de pegar directamente el texto a analizar o incluso ingresar una URL para evaluar su contenido. La herramienta ofrece un puntaje de detección, expresado en porcentaje, que indica la probabilidad de que el texto haya sido generado por IA. Además, es de acceso gratuito y no requiere registro para realizar un análisis, aunque el límite por comprobación es de 5.000 palabras. Para usuarios empresariales, Writer.com ofrece una API que permite integrar el detector en flujos de trabajo automatizados.

Sin embargo, el detector tiene algunas limitaciones. Su precisión puede variar, especialmente en textos que imitan muy bien el estilo humano o que contienen frases comunes, lo que puede generar falsos positivos o negativos. Además, a diferencia de otras herramientas como Originality.ai, no cuenta con detección de plagio, lo que puede ser una desventaja para quienes buscan una solución integral. Otra limitación es que el acceso a la API solo está disponible en planes empresariales, lo que restringe su uso para individuos o pequeñas empresas que necesiten automatizar los análisis.

El detector de IA de Writer.com resulta útil para comprobaciones rápidas y accesibles de contenido generado por inteligencia artificial. Es una opción práctica para usuarios que buscan una solución sencilla y gratuita. Sin embargo, para quienes necesitan funciones más avanzadas, como análisis más profundos o detección de plagio, puede ser necesario considerar herramientas complementarias o alternativas más completas.

Evaluación de la eficacia de las herramientas de detección de contenido generado por IA

Elkhatat, Ahmed M., Khaled Elsaid y Saeed Almeer. 2023. “Evaluating the efficacy of AI content detection tools in differentiating between human and AI-generated text.” International Journal for Educational Integrity 19: 17. https://doi.org/10.1007/s40979-023-00140-5

Se investiga la efectividad de diversas herramientas de detección de contenido generado por IA, como OpenAI, Writer, Copyleaks, GPTZero y CrossPlag, en la identificación de textos producidos por modelos de IA como ChatGPT.

Utilizando párrafos sobre el tema de las torres de refrigeración en procesos de ingeniería generados por ChatGPT Modelos 3.5 y 4, junto con respuestas humanas de control, los investigadores evaluaron la capacidad de estas herramientas para distinguir entre contenido humano y generado por IA.

Los resultados revelaron que las herramientas de detección fueron más precisas al identificar contenido generado por GPT 3.5 en comparación con GPT 4. Sin embargo, al aplicarlas a las respuestas humanas de control, las herramientas mostraron inconsistencias, produciendo falsos positivos y clasificaciones inciertas. Esto destaca la necesidad de un desarrollo y refinamiento continuo de las herramientas de detección de contenido generado por IA, ya que el contenido generado por IA se vuelve cada vez más sofisticado y difícil de distinguir del texto escrito por humanos.

El estudio subraya la importancia de no depender exclusivamente de estas herramientas para garantizar la integridad académica. Se recomienda adoptar un enfoque más holístico que combine el uso de herramientas de detección con revisiones manuales y consideraciones contextuales para asegurar una evaluación justa y precisa del contenido académico. Además, los autores sugieren que las instituciones educativas reconsideren sus métodos de evaluación tradicionales, incorporando tecnologías de IA para mejorar el aprendizaje y la evaluación, al tiempo que fomentan una cultura de honestidad académica y responsabilidad.

Aspectos clave:

  • Ninguna herramienta es completamente infalible; la combinación de detección automática y revisión manual es esencial.
  • Los textos generados por ChatGPT 4 son más difíciles de detectar, mostrando la necesidad de mejorar continuamente estas herramientas.
  • Se recomienda integrar estas tecnologías con políticas educativas que fomenten la honestidad académica y métodos de evaluación adaptados.

Por qué la innovación en IA exige un pensamiento más inteligente en torno a la creación de valor

Henkin, David. 2025. “Why Innovation In AI Demands Smarter Thinking Around Value Creation.” Forbes, 23 de septiembre de 2025.

Ver noticia

La innovación en inteligencia artificial (IA) no debe centrarse únicamente en lo novedoso o espectacular, sino en cómo esa innovación genera valor tangible para las organizaciones y para las personas.

Henkin advierte que muchas iniciativas de IA se quedan en la fase de exhibición tecnológica sin traducirse en beneficios reales o sostenibles; para que la IA sea verdaderamente transformadora, debe integrarse con intención, propósito y una lógica clara de creación de valor.

Henkin plantea que para que la IA contribuya de verdad al progreso organizacional, es necesario reordenar el paradigma de innovación. No basta con lanzar modelos o prototipos; hay que preguntarse: ¿qué valor entregaremos, a quién y cómo mediremos ese valor? La innovación con IA debe concebirse como parte de la estrategia de negocios, no como un experimento aislado. En este sentido, toda aplicación de IA debe alinearse con objetivos estratégicos y estar sujeta a criterios rigurosos de retorno, impacto y sostenibilidad.

Un punto clave que el autor enfatiza es la necesidad de una mentalidad más sofisticada sobre “valor”. No se trata simplemente de reducir costos o automatizar tareas, sino de ampliar capacidades, mejorar experiencias, desbloquear nuevos modelos de negocio o permitir decisiones más inteligentes. En esa línea, Henkin advierte contra la trampa de diseñar soluciones de IA que parezcan innovadoras pero que en la práctica no cambian nada sustancial: la innovación eficaz requiere conectar la capacidad técnica con necesidades reales y expectativas concretas.

Finalmente, el artículo sugiere que las organizaciones que ganarán relevancia serán aquellas que internalicen este enfoque de innovación con IA orientada al valor, en lugar de seguir una lógica puramente tecnológica. La IA debe servir como palanca para crecimiento, competitividad y transformación profunda, siempre bajo un marco de pensamiento estratégico, medición rigurosa y foco en los resultados que importan.

El desafío de las bibliotecas ante el material generado por inteligencia artificial

Tanzi, Nick. 2025. “Addressing AI-Generated Materials in the Library Collection.” The Digital Librarian, 5 de agosto de 2025. https://the-digital-librarian.com/2025/08/05/addressing-ai-generated-materials-in-the-library-collection/

El auge de la inteligencia artificial generativa está transformando el ecosistema editorial y, en consecuencia, afectando a las bibliotecas. La proliferación de libros, artículos y audiolibros creados o narrados mediante herramientas automatizadas plantea retos relacionados con la calidad, la fiabilidad y la ética.

El problema no se limita a la producción independiente: en plataformas muy usadas por bibliotecas, como Hoopla u OverDrive, ya han aparecido títulos de baja calidad generados por IA, que terminan integrándose en las colecciones sin haber sido seleccionados expresamente por los profesionales, lo cual impacta en el presupuesto y en la experiencia de los usuarios.

El autor identifica varias razones por las que este fenómeno requiere atención inmediata. En primer lugar, está el riesgo de que la colección se llene de materiales de dudosa calidad que oscurezcan las obras más valiosas. En segundo lugar, se señala que una saturación de contenidos mediocres dificulta el descubrimiento de títulos relevantes y deteriora la experiencia de búsqueda de los lectores. En tercer lugar, el riesgo se agudiza en la no ficción: los errores o invenciones típicas de la IA pueden llevar a difundir información falsa en ámbitos tan sensibles como la salud, la ciencia o la educación. Por último, surge la cuestión de los audiolibros narrados con voces sintéticas, que a menudo no se presentan como tales, restando transparencia al servicio bibliotecario.

Ante este panorama, Tanzi propone que las bibliotecas desarrollen políticas explícitas para gestionar el material generado por IA. Estas políticas deben definir objetivos claros (asegurar calidad, promover transparencia, incluso prohibir ciertos materiales) y decidir si se redactan de forma independiente o como parte de las políticas tradicionales de desarrollo de colección. El reto práctico es evidente: en muchos casos resulta difícil identificar si una obra fue creada con IA, lo que plantea dudas sobre cómo hacer cumplir las normas. El debate no se reduce a un “sí” o “no” rotundo, sino que incluye la posibilidad de etiquetar y filtrar el contenido, en lugar de eliminarlo de manera automática.

El artículo recopila ejemplos de políticas aplicadas en bibliotecas estadounidenses. Algunas han optado por la prohibición total, como la Jasper-Dubois County Public Library en Indiana o la Cranston Public Library en Rhode Island, que rechazan obras enteramente generadas o narradas por IA. Otras instituciones han adoptado enfoques más flexibles, como la North Olympic Library System en Washington, que distingue entre material “generado por IA” (en general excluido) y material “asistido por IA” (escrito por humanos con apoyo tecnológico), admitiendo este último si cumple criterios de calidad. Incluso en casos donde la obra de IA ya ha sido adquirida, se permite conservarla con una etiqueta clara o aplicar los protocolos habituales de descarte.

La transparencia se convierte en un eje esencial. El autor subraya que no basta con que las bibliotecas establezcan sus políticas: es imprescindible que editores, distribuidores y plataformas informen de forma clara cuándo un título ha sido generado o narrado por inteligencia artificial. Sin esa colaboración, las bibliotecas carecen de herramientas para aplicar sus propios criterios de selección. Algunos proveedores han empezado a reaccionar a las demandas de mayor claridad, como en el caso de Hoopla, que ha respondido positivamente a las quejas de distintas instituciones. Asimismo, los usuarios deben tener acceso a esa información para poder valorar por sí mismos la fiabilidad de lo que leen o escuchan.

Kit de herramientas de IA para bibliotecas universitarias y de investigación

Association of Research Libraries and Coalition for Networked Information. ARL/CNI Futurescape Libraries AI Toolkit Can Help You Thrive in the AI Landscape.” ARL News, September 22, 2025.

Texto completo

Futurescape Libraries AI Toolkit busca preparar a las bibliotecas para un futuro en el que la inteligencia artificial será cada vez más determinante. Su valor no radica en predecir lo que ocurrirá, sino en estimular la capacidad de anticipación, la adaptación y la innovación institucional. Con ello, se pretende que las bibliotecas se conviertan en agentes activos del cambio, en lugar de limitarse a responder a las transformaciones una vez que estas ya se han producido.

El objetivo principal es que las bibliotecas de investigación dejen de adoptar un papel reactivo ante los desarrollos en IA y pasen a uno estratégico y de liderazgo, anticipando desafíos y transformaciones.

El toolkit incorpora los ARL/CNI AI Scenarios, junto con prioridades definidas y refinadas durante el foro “Strategic Implications” celebrado en diciembre de 2024. La estructura modular permite que equipos de liderato, personal bibliotecario y otros agentes externos exploren posibilidades futuras, prueben sus estrategias actuales, identifiquen oportunidades y vulnerabilidades, y preparen a la organización para cambios a largo plazo.

La herramienta se organiza en cinco módulos diseñados de manera flexible para que cada institución pueda adaptarlos según sus necesidades, recursos y nivel de preparación. El primero, Thinking About the Future, promueve una mentalidad abierta hacia el futuro y fomenta la reflexión inicial sobre la IA. El segundo, Surfacing Opportunities and Concerns, introduce conceptos de prospectiva como los impulsores de cambio, las señales y el escaneo del entorno, ayudando a identificar tendencias y tensiones externas que impactan a las bibliotecas. El tercer módulo, Scenario-Based Development and Evaluation of Options, invita a utilizar los escenarios de ARL/CNI como base para analizar la viabilidad de distintas estrategias, simulando cómo podrían funcionar bajo diferentes futuros posibles.

El cuarto módulo, Exploration of Strategic Options, ofrece herramientas para priorizar las estrategias, evaluar su impacto y decidir cuáles tienen más potencial de implementación a corto o medio plazo. Finalmente, el quinto módulo, From Workshop to Practice, se centra en traducir lo aprendido en los talleres en prácticas institucionales sostenidas, incorporando rutinas de vigilancia tecnológica, sistemas de alerta temprana y una cultura organizativa que mantenga la reflexión sobre el futuro como parte habitual de la gestión bibliotecaria. Además de estos módulos, se incluye una guía para facilitadores que orienta sobre cómo organizar talleres y adaptar las dinámicas a cada contexto.

Aprendizaje con IA: Una recopilación de artículos escritos por estudiantes

University of Leeds Libraries. “New Student-Led Open Education Resource Showcases Student Voices on AI.” Leeds University Libraries Blog, September 9, 2025.

PDF

EPUB

Los textos relatan experiencias reales de uso de inteligencia artificial generativa (GenAI) en el estudio, abarcando cómo dicha tecnología puede facilitar la comprensión, fomentar la creatividad y la confianza, así como apoyar un aprendizaje más personalizado y accesible

Un tema resaltado en las aportaciones de los estudiantes es la conciencia ética: muchos reflexionan sobre el uso responsable de la IA, los límites apropiados, las implicaciones de integridad académica, y cómo evitar depender demasiado de la tecnología sin comprensión crítica.

Los casos incluyen ejemplos de usos diversos: desde herramientas que ayudan a estructurar ideas o investigar, hasta aplicaciones que permiten adaptaciones para quienes tienen necesidades de aprendizaje distintas.

El recurso ha sido desarrollado como parte de la iniciativa University of Leeds Open Books, usando la plataforma Pressbooks. Está licenciado de forma abierta (“open license”) y está disponible libremente para que cualquiera lo lea, lo use y lo adapte. Además, se plantea como un “libro vivo”: se aceptan nuevas contribuciones hasta el 1 de noviembre de 2025, y todas las aportaciones pasan por un proceso de revisión por pares gestionado por el equipo editorial estudiantil.

El proyecto cuenta con el apoyo institucional de varias áreas de la universidad: la Escuela de Educación, las Bibliotecas, el Servicio de Educación Digital, Desarrollo Organizacional y Profesional, Curriculum Redefined, el Leeds Institute for Teaching Excellence (LITE), y la Knowledge Equity Network. También hay patrocinio de altos cargos universitarios implicados en educación y experiencia estudiantil, lo que indica un compromiso institucionalidad con la calidad educativa, la equidad y la innovación pedagógica.