Academ-AI es un proyecto que documenta los efectos adversos del uso de inteligencia artificial (IA) en el ámbito académico, en particular, casos sospechosos de investigaciones redactadas con IA sin la debida declaración.
El sitio enumera artículos en los que se han detectado frases que sugieren fuertemente el uso de IA, las cuales se destacan en cada cita presentada. Los usuarios pueden reportar artículos que consideren incluidos erróneamente o enviar sospechas sobre otros trabajos.
Por el momento, la documentación se limita a artículos de revistas científicas y ponencias en congresos, excluyendo libros, capítulos de libros, preprints, blogs y otros medios.
Los textos generados por IA pueden identificarse por:
Frases características como “As of my last knowledge update…” o “As an AI language model…”.
Estilo conversacional que no encaja con la prosa académica.
Uso excesivo de pronombres en primera persona y marcadores discursivos como “ciertamente”.
Explicaciones extensas sobre limitaciones del conocimiento o referencias genéricas a expertos.
Si un artículo ha sido corregido por uso no declarado de IA, se etiqueta con el tipo de errata y la fecha de publicación. En casos donde los editores corrigen errores de IA sin notificar a los lectores, se marcan como “stealth revision” (revisión encubierta) sin fecha.
Se etiqueta cada artículo si pertenece a bases de datos reconocidas, como Web of Science, Scopus, PubMed Central, DOAJ, entre otras. También se validan los ISSN de las revistas y los ISBN de ponencias en congresos.
Gartner predice que el volumen de los motores de búsqueda disminuirá un 25 % para 2026 debido a los chatbots de IA y otros agentes virtuales
Según un informe de Gartner, para 2026 el volumen de búsquedas en los motores tradicionales disminuirá un 25%, debido al crecimiento de los chatbots con inteligencia artificial (IA) generativa y otros agentes virtuales. Esto plantea un desafío para los equipos de marketing, ya que canales clave como las búsquedas orgánicas y de pago perderán relevancia frente a estas nuevas herramientas, que están sustituyendo consultas que antes se realizaban en buscadores tradicionales.
El uso de la IA generativa está reduciendo los costos de creación de contenido, lo que afecta estrategias como el uso de palabras clave y el puntaje de autoridad de dominio de los sitios web. En respuesta, los algoritmos de los buscadores darán más valor a la calidad y utilidad del contenido para contrarrestar la avalancha de material generado automáticamente.
Además, habrá un énfasis creciente en la autenticación del contenido, como el uso de marcas de agua digitales. También se anticipa que las regulaciones gubernamentales exigirán que las empresas identifiquen claramente el contenido creado por IA, lo cual influirá en cómo se muestran estos materiales en los buscadores.
Gartner aconseja a las empresas enfocarse en producir contenido único, útil y de alta calidad que refleje principios como la expertise, experiencia, autoridad y confianza (E-E-A-T, por sus siglas en inglés). Esto será crucial para mantenerse competitivos en los resultados de búsqueda y en la generación de valor para los clientes.
Con el Creador de Gráficos con IA de MyMap, puedes diseñar gráficos visualmente impactantes de forma rápida y sencilla. Gracias a la inteligencia artificial, no necesitas habilidades avanzadas de diseño ni conocimientos técnicos; solo describe lo que necesitas y deja que la IA haga el resto. Esta herramienta convierte tus datos en gráficos profesionales, ideales para presentaciones, informes o materiales educativos.
¿Cómo Funciona?
1. Ingresa tus Datos El proceso comienza con la entrada de información. Puedes escribir un tema, pegar una URL, subir un archivo o introducir datos directamente en la plataforma. La inteligencia artificial analizará tu información y te sugerirá los tipos de gráficos más adecuados para representarla, asegurando que se adapte perfectamente a tus necesidades.
2. Personaliza tu Gráfico Después de generar un gráfico inicial, tienes la opción de personalizarlo. Puedes ajustar colores, cambiar etiquetas, modificar estilos o añadir detalles específicos usando simples indicaciones. La IA aplicará automáticamente los cambios, lo que te permite refinar el diseño en tiempo real y asegurarte de que el resultado cumpla con tus expectativas.
3. Exporta y Comparte Una vez que estés satisfecho con tu gráfico, puedes exportarlo fácilmente como un archivo en formato PNG o PDF. Además, si necesitas compartirlo con otras personas, la plataforma genera una URL única que permite la colaboración en línea o la presentación directa. Esto facilita que otros accedan al gráfico sin necesidad de descargas adicionales.
Balnaves, E., Bultrini, L., Cox, A. & Uzwyshyn, R. (2025). New Horizons in Artificial Intelligence in Libraries. Berlin, Boston: De Gruyter Saur. https://doi.org/10.1515/9783111336435
El libro reúne proyectos en curso y observaciones sobre la ética y la práctica de la IA en el ámbito bibliotecario, explorando tanto las implicaciones tecnológicas como éticas de la IA en las bibliotecas. El libro aborda aplicaciones actuales y potenciales de la IA en bibliotecas y presenta consideraciones sobre gobernanza ética y la integración de herramientas y técnicas de IA para mejorar los servicios y la competitividad de las bibliotecas.
El uso de tecnologías de inteligencia artificial (IA) está aumentando en diversos aspectos de las operaciones y tipos de bibliotecas, incluyendo bibliotecas públicas, nacionales, de investigación, académicas y especializadas. Esto abarca desde servicios públicos y de referencia, clasificación automatizada, colecciones especiales y de investigación, hasta archivos y atención al cliente mediante chatbots y sistemas de descubrimiento. Los proveedores también están incorporando elementos de IA en productos nuevos y existentes, como plataformas de búsqueda y descubrimiento, y sistemas de recomendación. El rol e impacto de la IA presentan oportunidades y desafíos, abriendo posibilidades futuras.
Las tecnologías de la información (TI) desempeñan un papel crucial en el desarrollo y uso de la IA, pero las consideraciones éticas y un pensamiento organizacional más amplio deben ser igualmente significativos. El uso de la IA puede tener un impacto considerable y posibles consecuencias no deseadas en las operaciones y servicios bibliotecarios, así como implicaciones sociales más amplias. Este texto aborda tanto los aspectos pragmáticos como los filosóficos más amplios, ofreciendo la oportunidad de explorar paradigmas emergentes de la IA en las bibliotecas, incluyendo la implementación práctica de casos de uso actuales, oportunidades futuras, y cuestiones éticas grandes relacionadas con la transparencia, la planificación de escenarios y las implicaciones del sesgo en los sistemas de IA bibliotecarios, tanto en el presente como en el futuro colectivo.
Este libro se presenta como un recurso para los bibliotecarios interesados en aprender más sobre las oportunidades y desafíos de la IA en el ámbito bibliotecario, promoviendo un futuro prometedor para su aplicación en este contexto. Además, se resalta la creación de un Grupo de Interés Especial de IA patrocinado por la IFLA, que difunde proyectos clave relacionados con la IA en el ámbito bibliotecario, como el desarrollo de respuestas estratégicas de las bibliotecas ante la IA y el uso de IA generativa para profesionales de la información.
Los aspectos de la IA tratados en el libro incluyen:
Aprendizaje automático y profundo, indexación de contenido, metadatos, etiquetado y resumen: La IA puede automatizar la indexación y resumen de documentos, imágenes y medios audiovisuales, mejorando su accesibilidad y descubrimiento en diversos contextos.
Recuperación y análisis de información: Utilizando tecnologías como el procesamiento de lenguaje natural y redes neuronales, la IA puede ayudar a los usuarios a encontrar y analizar información relevante de grandes fuentes de datos complejas.
Compromiso con el usuario y personalización: La IA puede mejorar la experiencia del usuario mediante recomendaciones personalizadas, asistencia a través de chatbots y análisis de sentimientos.
Gestión y operaciones bibliotecarias: La IA promete optimizar los flujos de trabajo de las bibliotecas, automatizando tareas y reduciendo errores, con el potencial de ofrecer nuevas opciones de servicios, como soporte 24/7, resúmenes y anotaciones de investigación, entre otros.
El libro se divide en cuatro secciones:
Direcciones actuales de la IA para bibliotecas: Una visión general de la IA y su intersección con las bibliotecas y la robótica.
Implicaciones del uso de IA en bibliotecas y educación: Un análisis de las consideraciones éticas, políticas de gobernanza, implicaciones educativas y de infraestructura del uso de IA.
Proyectos en aprendizaje automático y procesamiento de lenguaje natural: Proyectos que demuestran el uso de la IA en aplicaciones clave para las bibliotecas en estas áreas tecnológicas.
Inteligencia artificial en servicios bibliotecarios: Casos prácticos de la implementación de IA en diversos servicios bibliotecarios.
La publicación es de acceso abierto y proporciona al lector la oportunidad de explorar las recientes aplicaciones de la IA en el contexto bibliotecario, con una visión global de los avances y proyectos que marcan el futuro de la tecnología en las bibliotecas.
La investigación aborda el creciente fenómeno de publicaciones académicas creadas total o parcialmente mediante herramientas de IA generativa, como ChatGPT. Estos documentos, muchas veces fraudulentas, se encuentran fácilmente en Google Scholar, junto a investigaciones legítimas.
Se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar mediante una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan modelos de lenguaje extensos (LLM), como ChatGPT de OpenAI. Luego, se utilizó la búsqueda en Google para determinar en qué medida las copias de estos artículos cuestionables, fabricados con GPT, estaban disponibles en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.
Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no declarado y potencialmente engañoso de GPT. La mayoría (57 %) de estos artículos cuestionables trataban temas relevantes para políticas (es decir, medio ambiente, salud, informática), que son susceptibles a operaciones de influencia. La mayoría estaban disponibles en varias copias en diferentes dominios (por ejemplo, redes sociales, archivos y repositorios).
De un análisis de 139 artículos, la mayoría (89) se encontraba en revistas no indexadas, mientras que 19 estaban en revistas indexadas. Además, varios se habían replicado en redes sociales, repositorios y otras plataformas, dificultando su control o eliminación. La mayoría de los artículos trataban temas sensibles y de relevancia política, como medio ambiente (19,5%), salud (14,5%) y computación (23%). Esto los hace propensos a ser utilizados en campañas de desinformación o manipulación de la opinión pública.
Algunos de los riesgos principales es que el aumento de estos artículos amenaza con saturar el sistema de comunicación académica y erosionar la confianza en el conocimiento científico y la manipulación malintencionada, ya que se trata de un fenómeno denominado evidence hacking, en el que estas publicaciones se emplean para socavar consensos científicos o respaldar narrativas engañosas en temas controvertidos.
El artículo propone implementar filtros más rigurosos en buscadores académicos, como Google Scholar, para identificar y excluir artículos no revisados por pares o de origen cuestionable. Además, sugiere crear motores de búsqueda académicos de acceso público y no comerciales, así como promover la alfabetización mediática entre los actores clave, como periodistas y legisladores.
Estos hallazgos subrayan que el fenómeno de publicaciones científicas fabricadas por GPT plantea un riesgo significativo para la confianza en la ciencia y requiere atención inmediata para mitigar sus efectos.
El concepto de alfabetización en inteligencia artificial (IA) ha cobrado una relevancia creciente debido al impacto de tecnologías como ChatGPT y otras herramientas basadas en IA. Esta alfabetización se ha convertido en una habilidad imprescindible para la sociedad moderna, y los bibliotecarios, como profesionales clave en la educación, jugarán un papel fundamental en su enseñanza. En una entrevista con Nicole Hennig, experta en experiencia del usuario y tecnologías emergentes, se abordan los aspectos clave de la alfabetización en IA y cómo los bibliotecarios pueden integrarla en su labor educativa.
¿Qué es la alfabetización en IA? La alfabetización en IA no es solo el conocimiento básico sobre el funcionamiento de estas tecnologías, sino un conjunto de competencias que capacitan a los individuos para:
Evaluar críticamente las tecnologías de IA.
Comunicarse y colaborar eficazmente con la IA.
Usar la IA de manera ética y efectiva tanto en el hogar como en el trabajo.
Además de estas competencias, Hennig añade la necesidad de entender cómo funciona la IA, incluidos temas como el aprendizaje automático, las redes neuronales y los modelos de lenguaje grande, así como la capacidad para tomar decisiones informadas sobre el uso de estas tecnologías.
La conexión entre alfabetización en IA y otras formas de alfabetización La alfabetización en IA está estrechamente relacionada con otras formas de alfabetización digital y de datos, ya que la IA se basa en datos digitales y algoritmos. Los bibliotecarios, que ya están involucrados en la enseñanza de la alfabetización digital, de datos y mediática, deben incorporar la alfabetización en IA en sus programas debido a la creciente integración de la IA en herramientas cotidianas y su presencia en diversas industrias.
El impacto de la IA en el trabajo de los bibliotecarios La adopción de la IA, y en particular herramientas como ChatGPT, plantea nuevas oportunidades y desafíos en el ámbito bibliotecario. Hennig señala que la alfabetización en IA se está convirtiendo en una habilidad clave que los bibliotecarios deben adquirir, no solo para educarse a sí mismos, sino también para educar a los usuarios. La IA está cada vez más presente en los requisitos laborales en diferentes campos, lo que hace que su comprensión sea crucial para todos los profesionales, incluidos los bibliotecarios.
La IA y sus críticas Aunque la IA está rodeada de críticas, especialmente en torno a temas como la desinformación, el plagio y los sesgos, Hennig destaca que la alfabetización en IA puede ayudar a navegar estos problemas. Al entender mejor cómo funciona la IA, los usuarios pueden aprender a utilizarla de manera ética y efectiva, y también podrán evaluar los riesgos y las limitaciones de estas tecnologías. Además, destaca que la IA está ayudando a democratizar la creación de contenido, lo que puede ser un aspecto positivo cuando se aborda de manera adecuada.
Ejemplo de uso efectivo de ChatGPT Hennig también ofrece ejemplos prácticos de cómo usar ChatGPT de manera efectiva. Un consejo clave es cómo formular preguntas adecuadas o «prompts» para obtener respuestas útiles. Por ejemplo, si un bibliotecario necesita ideas para una clase sobre alfabetización informacional, puede pedir a ChatGPT que genere un esquema detallado y actividades relacionadas.
Primeros pasos para bibliotecarios sin experiencia técnica Para aquellos bibliotecarios que no tienen una formación técnica en IA, Hennig recomienda comenzar con recursos accesibles como cursos cortos. Ejemplos incluyen una serie de lecciones por correo electrónico publicada por The New York Times y el curso Nano Tips for Using ChatGPT de LinkedIn Learning, que ofrece lecciones breves pero efectivas.
Mantenerse al día con los avances en IA Dado el ritmo acelerado de la evolución de la IA, es esencial seguir a expertos en el campo para mantenerse actualizado. Hennig sugiere seguir a investigadores y profesionales de la IA a través de sus boletines y redes sociales para estar al tanto de las últimas tendencias y avances.
En resumen, la alfabetización en IA es una habilidad esencial para los bibliotecarios en la actualidad. No solo deben educarse a sí mismos sobre la IA, sino que también deben ser capaces de enseñar a sus usuarios cómo utilizarla de manera ética y efectiva. Esta competencia se integra cada vez más en las herramientas que usamos diariamente y será crucial en la educación de las generaciones futuras.
European Court of Auditors, Artificial Intelligence initial strategy and deployment roadmap – 2024-2025, Publications Office of the European Union, 2024, https://data.europa.eu/doi/10.2865/317443
En octubre de 2023, el Tribunal de Cuentas Europeo (ECA) inició una reflexión interna sobre la aplicación de la inteligencia artificial (IA) en sus actividades, tras una serie de avances en este campo. Esta reflexión dio lugar al documento “Oportunidades y desafíos en la respuesta y uso de la inteligencia artificial”, que establece un análisis inicial y propone una estrategia de IA y una hoja de ruta para su implementación. La estrategia actual del ECA cubre el período 2021-2025 y se prevé que la próxima incorpore aspectos relacionados con la IA. El objetivo es iniciar las actividades de IA de manera estructurada y proporcionar insumos para la siguiente estrategia del ECA.
Si bien la IA es una tecnología transformadora, se destaca que no reemplazará el juicio profesional ni el pensamiento crítico de los auditores, sino que los asistirá, mejorando la eficiencia y la base de las auditorías. El uso de la IA se centrará en aumentar las capacidades del personal del ECA para realizar auditorías más rápidas, eficaces y fundamentadas. Además, se subraya la importancia de mantener los más altos estándares éticos, priorizando la transparencia y aplicando un escepticismo profesional.
El documento también aclara la distinción entre el uso de la IA para la auditoría y la auditoría de los sistemas de IA, proponiendo un conjunto de objetivos y acciones concretas. Aunque el campo de la IA es aún incipiente, se consideran realistas las acciones propuestas basadas en pruebas de concepto exitosas y en la experiencia de otras instituciones. Además, se incluye un análisis preliminar sobre las herramientas de IA, considerando soluciones basadas en la nube y locales.
Se reconoce que la IA no revolucionará los procesos principales ni aumentará la productividad de manera significativa en el corto y medio plazo, pero se espera un aumento de la productividad de alrededor del 10%, lo que tendrá un impacto positivo en la eficiencia general. A medida que la IA sigue evolucionando, se ha diseñado un plan de comunicación para mantener a los empleados del ECA informados sobre las actualizaciones de este ámbito.
En cuanto a la auditoría, la IA se utilizará para mejorar la eficiencia del proceso auditivo, realizando tareas repetitivas y análisis de documentos, evaluación de riesgos y automatización de procesos rutinarios. Para aprovechar al máximo la IA, será esencial la capacitación del personal, que deberá entender tanto los aspectos operativos de las herramientas de IA como sus limitaciones, los posibles sesgos y las implicaciones éticas de su uso.
Finalmente, la auditoría de los sistemas de IA será un componente adicional en las metodologías tradicionales de auditoría de TI. Se deberá evaluar el uso de la IA por parte de las entidades auditadas, su impacto en los resultados, la toma de decisiones y el cumplimiento de estándares éticos y normativos, incluyendo los riesgos asociados con el uso de IA por terceros con los que las entidades auditadas tengan relaciones contractuales.
Con las crecientes discusiones en torno a herramientas de inteligencia artificial generativa como ChatGPT, los bibliotecarios se enfrentan ahora a tecnologías de IA accesibles que los estudiantes están utilizando para facilitar sus tareas de investigación y redacción. Los marcos y estándares de alfabetización informacional han ayudado tradicionalmente a los bibliotecarios a planificar sus sesiones de instrucción; sin embargo, estas estructuras no abordan la IA. Han comenzado a surgir numerosos talleres liderados por bibliotecarios para ayudar a los estudiantes a crear indicaciones para chats, verificar la información proporcionada por ChatGPT y usar herramientas de IA de manera crítica. Aunque se ha iniciado cierta discusión sobre el Framework for Information Literacy de la ACRL y el lugar que ocupa la IA dentro de él, proponemos que se necesita un nuevo marco para abordar todas las complejidades de la inteligencia artificial. Este documento tiene como objetivo informar sobre entrevistas realizadas a bibliotecarios especializados en instrucción sobre alfabetización en IA. A partir del análisis de estas entrevistas, identificaremos los principales temas y preocupaciones relacionadas con la IA y desarrollaremos un marco sólido para la alfabetización en IA. Los lectores de este documento deberían obtener una mejor comprensión del papel de la alfabetización en IA dentro de la instrucción en alfabetización informacional y podrán utilizar una estructura rigurosa para planificar sus propias intervenciones.
Tras realizar 15 entrevistas a bibliotecarios de Canadá y Estados Unidos, los autores concluyeron que, aunque el 67 % de los bibliotecarios han enseñado contenido relacionado con IA en el último año, la mayoría no utilizó el Framework for Information Literacy in Higher Education de la ACRL para diseñar sus sesiones de instrucción. Además, los autores identificaron varias habilidades emergentes que otros marcos de alfabetización informacional no representan en detalle, como:
• La ingeniería de prompts, una entre muchas habilidades necesarias para usar herramientas de IA. • La evaluación crítica que va más allá de la autoridad y analiza aspectos éticos y sesgos. • La comprensión de las implicaciones éticas, como las relacionadas con el trabajo y el medio ambiente. • Nuevas formas de atribuir la creación y edición de contenido.
El marco propuesto para la alfabetización en IA se centrará en los siguientes aspectos:
Conocer los principios básicos de la IA.
Comprender las diferencias fundamentales entre los tipos de IA.
Experimentar con herramientas de IA.
Revisar los resultados y productos generados por las herramientas de IA.
Evaluar el impacto de la IA a escala social.
Participar activamente en el discurso sobre la IA.
Jones, Nicola. «AI Hallucinations Can’t Be Stopped — but These Techniques Can Limit Their Damage.» Nature 637, no. 778–780 (2025). https://doi.org/10.1038/d41586-025-00068-5
Los desarrolladores tienen trucos para evitar que la inteligencia artificial (IA) invente cosas, pero los modelos de lenguaje grande (LLM, por sus siglas en inglés) todavía luchan por decir la verdad, toda la verdad y nada más que la verdad.
Es bien sabido que todos los tipos de IA generativa, incluidos los grandes modelos de lenguaje (LLM) que hay detrás de los chatbots de IA, se inventan cosas. Esto es a la vez un punto fuerte y un punto débil. Es la razón de su célebre capacidad inventiva, pero también significa que a veces confunden verdad y ficción, insertando detalles incorrectos en frases aparentemente objetivas. «Parecen políticos», dice Santosh Vempala, informático teórico del Georgia Institute of Technology de Atlanta. Tienden a «inventarse cosas y estar totalmente seguros pase lo que pase».
Cuando el informático Andy Zou investiga sobre inteligencia artificial (IA), suele pedir a un chatbot que le sugiera lecturas de fondo y referencias. Pero esto no siempre sale bien. «La mayoría de las veces me da autores distintos de los que debería, o a veces el artículo ni siquiera existe», dice Zou, estudiante de posgrado en la Universidad Carnegie Mellon de Pittsburgh, Pensilvania.
El problema concreto de las referencias científicas falsas está muy extendido. En un estudio realizado en 2024, varios chatbots cometieron errores entre el 30% y el 90% de las veces en las referencias, equivocándose al menos en dos de los casos: el título del artículo, el primer autor o el año de publicación. Los chatbots vienen con etiquetas de advertencia que indican a los usuarios que comprueben dos veces cualquier cosa importante. Pero si las respuestas de los chatbots se toman al pie de la letra, sus alucinaciones pueden provocar graves problemas, como en el caso de 2023 de un abogado estadounidense, Steven Schwartz, que citó casos legales inexistentes en una presentación judicial tras utilizar ChatGPT.
Dado que las alucinaciones de la IA son fundamentales para el funcionamiento de los LLM, los investigadores afirman que eliminarlas por completo es imposible. Sin embargo, científicos como Zou están trabajando en formas de hacer que las alucinaciones sean menos frecuentes y menos problemáticas, desarrollando una serie de trucos que incluyen la comprobación externa de los hechos, la autorreflexión interna o incluso, en el caso de Zou, la realización de «escáneres cerebrales» de las neuronas artificiales de un LLM para revelar patrones de engaño.
Zou y otros investigadores afirman que éstas y otras técnicas emergentes deberían ayudar a crear chatbots que mientan menos o que, al menos, puedan ser inducidos a revelar cuándo no están seguros de sus respuestas. Pero algunos comportamientos alucinatorios podrían empeorar antes de mejorar.
Básicamente, los LLM no están diseñados para arrojar datos. Más bien componen respuestas que son estadísticamente probables, basándose en patrones de sus datos de entrenamiento y en el posterior ajuste mediante técnicas como la retroalimentación de evaluadores humanos. Aunque el proceso de entrenamiento de un LLM para predecir las siguientes palabras probables de una frase se conoce bien, su funcionamiento interno preciso sigue siendo un misterio, admiten los expertos. Tampoco está claro cómo se producen las alucinaciones.
Una de las causas es que los LLM funcionan comprimiendo los datos. Durante el entrenamiento, estos modelos exprimen las relaciones entre decenas de billones de palabras en miles de millones de parámetros, es decir, las variables que determinan la fuerza de las conexiones entre neuronas artificiales. Por tanto, es inevitable que pierdan algo de información cuando construyan las respuestas, es decir, que vuelvan a expandir esos patrones estadísticos comprimidos. «Sorprendentemente, siguen siendo capaces de reconstruir casi el 98% de lo que se les ha enseñado, pero en el 2% restante pueden equivocarse por completo y dar una respuesta totalmente errónea», afirma Amr Awadallah, cofundador de Vectara, una empresa de Palo Alto (California) que pretende minimizar las alucinaciones en la IA generativa.
Algunos errores se deben simplemente a ambigüedades o equivocaciones en los datos de entrenamiento de una IA. Una respuesta infame en la que un chatbot sugería añadir pegamento a la salsa de la pizza para evitar que el queso se deslizara, por ejemplo, se remontó a una publicación (presumiblemente sarcástica) en la red social Reddit.
Los estudios han demostrado que los modelos más recientes son más propensos a responder a una consulta que a evitar responderla, y por tanto son más «ultracrepidarios», o sea, más proclives a hablar fuera de su ámbito de conocimiento, lo que da lugar a errores. Otra categoría de error se produce cuando un usuario escribe hechos o suposiciones incorrectos en las preguntas. Como los chatbots están diseñados para producir una respuesta que se ajuste a la situación, pueden acabar «siguiéndole el juego» a la conversación.
¿Cuál es la gravedad del problema de las alucinaciones? Los investigadores han desarrollado diversas métricas para hacer un seguimiento del problema. Vipula Rawte, que está realizando su doctorado sobre comportamientos alucinatorios de IA en la Universidad de Carolina del Sur en Columbia, por ejemplo, ha ayudado a crear un Índice de Vulnerabilidad a las Alucinaciones, que clasifica las alucinaciones en seis categorías y tres grados de gravedad. Un esfuerzo independiente y abierto ha compilado una tabla de clasificación de alucinaciones, alojada en la plataforma HuggingFace, para seguir la evolución de las puntuaciones de los bots en varios puntos de referencia comunes.
Vectara tiene su propia tabla de clasificación que analiza el sencillo caso de un chatbot al que se le pide que resuma un documento, una situación cerrada en la que es relativamente fácil contar alucinaciones. El esfuerzo muestra que algunos chatbots confabulan hechos hasta en un 30% de los casos, inventándose información que no está en el documento dado. Pero, en general, las cosas parecen mejorar. Mientras que el GPT-3.5 de OpenAI tenía una tasa de alucinación del 3,5% en noviembre de 2023, en enero de 2025, el modelo posterior GPT-4 de la empresa obtuvo un 1,8% y su o1-mini LLM sólo un 1,4% (véase «Los mayores mentirosos»).
No confíes, verifica. Hay muchas formas sencillas de reducir las alucinaciones. Un modelo con más parámetros que ha sido entrenado durante más tiempo tiende a alucinar menos, pero esto es caro computacionalmente e implica compensaciones con otras habilidades del chatbot, como la capacidad de generalizar8. El entrenamiento con conjuntos de datos más grandes y limpios ayuda, pero hay límites en cuanto a los datos disponibles.
Los desarrolladores también pueden utilizar un sistema independiente, que no haya sido entrenado del mismo modo que la IA, para contrastar la respuesta de un chatbot con una búsqueda en Internet. El sistema Gemini de Google, por ejemplo, tiene una opción para el usuario llamada «respuesta de doble comprobación», que resalta partes de la respuesta en verde (para mostrar que ha sido verificada por una búsqueda en Internet) o en marrón (para contenido controvertido o incierto). Esto, sin embargo, es caro computacionalmente y lleva tiempo, dice Awadallah. Y estos sistemas siguen alucinando, dice, porque Internet está lleno de datos erróneos.
Lo más desconcertante de los chatbots es que pueden parecer tan seguros cuando se equivocan. A menudo no hay pistas obvias para saber cuándo un chatbot está especulando alocadamente fuera de sus datos de entrenamiento. Los chatbots no tienen una memoria perfecta y pueden recordar cosas mal. «Eso nos pasa a nosotros, y es razonable que también le ocurra a una máquina», dice Vempala.
Ai2 ScholarQA, una herramienta experimental basada en inteligencia artificial para facilitar las revisiones de literatura científica. Desarrollada por el Instituto Allen para la Inteligencia Artificial (Ai2), esta herramienta permite a los investigadores formular preguntas científicas que requieren la comparación y el resumen de múltiples documentos. Ai2 ScholarQA utiliza un modelo avanzado de IA, Claude Sonnet 3.5, y un corpus de artículos de acceso abierto para proporcionar respuestas detalladas y contextualizadas. Aunque la herramienta puede ser menos coherente en algunos casos debido a su enfoque en la evidencia, busca mejorar la eficiencia en las revisiones de literatura. Ai2 planea abrir el código fuente de la funcionalidad principal y continuar explorando formas de personalizar y mejorar el apoyo a la investigación científica con IA.