En el contexto del Foro Económico Mundial que se celebra en Davos (Suiza) en enero de 2026, OpenAI ha centrado parte de su intervención en destacar un fenómeno que califica como capability overhang o “desfase de capacidades”, que consiste en la creciente brecha entre el potencial real de las tecnologías de inteligencia artificial —como ChatGPT— y el uso efectivo que hacen de ellas la mayoría de las personas, las organizaciones y los gobiernos.
Según la propia empresa, aunque los sistemas avanzados de IA duplican su capacidad para abordar tareas más complejas aproximadamente cada siete meses, la mayoría de usuarios actuales solo aprovecha una pequeña fracción de ese potencial. Este desfase, sostienen los responsables de OpenAI, limita tanto la productividad individual como el impacto económico global que estas herramientas pueden generar si se adoptan y utilizan a mayor escala.
La advertencia de OpenAI va acompañada de un llamado a cerrar esa brecha entre capacidades y adopción para liberar plenamente los beneficios de la inteligencia artificial. La organización argumenta que el mayor valor de la IA no estará en su avance técnico per se, sino en cómo se integra en procesos laborales, empresariales y sociales cotidianos, especialmente en sectores como empresas, educación y gobiernos. Cerrar esa brecha, según los ejecutivos de OpenAI, podría permitir que países y organizaciones menos avanzados en adopción tecnológica no queden aún más rezagados, y que los beneficios de la IA —en términos de crecimiento económico, oportunidades productivas y competitividad— se distribuyan de manera más amplia.
Este mensaje de OpenAI en Davos se suma a otras discusiones sobre la inteligencia artificial en el foro, donde líderes tecnológicos y económicos han debatido sobre el papel transformador de la IA en la economía global, su comparación con revoluciones industriales anteriores y los riesgos asociados a su adopción desigual. La noción de superar el capability overhang se plantea no solo como un reto tecnológico, sino como una cuestión de política pública, educación y estrategia empresarial para asegurar que la rápida evolución de la IA se traduzca en beneficios tangibles para una base amplia de usuarios y no solo para quienes están a la vanguardia del desarrollo tecnológico
Se remarca la importancia del estudio dado que una proporción creciente de usuarios usa sistemas de IA para informarse. Aunque no reemplazan completamente a los medios tradicionales, estas herramientas ya se integran en hábitos informativos, lo que eleva el riesgo de difundir desinformación, especialmente cuando las respuestas se presentan con tono seguro y sin advertencias claras sobre sus limitaciones.
El artículo de Digital Trends resume los hallazgos de un experimento de cuatro semanas en el que se evaluó la capacidad de varios chatbots de inteligencia artificial generativa para identificar, priorizar y resumir noticias reales (incluyendo enlaces directos a los artículos) sobre acontecimientos diarios en Québec. La prueba fue diseñada y publicada originalmente por The Conversation, con el objetivo de medir cuánto pueden confiar los usuarios en estos sistemas como fuentes de noticias.
Los resultados del experimento revelaron problemas significativos: algunos chatbots, como Google Gemini, acabaron inventando medios de comunicación completos e informes que nunca existieron, lo que se conoce como alucinación de IA. Por ejemplo, en uno de los casos, Gemini afirmó falsamente que hubo una huelga de conductores de autobús escolar en Québec en septiembre de 2025, cuando en realidad lo que ocurrió fue la retirada temporal de autobuses Lion Electric por un problema técnico real.
Más allá de la fabricación de noticias completas, los sistemas evaluados generaron respuestas con errores frecuentes: citaron fuentes ficticias o inactivas, proporcionaron URLs incompletas o no válidas, tergiversaron el contenido de informes legítimos e insertaron conclusiones inventadas que no estaban en las noticias originales. En general, solo alrededor del 37 % de las respuestas incluyeron una URL de fuente completa y legítima, y menos de la mitad de los resúmenes fueron totalmente precisos.
El análisis también encontró que estas herramientas a menudo añadían información de más —como afirmar que cierta noticia “reavivó debates” o “expuso tensiones” que no existían en los hechos reales— creando narrativas que no estaban sustentadas. Esto puede dar la impresión de profundidad o perspicacia, pero en realidad amplifica la desinformación.
Además, los errores no se limitaron solo a invenciones completas: en algunos casos, los chatbots distorsionaron noticias reales, por ejemplo al informar incorrectamente sobre el trato a solicitantes de asilo o al dar ganadores equivocados de eventos deportivos, y otros cometieron errores básicos en datos como estadísticas o información personal. En suma, la IA generativa sigue teniendo dificultades para distinguir entre resumir hechos y crear contexto o sentido, lo que genera respuestas que pueden ser engañosas o inexactas.
La adopción de la inteligencia artificial generativa (IA generativa) está creciendo en todo el mundo, aunque de forma muy desigual entre países y regiones. Según datos recientes de informes sobre difusión de IA, técnicas como ChatGPT, Gemini o Claude han sido usadas por un mayor porcentaje de la población en algunas naciones avanzadas, especialmente en Oriente Medio y Asia, mientras que en muchas partes de América Latina, África y el sur de Asia el ritmo de adopción es más lento. Países como los Emiratos Árabes Unidos y Singapur sobresalen con tasas de uso superior al 60 % de la población, lo que indica una fuerte integración de estas herramientas en actividades diarias y profesionales.
Una dimensión clave que destaca el artículo es la brecha creciente entre países con alto nivel de digitalización y otros con infraestructuras tecnológicas más limitadas. En regiones como América del Sur y Central, más de la mitad de los países encuestados registraron tasas de adopción por debajo del 20 %, lo que refleja obstáculos como altos costes, carencias de competencias técnicas y menor presencia de empresas tecnológicas locales. Asimismo, países de Asia oriental como Corea del Sur mostraron importantes incrementos en tasa de uso en el último año, impulsados por su adopción en el ámbito laboral y educativo, así como por la presencia de grandes empresas tecnológicas que fomentan su integración.
El artículo también aborda cómo modelos alternativos y de código abierto están ganando terreno en mercados donde los servicios occidentales tienen acceso restringido o no son asequibles. Por ejemplo, en naciones como China, Rusia, Cuba o Bélarús, herramientas de IA locales o no bloqueadas han logrado una cuota significativa de uso, lo que sugiere que la disponibilidad y accesibilidad de estas tecnologías influye tanto como la sofisticación técnica en su adopción generalizada.
En conjunto, la adopción de la IA generativa refleja tanto tendencias tecnológicas globales como desigualdades estructurales. Mientras que países con inversiones tempranas en infraestructura digital, políticas favorables y formación técnica lideran el uso de estas tecnologías, otras naciones enfrentan retos significativos para cerrar la brecha, como la falta de acceso, habilidades digitales insuficientes o mercados tecnológicos menos desarrollados. El artículo de Rest of World contextualiza estos datos dentro de un panorama global donde la IA generativa está marcando diferencias crecientes entre regiones con mayor y menor capacidad de integración digital.
La inteligencia artificial (IA) está transformando profundamente el sector de publicación de medios al impulsar nuevas formas de automatización y desarrollo de productos digitales adaptados a las necesidades de las audiencias modernas.
Según una encuesta global realizada a casi 300 líderes de medios a finales de 2025, los ejecutivos identifican la automatización de procesos internos (back-end) como el caso de uso más importante de la IA, con un 64 % considerándolo “muy importante” para sus organizaciones. Estas aplicaciones incluyen tareas como etiquetado automático de contenidos, edición de textos, transcripción y otras funciones operativas que optimizan tiempos y reducen costes en la producción de noticias y publicaciones digitales.
En segundo lugar, el desarrollo de software y la codificación impulsados por IA emergen como otra área clave, con un 44 % de los encuestados señalándola como relevante. Este crecimiento refleja una tendencia reciente: el interés por integrar capacidades de IA directamente en productos digitales y plataformas de medios ha aumentado significativamente en tan solo un año, pasando del 28 % al 44 %. Esto indica que las empresas no solo buscan automatizar operaciones, sino también crear experiencias tecnológicas más sofisticadas y competitivas para sus usuarios.
Comparativamente, otros usos populares como la recopilación de noticias y la creación de contenido con supervisión humana son considerados importantes por alrededor del 30 % de los líderes de medios, pero no han experimentado grandes variaciones respecto al año anterior. Esto sugiere que, aunque la IA está ganando terreno en áreas tradicionales del periodismo, los medios todavía valoran el control humano en tareas de alta responsabilidad editorial y prefieren priorizar funciones que mejoran la eficiencia y la infraestructura tecnológica antes que sustituir directamente la producción de contenido creativo.
En términos más amplios, estos resultados reflejan cómo los editores de medios están equilibrando la adopción de IA con sus imperativos estratégicos, priorizando herramientas que mejoran su capacidad de competir en entornos digitales rápidos y personalizados sin comprometer la calidad periodística. La IA favorece la velocidad, la personalización de experiencias y la modernización de plataformas, pero su integración todavía dependerá de cómo las organizaciones gestionen los cambios culturales y éticos que esta tecnología plantea en el ecosistema de la información.
OpenAI ha lanzado oficialmente ChatGPT Health, una nueva funcionalidad dentro de su plataforma ChatGPT diseñada específicamente para integrar la inteligencia artificial con información de salud personal del usuario. El producto permite conectar registros médicos y aplicaciones de bienestar —como Apple Health, MyFitnessPal y Function— para ofrecer respuestas más personalizadas y contextualizadas sobre temas relacionados con la salud y el bienestar. Esta integración pretende facilitar a los usuarios la comprensión de resultados de análisis clínicos, la preparación para visitas médicas, el seguimiento de patrones de salud y la comparación de opciones de seguros médicos, aunque no está concebida para diagnosticar enfermedades ni sustituir a profesionales de la salud.
OpenAI ha subrayado que ChatGPT Health se desarrolla como una experiencia separada dentro de la aplicación, con controles de privacidad reforzados que aíslan las conversaciones y los datos de salud, evitando que se utilicen para entrenar los modelos subyacentes. Según la compañía, este enfoque nace de la alta demanda de uso de ChatGPT en consultas sobre salud —con cientos de millones de preguntas semanales relacionadas con el bienestar— y del trabajo conjunto con más de 260 médicos de 60 países para asegurar que la herramienta aporte claridad y utilidad sin reemplazar la atención médica profesional. El acceso inicial se está abriendo gradualmente a un grupo reducido de usuarios de ChatGPT fuera de Europa y el Reino Unido, con planes de ampliar el despliegue global en las próximas semanas.
El gobierno del Reino Unido ha anunciado su intención de replantear profundamente su enfoque sobre las normas de derechos de autor en relación con la inteligencia artificial (IA), en respuesta a tensiones crecientes entre los desarrolladores de IA y los creadores de contenido tradicional.
La secretaria de Tecnología, Liz Kendall, explicó que se busca un “reinicio” de las propuestas legislativas que hasta ahora habían intentado modernizar la legislación de derechos de autor para facilitar el entrenamiento de sistemas de IA con obras existentes. Esta revisión se presentará oficialmente en un informe programado para marzo de 2026.
Hasta el momento, el planteamiento inicial del gobierno —respaldado por el primer ministro Keir Starmer como parte de su objetivo de posicionar al país como una potencia en IA— pretendía relajar las leyes para permitir el uso de cualquier material al que los desarrolladores tuvieran acceso legal, dejando a los creadores la opción de excluir sus obras si así lo deseaban. Sin embargo, esta propuesta de sistema de exclusión (opt-out) fue ampliamente criticada por los sectores creativos, que consideraron insuficiente la protección de sus derechos y la compensación por el uso de sus trabajos en el entrenamiento de modelos de IA.
Tanto Kendall como la ministra de Cultura, Lisa Nandy, reconocieron ante una comisión parlamentaria que el enfoque inicial fue un error y que los principales temores de la industria —garantizar una retribución justa por su trabajo y mantener el control sobre sus creaciones— deben ser el centro de cualquier reforma futura. La intención es adoptar una estrategia más matizada y colaborativa con diversos segmentos del sector creativo para afrontar los desafíos legales y existenciales que plantea la actual interacción entre los sistemas de IA y la propiedad intelectual tradicional.
El objetivo del informe es explorar cómo las organizaciones del ámbito de la publicación académica están adoptando y respondiendo a la inteligencia artificial (IA). La encuesta, realizada entre el 1 y el 12 de diciembre de 2025 entre 563 profesionales de distintas organizaciones, revela que la IA ya está muy presente en los flujos de trabajo de la publicación académica, aplicándose principalmente en tareas relacionadas con la creación y resumen de contenidos, revisión de integridad y detección de plagio, así como en herramientas de accesibilidad y descubrimiento de contenidos.
A pesar de esta adopción generalizada, el informe subraya que la preparación institucional para gestionar el impacto de la IA sigue rezagada respecto al uso tecnológico. La mayoría de las organizaciones se encuentran en un estado de preparación parcial, con políticas, capacidades y conocimientos aún en desarrollo, lo que refleja que el entusiasmo por la IA va acompañado de incertidumbre y retos organizativos. Entre los principales obstáculos se encuentran preocupaciones éticas y legales, problemas de privacidad y seguridad de datos, y una insuficiente capacidad especializada dentro de los equipos.
Las respuestas a la encuesta muestran que la adopción de IA ya está en marcha en las organizaciones de publicación académica, y la gran mayoría reporta al menos un caso de uso activo. Las aplicaciones más comunes se centran en los flujos de trabajo relacionados con el contenido, particularmente la creación o resumen de contenido (48%) y la verificación de plagio o integridad de la investigación (43%). Estos usos reflejan áreas donde la IA puede ofrecer ganancias inmediatas de eficiencia y ampliar el soporte a los procesos editoriales existentes sin alterar fundamentalmente la autoridad en la toma de decisiones.
Las herramientas de accesibilidad y traducción (34%) y el descubrimiento de contenido (34%) también son muy relevantes, subrayando el papel creciente de la IA en mejorar el alcance, la usabilidad y la encontrabilidad del contenido académico.
Más allá de las funciones editoriales principales, las organizaciones aplican cada vez más la IA a actividades empresariales y operativas. Más de una cuarta parte de los encuestados informa que utiliza IA para marketing o interacción con clientes (27%) y para análisis de datos o previsiones (27%), lo que indica una mayor comodidad con los conocimientos generados por IA para informar estrategias y alcance de la audiencia. La asistencia en la revisión por pares o la asignación de revisores (22%) y la generación o etiquetado de metadatos (18%) aparecen como aplicaciones emergentes, pero aún no universales, lo que sugiere tanto oportunidad como cautela en áreas que interfieren más directamente con el juicio académico y el control de calidad.
De acuerdo con los datos mostrados, las categorías con mayor peso son:
Creación o resumen de contenido: Es la aplicación más destacada con un 48%.
Controles de plagio o integridad: Ocupa el segundo lugar con un 43%.
Descubrimiento de contenido: Representa un 34%.
Herramientas de accesibilidad o traducción: Empata con el descubrimiento de contenido con un 34%.
Marketing o compromiso del cliente: 27%.
Análisis de datos o pronósticos: 27%.
Asistencia en revisión por pares o emparejamiento de revisores: 22%.
Generación de metadatos o etiquetado: 18%.
Licencia de contenido a terceros: 13%.
Personalización o inteligencia predictiva: 13%.
Finalmente, la imagen indica que un 14% corresponde a otros usos y un 12% de los consultados no utiliza IA actualmente.
Actitudes hacia la IA
Las respuestas indican que la mayoría de las organizaciones abordan la IA con interés medido, más que con entusiasmo incondicional. La mayoría (51%) describe su postura como exploración cautelosa de oportunidades, lo que sugiere experimentación activa junto con consideración cuidadosa de riesgos, gobernanza y adecuación. Al mismo tiempo, más de un tercio de los encuestados muestra una postura fuertemente positiva hacia la IA: 19% adopta activamente e invierte en IA y 16% se identifica como adoptante entusiasta y proactivo — juntos indican un impulso significativo hacia una integración más profunda.
Solo una pequeña minoría permanece al margen o en contra. Solo el 6% reporta una postura neutral de esperar y ver, otro 6% se declara escéptico o resistente, y solo 2% evita activamente las herramientas de IA. En conjunto, estos resultados sugieren que, aunque la cautela sigue siendo dominante, la resistencia a la IA en la publicación académica es limitada y la trayectoria general apunta hacia una adopción más amplia con el tiempo.
Preparación ante la IA
Las respuestas sugieren que la mayoría de las organizaciones se sienten parcialmente preparadas para enfrentar el impacto de la IA en el próximo año. Casi la mitad (45%) reporta estar moderadamente preparada, mientras otro 27% se siente solo ligeramente preparada, lo que indica que muchas organizaciones todavía están construyendo habilidades, políticas y confianza interna. Un porcentaje menor se siente altamente preparado: 16% se describe como muy preparado y solo 3% como completamente preparado, lo que subraya lo rara que sigue siendo la sensación de preparación total. Al mismo tiempo, 9% reporta no estar preparado en absoluto, destacando la necesidad de orientación, buenas prácticas compartidas y desarrollo de capacidades en toda la comunidad.
El sondeo también identifica oportunidades importantes asociadas con la IA, entre ellas la eficiencia de los flujos de trabajo —que puede liberar tiempo para tareas de mayor valor añadido—, el fortalecimiento de la revisión por pares mediante herramientas de apoyo o asignación de revisores, y el uso de IA para reforzar la integridad y calidad de la investigación a través de la detección de plagio o de prácticas poco éticas. Asimismo, la IA se percibe como una herramienta valiosa para mejorar la descubribilidad del contenido científico y para apoyar a autores de distintas lenguas mediante traducción y servicios lingüísticos.
Barreras para la adopción de IA
Los encuestados identificaron preocupaciones legales/éticas, privacidad/seguridad y falta de experiencia/capacidad como las principales barreras para la adopción de IA.
A pesar de los altos niveles de adopción e interés en IA, las organizaciones de publicación académica todavía albergan serias preocupaciones sobre su uso en el sector. Las preocupaciones éticas o legales (63%) y los problemas de privacidad o seguridad de los datos (61%) encabezan la lista, reflejando cautela generalizada respecto a cumplimiento, propiedad intelectual y uso responsable — preocupaciones especialmente agudas en la publicación académica. La preparación organizacional también emerge como un desafío significativo, con la mitad de los encuestados (50%) citando la falta de experiencia o capacidad del personal, lo que subraya que las capacidades humanas e institucionales a menudo quedan detrás del interés tecnológico.
Consideraciones prácticas y financieras forman un segundo nivel de barreras. Restricciones presupuestarias (28%), calidad o disponibilidad de datos (25%) y un ROI o caso de negocio poco claros (25%) sugieren que muchas organizaciones todavía evalúan costos frente a beneficios inciertos. Los problemas culturales y de herramientas —como la resistencia al cambio (23%) y la falta de herramientas adecuadas (19%)— son menos dominantes pero todavía significativos. Casi todas las organizaciones reportan algún tipo de fricción al adoptar IA.
No obstante, las preocupaciones sobre los riesgos son profundas y existenciales. Muchos encuestados expresan inquietudes sobre la posibilidad de que la IA degrade la calidad y la integridad de la literatura académica, dificultando la detección de contenidos generados por IA sin rigor científico, y erosionando la confianza en el proceso de revisión por pares tradicional. También existe ansiedad sobre la falta de transparencia en el uso de IA y la autenticidad de las contribuciones cuando las herramientas automatizadas participan en la producción o evaluación de trabajos. En conjunto, estas respuestas reflejan una comunidad editorial que navega entre la oportunidad de mejorar procesos y la necesidad de proteger los valores fundamentales de la comunicación científica.
LOPEZOSA, Carlos. Inteligencia artificial en los procesos técnicos bibliotecarios: fundamentos y aplicaciones prácticas. Informe. Universitat de Barcelona, 2026. Consulta del 12 de enero de 2026. https://hdl.handle.net/2445/225202
Se analiza cómo la inteligencia artificial (IA) está transformando y puede seguir transformando los procesos técnicos dentro de las bibliotecas y centros de documentación. El estudio se centra en profundizar en los fundamentos conceptuales de la IA, sus aplicaciones principales y los desafíos que plantea su adopción responsable en contextos bibliotecarios.
El informe analiza el impacto creciente de la inteligencia artificial en las bibliotecas, centrándose especialmente en los procesos técnicos tradicionales. Parte de la idea de que la IA, y en particular los modelos de lenguaje de gran tamaño, ya forman parte del ecosistema informacional y están modificando de manera profunda la forma en que se gestionan, describen y organizan los recursos documentales. El texto ofrece una aproximación clara a los fundamentos conceptuales de la IA, explicando su funcionamiento general y su relevancia para el ámbito bibliotecario y documental.
A lo largo del trabajo se examinan las principales aplicaciones prácticas de la inteligencia artificial en tareas como la catalogación, la gestión y normalización de metadatos y el enriquecimiento semántico de los registros bibliográficos. El autor muestra cómo estas tecnologías permiten automatizar procesos repetitivos, detectar inconsistencias y mejorar la calidad descriptiva de los fondos, lo que repercute directamente en una mejor recuperación de la información. No obstante, se insiste en que la IA debe entenderse como una herramienta de apoyo y no como un sustituto del criterio profesional del personal bibliotecario.
El documento también aborda la integración de la IA en los flujos de trabajo técnicos, destacando su utilidad como sistema de asistencia avanzada para el análisis de datos, la generación de informes y la toma de decisiones técnicas. Desde esta perspectiva, la inteligencia artificial se presenta como un recurso estratégico que puede aumentar la eficiencia y liberar tiempo para tareas de mayor valor intelectual, siempre que exista una supervisión humana adecuada.
Un apartado relevante del estudio está dedicado a los retos éticos, legales y organizativos que plantea el uso de la IA en bibliotecas. Se analizan cuestiones como la protección de datos personales, la seguridad de la información y el riesgo de sesgos algorítmicos, subrayando la necesidad de una evaluación crítica y continua de estas herramientas. El texto advierte sobre los peligros de una dependencia tecnológica excesiva y reclama políticas claras que garanticen un uso responsable, transparente y alineado con los valores profesionales de la biblioteconomía.
Como conclusión, el informe propone un modelo de adopción híbrida de la inteligencia artificial, en el que la tecnología complementa el trabajo humano sin sustituirlo. Se defiende una incorporación progresiva y reflexiva de la IA en los procesos técnicos bibliotecarios, basada en la formación del personal, la supervisión ética y la adaptación a las necesidades reales de cada institución. De este modo, la IA se concibe como un instrumento para mejorar la calidad del servicio bibliotecario y reforzar su papel en la gestión del conocimiento en la era digital.
Vivas Urias, María Dolores, y María Auxiliadora Ruiz Rosillo, eds.Inteligencia artificial generativa: Buenas prácticas docentes en educación superior. Barcelona: Octaedro, 2025. ISBN 978‑84‑10282‑57‑5.
El libro ofrece una visión amplia y práctica de cómo la inteligencia artificial generativa (IAG) está transformando la educación superior, mostrando experiencias reales de innovación docente desarrolladas en la Universidad Alfonso X el Sabio durante el curso 2023‑2024. A través de múltiples aportes, el texto examina la manera en que estas herramientas no solo apoyan la creación de contenidos educativos, sino que también replantean la pedagogía y la evaluación.
El primer bloque del libro se centra en el papel de la IAG en la alfabetización digital y en el diseño pedagógico, explorando cómo los docentes pueden integrar estas tecnologías para potenciar la enseñanza y reducir incertidumbres en proyectos complejos como trabajos de fin de estudios. Se analizan ejemplos concretos como concursos de creación artística o generación automática de materiales de autoevaluación, destacando tanto oportunidades como desafíos éticos.
Otros capítulos muestran casos de uso específicos en materias como ciencias sociales, biotecnología o farmacología, donde la generación de contenidos y la gamificación asistida por IA facilitan procesos de enseñanza más dinámicos y adaptados a los estudiantes. Además, se aborda la evaluación de competencias con rúbricas enriquecidas por IA y estrategias para fomentar el pensamiento crítico en los futuros profesionales.
Finalmente, la obra no se limita a presentar herramientas, sino que también reflexiona sobre el uso ético y responsable de la IAG por parte de la comunidad educativa. Pone de relieve la necesidad de formación docente, la adaptación de metodologías y la convivencia entre creatividad humana y automatización inteligente, con el objetivo de maximizar el aprendizaje sin perder de vista valores formativos esenciales.
A finales de 2025 empezaron a surgir informes sobre algo que han llamado revistas imaginarias. La IA generativa puede “alucinar”, es decir, inventar hechos o datos presentándolos como reales, pero que llegue al punto de generar títulos de revistas y citas que no existen en absoluto ha sorprendido a muchos.
Se han detectado referencias a publicaciones que nunca han existido en trabajos académicos. Estamos acostumbrados a las revistas falsas o depredadoras, pero estos nuevos títulos sólo aparecen en bibliografías generadas por IA, sin rastro real de su existencia.
Además, también se han encontrado artículos atribuidos a autores que no existen. Incluso algunos de estos textos se han presentado a revistas legítimas. Esto podría formar parte de pruebas para evaluar sistemas de revisión o detección de plagio, aunque también podría responder a fines más oscuros.
Aunque suene sorprendente, la aparición de artículos completamente generados por IA está alterando las normas tradicionales de la investigación y la publicación académica. Muchos repositorios de preprints han tenido que restringir envíos ante el aumento de trabajos de baja calidad generados por IA.
El impacto podría ser serio: si se difunden investigaciones inventadas y otros investigadores las citan o usan como referencia, el daño se propaga rápidamente. Incluso se han visto casos en los que artículos falsos han sido citados decenas de veces, sin que los autores supieran que su nombre aparecía en esos documentos.
Frente a esta situación, las fuentes verificadas de publicaciones científicas se vuelven más importantes a medida que el uso de IA se expande. Las fronteras entre investigación humana, híbrida o generada exclusivamente por IA se están desdibujando, con implicaciones profundas para editores, autores, instituciones y financiadores.