Archivo de la etiqueta: Inteligencia artificial

El Impacto de la IA en el Avance de la Accesibilidad para los Estudiantes con Discapacidades

Gibson, R. «The Impact of AI in Advancing Accessibility for Learners with Disabilities.» Educause Review. September 2024. https://er.educause.edu/articles/2024/9/the-impact-of-ai-in-advancing-accessibility-for-learners-with-disabilities.

La tecnología de inteligencia artificial (IA) ofrece un gran potencial para proporcionar experiencias de aprendizaje más accesibles, equitativas e inclusivas para los estudiantes con discapacidades. A pesar de la prominencia de la IA en la educación superior, su impacto en la accesibilidad digital, inclusión y equidad no ha sido suficientemente explorado.

A pesar de que los estudiantes con discapacidades son los que más se beneficiarían de las herramientas emergentes de IA, a menudo son los menos representados en el desarrollo de estos productos. Un estudio de 2023 mostró que menos del 7% de los encuestados con discapacidades creen que su comunidad está adecuadamente representada en el desarrollo de productos de IA, aunque el 87% estaría dispuesto a proporcionar retroalimentación a los desarrolladores.

La IA ha estado presente en la tecnología educativa desde hace décadas, pero las herramientas actuales, como los modelos de lenguaje grandes (LLMs), están impulsando avances significativos. Entre las innovaciones recientes se encuentran:

  • Descripciones Automáticas de Imágenes: Herramientas como la de la Universidad Estatal de Arizona utilizan IA para generar descripciones detalladas de imágenes, mejorando el acceso a contenido visual para personas con discapacidades visuales.
  • Generación de Descripciones Auditivas: Empresas como WPP, en colaboración con Microsoft, están desarrollando herramientas avanzadas para generar descripciones auditivas mejoradas de videos e imágenes.
  • Apoyo a Discapacidades Cognitivas y Físicas: Microsoft ha lanzado Be My AI, un asistente visual digital, y Goodwin University está probando productos de IA para apoyar a estudiantes neurodivergentes.
  • Diseño Inclusivo y Soporte de Accesibilidad: Herramientas como GPT Accessibility CoPilot ayudan a los desarrolladores a cumplir con los criterios de accesibilidad web, mientras que tecnologías como Navilens asisten a personas con discapacidades visuales en la localización y lectura de productos.
  • Soporte en Codificación y Desarrollo: GitHub Copilot y Axe DevTools AI son ejemplos de herramientas que facilitan el desarrollo de código accesible y la corrección de contenido digital.

La IA también ha mejorado las herramientas de traducción, subtitulado, lectura de labios y reconocimiento de voz, proporcionando mayores oportunidades para la participación en conversaciones y accesibilidad del contenido.

Estos desarrollos prometen una mayor equidad e inclusión para las personas con discapacidades, aunque la comunidad educativa superior sigue siendo cautelosa respecto a la integración de la IA. Sin embargo, la proliferación de estos productos y servicios indica un avance significativo hacia la mejora de la accesibilidad y la inclusión en el ámbito educativo.

La alfabetización informacional es clave: el pensamiento crítico en la era digital de la IA

Contributors, eSchool Media. «Critical Thinking in the Digital Age of AI: Information Literacy Is Key». eSchool News, 16 de agosto de 2024. https://www.eschoolnews.com/digital-learning/2024/08/16/critical-thinking-digital-age-ai-information-literacy/.

Con el auge de la inteligencia artificial (IA), la desinformación ha entrado en una nueva era, haciendo crucial que los estudiantes desarrollen habilidades sólidas de alfabetización informacional. Estas habilidades ayudan a los estudiantes a navegar por escenarios de desinformación en el mundo digital, desde narrativas falsas hasta imágenes generadas por IA.

La alfabetización informacional, especialmente en plataformas digitales, debería ser una parte obligatoria del currículo escolar para combatir la desinformación y preparar a los estudiantes para un futuro impulsado por la IA. Durante la pandemia, la desinformación sobre el COVID-19, como las teorías conspirativas que vinculaban la enfermedad con redes 5G, se propagó rápidamente gracias a la tecnología digital. Del mismo modo, la IA ha amplificado narrativas engañosas, desde deepfakes hasta noticias falsas, complicando aún más el panorama informativo.

Un ejemplo reciente es el uso de deepfakes y desinformación tras los ataques de octubre de 2023 entre Israel y Gaza, donde se difundieron noticias falsas, como una historia fabricada sobre Qatar amenazando con cortar el suministro mundial de gas si Israel no detenía sus ataques en Gaza.

Además, la confianza del público en los medios se ha erosionado, con solo un 32% de estadounidenses confiando en los medios de comunicación de masas. Combatir la desinformación requiere no solo la verificación de hechos, sino también técnicas preventivas, como el «prebunking», que promueve la resiliencia a la desinformación.

Un enfoque educativo interdisciplinario, como el implementado en Finlandia, es esencial para fomentar el pensamiento crítico. En este país, la alfabetización mediática se enseña desde la escuela preescolar como parte del currículo nacional, lo que ha llevado a una mayor confianza en los medios y una resistencia más fuerte a la desinformación. Este enfoque es un modelo que otras naciones deberían considerar, especialmente en un mundo cada vez más afectado por la IA y la manipulación digital.

Audible comenzará a generar réplicas de voces de narradores de audiolibros mediante IA

Carman, Ashley. «Audible to Start Generating AI Voice Replicas of Select Audiobook Narrators». BNN Bloomberg, 9 de septiembre de 2024. https://www.bnnbloomberg.ca/business/technology/2024/09/09/audible-to-start-generating-ai-voice-replicas-of-select-audiobook-narrators/.

Audible, la plataforma de audiolibros propiedad de Amazon, invitará a un grupo selecto de narradores de audiolibros con base en EE. UU. a entrenar inteligencia artificial con sus voces, para crear clones que podrán ser utilizados en la grabación de audiolibros.

Este esfuerzo, que comienza esta semana, tiene como objetivo agregar más audiolibros al servicio de manera rápida y económica, además de integrar a los narradores tradicionales en el mundo emergente de la automatización de audiolibros, un tema que hasta ahora ha sido visto con recelo por muchos.

El año pasado, Amazon ofreció a autores autopublicados en la tienda Kindle la opción de narrar sus obras con una «voz virtual» genérica, una iniciativa que ha sido popular. Hasta mayo, más de 40,000 libros en Audible habían hecho uso de esta tecnología.

En esta nueva fase, Audible incentivará a narradores profesionales a participar en el proceso. «Esta oferta beta permitirá a los participantes expandir sus capacidades de producción de audiolibros de alta calidad, generar nuevos negocios al tomar más proyectos simultáneamente y aumentar su potencial de ganancias», dijo la compañía en un comunicado en su blog.

Los narradores que elijan participar podrán crear réplicas de sus voces de forma gratuita y recibirán compensación por cualquier audiolibro creado con sus voces generadas por IA, con pagos basados en un modelo de reparto de regalías por título.

Audible busca aumentar el contenido exclusivo en su servicio. A pesar de las herramientas de voz virtual introducidas hace un año, el 96% de los títulos escritos autopublicados en Kindle Direct Publishing aún no tienen versión en audiolibro. Una mayor diversidad de voces podría mejorar estas cifras.

Una vez que un narrador apruebe el uso de su voz generada por IA para un trabajo específico, podrá editar la pronunciación y el ritmo utilizando herramientas de producción internas. Audible no usará las réplicas sin el permiso explícito del narrador.

«Los narradores seguirán manteniendo el control sobre los proyectos en los que desean participar, ya sea usando la réplica de su voz o una actuación en vivo, y seguirán siendo fundamentales en el proceso de producción», afirmó la compañía.

Varios países, entre ellos la UE, EE.UU. y el Reino Unido, han firmado el primer tratado mundial sobre inteligencia artificial.

Framework Convention on Artificial Intelligence

Países de todo el mundo, incluidos EE. UU., Reino Unido y la UE, han firmado el primer tratado internacional sobre IA, legalmente vinculante, diseñado para garantizar que los sistemas de IA se alineen con los “derechos humanos, la democracia y el estado de derecho”.

El tratado de IA legalmente vinculante, denominado Framework Convention on Artificial Intelligence y en desarrollo desde 2019, fue elaborado por el Consejo de Europa (COE), una organización internacional de derechos humanos cuya función es defender los derechos humanos, la democracia y los sistemas legales de la UE.

E, tratado fue elaborado por los 46 estados miembros del Consejo de Europa, con la participación de países observadores como Canadá, Japón, México y EE. UU., así como varios estados no miembros, como Australia, Israel y Argentina. También participaron representantes de la sociedad civil, el mundo académico e industrias.

Incluye un conjunto de principios centrados en desarrollar sistemas de IA de manera transparente que protejan los datos personales, la dignidad humana y la democracia. Su objetivo principal es gestionar cualquier riesgo que la IA pueda representar para los derechos humanos y «llenar las lagunas legales que puedan surgir debido a los rápidos avances tecnológicos», al tiempo que se fomenta la innovación y el progreso.

Tres meses después de la firma del tratado, los gobiernos de los países firmantes estarán obligados a implementar salvaguardas y “adoptar o mantener medidas legislativas, administrativas u otras apropiadas” para alinearse con estos principios.

Principios Fundamentales:

El tratado establece que las actividades relacionadas con sistemas de IA deben cumplir con principios como:

  • Dignidad humana y autonomía
  • Igualdad y no discriminación
  • Protección de la privacidad y datos personales
  • Transparencia y supervisión
  • Responsabilidad
  • Innovación segura


Derechos procesales y salvaguardias

El tratado exige documentar y compartir información relevante sobre los sistemas de IA con las personas afectadas, para permitirles cuestionar las decisiones y el uso del sistema. También se establece que se debe proporcionar la posibilidad de presentar quejas ante autoridades competentes y ofrecer garantías procesales.

Gestión de Riesgos:

Los estados deben realizar evaluaciones de riesgo e impacto de los sistemas de IA sobre derechos humanos, democracia y estado de derecho, y tomar medidas preventivas. Las autoridades pueden imponer prohibiciones o moratorias sobre ciertas aplicaciones de IA consideradas riesgosas.

Aplicación del Tratado:

El tratado cubre el uso de IA tanto por autoridades públicas como por actores privados que actúen en su nombre. Los estados tienen flexibilidad para cumplir con las disposiciones del tratado respetando sus obligaciones internacionales.

Supervisión:

Se establece un mecanismo de seguimiento a través de la Conferencia de las Partes, compuesta por representantes oficiales que evaluarán la implementación del tratado y promoverán la cooperación con las partes interesadas, incluyendo audiencias públicas sobre la aplicación del tratado.

¿Cómo saber si lo que lees lo ha escrito una IA?

Peterson, Jake. «How to Tell If What You’re Reading Was Written By AI». Lifehacker, 12 de agosto de 2024. https://lifehacker.com/tech/how-to-tell-if-what-youre-reading-was-written-by-ai.

Desde que ChatGPT introdujo la IA generativa en 2022, ha quedado claro que ya no se puede confiar en que todo lo que lees fue escrito por un humano. La IA puede generar textos de manera rápida y convincente, pero ¿cómo puedes estar seguro de que no proviene de un algoritmo?

Aunque algunos han adoptado esta tecnología, otros la rechazan. Incluso medios como CNET y G/O Media han enfrentado críticas por publicar contenido generado por IA debido a su calidad deficiente.

Los modelos de lenguaje, como GPT, no son conscientes ni inteligentes; simplemente predicen secuencias de palabras basadas en grandes conjuntos de datos. No obstante, existen señales que pueden delatar un texto generado por IA.

  1. Uso de palabras y frases comunes: Las IA suelen repetir ciertas palabras como «explorar», «destacar» o «testimonio». Aunque son válidas, el uso frecuente de estas puede ser una señal de texto generado por IA.
  2. Estilo de escritura: La IA tiende a usar un lenguaje grandilocuente y repetitivo, con descripciones floridas que no suelen aportar profundidad a los argumentos.
  3. Verificación de hechos y corrección: La IA puede cometer errores al «alucinar» hechos, generando información incorrecta. Además, los textos de IA suelen ser perfectos en cuanto a gramática, lo cual puede ser otra señal.

Aunque existen detectores de textos generados por IA, no siempre son confiables. La mejor manera de identificar un texto escrito por IA sigue siendo el análisis detallado.

Los chatbots de IA siguen demasiado centrados en el inglés y en la cultura occidental

«Lost in translation: AI chatbots still too English-language centric, Stanford study finds | ZDNET». Accedido 6 de septiembre de 2024. https://www.zdnet.com/article/lost-in-translation-ai-chatbots-still-too-english-language-centric-stanford-study-finds/#ftag=RSSbaffb68.

Las soluciones de IA, incluidos los chatbots, pueden carecer de la diversidad global necesaria para atender a usuarios internacionales. Un estudio reciente de la Universidad de Stanford encontró que muchos de los grandes modelos de lenguaje actuales tienden a favorecer «valores y gustos centrados en Occidente».

La investigación dirigida por Diyi Yang, profesora asistente en Stanford y parte del Instituto de IA Centrada en el Ser Humano de Stanford (HAI), señalan que los intentos de «alinear» estos modelos con los valores de los usuarios a menudo fallan.

Aunque se realizan esfuerzos para adaptar los modelos a los usuarios previstos, esto puede introducir sesgos que comprometen la calidad de las respuestas de los chatbots. En teoría, la alineación debería ser universal y permitir que los modelos sean más útiles para una variedad de usuarios en todo el mundo. Sin embargo, los anotadores que adaptan conjuntos de datos en diferentes regiones pueden malinterpretar estos instrumentos.

El mercado global de chatbots de IA está en rápida expansión y se espera que alcance los 67 mil millones de dólares para 2033. Más del 50% de las empresas se espera que inviertan más en el desarrollo de chatbots que en aplicaciones móviles tradicionales. Sin embargo, muchos idiomas y comunidades siguen siendo desatendidos por estas tecnologías.

El estudio de Stanford también destacó que los modelos de lenguaje suelen estar basados en las preferencias de sus creadores, que generalmente provienen de países de habla inglesa. Los modelos deben reflejar el contexto social de las comunidades a las que sirven, lo que implica variaciones en gramática, temas y sistemas de valores.

Los investigadores recomiendan aumentar la conciencia sobre la diversidad global al:

  1. Reconocer que la alineación de los modelos no es una solución universal.
  2. Fomentar la transparencia en las decisiones de diseño de los modelos de lenguaje.
  3. Buscar conjuntos de datos multilingües para mejorar el rendimiento en diversas lenguas.
  4. Trabajar estrechamente con usuarios locales para superar las deficiencias culturales o lingüísticas.

Es fundamental realizar pruebas extensivas con usuarios locales antes de la implementación completa, y ofrecer opciones de selección de idioma para mejorar la experiencia del usuario.

Transparencia de los datos en los modelos LLM de Inteligencia Artificial

MIT News | Massachusetts Institute of Technology. «Study: Transparency Is Often Lacking in Datasets Used to Train Large Language Models», 30 de agosto de 2024. https://news.mit.edu/2024/study-large-language-models-datasets-lack-transparency-0830.

Un equipo de investigadores del MIT ha desarrollado una herramienta llamada Data Provenance Explorer para mejorar la transparencia en los conjuntos de datos utilizados para entrenar grandes modelos de lenguaje. Esta herramienta permite a los practicantes de IA seleccionar datos adecuados para su modelo, mejorando la precisión y reduciendo el sesgo.

Los investigadores analizaron más de 1,800 conjuntos de datos textuales y descubrieron que más del 70% carecían de información de licencia, mientras que alrededor del 50% contenían errores en los datos de origen. Esto plantea problemas éticos y legales, y puede afectar el rendimiento del modelo, ya que el uso de datos incorrectos o sesgados puede llevar a predicciones injustas.

Data Provenance Explorer genera resúmenes de los creadores, fuentes, licencias y usos permitidos de los conjuntos de datos, ayudando a los investigadores a tomar decisiones más informadas y mejorar la precisión de los modelos en situaciones reales, como evaluaciones de préstamos o consultas de clientes.

Además, el estudio reveló que la mayoría de los creadores de conjuntos de datos se concentran en el norte global, lo que podría limitar las capacidades de los modelos en otras regiones. Los investigadores también notaron un aumento en las restricciones de los conjuntos de datos creados entre 2023 y 2024, debido a preocupaciones sobre su uso comercial no intencionado.

Los investigadores planean expandir su análisis para incluir datos multimodales, como video y audio, y seguir colaborando con reguladores para mejorar la transparencia en el uso de datos.

Clarivate lanza un asistente de investigación para Web of Science con IA Generativa

Web of Science Research Assistant

Ver video

El 4 de septiembre de 2024, Clarivate Plc lanzó el Web of Science Research Assistant, una herramienta impulsada por IA generativa. Esta herramienta permite a los investigadores encontrar artículos clave más rápidamente, gestionar tareas de investigación complejas y visualizar conexiones entre conceptos. Combina una interfaz de chat con el conocimiento acumulado durante 120 años en la colección Web of Science Core Collection.

Según Emmanuel Thiveaud, Vicepresidente Senior de Clarivate, esta herramienta va más allá del descubrimiento de contenido, mejorando la toma de decisiones y proporcionando una comprensión profunda de los campos de investigación. Fue desarrollada en colaboración con la comunidad investigadora para garantizar su calidad y precisión.

El Web of Science Research Assistant ofrece:

  • Búsquedas flexibles: permite realizar búsquedas en lenguaje natural en varios idiomas y descubrir conexiones entre artículos.
  • Tareas guiadas: sugiere cómo mejorar las tareas de investigación con funciones específicas como “Entender un tema” o “Revisión de literatura”.
  • Visualizaciones únicas: permite explorar mapas de tendencias y redes de co-citación.

Este asistente de investigación fue desarrollado en colaboración con bibliotecarios e investigadores y entró en fase de prueba en diciembre de 2023. Clarivate continuará trabajando con la comunidad para mejorar la herramienta.

Integrar la Alfabetización en Inteligencia Artificial (IA) en la enseñanza de la alfabetización informacional en bibliotecas universitarias


Hervieux, S. ; Wheatley, A. Building an AI Literacy Framework: Perspectives from Instruction Librarians and Current Information Literacy Tools. Taylor and Francis, 2024

Texto completo

Con el aumento de las discusiones sobre herramientas de inteligencia artificial generativa como ChatGPT, los bibliotecarios se enfrentan ahora a una tecnología de IA accesible que los estudiantes utilizan para completar sus tareas de investigación y redacción. Los marcos y estándares de alfabetización informacional han ayudado tradicionalmente a los bibliotecarios a planificar sus sesiones de instrucción; sin embargo, estas estructuras no abordan la IA. Han surgido muchos talleres dirigidos por bibliotecarios para ayudar a los estudiantes a crear mensajes para chat, verificar la información proporcionada por ChatGPT y usar las herramientas de IA de manera crítica. Aunque ha comenzado a discutirse la inclusión de la IA en el Marco de Alfabetización Informacional de ACRL, se propone que se necesita un nuevo marco para abordar todas las complejidades de la inteligencia artificial. Este documento técnico tiene como objetivo informar sobre entrevistas con bibliotecarios de instrucción sobre la alfabetización en IA. A partir del análisis de las entrevistas, se identificarán los principales temas y preocupaciones relacionados con la IA y se desarrollará un marco robusto para la alfabetización en IA. Los lectores del documento técnico deberían obtener una mejor comprensión del lugar de la alfabetización en IA dentro de la instrucción de alfabetización informacional y poder utilizar una estructura rigurosa para planificar sus propias intervenciones.

Aspectos Clave:

  • Determinar las perspectivas de los bibliotecarios de instrucción sobre la alfabetización en IA.
  • Evaluar los marcos de alfabetización actuales para su capacidad de adaptación al panorama de la inteligencia artificial.
  • Crear un marco robusto de alfabetización en IA.

Hallazgos: Tras 15 entrevistas con bibliotecarios de Canadá y Estados Unidos, los autores determinaron que, aunque el 67% de los bibliotecarios han enseñado contenido sobre IA en el último año, la mayoría no se basó en el Marco de Alfabetización Informacional de ACRL para construir sus sesiones de instrucción. También se identificaron varias habilidades emergentes que otros marcos de alfabetización informacional no representan en detalle, tales como:

  • Ingeniería de prompts, entre una serie de habilidades necesarias para utilizar herramientas de IA.
  • Evaluación crítica que va más allá de la autoridad y examina la ética y el sesgo.
  • Comprensión de las implicaciones éticas, como las relacionadas con el trabajo y el medio ambiente.
  • Nuevas formas de atribuir la creación/edición de contenido.

El marco propuesto de IA se centrará en:

  • Participar en el discurso sobre IA.
  • Conocer los principios básicos de la IA.
  • Entender las diferencias fundamentales entre tipos de IA.
  • Experimentar con herramientas de IA.
  • Revisar los resultados y productos de las herramientas de IA.
  • Evaluar el impacto de la IA a nivel social

Documentos científicos elaborados por Inteligencia Artificial en Google Scholar

Haider, Jutta, Kristofer Rolf Söderström, Björn Ekström, y Malte Rödl. «GPT-Fabricated Scientific Papers on Google Scholar: Key Features, Spread, and Implications for Preempting Evidence Manipulation». Harvard Kennedy School Misinformation Review, 3 de septiembre de 2024. https://doi.org/10.37016/mr-2020-156.


El estudio analiza la aparición de publicaciones científicas cuestionables, producidas con transformadores pre-entrenados generativos (GPT), en Google Scholar. Se investiga dónde se publican o depositan estos trabajos, sus características principales, cómo se difunden en la infraestructura de comunicación académica y cómo desafían el rol de esta infraestructura en mantener la confianza pública en la ciencia.

Para elaborar el estudio se realizó una búsqueda y extracción de datos en Google Scholar utilizando la biblioteca de Python Scholarly (Cholewiak et al., 2023) para identificar artículos que contenían frases comunes generadas por ChatGPT y aplicaciones similares basadas en el mismo modelo subyacente (GPT-3.5 o GPT-4): «a partir de mi última actualización de conocimiento» y/o «no tengo acceso a datos en tiempo real». Esto permitió identificar artículos que probablemente usaron inteligencia artificial generativa para producir texto, resultando en 227 artículos recuperados. La información bibliográfica de estos artículos se añadió automáticamente a una hoja de cálculo y se descargó en Zotero.

Todos los artículos contenían al menos una de las dos frases comunes devueltas por los agentes conversacionales que utilizan grandes modelos de lenguaje (LLM) como ChatGPT de OpenAI. A continuación, se utilizó la búsqueda de Google para determinar en qué medida existían copias de artículos cuestionables elaborados con GPT en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Para explorar la extensión del trabajo generado por ChatGPT en el índice de Google Scholar, se realizó un estudio que rastreó la plataforma en busca de publicaciones que contenían respuestas comunes de ChatGPT. El análisis reveló que alrededor del 62% de estos artículos no declaraban el uso de GPT, con la mayoría encontrados en revistas no indexadas y documentos de trabajo, aunque algunos aparecían en revistas y actas de conferencias de prestigio. Es notable que el 57% de estos artículos estaban relacionados con áreas de política susceptibles a operaciones de influencia. La mayoría de estos documentos estaban relacionados con temas relevantes para políticas públicas, como el medio ambiente, la salud y la informática, que son susceptibles de ser manipulados.

La presencia de texto generado por GPT se observó en diversas secciones de los artículos, incluyendo revisiones de literatura, métodos, marcos teóricos y discusiones. Esto sugiere un uso generalizado de GPT en la creación de artículos completos, lo que genera preocupaciones sobre la integridad de las publicaciones científicas y la posibilidad de lo que se denomina «piratería de evidencia»—la manipulación deliberada de la base de evidencia para influir en la opinión pública y en las políticas.

La proliferación de publicaciones fabricadas pone en riesgo la integridad del sistema de comunicación académica y socava la confianza en la ciencia. Además, la posibilidad de que estos textos falsos sean recuperados por motores de búsqueda académicos como Google Scholar aumenta el riesgo de manipulación maliciosa de la evidencia científica.

Para mitigar estos riesgos, el estudio recomienda un enfoque multifacético que incluya medidas técnicas, educativas y regulatorias. Estas podrían implicar opciones de filtrado en los motores de búsqueda académicos para distinguir entre literatura revisada por pares y literatura gris, así como el desarrollo de un motor de búsqueda académico no comercial para uso público. Las iniciativas educativas dirigidas a los responsables de la formulación de políticas, periodistas y otros profesionales de los medios también son cruciales para mejorar la alfabetización mediática e informativa y reducir el impacto de la desinformación.

Este problema no solo se deriva del uso de generadores de texto como ChatGPT, sino que también refleja preocupaciones más amplias sobre el sistema de publicaciones académicas y la monopolización de la información por parte de plataformas como Google Scholar. La proliferación de artículos fraudulentos puede erosionar la confianza en la ciencia, con consecuencias graves para la sociedad y la forma en que se manejan las «desórdenes de información».

El estudio concluye que el problema de los artículos fabricados por GPT probablemente se vuelva más generalizado, con implicaciones significativas para la credibilidad de la comunicación científica y la confianza pública en la ciencia. Para abordar este problema, es esencial entender las razones subyacentes a la proliferación de dicho contenido y desarrollar estrategias para prevenir su manipulación y difusión.