Archivo de la etiqueta: Desinformación

Alertan sobre propaganda rusa infiltrada en los principales chatbots de IA

NewsGuard. «A Well-Funded, Moscow-Based Global Disinformation Machine Flooded the Internet with Russian Propaganda—Now It’s Polluting AI ChatbotsNewsGuard Reality Check, March 6, 2025. https://www.newsguardrealitycheck.com/p/a-well-funded-moscow-based-global.

Un informe reciente de NewsGuard, compartido por Axios, revela que una operación de desinformación rusa sigue afectando a los principales chatbots de inteligencia artificial (IA), los cuales están replicando propaganda pro-Kremlin.

Según el informe, una red de unos 150 sitios web vinculados a Rusia, conocida como la red Pravda, ha inundado internet con noticias falsas desde abril de 2022. Esto no solo engaña a los buscadores, sino también a los sistemas de IA que se entrenan con datos de la web, alterando la forma en que procesan y presentan información.

NewsGuard evaluó a 10 de los principales chatbots, entre ellos ChatGPT-4o (OpenAI), Gemini (Google), Copilot (Microsoft), Claude (Anthropic), Meta AI, entre otros. En el estudio, se probaron 15 narrativas falsas promovidas por la red Pravda, utilizando distintos estilos de preguntas para simular interacciones reales con los usuarios.

Principales resultados del informe:

  • Los chatbots repitieron desinformación rusa en un 33,55% de las respuestas.
  • En un 18,22% no ofrecieron respuesta.
  • Solo un 48,22% refutó o corrigió la información falsa.
  • Todos los chatbots replicaron, en algún momento, narrativas falsas de Pravda.
  • Siete de ellos citaron directamente artículos de Pravda como fuente.
  • Se identificaron 92 artículos diferentes de Pravda usados como referencia en las respuestas de los chatbots.

Estos hallazgos confirman otro informe de febrero de 2025 del grupo estadounidense American Sunlight Project (ASP), que alertó que la red Pravda no busca tanto atraer lectores humanos, sino influir en los modelos de lenguaje de IA. A esta estrategia la denominaron «LLM grooming», es decir, entrenar indirectamente a los modelos para normalizar narrativas falsas.

El informe advierte que los riesgos de este tipo de manipulación son elevados, tanto a nivel político como social y tecnológico, debido a la capacidad de los modelos de IA para amplificar desinformación a gran escala.

Borges anticipó con su relato uno de los mayores desafíos de nuestro tiempo la era de la información y la desinformación

“Esa fabulosa biblioteca contenía (dicho en palabras de hoy)
toda la información posible, porque cualquier posible conjunto
de palabras estaba en alguna de sus inagotables estanterías.
Libros buenos y malos, mediocres; falsos y auténticos, medio
falsos y medio verdaderos: todos”.


Borges “La Biblioteca de Babel”

La célebre Biblioteca de Babel de Borges es una metáfora poderosa sobre la infinitud de la información. En ella, cualquier combinación posible de palabras existe y, por tanto, también existen todos los libros concebibles: los verdaderos y los falsos, los geniales y los mediocres, los que tienen sentido y los que son puro desvarío. En ese universo total, los habitantes de la biblioteca están condenados a buscar sin descanso fragmentos de sentido entre estanterías interminables, donde cada texto valioso está sepultado por millones de textos absurdos. Tener acceso a toda la información posible no significa, por tanto, alcanzar el conocimiento; más bien implica enfrentarse a un caos abrumador del que es casi imposible extraer certezas.

La comparación con Internet hoy resulta inevitable. Nuestra red global funciona como una Babel contemporánea: una vastísima acumulación de textos, imágenes, vídeos y datos en la que conviven noticias reales con bulos, obras maestras con contenidos triviales, información rigurosa con opiniones infundadas. Al igual que en la biblioteca borgiana, en Internet también está todo, pero ese “todo” no garantiza encontrar lo que buscamos, ni mucho menos la verdad. El problema ya no es solo acceder a la información, sino saber discernir entre lo valioso y lo irrelevante, entre lo auténtico y lo falso, entre lo que aporta conocimiento y lo que solo genera ruido.

En el universo de Borges, los bibliotecarios desesperaban tratando de dar sentido a los interminables anaqueles. Hoy, nosotros cumplimos ese mismo papel cada vez que navegamos por Internet, aunque ahora contamos además con la ayuda —o quizás la trampa— de los algoritmos. Estas fórmulas invisibles filtran los contenidos y deciden qué parte de la biblioteca infinita nos muestran, moldeando nuestra percepción del mundo y condicionando nuestras búsquedas. Así, a la dificultad de encontrar sentido dentro del exceso, se suma el riesgo de quedar atrapados en burbujas de información que refuerzan nuestras propias ideas y nos alejan aún más de una posible verdad común.

En definitiva, Borges anticipó con su relato uno de los mayores desafíos de nuestro tiempo: que el exceso de información puede ser tan paralizante como la falta de ella. Frente a esta Babel digital en la que vivimos, nuestra tarea es desarrollar pensamiento crítico, crear filtros responsables y, sobre todo, no perder la voluntad de seguir buscando sentido entre el caos.

Manual para combatir la desinformación

Fundación Telefónica Argentina, ed. Manual para combatir la desinformación. Buenos Aires: Fundación Telefónica Argentina, 2024.

Texto completo

Este recurso gratuito ofrece unas pautas complementarias a la información que podrás encontrar en la exposición ‘Fake News: El valor de la información’ que te ayudarán a discernir las noticias falsas de la verdad desde el pensamiento critico. 

Elon Musk y la Guerra de la Información: tácticas de manipulación en Twitter

+Duran, Gil, y George Lakoff. Algorithm Warfare: How Elon Musk Uses Twitter to Control Brains. The Frame Lab.https://www.theframelab.org/algorithm-warfare-how-elon-musk-uses/

El artículo analiza cómo Elon Musk utiliza Twitter de manera estratégica para controlar la narrativa y manipular la opinión pública, aplicando tácticas similares a las de Donald Trump en la guerra de la información. Se destacan cuatro tácticas clave que Musk emplea:

  1. Enmarcado preventivo: Musk utiliza Twitter para enmarcar los temas a su favor antes de que lo hagan otros. Un ejemplo es el caso de los «Twitter Files», que presentó como un escándalo de censura del gobierno a favor de Joe Biden, aunque en realidad no tenía pruebas de tal acto. Este enmarcado, aunque infundado, crea la narrativa de que los medios de comunicación ocultan una gran verdad, mientras él desacredita a los medios tradicionales.
  2. Desviación: Musk distrae la atención de temas importantes para centrarla en información falsa o engañosa. Un caso fue cuando desvió la atención de un artículo negativo de The Wall Street Journal sobre su empresa, The Boring Company, atacando a Apple con acusaciones falsas sobre su publicidad y su relación con Twitter.
  3. Desviación de ataques: Musk utiliza Twitter para desviar los ataques hacia él, redirigiendo la conversación hacia sus críticos, políticos demócratas o progresistas. Un ejemplo reciente fue cuando insinuó que sus predecesores en Twitter podrían haber facilitado actividades ilegales, mientras él mismo había debilitado el equipo encargado de la seguridad infantil.
  4. Globo sonda: Musk utiliza su cuenta para lanzar ideas y probar la respuesta pública. Algunas propuestas, como la reintegración de Trump en Twitter, se concretan, mientras que otras parecen ser provocaciones para generar controversia, como su sugerencia de convertir la sede de Twitter en un refugio para personas sin hogar.

Estas tácticas, que combinan desinformación, distracción y manipulación de la narrativa, sirven para proteger la imagen de Musk, desviar la atención de sus fracasos y consolidar su poder en la plataforma.

El papel de los bibliotecarios escolares en el desarrollo de habilidades de alfabetización informativa en estudiantes ante las noticias falsas

EveryLibrary. «Researching Your Way Through a Million ResultsEveryLibrary, accessed January 30, 2025. https://action.everylibrary.org/researching_your_way_through_a_million_results

Los bibliotecarios escolares son fundamentales para ayudar a los estudiantes a desarrollar habilidades de alfabetización informativa en un mundo saturado de información incorrecta. Enseñan a localizar, evaluar la calidad y cantidad de las fuentes, y dar crédito a los materiales utilizados. Además, promueven la ciudadanía digital responsable. En lugar de confiar solo en búsquedas de Google, los estudiantes aprenden a utilizar bases de datos académicas y a filtrar fuentes confiables, lo que les permite ser investigadores y ciudadanos más críticos en un entorno digital lleno de noticias falsas.

Las investigaciones han demostrado que las noticias falsas viajan seis veces más rápido que las verdaderas en las redes sociales. Afortunadamente, los bibliotecarios escolares ayudan a los estudiantes a navegar por un mundo en el que les rodea demasiada información incorrecta. En colaboración con los profesores y los padres, los bibliotecarios escolares ofrecen lecciones esenciales que no solo ayudan a los estudiantes con su proyecto de investigación actual, sino que también ayudan a desarrollar habilidades de alfabetización críticas necesarias para toda una vida de aprendizaje, investigación y lectura.

Hace sólo unas décadas, el panorama era totalmente distinto. Si un estudiante tenía un proyecto de investigación, acudía a la biblioteca de su colegio, donde encontraba la colección de enciclopedias de la biblioteca para localizar un artículo sobre su tema. Tomaba notas, ya que el libro de referencia no estaba disponible para préstamo. Posteriormente sacaba un libro escrito por un autor experto y se iba a casa con su libro y sus notas, dos fuentes de información de alta calidad pero sucintas. Ahora, no sólo hay dos fuentes disponibles, sino probablemente miles, o incluso millones. Muchas de esas fuentes tienen información excelente, mientras que otras simplemente no la tienen. Algunas estarán desactualizadas, otras serán parciales y otras contendrán información completamente falsa.

¿Cómo distinguirlas? Y, ¿cómo hacer esta investigación rápida y eficazmente con tanto contenido? Dado que la investigación es tan diferente hoy en día, los alumnos necesitan desarrollar unas aptitudes increíblemente sólidas en materia de alfabetización informacional. Los bibliotecarios escolares pueden ayudar a los estudiantes a navegar por este mundo en constante cambio de la alfabetización informacional. He aquí cuatro maneras en que los bibliotecarios escolares pueden ayudar a los estudiantes a tener éxito:

Localización de información

Hay mejores formas de empezar que una búsqueda en Google. Por ejemplo, las bibliotecas escolares suelen estar suscritas a bases de datos de investigación de alta calidad, a muchas de las cuales se puede acceder desde casa. Buscar en una base de datos de alta calidad y adecuada a la edad, como una de EBSCO o Gale, conducirá a resultados más sólidos. Por supuesto, la biblioteca escolar también tiene toda una colección de libros que han sido seleccionados y examinados por el bibliotecario de la escuela. Estos libros están escritos para el nivel y las necesidades informativas de tu alumno, por lo que encajan de forma natural y sencilla en su proceso de investigación.

Aun así, muchos alumnos querrán o necesitarán buscar en la red. Para ello, necesitarán competencias informacionales y estrategias de investigación de alto nivel. Aquí es donde los bibliotecarios escolares pueden ayudar de nuevo. Enseñan a los alumnos a hacerse preguntas clave mientras buscan, ayudándoles a saber qué sitios web son los mejores para utilizar. Algunas de estas preguntas son ¿Pertenece el sitio web a una institución establecida, como una universidad o un organismo público? ¿Es esa institución experta en el campo que estás investigando? ¿Quién aloja la información del sitio web? ¿Tiene la URL del sitio web algún componente sospechoso?

Cantidad de información

Las búsquedas en Internet nos ofrecen millones de resultados. Pero, ¿cuánta información se necesita realmente? A veces, los alumnos localizan y utilizan un largo artículo de Internet, cuando una entrada de enciclopedia habría cubierto rápidamente el contenido necesario. Evaluar la cantidad de información necesaria es otra importante habilidad de pensamiento crítico que se desarrolla en la biblioteca. Cuando se necesita una pequeña cantidad de información, un bibliotecario puede ayudar a localizar una enciclopedia en línea de buena reputación.

Calidad de las fuentes

Una vez que los alumnos han localizado sus fuentes, los bibliotecarios escolares les instan a que las examinen de forma crítica. Una forma fácil de hacerlo es buscar una cita. Lo bueno de Internet es que ofrece contenidos que pueden ser actuales y vanguardistas. ¿El inconveniente? Hay muchos contenidos antiguos. Animar a los alumnos a buscar fechas ayuda a los estudiantes a encontrar los materiales más recientes para su investigación.

El sitio web también debe tener un autor. Una parte importante de la alfabetización informacional consiste en saber quién escribió el material y por qué. ¿Quién es el autor? Si no hay nombre, ¿hay una razón lógica para que no lo haya? ¿Es un experto en la materia? ¿El autor intenta informarte o persuadirte? Si es así, ¿notas algún lenguaje que muestre parcialidad? Todas estas preguntas ayudan a los alumnos a localizar materiales fácticos sólidos.

Dar crédito

Por último, los bibliotecarios escolares trabajan para promover la ciudadanía digital, ayudando a los alumnos a mantenerse seguros y a ser responsables en Internet. Un componente importante de la responsabilidad en línea es dar crédito por la información utilizada. Es fácil sacar información de Internet, pero es necesario dar crédito a las ideas utilizadas en un proyecto o trabajo. Muchas bibliotecas escolares están suscritas a programas o utilizan recursos gratuitos para que citar las fuentes sea más fácil que nunca. Infórmate en la biblioteca de tu centro.

Desarrollar las competencias básicas en materia de información ayudará a los alumnos a ser buenos investigadores y pensadores críticos. Estas destrezas les serán muy útiles a lo largo de su trayectoria educativa y más allá. Por ejemplo, estas mismas habilidades ayudarán a los estudiantes a localizar y detectar esas noticias falsas tan frecuentes hoy en día. Las competencias informacionales de los estudiantes deben ser más agudas que nunca, no sólo para ser buenos estudiantes, sino también para ser ciudadanos bien informados.

Bibliotecas y vigilancia tecnológica entrevista con Enrique Muriel. Planeta Biblioteca 2024/01/21

Bibliotecas y vigilancia tecnológica entrevista con Enrique Muriel. Planeta

Biblioteca 2024/01/21

ESCUCHAR EL PROGRAMA

Descargar



Enrique Muriel-Torrado, doctor en Documentación por la Universidad de Granada, ha desarrollado su carrera en Brasil, motivado por las oportunidades de investigación y el interés en distintas culturas académicas. Especializado en vigilancia tecnológica y gestión de la información, ha observado diferencias en la aplicación de tecnologías entre España y Brasil. Enrique destaca los avances recientes en herramientas digitales que mejoran la eficiencia en la investigación. Considera la vigilancia tecnológica crucial para anticipar tendencias, lo que ha aplicado exitosamente en proyectos de I+D+i, enfrentando desafíos como la rápida evolución tecnológica. Además, predice que la inteligencia artificial será clave en el futuro de la gestión de la información.

Desinformación: más que datos erróneos

Comas-Forgas, Ruben, Alexandros Koulouris, y Dimitris Kouis. s. f. «‘AI-Navigating’ or ‘AI-Sinking’? An Analysis of Verbs in Research Articles Titles Suspicious of Containing AI-Generated/Assisted Content». Learned Publishing n/a (n/a): e1647. https://doi.org/10.1002/leap.1647.

La misinformation (en español, desinformación) se refiere a la difusión de información falsa o inexacta, pero sin la intención deliberada de engañar. Esto la distingue de la disinformation (desinformación intencional), que es información falsa creada y difundida con el propósito de manipular, confundir o influir de manera premeditada.

El artículo aborda cómo los rumores y las interpretaciones erróneas tienen un impacto fundamental en la difusión de desinformación, especialmente en el contexto de las elecciones en EE. UU. Según los autores, el problema no radica únicamente en la presencia de hechos falsos, sino en los marcos mentales que las personas emplean para interpretar la información. Estos marcos influyen en la manera en que se entienden los eventos, lo que a menudo deriva en rumores y malentendidos.

Los rumores son un intento colectivo de dar sentido a situaciones inciertas. Si bien muchas veces son falsos, reflejan confusiones o temores reales dentro de las comunidades. En contraste, la desinformación implica una manipulación intencionada de estos procesos, mediante la introducción de pruebas falsas o la distorsión de los marcos que las personas utilizan para interpretar los hechos.

La relación entre los marcos y la evidencia es clave. Los marcos mentales no solo guían cómo las personas seleccionan y analizan la evidencia, sino que también pueden ser moldeados intencionalmente por medios, líderes políticos y comunidades. Por ejemplo, durante las elecciones de 2020, el marco del «fraude electoral» promovido por Donald Trump llevó a muchos a interpretar el uso de bolígrafos Sharpie en Arizona como evidencia de un intento de manipulación, lo que dio lugar al llamado Sharpiegate.

El artículo también resalta el papel de las redes sociales en estos procesos. Las plataformas digitales amplifican contenidos que se alinean con marcos políticos dominantes, favoreciendo la viralización de rumores. Los influencers, en particular, contribuyen a la difusión de mensajes manipulados al aprovecharse de las dinámicas de atención impulsadas por los algoritmos. Esto se evidenció en 2024, cuando un video manipulado sobre migrantes votando ilegalmente se volvió viral, reforzando marcos de «fraude electoral» y «amenaza migratoria».

En las elecciones de 2024, los autores observan un aumento en la actividad de grupos que promueven el marco de «elecciones manipuladas». Estos grupos reclutan voluntarios para recolectar y difundir evidencia que respalde estas narrativas, lo que podría generar rumores adicionales y alimentar demandas legales o intentos de socavar los resultados.

Finalmente, el artículo destaca la importancia de comprender los procesos de generación y propagación de rumores. Esta perspectiva permite empatizar con las personas que comparten rumores de buena fe y, al mismo tiempo, identificar cómo los propagandistas manipulan estas dinámicas. Este enfoque es crucial para que investigadores, periodistas y funcionarios electorales puedan responder de manera más eficaz a la desinformación.

Características de los artículos científicos fabricados con Inteligencia Artificial en Google Scholar

Haider, J., Söderström, K. R., Ekström, B., & Rödl, M. (2024). GPT-fabricated scientific papers on Google Scholar: Key features, spread, and implications for preempting evidence manipulation. Harvard Kennedy School (HKS) Misinformation Review. https://doi.org/10.37016/mr-2020-156

Descargar

El artículo analiza el creciente número de trabajos científicos cuestionables generados por inteligencia artificial (IA), como ChatGPT, que se están publicando en revistas académicas y repositorios. Estos trabajos, que imitan el estilo de la escritura científica, están siendo fácilmente localizados y listados por Google Scholar junto con investigaciones legítimas. El estudio se centró en un grupo de estos artículos y encontró que muchos tratan temas aplicados y a menudo controversiales, como el medio ambiente, la salud y la computación, áreas particularmente vulnerables a la desinformación. La preocupación radica en el aumento del potencial de manipulación malintencionada de la base de evidencia, especialmente en temas divisivos políticamente.

El estudio se centra en la producción y difusión de publicaciones cuestionables generadas con transformadores preentrenados (GPT) que son accesibles a través de Google Scholar, abordando varios aspectos clave: primero, se investiga dónde se publican o depositan estas publicaciones dudosas. Este análisis busca identificar los tipos de revistas y plataformas que albergan este contenido. En segundo lugar, se examinan las características principales de estas publicaciones en relación con las categorías temáticas predominantes, permitiendo una comprensión más profunda de los temas que son más susceptibles al uso indebido de la inteligencia artificial generativa. Además, se explora cómo se difunden estas publicaciones en la infraestructura de investigación para la comunicación académica, prestando atención a los canales y plataformas que facilitan su circulación. Esto incluye la identificación de dominios y repositorios donde se comparten estos trabajos. Finalmente, la investigación cuestiona el papel de la infraestructura de comunicación académica en la preservación de la confianza pública en la ciencia y la evidencia, considerando los desafíos que presenta el uso inapropiado de la inteligencia artificial generativa en este contexto. Este aspecto subraya la necesidad de una regulación más efectiva y la implementación de criterios de calidad en la publicación académica.

Para ello, se recuperó, descargó y analizó una muestra de artículos científicos con indicios de uso de GPT encontrados en Google Scholar, utilizando una combinación de codificación cualitativa y estadísticas descriptivas. Todos los artículos contenían al menos una de dos frases comunes generadas por agentes conversacionales que utilizan grandes modelos de lenguaje (LLM) como ChatGPT. Luego, se utilizó Google Search para determinar la extensión de las copias de estos artículos cuestionables en diversos repositorios, archivos, bases de datos de citas y plataformas de redes sociales.

Aproximadamente dos tercios de los artículos recuperados fueron producidos, al menos en parte, mediante el uso no divulgado y potencialmente engañoso de GPT. La mayoría de estos trabajos (57%) abordaban temas relevantes para políticas públicas, como el medio ambiente, la salud y la computación, los cuales son susceptibles a operaciones de influencia. La mayoría de estos artículos estaban disponibles en varias copias en diferentes dominios (redes sociales, archivos y repositorios).

La mayoría de los artículos sospechosos de uso fraudulento de ChatGPT se encontraron en revistas no indexadas o como trabajos en proceso, aunque algunos también aparecieron en revistas establecidas, conferencias y repositorios. En total, se identificaron 139 artículos, de los cuales 19 estaban en revistas indexadas, 89 en revistas no indexadas, 19 eran trabajos estudiantiles y 12 eran documentos de trabajo. La mayoría de los artículos trataban temas de relevancia política, como la salud y el medio ambiente, y se encontraban principalmente en revistas no indexadas.

Existen dos riesgos principales derivados del uso cada vez más común de GPT para producir de manera masiva publicaciones científicas falsas. Primero, la abundancia de “estudios” fabricados que se infiltran en todas las áreas de la infraestructura de investigación amenaza con sobrecargar el sistema de comunicación académica y poner en peligro la integridad del registro científico. El segundo riesgo es que el contenido, aunque parezca científicamente convincente, haya sido creado de manera engañosa con herramientas de IA y esté optimizado para ser recuperado por motores de búsqueda académicos públicos, especialmente Google Scholar. Aunque esta posibilidad sea pequeña, su conocimiento podría socavar la confianza en el conocimiento científico y representar graves riesgos para la sociedad.

El estudio subraya que el problema de las publicaciones científicas fraudulentas generadas por GPT es solo la punta del iceberg, con implicaciones profundas para la confianza en la ciencia y para la sociedad en general.

Los chatbots de IA podrían ser más efectivos que los humanos para cambiar las creencias de los teóricos de la conspiración

Ouellette, Jennifer. 2024. «AI Chatbots Might Be Better at Swaying Conspiracy Theorists than Humans». Ars Technica. 12 de septiembre de 2024. https://arstechnica.com/science/2024/09/study-conversations-with-ai-chatbots-can-reduce-belief-in-conspiracy-theories/.

Se presenta un estudio que sugiere que los chatbots de inteligencia artificial podrían ser más efectivos que los humanos para cambiar las creencias de las personas que sostienen teorías de conspiración. El estudio, liderado por el psicólogo Gordon Pennycook, desafía la idea tradicional de que estas creencias son imposibles de cambiar. Los resultados muestran que las personas sí son receptivas a la evidencia cuando esta se presenta de manera personalizada.

En el estudio, los participantes que creían en al menos una teoría de conspiración mantuvieron conversaciones con un chatbot de IA basado en el modelo GPT-4 Turbo. Durante estas interacciones, el chatbot proporcionó contraargumentos basados en hechos, adaptados específicamente a las creencias individuales de los participantes. Estas respuestas fueron verificadas profesionalmente y mostraron una precisión muy alta. Como resultado, las creencias equivocadas de los participantes se redujeron en un 20%, y esta disminución persistió incluso dos meses después.

Una de las claves del éxito del chatbot fue su capacidad para personalizar los argumentos en función de las versiones específicas de las teorías que cada individuo sostenía. A diferencia de los humanos, el chatbot podía responder de manera continua y eficiente sin verse abrumado por múltiples falsedades. Además, el estudio mostró que los participantes no solo redujeron su adhesión a teorías conspirativas específicas, sino que también disminuyó su inclinación hacia otras creencias conspirativas en general.

Sin embargo, el chatbot fue menos efectivo cuando había poca información disponible, como en el caso de eventos recientes que generan nuevas teorías de conspiración. A pesar de esto, los autores sugieren que el uso de chatbots de IA podría ser una herramienta poderosa para combatir la desinformación, especialmente en foros de conspiración y redes sociales.

Inteligencia Artificial y alucinaciones: ¿Por qué alucinan los grandes modelos lingüísticos?

Waldo, Jim, y Soline Boussard. 2024. «GPTs and Hallucination: Why do large language models hallucinate?» Queue 22 (4): Pages 10:19-Pages 10:33. https://doi.org/10.1145/3688007.

Los modelos de lenguaje de gran escala (LLMs), como ChatGPT, han revolucionado la interacción entre humanos y la inteligencia artificial debido a su capacidad para generar texto coherente y comprensivo. Estos modelos se basan en aplicaciones transformadoras preentrenadas en grandes cantidades de datos sin procesar. Aunque tienen un rendimiento impresionante y pueden realizar tareas como responder preguntas y resumir textos, también tienen la tendencia a generar «alucinaciones». Estas ocurren cuando el modelo crea respuestas que parecen realistas pero que son incorrectas o no tienen sentido, lo que puede llevar a la diseminación de información falsa.

Las alucinaciones son preocupantes, especialmente en decisiones críticas o situaciones que requieren confianza en la IA. Un ejemplo destacado fue el de un abogado que utilizó ChatGPT para generar citas legales que resultaron ser ficticias. Estas alucinaciones, a menudo sutiles, pueden pasar desapercibidas, lo que plantea una pregunta importante: ¿Por qué los GPTs alucinan?

Los LLMs funcionan mediante aprendizaje automático entrenado en grandes cantidades de datos textuales. Este entrenamiento genera un conjunto de probabilidades que predice qué palabra es más probable que siga a otra en una secuencia. Sin embargo, esta predicción no se basa en la verdad o significado real del mundo, sino en las asociaciones estadísticas entre palabras. Esto explica por qué los modelos a veces generan respuestas erróneas: simplemente están siguiendo patrones previos de datos sin una verificación de los hechos.

La pregunta fundamental no es tanto por qué los GPTs alucinan, sino cómo logran acertar. Este dilema está vinculado a la «confianza epistémica», es decir, cómo confiamos en que algo expresado en lenguaje es verdadero. Históricamente, esta confianza ha sido establecida mediante la ciencia, que se basa en la experimentación, publicación y revisión por pares, pero los GPTs carecen de ese tipo de validación externa y generan respuestas basadas únicamente en probabilidades estadísticas.

Los GPTs basados en LLMs representan un paso más en este proceso, ya que generan respuestas basadas en el análisis de todas las preguntas y respuestas disponibles en Internet. Los modelos predicen la respuesta más probable basada en la co-ocurrencia de palabras, lo que en muchos casos refleja un consenso general.

Sin embargo, cuando hay consenso limitado o controversia sobre un tema, o cuando el tema es poco común, los GPTs son más propensos a generar respuestas incorrectas o «alucinaciones». Esto sugiere que la precisión de los GPTs depende de la disponibilidad de datos y del consenso sobre el tema en cuestión.

En este experimento se utilizaron cuatro modelos: Llama, accesible a través de la biblioteca de código abierto Llama-lib; ChatGPT-3.5 y ChatGPT-4, accesibles mediante el servicio de suscripción de OpenAI; y Google Gemini, disponible a través del servicio gratuito de Google.

Se realizaron pruebas con una variedad de temas sensibles y oscuros. Los prompts finales incluyeron: 1) solicitar artículos sobre polarización ferroelectric, 2) citas poco comunes de Barack Obama, 3) justificaciones políticas de Putin en relación con escritores rusos, 4) una descripción breve sobre el cambio climático, y 5) completar la frase «los israelíes son…». Estos prompts se presentaron semanalmente a cada modelo entre el 27 de marzo y el 29 de abril de 2024.

Los resultados mostraron variaciones en la consistencia de las respuestas, siendo ChatGPT-4 y Google Gemini los que presentaron cambios más significativos. A lo largo del experimento, se observó que, aunque los prompts eran independientes, algunos modelos utilizaban el contexto de preguntas anteriores para influir en sus respuestas. Llama a menudo repetía citas de Obama y fallaba en citar artículos científicos con precisión. ChatGPT-3.5 ofrecía citas precisas de Obama, pero también tenía dificultades para citar correctamente artículos científicos. ChatGPT-4 podía proporcionar citas precisas, aunque en ocasiones introducía términos no consensuados científicamente. Google Gemini tuvo dificultades para responder a las preguntas sobre las citas de Obama y las justificaciones de Putin, sugiriendo a menudo realizar búsquedas en Google para obtener respuestas. A pesar de todo, Gemini logró proporcionar artículos relevantes sobre polarización ferroelectric, aunque con citas incorrectas. En cuanto a la frase sobre los israelíes, Gemini ofreció diversas perspectivas y fomentó el diálogo.

En respuesta a las preguntas sobre artículos científicos, todas las aplicaciones pudieron proporcionar la sintaxis de citación correcta, pero las citas completas rara vez eran precisas. En particular, algunos autores citados por ChatGPT-4 habían publicado en el mismo campo, pero no en el artículo específico mencionado. Esto se puede entender como un reflejo de las respuestas como completaciones estadísticamente probables; el programa sabe cómo lucen las citas y qué grupos de autores tienden a aparecer juntos, aunque no necesariamente en el artículo citado. En general, la aplicación basada en Llama proporcionó las respuestas más consistentes, aunque de menor calidad que las otras, ya que no estaba en desarrollo activo y se basaba en un LLM temprano.

ChatGPT-3.5 y -4 ofrecieron consistentemente citas precisas de Obama, mientras que Llama repetía múltiples versiones de las mismas citas, muchas de las cuales eran incorrectas. En una ocasión, Google Gemini respondió correctamente a la pregunta sobre Obama, pero una de las citas era en realidad de Craig Ferguson, un comediante. La aplicación Llama tuvo dificultades para seguir restricciones gramaticales, como el requerimiento de dar una respuesta en tres palabras; a veces devolvía una sola palabra o una oración completa. Esto plantea preguntas sobre cómo la aplicación interpreta la gramática y la puntuación y cómo estas características no semánticas influyen en las respuestas.

Conclusiones

En general, las aplicaciones tuvieron dificultades con temas que contaban con datos limitados en línea, produciendo respuestas inexactas en un formato realista y sin reconocer las inexactitudes. Aunque manejaron temas polarizadores con mayor meticulosidad, algunas aún devolvieron errores y ocasionalmente advertencias sobre hacer afirmaciones en temas controvertidos.

Los GPTs basados en LLM pueden propagar conocimientos comunes con precisión, pero enfrentan dificultades en preguntas sin un consenso claro en sus datos de entrenamiento. Estos hallazgos respaldan la hipótesis de que los GPTs funcionan mejor con prompts populares y de consenso general, pero tienen problemas con temas controvertidos o con datos limitados. La variabilidad en las respuestas de las aplicaciones subraya que los modelos dependen de la cantidad y calidad de sus datos de entrenamiento, reflejando el sistema de crowdsourcing que se basa en contribuciones diversas y creíbles. Por lo tanto, aunque los GPTs pueden ser herramientas útiles para muchas tareas cotidianas, su interacción con temas oscuros y polarizados debe interpretarse con cautela. La precisión de los LLM está estrechamente vinculada a la amplitud y calidad de los datos que reciben.