Archivo de la etiqueta: Desinformación

¿Nuevas fuentes de inexactitud? Un marco conceptual para estudiar las alucinaciones de la IA.

Shao, Anqi. “New Sources of Inaccuracy? A Conceptual Framework for Studying AI Hallucinations.” Misinformation Review, Harvard Kennedy School, 27 de agosto de 2025. Disponible en Misinformation Review https://misinforeview.hks.harvard.edu/article/new-sources-of-inaccuracy-a-conceptual-framework-for-studying-ai-hallucinations/

Se enfatiza la necesidad de ampliar las teorías tradicionales de desinformación para incluir estas formas emergentes de inexactitud generada por IA. Propone adoptar una perspectiva que reconozca tanto los límites como las dinámicas propias de los sistemas probabilísticos y no humanos en la producción y transmisión de conocimiento.

Las “alucinaciones” generadas por sistemas de IA representan una categoría de inexactitud significativamente distinta de la desinformación humana, principalmente porque surgen sin ninguna intención deliberada. A través de ejemplos concretos —como el resumen satírico erróneo de Google que presentó una broma del Día de los Inocentes como hecho real—, la autora muestra cómo estas alucinaciones no son simples errores técnicos aislados, sino fenómenos de comunicación con implicaciones sociales reales.

Esto significa que las inexactitudes generadas por la IA no son producto de una intención humana consciente, sino de procesos probabilísticos automatizados y profundamente integrados en los ecosistemas institucionales de producción de información.

Shao destaca tres dimensiones clave en las que difiere una alucinación de IA respecto a la desinformación tradicional:

  1. Producción (Supply): Las respuestas falsas plausibles derivan de los procesos internos de los modelos, no de una fabricación intencional.
  2. Percepción (Demand): Los usuarios tienden a percibir estas respuestas como confiables justamente por su plausibilidad y confianza de presentación.
  3. Respuesta institucional: Las instituciones aún carecen de marcos adecuados para reconocer y responder a estos errores automáticos como formar parte del ecosistema comunicativo

El 71% de los estadounidenses teme que la IA deje a «demasiadas personas sin trabajo de forma permanente»

«71% of Americans Fear That AI Will Put Too Many People Out of Work PermanentlyZDNet, 2025. https://www.zdnet.com/article/71-of-americans-fear-that-ai-will-put-too-many-people-out-of-work-permanently/.

Un estudio de ZDNet revela que el 71% de los estadounidenses teme que la inteligencia artificial (IA) elimine permanentemente demasiados empleos.

Un reciente sondeo realizado por Reuters e Ipsos revela que la mayoría de los estadounidenses está preocupada por los posibles impactos de la inteligencia artificial (IA) en diversos ámbitos, como el mercado laboral y la estabilidad política. La encuesta, realizada a 4,446 adultos en Estados Unidos, indica que el 71% teme que la IA desplace permanentemente a un número inaceptablemente alto de trabajadores, especialmente en roles de procesamiento de información y comunicación, como traductores y representantes de servicio al cliente. Esta preocupación coincide con predicciones de líderes del sector tecnológico, como los CEOs de Anthropic, OpenAI y Amazon, sobre el potencial de sus herramientas de IA para reemplazar a trabajadores humanos. Hasta el momento, los efectos concretos sobre el empleo han sido limitados, aunque algunos recién graduados en informática han encontrado más dificultades para ingresar al sector tecnológico.

Sin embargo, también hay un reconocimiento de que la IA podría generar nuevos empleos y mejorar la productividad en ciertos sectores. A pesar de ello, persiste la preocupación sobre cómo se gestionará la transición laboral y si los trabajadores podrán adaptarse a los cambios tecnológicos., el 60% de los participantes cree que la IA podría afectar.

El sondeo también señala otras inquietudes sobre la IA. Más del 77% de los encuestados temen el “caos político” que podrían generar rivales internacionales de Estados Unidos mediante el uso de estas herramientas. Este temor se fundamenta en la proliferación de deepfakes y modelos avanzados de texto a voz que facilitan la suplantación de personas y la manipulación de la opinión pública. Por ejemplo, el informe anual de OpenAI de 2025 documenta operaciones de origen probablemente chino que utilizaron ChatGPT para generar publicaciones y comentarios falsos en redes sociales con fines políticos..

Además, la encuesta refleja preocupaciones sobre la erosión de las relaciones interpersonales debido a los compañeros virtuales impulsados por IA (66%) y sobre el alto consumo energético de estas tecnologías (61%). En conjunto, estos hallazgos subrayan que la sociedad estadounidense percibe la IA no solo como un desafío laboral, sino también como un riesgo político, social y ambiental que requiere atención y regulación..

¿Cuál es el coste real de la desinformación para las empresas?

Serrano, Jesús. “What’s the real cost of disinformation for corporations?World Economic Forum, 14 de julio de 2025. https://www.weforum.org/stories/2025/07/financial-impact-of-disinformation-on-corporations/

La desinformación, que incluye noticias falsas, cuentas hackeadas y deepfakes, ha provocado pérdidas millonarias en los mercados y decisiones financieras erróneas. Estudios recientes estiman que los costos anuales de la desinformación en los mercados financieros ascienden a alrededor de 78 mil millones de dólares, incluyendo pérdidas bursátiles y decisiones financieras erróneas.

Tecnologías de inteligencia artificial como bots y deepfakes han acelerado la difusión de información falsa, haciéndola más convincente y difícil de detectar. Ejemplos históricos y recientes, desde el “Great Moon Hoax” de 1835 hasta el hackeo de la cuenta de Twitter de The Associated Press en 2013, muestran cómo la manipulación de la percepción pública puede generar un impacto económico y reputacional significativo.

Además, las reseñas falsas y las valoraciones manipuladas afectan la confianza de los consumidores y generan pérdidas millonarias para empresas de todos los tamaños. La reputación se ha convertido en un activo estratégico, y las narrativas falsas pueden erosionarla rápidamente, afectando la credibilidad corporativa y el valor de mercado a largo plazo.

El uso de inteligencia artificial amplifica estos riesgos, ya que los contenidos falsos generan más interacción en redes sociales y son más difíciles de contrarrestar. Estudios de MIT y Edelman destacan que las empresas no están suficientemente preparadas para anticipar y gestionar estos ataques, a pesar de que la confianza es esencial para la sostenibilidad y el crecimiento empresarial. La educación digital, la detección temprana de desinformación y la comunicación de crisis son herramientas clave para proteger la reputación corporativa.

La colaboración público-privada y la regulación, como el Código de Prácticas sobre Desinformación de la UE, se presentan como mecanismos necesarios para mitigar la propagación de contenidos falsos sin comprometer la libertad de expresión. En un entorno donde la confianza se considera un activo estratégico, las empresas deben invertir en vigilancia, formación y estrategias preventivas, ya que los costos financieros y reputacionales de la inacción frente a la desinformación son demasiado altos.

Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación

Teruel Rodríguez, Laura, María Livia García Faroldi y José Alberto España Pérez, eds. Los medios de comunicación ante la desinformación: inteligencia artificial, discursos de odio, teorías de la conspiración y verificación. Valencia: Tirant lo Blanch, 2025 https://open.tirant.com/cloudLibrary/ebook/info/9788411839358

Esta obra colectiva reúne a expertos en comunicación, periodismo, derecho y tecnología para analizar cómo los medios de comunicación enfrentan los desafíos impuestos por la desinformación en la era digital.

El volumen se estructura en varios capítulos que abordan temas como el impacto de la inteligencia artificial en la creación y difusión de contenidos, la proliferación de discursos de odio y teorías de la conspiración en plataformas digitales, y las estrategias de verificación empleadas por los medios para garantizar la veracidad de la información. Cada capítulo ofrece una perspectiva crítica y multidisciplinar, destacando tanto los riesgos como las oportunidades que presentan estas problemáticas para el ejercicio del periodismo y la democracia.

Además de los análisis teóricos, el libro incluye estudios de caso que ilustran cómo los medios de comunicación han respondido a situaciones concretas de desinformación, proporcionando ejemplos prácticos y lecciones aprendidas. Se presta especial atención a la formación de los profesionales de la comunicación en habilidades digitales y éticas, así como al papel de las instituciones y la legislación en la regulación de la información en línea.

Esta obra está dirigida a estudiantes, investigadores y profesionales interesados en comprender los retos actuales de la comunicación en el contexto digital y en desarrollar estrategias efectivas para combatir la desinformación. Ofrece una visión amplia y actualizada de los desafíos y oportunidades que presentan estas problemáticas en el ámbito mediático.

La circulación de la información y la verdad : claves para su abordaje

La circulación de la información y la verdad : claves para su abordaje / Agustina Ahibe … [et al.] ; Editado por Mariano Dagatti ; Margoth Mena-Young. – 1a ed. – Ciudad Autónoma de Buenos Aires : CLACSO ; Guadalajara : CALAS, 2025.

Texto completo

El libro aborda los desafíos que enfrentan las democracias contemporáneas en un entorno informativo cada vez más complejo, marcado por la desinformación, la distorsión informativa, la polarización y la crisis de autoridad del periodismo. Coordinado por Mariano Dagatti y Margoth Mena-Young, la obra reúne contribuciones de destacados investigadores latinoamericanos y europeos con el fin de analizar cómo estos fenómenos transforman la relación entre ciudadanía, medios y conocimiento en la era digital.

La circulación de la información y la verdad indaga en las tensiones entre verdad, desinformación y democracia, desde una mirada crítica. A partir de conceptos clave como credibilidad, verificación, polarización, algoritmos y educación mediática, analiza cómo se construyen, filtran y consumen las noticias en un entorno marcado por el desorden informativo.

Un informe sobre Salud presentado por el Secretario de Salud Robert F. Kennedy Jr incluyó estudios inexistentes y referencias científicas erróneas.

Harmon, Stephie. 2025. “RFK Jr.’s ‘Make America Healthy Again’ Report Cites Fake Studies.” Gizmodo, May 30, 2025. https://gizmodo.com/rfk-jr-s-make-america-healthy-again-report-cites-fake-studies-2000608850

El informe «Make America Healthy Again» (MAHA), presentado por Robert F. Kennedy Jr. como Secretario de Salud y Servicios Humanos de EE. UU., ha generado una fuerte polémica debido a la inclusión de estudios inexistentes y referencias científicas erróneas. Aunque el documento afirma estar respaldado por más de 500 fuentes, investigaciones periodísticas han revelado que al menos siete de estas citas corresponden a estudios que no existen o han sido malinterpretados

Hace unos días, un estudio del Tow Center for Digital Journalism, publicado por la Columbia Journalism Review, reveló que los motores de búsqueda impulsados por inteligencia artificial citan incorrectamente las fuentes de noticias en más del 60 % de los casos. Esta alarmante tendencia adquiere aún más relevancia tras la reciente noticia sobre el informe «Make America Healthy Again» promovido por RFK Jr., el cual se apoya en estudios falsos y mal citados, reflejando los peligros reales de la desinformación amplificada por el uso irresponsable de la IA en la producción y difusión de contenidos.

Por ejemplo, se menciona un estudio atribuido a Robert L. Findling sobre la publicidad de medicamentos psicotrópicos en jóvenes, el cual no se encuentra en ninguna base de datos académica, y el propio Findling ha negado haberlo escrito. Otro caso es una supuesta investigación de 2017 sobre la prescripción excesiva de corticosteroides en niños con asma, que tampoco existe. Además, se han detectado errores en citas de estudios reales, como atribuir a una investigación sobre adultos conclusiones aplicables a niños, o afirmar que un estudio incluía psicoterapia cuando no era así

Estos hallazgos han suscitado preocupaciones sobre la integridad científica del informe y han llevado a especulaciones sobre el posible uso de inteligencia artificial generativa en su elaboración. Aunque la Casa Blanca ha calificado los errores como «problemas de formato» y ha prometido actualizaciones, expertos en salud pública y académicos han expresado su alarma por la falta de rigor y transparencia en un documento que podría influir en políticas de salud pública.

El informe también ha sido criticado por omitir causas principales de mortalidad infantil, como accidentes automovilísticos y violencia con armas de fuego, y por promover teorías desacreditadas sobre vacunas y fluoración del agua. Estas controversias ponen en entredicho la credibilidad del informe y resaltan la necesidad de una evaluación rigurosa y basada en evidencia científica en la formulación de políticas de salud.

¿Qué es la generación de imágenes basada en autorregresión y cómo afectará al fraude documental?

Flook, Rebecca. 2025. «What Is Autoregression-Based Image Generation and How Will It Impact Document Fraud?» Artificial Intelligence, mayo 23, 2025. https://nationalcentreforai.jiscinvolve.org/wp/2025/05/23/what-is-autoregression-based-image-generation-and-how-will-it-impact-document-fraud-2/

En el artículo se explora el papel emergente de los modelos de IA autorregresivos en la generación de imágenes y sus implicaciones en el fraude documental.

Los modelos autoregresivos generan imágenes prediciendo píxel por píxel en una secuencia, basándose en los píxeles anteriores. Esta técnica permite una creación detallada y controlada de imágenes, lo que la hace útil para tareas que requieren precisión y coherencia visual. En pocas palabras, tiene que ver con la utilización de la autorregresión. No se trata de un concepto nuevo en la IA Generativa, ya que los modelos autorregresivos se utilizan principalmente para generar texto. También se ha utilizado anteriormente en la generación de imágenes, pero no con el nivel de multimodalidad que estamos presenciando ahora, que se ha incorporado a GPT-4o y está disponible para los usuarios de ChatGPT. Así, cuando un usuario pide una imagen al modelo de IA Generativa, éste utiliza esta metodología aprendida, convirtiendo una distribución de datos de puro ruido en una imagen basada en una indicación del usuario, con diversos grados de éxito.

Desde la introducción de esta nueva metodología, se ha observado que el modelo posee una capacidad preocupante para crear documentos falsificados, como distintos tipos de identificaciones. Muchos procesos de autenticación en la vida diaria dependen de la verificación de imágenes, y la inteligencia artificial está nuevamente facilitando el acceso a actores malintencionados para generar recursos fraudulentos. Los generadores de imágenes por IA intentan asegurar que los usuarios conozcan el origen de una imagen incluyendo marcas de agua o una firma en los metadatos. Aunque esto representa un obstáculo para los actores malintencionados, no es una solución infalible. Estos datos de procedencia pueden ser eliminados o modificados para imitar autenticidad.

Para contrarrestar estos riesgos, el artículo subraya la importancia de desarrollar mecanismos sólidos de detección y protocolos de verificación. También destaca la necesidad de mantener la investigación activa y fomentar la colaboración entre las partes implicadas para anticiparse a posibles usos fraudulentos.

Base de datos de alucinaciones de la Inteligencia Artificial generativa

AI Hallucination Cases

https://www.damiencharlotin.com/hallucinations/

Esta base de datos recopila decisiones judiciales relacionadas con casos en los que una inteligencia artificial generativa produjo contenido alucinado —es decir, contenido falso o erróneo generado por el sistema. El ejemplo más común son las citas legales falsas (fake citations), aunque también se incluyen otros tipos de errores, como argumentos jurídicos inventados o distorsionados.

Es importante destacar que esta base no abarca todos los casos en que se han utilizado citas falsas o IA en procedimientos judiciales, sino que se centra únicamente en los casos en los que ha habido una decisión legal vinculada a la utilización de contenido alucinado por IA.

El fenómeno de las alucinaciones en IA se refiere a la generación de información falsa pero con apariencia convincente. En el ámbito jurídico, esto representa un riesgo serio para la integridad del proceso judicial, ya que puede conducir a decisiones basadas en datos erróneos o incluso a la desinformación intencionada. Por ello, esta base de datos funciona también como una advertencia práctica sobre los límites actuales de la tecnología y la necesidad de usarla con criterio, supervisión humana y sentido ético.

Hasta el momento, la base de datos ha identificado 121 casos, y sigue en expansión conforme surgen nuevos ejemplos. Su objetivo es ofrecer un registro sistemático y riguroso que permita entender el impacto real del uso de estas herramientas tecnológicas en entornos legales, donde la precisión y la veracidad son esenciales. Es un recurso de gran valor tanto para juristas como para investigadores, medios de comunicación y responsables de políticas públicas.

El uso de contenido generado por IA en documentos judiciales ha provocado en algunos casos consecuencias graves, como sanciones disciplinarias a abogados que incluyeron citas falsas producidas por sistemas como ChatGPT sin verificarlas. Estos incidentes han sido objeto de cobertura mediática y han despertado un amplio debate sobre la responsabilidad profesional y la fiabilidad de las herramientas de IA en contextos de alta exigencia ética.

Un caso destacado es el de Mata v. Avianca, Inc., donde los abogados del demandante utilizaron ChatGPT para generar una moción legal que contenía múltiples casos jurídicos ficticios. El tribunal descubrió que las citas eran inexistentes y sancionó a los abogados con una multa de 5.000$, subrayando la responsabilidad profesional de verificar la exactitud de las referencias legales, independientemente de las herramientas utilizadas.

Otro ejemplo relevante es el caso en Israel de Mahala Association v. Clalit Health Services, donde se presentaron múltiples citas falsas generadas por una herramienta de IA llamada Takdin.AI. El tribunal no solo desestimó la petición de certificación de acción colectiva, sino que también impuso sanciones monetarias y determinó que el abogado no era apto para actuar en el caso.

En definitiva, este archivo documental se ha convertido en un instrumento de seguimiento y análisis de un fenómeno emergente que afecta a la práctica del derecho y que requiere atención tanto desde el ámbito jurídico como desde la innovación tecnológica y la regulación.

Inteligencia artificial y desinformación: Herramientas y estrategias para abordar en las aulas el desafío del momento

Garcia Luna, Ana Laura, Cecilia Vázquez y Nira Dinerstein. Inteligencia artificial y desinformación: Herramientas y estrategias para abordar en las aulas el desafío del momento. Edición de Franco Piccato y Guadalupe López. Buenos Aires: Chequeado, noviembre de 2024.

Texto completo

Esta guía, elaborada por Chequeado con el apoyo de Google News Initiative, está dirigida a profesores universitarios de América Latina. Su propósito es proporcionar herramientas y conocimientos para enfrentar los desafíos que plantea la inteligencia artificial (IA) en la generación y detección de desinformación, promoviendo así la resiliencia informativa en las futuras generaciones.

Objetivos principales:

  • Comprender los conceptos clave relacionados con la IA y su funcionamiento.
  • Identificar herramientas actuales para la generación de textos, imágenes, videos y audios mediante IA.
  • Desarrollar habilidades prácticas para verificar la credibilidad de la información y detectar desinformaciones.
  • Analizar casos de estudio que ejemplifiquen la desinformación potenciada por IA, fomentando el pensamiento crítico y el debate en el aula

Información, comunicación y democracia, el papel de las bibliotecas.

Morán Guzmán, Ana Gricelda, y Sergio López Ruelas, eds. 2024. Información, comunicación y democracia, el papel de las bibliotecas. Guadalajara: Universidad de Guadalajara.

Texto completo

En las últimas dos décadas, la democracia global se ha debilitado significativamente, como refleja el Democracy Index 2022. Conceptos como la posverdad y las noticias falsas proliferan, afectando la percepción y participación ciudadana, especialmente a través de redes sociales, principal fuente informativa para muchos jóvenes. Este entorno favorece la desinformación y la polarización, deteriorando la calidad democrática. Ante este panorama, las bibliotecas juegan un papel crucial al ofrecer acceso a información confiable y formar a los usuarios en competencias informacionales, además de constituirse como espacios seguros, inclusivos y accesibles para toda la población.