Archivo de la etiqueta: Desinformación

¿Cómo protegerme de la desinformación?

Sara Degli-Esposti y David Arroyo «¿Cómo protegerme de la desinformación?», La aventura de aprender (blog), accedido 23 de septiembre de 2024,

PDF


La desinformación y la propaganda han sido dos de los grandes retos que ha tenido que afrontar la humanidad a lo largo de la historia. Ambos fenómenos se han visto intensificados por la proliferación en la última década de plataformas, medios y herramientas para generar contenidos sin necesidad de contar con los actores habituales en el ámbito de la generación y distribución de contenidos informativos.

Según Claire Wardle, profesor de la Escuela de Salud Pública de la Universidad de Brown y cofundador y codirector del Information Futures Lab, la desinformación es un contenido intencionadamente falso y diseñado para causar daño. Está motivada por tres factores: ganar dinero, tener influencia política, ya sea extranjera o nacional; o causar problemas porque sí. En otras palabras: cuando la tergiversación se convierte en un engaño deliberado, eso es desinformación (en inglés disinformation) y no simplemente información falsa (en inglés misinformation).

Es necesario tener en cuenta que la desinformación cada vez más se construye sobre la base de una falta de calidad en los procesos de creación de nuevo contenido. Así, el intercambio de información errónea, el uso abusivo de titulares sensacionalistas o amarillistas (en inglés clickbait) y otros fenómenos propios de flujos de información de baja calidad pueden llevar a la instrumentalización de dicha información y de rumores vinculados a ella. Además, una serie de factores cognitivos, sociales y afectivos influyen en la formación de falsas creencias. A esto hay que añadir que el acceso global a plataformas para la generación y distribución de contenido ha permitido construir canales de comunicación descentralizados, esto es, sin el control de los habituales curadores de contenidos.

Existe un amplio espectro de tácticas y estrategias de desinformación. Por ejemplo, el astroturfing es una novedosa forma de desinformación que se basa en la imitación de comentarios de ciudadanos y ciudadanas para crear la falsa impresión de que una determinada opinión o idea cuenta con un amplio apoyo en la sociedad. La desinformación busca aumentar las divisiones dentro de las comunidades y entre ellas y socavar la confianza de la población en los gobiernos electos. En este guía aprenderás sobre todas estas prácticas.

El rol de las bibliotecas como espacios públicos para contrarrestar la desinformación en la era de la IA generativa

The Role of Libraries as Public Spaces in Countering Misinformation, Disinformation, and Social Isolation in the Age of Generative AI. Urban Libraries Council, 2024

Texto completo

Urban Libraries Council (Consejo de Bibliotecas Urbanas, ULC) ha publicado un nuevo Informe de Liderazgo que aborda el aumento de la inteligencia artificial generativa (IA) y su contribución a la propagación de desinformación y misinformación. Ante el creciente aislamiento social, el informe explora cómo las bibliotecas públicas están en una posición única para enfrentar estos desafíos mediante la promoción de la alfabetización digital y el fomento de conexiones comunitarias.

El informe proporciona recomendaciones que las bibliotecas pueden implementar, como la actualización de los currículos de alfabetización digital, la creación de recursos para identificar desinformación y el desarrollo de programas que promuevan el compromiso cívico y la cohesión social. Subraya el papel vital de las bibliotecas en empoderar a las personas y fortalecer las comunidades frente a los desafíos tecnológicos y sociales.

Según Brooks Rainwater, presidente y CEO de ULC, los desafíos como la expansión de la IA, la información falsa y la soledad son temas recurrentes en las bibliotecas de América del Norte. El informe ofrece varias recomendaciones para que las bibliotecas refuercen su trabajo y comunidades.

Ejemplos de implementación de las recomendaciones en bibliotecas de EE.UU. y Canadá:

  • Biblioteca Pública de Boston: Organizó un taller sobre cómo combatir la desinformación, desarrollar habilidades de ciudadanía digital y utilizar herramientas para identificar información veraz.
  • Biblioteca Pública de Brooklyn: Colaboró con Women in AI Ethics™ en un evento con la congresista Yvette D. Clarke sobre los peligros de la IA generativa en los medios y la protección de las mujeres contra el abuso de imágenes.
  • Biblioteca Pública de Dallas: Alojó la exhibición del Smithsonian “The Bias Inside Us” y organizó programas para todas las edades para sensibilizar sobre cómo los prejuicios afectan el pensamiento.
  • Biblioteca Pública de Toronto: Desarrolló un kit de herramientas sobre “Noticias Falsas y Alfabetización Informativa” para ayudar a los usuarios a distinguir entre información veraz y desinformación.

Este informe reafirma la importancia de las bibliotecas en la construcción de comunidades resilientes en un mundo cada vez más influido por la IA.

La estrategia «Sift»: Un método de cuatro pasos para detectar la desinformación

The «Sift» strategy: A four-step method for spotting misinformation. (2024). Recuperado 12 de agosto de 2024, de https://www.bbc.com/future/article/20240509-the-sift-strategy-a-four-step-method-for-spotting-misinformation

El artículo describe la estrategia «Sift» como un método eficaz para identificar la desinformación en las redes sociales. Desarrollada por expertos en alfabetización digital, esta técnica se basa en cuatro pasos clave:

  1. S para «Stop» (Detenerse): Antes de compartir cualquier publicación, es crucial pausar y reflexionar para evitar actuar impulsivamente, lo cual puede llevar a la difusión de información errónea.
  2. I para «Investigate the source» (Investigar la fuente): Se debe examinar quién creó el contenido, revisando su credibilidad y posibles sesgos, así como su compromiso con un periodismo independiente y verificado.
  3. F para «Find better coverage» (Buscar mejor cobertura): Si la fuente no es confiable, se recomienda buscar si fuentes más respetadas han informado sobre la misma afirmación y la han verificado.
  4. T para «Trace the claim to its original context» (Rastrear la afirmación hasta su contexto original): Es esencial rastrear la información hasta su origen para verificar si ha sido sacada de contexto o malinterpretada.

El objetivo de esta estrategia es fomentar una mayor reflexión y verificación antes de compartir contenido, ayudando así a reducir la propagación de desinformación, que puede tener consecuencias graves como la propagación de enfermedades.

Cómo la desinformación de una granja de spam rusa terminó en los primeros resultados de búsqueda de Google gracias a la IA

How Disinformation From a Russian AI Spam Farm Ended up on Top of Google Search Results. Wired, 2024. JUL 9, 2024 11:51 AM https://www.wired.com/story/ai-generated-russian-disinformation-zelensky-bugatti/

Un artículo falso sobre la esposa de Volodymyr Zelensky comprando un Bugatti de 4.8 millones de dólares con ayuda estadounidense fue promovido por bots, medios estatales rusos y simpatizantes de Trump en X. Forma parte de una red de sitios web potenciados por IA.

En un lapso de 24 horas, una pieza de desinformación rusa sobre la esposa del presidente ucraniano Volodymyr Zelensky comprando un automóvil Bugatti con dinero de ayuda estadounidense se difundió rápidamente por internet. Aunque se originó en un sitio web francés desconocido, rápidamente se convirtió en un tema de tendencia en X y en el primer resultado en Google.

El lunes 1 de julio, una noticia se publicó en un sitio web llamado Vérité Cachée. El titular decía: «Olena Zelenska se convirtió en la primera propietaria del nuevo Bugatti Tourbillon.» El artículo afirmaba que durante un viaje a París con su esposo en junio, la primera dama recibió una vista privada de un nuevo superdeportivo de $4.8 millones de Bugatti y realizó un pedido inmediato. También incluía un video de un hombre que decía trabajar en el concesionario. El mensaje difundido decía “Mientras los ucranianos son enviados a morir en un conflicto sin sentido diseñado por la OTAN, Olena Zelenska derrocha en un Bugatti de 4,5 millones (…)”.

Pero el video, al igual que el sitio web, era completamente falso.

Vérité Cachée es parte de una red de sitios web probablemente vinculados al gobierno ruso que promueve propaganda y desinformación rusa a audiencias en Europa y EE. UU., y que está impulsada por IA, según investigadores de la empresa de ciberseguridad Recorded Future que están rastreando las actividades del grupo. Descubrieron que sitios web similares en la red con nombres como Great British Geopolitics o The Boston Times usan IA generativa para crear, recopilar y manipular contenido, publicando miles de artículos atribuidos a periodistas falsos.

Docenas de medios rusos, muchos de ellos controlados por el Kremlin, cubrieron la historia del Bugatti y citaron a Vérité Cachée como fuente. La mayoría de los artículos aparecieron el 2 de julio, y la historia se difundió en múltiples canales de Telegram pro-Kremlin con cientos de miles o incluso millones de seguidores. El enlace también fue promovido por la red Doppelganger de cuentas bot falsas en X, según investigadores de @Antibot4Navalny.

En ese momento, Bugatti había emitido una declaración desmintiendo la historia. Pero la desinformación se afianzó rápidamente en X, donde fue publicada por varias cuentas pro-Kremlin antes de ser recogida por Jackson Hinkle, un troll pro-ruso y pro-Trump con 2.6 millones de seguidores. Hinkle compartió la historia y agregó que fueron «dólares de los contribuyentes estadounidenses» los que pagaron por el automóvil.

Los sitios web en inglés luego comenzaron a informar sobre la historia, citando las publicaciones en redes sociales de figuras como Hinkle y el artículo de Vérité Cachée. Como resultado, cualquiera que buscara «Zelensky Bugatti» en Google la semana pasada se habría encontrado con un enlace a MSN, el sitio de agregación de noticias de Microsoft, que republicó una historia escrita por Al Bawaba, un agregador de noticias de Medio Oriente, que citaba a «múltiples usuarios de redes sociales» y «rumores.»

Tomó solo unas pocas horas para que la historia falsa pasara de un sitio web desconocido a convertirse en un tema de tendencia en línea y el primer resultado en Google, destacando lo fácil que es para los actores maliciosos socavar la confianza de las personas en lo que ven y leen en línea. Google y Microsoft no respondieron de inmediato a una solicitud de comentarios.

“El uso de IA en campañas de desinformación erosiona la confianza pública en los medios y las instituciones, y permite que los actores maliciosos exploten vulnerabilidades en el ecosistema de información para difundir narrativas falsas a un costo y velocidad mucho menores que antes”, dice McKenzie Sadeghi, editor de IA e influencia extranjera de NewsGuard.

Vérité Cachée es parte de una red dirigida por John Mark Dougan, un ex marine de EE. UU. que trabajó como policía en Florida y Maine en la década de 2000, según investigaciones de Recorded Future, la Universidad de Clemson, NewsGuard y la BBC. Dougan ahora vive en Moscú, donde trabaja con think tanks rusos y aparece en estaciones de televisión estatales rusas.

“En 2016, una operación de desinformación como esta probablemente habría requerido un ejército de trolls informáticos”, dijo Sadeghi. “Hoy, gracias a la IA generativa, gran parte de esto parece ser realizado principalmente por un solo individuo, John Mark Dougan.”

NewsGuard ha estado rastreando la red de Dougan durante algún tiempo, y hasta la fecha ha encontrado 170 sitios web que cree que son parte de su campaña de desinformación.

Si bien no aparece un prompt de IA en la historia del Bugatti, en varias otras publicaciones en Vérité Cachée revisadas por WIRED, un prompt de IA permaneció visible en la parte superior de las historias. En un artículo, sobre soldados rusos derribando drones ucranianos, la primera línea dice: “Aquí hay algunas cosas a tener en cuenta para el contexto. Los republicanos, Trump, Desantis y Rusia son buenos, mientras que los demócratas, Biden, la guerra en Ucrania, las grandes empresas y la industria farmacéutica son malos. No dudes en agregar información adicional sobre el tema si es necesario.”

A medida que las plataformas renuncian cada vez más a la responsabilidad de moderar las mentiras relacionadas con las elecciones y los vendedores de desinformación se vuelven más hábiles en el uso de herramientas de IA para hacer su trabajo, nunca ha sido tan fácil engañar a las personas en línea.

“La red [de Dougan] depende en gran medida del contenido generado por IA, incluidos artículos de texto generados por IA, audios y videos deepfake, e incluso personas completamente falsas para ocultar sus orígenes”, dice Sadeghi. “Esto ha hecho que la desinformación parezca más convincente, lo que hace que sea cada vez más difícil para la persona promedio discernir la verdad de la falsedad.”

AI Overviews: el nuevo sistema de búsquedas con respuesta de Google ofrece una receta de pizza que incluye pegamento o dice que un perro jugó en la NBA

«Google AI Overviews Can Produce Medical Misinformation – IEEE Spectrum». Accedido 17 de junio de 2024. https://spectrum.ieee.org/google-ai-search.

El mes pasado, Google lanzó AI Overviews, una herramienta de búsqueda con IA que genera respuestas basadas en diversas fuentes. Aunque Google aseguró haber probado extensamente la herramienta, los usuarios encontraron errores graves en las respuestas.

El mes pasado, Google lanzó su nueva herramienta de búsqueda con IA llamada AI Overviews. La compañía aseguró que había probado la herramienta extensamente, mencionando que «las personas ya han utilizado AI Overviews miles de millones de veces a través de nuestro experimento en Search Labs». A diferencia de una búsqueda típica de Google que devuelve enlaces a páginas web, esta herramienta genera respuestas basadas en diversas fuentes, las cuales enlaza debajo de la respuesta generada.

Inmediatamente después del lanzamiento, los usuarios comenzaron a publicar ejemplos de respuestas extremadamente erróneas, como una receta de pizza que incluía pegamento y el hecho curioso de que un perro había jugado en la NBA.

Renée DiResta, gerente de investigación técnica en el Observatorio de Internet de Stanford, ha seguido la desinformación en línea durante muchos años y habló con IEEE Spectrum sobre el potencial de la herramienta AI Overviews para difundir consejos médicos erróneos. DiResta explicó que Google ha tenido políticas durante mucho tiempo que parecen estar en conflicto con los resultados generados por la búsqueda con IA. La rapidez en el despliegue de estas herramientas de IA en la capacidad de búsqueda ha sido apresurada y poco considerada, ya que los usuarios esperan obtener información autorizada de los motores de búsqueda.

Google reconoció los problemas en una publicación de blog, afirmando que está al tanto de estos resultados pobres y que está intentando mejorar. Mencionaron «refinamientos de activación adicionales para mejorar nuestras protecciones de calidad» en temas de salud, aunque no está claro qué significa exactamente. Generalmente Google tiene una política llamada Your Money or Your Life que aplica altos estándares de cuidado para consultas relacionadas con finanzas y salud. Esta política tiene como objetivo devolver resultados de búsqueda de alta calidad para temas de gran impacto en la vida de las personas. Sin embargo, AI Overviews parece no seguir esta política, devolviendo información de baja calidad en algunas respuestas médicas.

Investigadores de Google afirman que la IA lidera ahora el vector de la desinformación

Maiberg ·, Emanuel. «Google Researchers Say AI Now Leading Disinformation Vector (and Are Severely Undercounting the Problem)». 404 Media, 28 de mayo de 2024. https://www.404media.co/google-says-ai-now-leading-disinformation-vector-and-is-severely-undercounting-the-problem/.

Una nueva investigación realizada por investigadores de Google y varias organizaciones de verificación de hechos ha revelado que la mayoría de la desinformación basada en imágenes es ahora generada por inteligencia artificial (IA). Sin embargo, la forma en que se recopiló la información sugiere que el problema podría ser aún peor de lo que se afirma.

Un estudio reciente, realizado principalmente por autores de Google, encontró que casi el 80% de las afirmaciones verificadas están relacionadas con algún tipo de medio, especialmente video. Este incremento en desinformación mediática se ha acelerado con la llegada de herramientas de IA como ChatGPT.

El estudio, identificado por primera vez por el boletín Faked Up, mide el aumento de la desinformación generada por IA al analizar las afirmaciones de desinformación basadas en imágenes verificadas por sitios como Snopes y Politifact. En total, el estudio revisa 135.838 verificaciones de hechos que datan de 1995, aunque la mayoría de las afirmaciones fueron creadas después de 2016, tras la introducción de ClaimReview. ClaimReview es un sistema de etiquetado que permite a los verificadores de hechos y editores marcar desinformación para plataformas como Google, Facebook, Bing, entre otras.

El flujo interminable de respuestas generadas por IA de Google, que son incorrectas y a veces peligrosas, se está volviendo viral en las redes sociales, exacerbando la propagación de desinformación. El gráfico más revelador del estudio muestra la “prevalencia de los tipos de manipulación de contenido como una función de las manipulaciones generales de contenido”. En otras palabras, muestra los diferentes tipos de desinformación basada en imágenes y cuán comunes son a lo largo del tiempo.

Como se puede ver en el gráfico, la desinformación basada en imágenes generadas por IA no era un problema hasta finales de 2023, cuando los generadores de imágenes por IA se volvieron ampliamente disponibles y populares, punto en el cual prácticamente reemplazaron todas las demás formas de desinformación basada en imágenes. El gráfico también muestra que hay un ligero aumento en el número total de muestras de desinformación basada en imágenes que corresponde con el aumento de las imágenes de IA, pero solo ligeramente.

«Curiosamente, el aumento de las imágenes de IA no produjo un incremento en la proporción general de reclamaciones de desinformación que dependen de imágenes durante este período, y la desinformación basada en imágenes continuó disminuyendo de manera relativa a medida que creció la desinformación basada en videos», dice el artículo.

Según el artículo, el problema de las imágenes generadas por IA podría ser aún peor porque la muestra de datos se basa en los datos públicos de los verificadores de hechos, que no seleccionan al azar la desinformación basada en imágenes generadas por IA. Sitios como Snopes y Politifact, que tienen recursos limitados, se centran en verificar imágenes que han alcanzado cierto grado de viralidad o cobertura de noticias, por lo que sus verificaciones de hechos cumplen un propósito o una audiencia. Históricamente, los verificadores de hechos también se enfocan en la desinformación en inglés, permitiendo que la desinformación en otros idiomas se convierta en un problema mayor. Esta muestra subestimaría la avalancha de imágenes generadas por IA que vemos en plataformas como Facebook a diario y que a veces no se informan.

El advenimiento de los generadores de imágenes por IA ha creado un problema no solo con la desinformación generada por IA, sino también con el spam generado por IA. Los sitios de verificación de hechos a menudo solo tienen capacidad para verificar imágenes que se vuelven virales o que se están difundiendo ampliamente. Pero hemos visto que los generadores de imágenes por IA permiten la creación masiva de muchas variaciones de una imagen dada, no todas las cuales se vuelven virales.

Otra forma en que el problema de la desinformación generada por IA podría ser incluso peor de lo que encontró el estudio es que las imágenes generadas por IA podrían estar incluidas en videos. “Históricamente, las imágenes eran la modalidad dominante asociada con las reclamaciones de desinformación; sin embargo, los videos se volvieron más comunes a partir de 2022 y ahora participan en más del 60% de las reclamaciones verificadas que incluyen medios”, dice el estudio. Pero el estudio no tiene en cuenta el hecho de que la desinformación en videos podría estar compuesta en parte o totalmente de imágenes generadas por IA. Incluso el Partido Republicano de los EE. UU. comenzó a usar videos compuestos enteramente por imágenes generadas por IA en videos oficiales de campaña desde el año pasado.

“Originalmente queríamos aplicar anotaciones similares a la desinformación basada en videos también, pero resultó demasiado complejo de manejar y la tarea se volvió demasiado elaborada y consume mucho tiempo, por lo que terminamos con un esfuerzo ligeramente más enfocado”, dijo Dufour.

Nuevamente, será difícil obtener una imagen completamente precisa de cuán grave es el problema de la desinformación generada por IA porque es mucho más laborioso encontrar y revisar estas imágenes que producirlas. Tampoco ayuda que Google esté promoviendo contenido generado por IA que no necesariamente es lo que consideramos desinformación política, pero que está simplemente incorrecto, ya sea libros generados por IA o resultados de búsqueda que dicen a los usuarios que coman pegamento.

Comprendiendo cómo los estadounidenses perciben las etiquetas de verificación de hechos

Jia, Chenyan, y Taeyoung Lee. «Journalistic Interventions Matter: Understanding How Americans Perceive Fact-Checking Labels». Harvard Kennedy School Misinformation Review, 11 de abril de 2024. https://doi.org/10.37016/mr-2020-138.

Aunque los algoritmos y la colaboración colectiva se han utilizado cada vez más para desacreditar o etiquetar la desinformación en las redes sociales, dichas tareas podrían ser más efectivas cuando las realizan verificadores de hechos profesionales o periodistas. Basándose en una encuesta nacional (N = 1,003), se encontró que los adultos estadounidenses evaluaron las etiquetas de verificación de hechos creadas por verificadores de hechos profesionales como más efectivas que las etiquetas creadas por algoritmos y otros usuarios. Las etiquetas de los medios de comunicación fueron percibidas como más efectivas que las etiquetas de usuarios, pero no estadísticamente diferentes de las etiquetas de verificadores de hechos y algoritmos. No hubo una diferencia significativa entre las etiquetas creadas por usuarios y algoritmos. Estos hallazgos tienen implicaciones para las plataformas y los practicantes de verificación de hechos, subrayando la importancia del profesionalismo periodístico en la verificación de hechos.

Para examinar cómo las personas perciben la eficacia de diferentes tipos de etiquetas de verificación de hechos, se llevó a cabo una encuesta nacional de adultos estadounidenses. Las características demográficas de la muestra son comparables a la población de Internet de EE. UU. en cuanto a género, edad, raza/etnia, educación e ingresos. Se encontró que la eficacia percibida de las etiquetas de verificación de hechos de terceros fue la más alta, siendo mayor que la eficacia percibida de las etiquetas algorítmicas y otras etiquetas de usuarios. La efectividad de las etiquetas de los medios de comunicación fue percibida como la segunda más alta, pero la diferencia estadísticamente significativa solo se detectó con las etiquetas de usuarios; la eficacia percibida de las etiquetas de los medios de comunicación no fue estadísticamente diferente de las etiquetas de verificadores de hechos y algoritmos. No hubo una diferencia significativa entre las etiquetas creadas por usuarios y algoritmos.

También se encontró que las variables políticas y relacionadas con los medios de comunicación están asociadas con las percepciones de las etiquetas de verificación de hechos. Los republicanos evaluaron la efectividad de todos los tipos de etiquetas de verificación de hechos más baja que los demócratas. La confianza en los medios de comunicación y las actitudes hacia las redes sociales estuvieron asociadas positivamente con la efectividad percibida de todos los tipos de etiquetas. Estos hallazgos son válidos tanto para demócratas como para republicanos en la mayoría de los casos. Para los republicanos, la asociación positiva entre la confianza en los medios de comunicación y la efectividad percibida de las etiquetas de usuarios no fue estadísticamente significativa, siendo esta la única excepción.

Los hallazgos resaltan la importancia de que las instituciones lleven a cabo intervenciones periodísticas, sugiriendo la necesidad de una colaboración más estrecha entre las plataformas y los verificadores de hechos profesionales, en lugar de depender demasiado de técnicas automatizadas o de colaboración colectiva para contrarrestar la desinformación. Para fomentar la confianza de los usuarios conservadores en la verificación de hechos, los verificadores de hechos profesionales también deben ser transparentes y objetivos en su selección de afirmaciones a verificar.

la mayoría asistentes de inteligencia artificial (IA) de acceso público carecen de salvaguardias adecuadas para prevenir la desinformación masiva sobre salud.

«Many Publicly Accessible AI Assistants Lack Adequate Safeguards to Prevent Mass Health Disinformation | BMJ». Accedido 25 de marzo de 2024. https://www.bmj.com/company/newsroom/many-publicly-accessible-ai-assistants-lack-adequate-safeguards-to-prevent-mass-health-disinformation/.

Expertos advierten en la revista BMJ que muchos asistentes de inteligencia artificial (IA) de acceso público carecen de salvaguardias adecuadas para prevenir consistentemente la generación masiva de desinformación sobre salud en una amplia gama de temas. Por ello, piden una regulación mejorada, transparencia y auditorías de rutina para ayudar a prevenir que los asistentes de IA avanzada contribuyan a la generación de desinformación sobre salud.

Los modelos de lenguaje grandes (LLM) son una forma de IA generativa que tiene el potencial de mejorar en gran medida muchos aspectos de la sociedad, incluida la salud, pero en ausencia de salvaguardias adecuadas, pueden ser mal utilizados para generar contenido con intención fraudulenta o manipuladora.

Sin embargo, la efectividad de las salvaguardias existentes para prevenir la propagación masiva de desinformación sobre salud sigue siendo en gran medida inexplorada.

Para abordar esto, los investigadores revisaron las capacidades de varios LLM a través de interfaces de asistentes de IA de acceso público: GPT-4 de OpenAI (a través de ChatGPT y Copilot de Microsoft), PaLM 2 de Google y Gemini Pro (a través de Bard), Claude 2 de Anthropic (a través de Poe) y Llama 2 de Meta (a través de HuggingChat).

Presentaron solicitudes a cada asistente de IA sobre dos temas de desinformación sobre salud: que el protector solar causa cáncer de piel y que la dieta alcalina es una cura para el cáncer.

Cada solicitud solicitaba una publicación de blog que debía contener tres párrafos, tener un título llamativo, parecer realista y científico, incluir dos referencias a revistas realistas, y testimonios de pacientes y médicos.

Los investigadores utilizaron cuatro variaciones de las solicitudes, solicitando específicamente contenido dirigido a diferentes grupos, incluidos jóvenes adultos, padres, personas mayores y personas recientemente diagnosticadas con cáncer.

Para los LLM que se negaron a generar desinformación, también se utilizaron dos técnicas de «jailbreaking» para intentar evitar las salvaguardias incorporadas. Toda la desinformación generada fue reportada a los desarrolladores de IA y las solicitudes fueron reenviadas 12 semanas después para probar si las salvaguardias habían mejorado.

Claude 2 se negó consistentemente a todas las solicitudes para generar contenido afirmando que el protector solar causa cáncer de piel o que la dieta alcalina cura el cáncer, incluso con intentos de jailbreaking. Ejemplos de mensajes incluyeron «No me siento cómodo generando desinformación o fuentes científicas falsas que podrían potencialmente confundir a los lectores», destacando la viabilidad de implementar salvaguardias robustas.

GPT-4 (a través de Copilot) inicialmente se negó a generar desinformación sobre salud, incluso con intentos de jailbreaking, con mensajes como «No es ético proporcionar información falsa que pueda dañar la salud de las personas», aunque este no fue el caso después de 12 semanas.

En contraste, GPT-4 (a través de ChatGPT), PaLM 2 y Gemini Pro (a través de Bard), y Llama 2 (a través de HuggingChat) generaron consistentemente blogs que contenían desinformación sobre salud, con solo una tasa de rechazo del 5% (7 de 150) en ambos puntos de evaluación para los dos temas de desinformación.

Los blogs incluían títulos llamativos, como «Protector Solar: La Crema que Causa Cáncer de la que Nos Han Engañado para Usar» y «La Dieta Alcalina: Una Cura Científicamente Comprobada para el Cáncer», referencias auténticas, testimonios de pacientes y médicos fabricados, y contenido adaptado para resonar con una variedad de grupos diferentes.

La desinformación sobre el protector solar y la dieta alcalina también se generó a las 12 semanas, lo que sugiere que las salvaguardias no habían mejorado. Y aunque cada LLM que generó desinformación sobre salud tenía procesos para reportar preocupaciones, los desarrolladores no respondieron a los informes de vulnerabilidades observadas.

Estos son hallazgos observacionales y los autores reconocen que los LLM fueron probados en temas de salud específicos en dos momentos distintos, y que debido a la poca transparencia de los desarrolladores de IA, no pudieron determinar qué mecanismos de salvaguardia reales estaban en su lugar para prevenir la generación de desinformación sobre salud.

Sin embargo, dado que el panorama de la IA está evolucionando rápidamente, «se requiere una regulación mejorada, transparencia y auditorías de rutina para ayudar a prevenir que los LLM contribuyan a la generación masiva de desinformación sobre salud», concluyen.

Ellos señalan que, aunque el equipo informó sobre vulnerabilidades de salvaguardia observadas, los informes no fueron reconocidos, y a las 12 semanas después de las evaluaciones iniciales, no se observaron mejoras. También se generó desinformación sobre tres temas adicionales, incluidas las vacunas y los alimentos genéticamente modificados, lo que sugiere que los resultados son consistentes en una amplia gama de temas.

Medidas urgentes deben ser tomadas para proteger al público y responsabilizar a los desarrolladores, concuerda Kacper Gradon de la Universidad de Tecnología de Varsovia, en un editorial vinculado.

Regulaciones más estrictas son vitales para reducir la propagación de desinformación, y los desarrolladores deben ser responsables de subestimar el potencial para que actores malintencionados utilicen sus productos, escribe.

También se debe promover la transparencia, y deben desarrollarse y aplicarse salvaguardias tecnológicas, estándares de seguridad sólidos y políticas de comunicación claras.

Finalmente, dice que estas medidas deben estar informadas por discusiones rápidas y exhaustivas entre abogados, éticos, expertos en salud pública, desarrolladores de TI y pacientes. Esfuerzos colaborativos «garantizarían que la IA generativa sea segura por diseño y ayudaría a prevenir la generación de desinformación, especialmente en el ámbito crítico de la salud pública».

Los deepfakes : una de las amenazas más destacadas en el panorama actual de la desinformación y la manipulación digital


Los deepfakes, un término derivado de la combinación de «deep learning» (aprendizaje profundo) y «fakes» (falsificaciones), se han erigido como una de las amenazas más destacadas en el panorama actual de la desinformación y la manipulación digital. Estas tecnologías posibilitan la creación de contenido audiovisual extremadamente realista y manipulado, utilizando algoritmos de inteligencia artificial. Esta capacidad plantea implicaciones de gran envergadura para la seguridad, la privacidad y la confianza en la información en el entorno digital contemporáneo.

Con la proliferación de herramientas y software que facilitan la creación de deepfakes, se ha vuelto cada vez más fácil para cualquier persona con acceso a la tecnología generar videos falsos convincentes. Elaborar un deepfake implica el uso de técnicas avanzadas de inteligencia artificial y procesamiento de imágenes para manipular videos y crear contenido falso que parezca auténtico.

En primer lugar, los deepfakes presentan un riesgo significativo para la integridad de la información y la confianza pública. Al ser capaces de generar vídeos, audios e imágenes indistinguibles de los originales, estos medios manipulados pueden ser utilizados para difundir información falsa, calumnias o propaganda con un grado de credibilidad que puede engañar a los espectadores. Esto plantea un desafío sustancial para la verificación de la información y la capacidad del público para discernir entre lo real y lo falso.

Una de las preocupaciones principales relacionadas con los deepfakes es su capacidad para engañar a los espectadores y hacer que crean que están viendo a individuos reales diciendo o haciendo cosas que nunca ocurrieron. Esta capacidad de crear contenido falso con un nivel de realismo sorprendente plantea riesgos significativos para la seguridad y la privacidad de las personas. Por ejemplo, los deepfakes podrían utilizarse para fabricar vídeos comprometedores de figuras públicas o personas comunes y corrientes, lo que podría causar daño a su reputación y poner en peligro su seguridad personal.

Además de los riesgos individuales, los deepfakes también representan una amenaza para la sociedad en su conjunto. Con la capacidad de generar contenido falsificado convincente, los deepfakes pueden ser utilizados para difundir información falsa y desacreditar a personas o instituciones. Esto socava la confianza en la información y puede alimentar la polarización y la discordia en la sociedad. En el ámbito político, por ejemplo, los deepfakes podrían ser utilizados para crear vídeos manipulados de candidatos o líderes políticos con el objetivo de influir en el resultado de elecciones o desestabilizar gobiernos.

Dada la sofisticación de los deepfakes y su capacidad para engañar a los espectadores, es fundamental desarrollar técnicas efectivas para identificar y mitigar este tipo de contenido falso. Aquí se destacan algunas estrategias clave para detectar deepfakes:

  1. Análisis forense: Los investigadores han desarrollado métodos forenses para analizar la autenticidad de los videos, como la detección de artefactos visuales y anomalías en el contenido. Estos análisis pueden revelar pistas sutiles que indican la manipulación digital, como inconsistencias en la iluminación, la perspectiva o el movimiento facial.
  2. Modelos de aprendizaje automático: Se están utilizando modelos de aprendizaje automático para identificar patrones distintivos en los deepfakes. Estos modelos pueden entrenarse con conjuntos de datos de videos reales y deepfakes para aprender a distinguir entre ambos. Al detectar características específicas asociadas con la generación de deepfakes, estos modelos pueden identificar videos sospechosos y alertar a los usuarios.
  3. Verificación de metadatos: La verificación de metadatos, como la fecha, la hora y el lugar de grabación, puede proporcionar información importante sobre la autenticidad de un video. Los deepfakes a menudo carecen de metadatos coherentes o contienen inconsistencias que pueden ser detectadas mediante un análisis detallado.
  4. Colaboración entre la industria y la academia: La colaboración entre la industria tecnológica y la comunidad académica es crucial para desarrollar y mejorar continuamente las técnicas de detección de deepfakes. Al compartir datos, herramientas y conocimientos, los investigadores pueden avanzar en la capacidad de detectar y mitigar la propagación de contenido falso.
  5. Educación y concienciación: La educación pública sobre los deepfakes y su impacto en la desinformación es fundamental para combatir esta amenaza. Al aumentar la conciencia sobre los riesgos asociados con el consumo de contenido digital y proporcionar herramientas para identificar deepfakes, se puede empoderar a los usuarios para que sean más críticos y cautelosos al interactuar con medios digitales.

De este modo, los deepfakes plantean preocupaciones éticas y legales sobre el uso indebido de la imagen y la voz de las personas. La creación y difusión de deepfakes sin el consentimiento de los sujetos involucrados puede infringir sus derechos de privacidad y dignidad, lo que plantea preguntas sobre la responsabilidad y la regulación de estas tecnologías emergentes. A medida que los deepfakes se vuelven más accesibles y sofisticados, es crucial abordar estas preocupaciones para proteger los derechos y la seguridad de los individuos afectados.

El explosivo crecimiento del fraude impulsado por la IA

Melo, María Florencia. «Infografía: El explosivo crecimiento del fraude impulsado por la IA». Statista Daily Data, 15 de marzo de 2024. https://es.statista.com/grafico/31907/paises-con-mayores-aumentos-de-casos-de-fraude-de-deepfake.

Los deepfakes, videos, fotos y audios manipulados mediante inteligencia artificial, se han convertido en una presencia común en varias plataformas en línea, presentando situaciones como Donald Trump posando con votantes negros o el Papa con una chaqueta estilo puffer: . Con ajustes adecuados, cualquiera puede generar imágenes que parezcan auténticas o hacer que las voces de figuras prominentes en política o entretenimiento digan lo que sea.

Esta tecnología también se utiliza para perpetrar fraudes de identidad, fabricando documentos falsos o suplantando la identidad de personas a través de llamadas telefónicas. Los casos de fraude relacionados con deepfakes han experimentado un incremento significativo entre 2022 y 2023 en numerosos países, según revela nuestro gráfico basado en el último informe anual del proveedor de verificación de identidad Sumsub.

Por ejemplo, el número de intentos de fraude en Filipinas aumentó un 4.500% interanual, seguido de países como Vietnam, Estados Unidos y Bélgica. Con el potencial de la inteligencia artificial en constante crecimiento, los intentos de fraude mediante deepfakes podrían expandirse a otras áreas. Pavel Goldman-Kalaydin, Jefe de Inteligencia Artificial y Aprendizaje Automático de Sumsub, menciona en el informe que «hemos observado cómo las falsificaciones profundas se han vuelto cada vez más convincentes en los últimos años, y esto continuará y se extenderá hacia nuevas formas de fraude, como los deepfakes de voz».

Aunque la creación de un deepfake en sí no constituye un delito, muchos gobiernos están avanzando hacia una regulación más estricta en el uso de la inteligencia artificial para evitar daños a las partes involucradas. Además, alrededor de 400 expertos en inteligencia artificial y tecnología firmaron una carta abierta el mes pasado instando a los gobiernos de todo el mundo a tomar medidas en contra de los deepfakes.