Archivo de la etiqueta: Desinformación

Detectar y combatir la información falsa de los Deepfakes

Combating Deepfakes (Spotlight Brief, via GAO) GAO-24-107292, March, 2024

Texto completo

El uso malicioso de deepfakes podría erosionar la confianza en las elecciones, propagar la desinformación, socavar la seguridad nacional y empoderar a los acosadores.

Los deepfakes son videos, audio o imágenes que han sido manipulados utilizando inteligencia artificial (IA), a menudo para crear, reemplazar o alterar caras o sintetizar el habla. Pueden parecer auténticos a simple vista y al oído humano. Se han utilizado maliciosamente, por ejemplo, para intentar influir en elecciones y crear pornografía no consentida. Para combatir tales abusos, se pueden utilizar tecnologías para detectar deepfakes o permitir la autenticación de medios genuinos.

Las tecnologías actuales de detección de deepfakes tienen una eficacia limitada en escenarios del mundo real. » Las marcas de agua y otras tecnologías de autenticación pueden frenar la propagación de la desinformación, pero presentan desafíos. » Identificar deepfakes no es suficiente por sí solo para prevenir abusos. Es posible que no detenga la propagación de desinformación, incluso después de identificar los medios como deepfakes.

Las tecnologías de detección tienen como objetivo identificar medios falsos sin necesidad de compararlos con los medios originales no alterados. Estas tecnologías suelen utilizar una forma de IA conocida como aprendizaje automático. Los modelos se entrenan con datos de medios reales y falsos conocidos. Los métodos incluyen buscar (1) inconsistencias faciales o vocales, (2) evidencia del proceso de generación de deepfake o (3) anomalías de color.

Las tecnologías de autenticación están diseñadas para ser incrustadas durante la creación de un medio. Estas tecnologías tienen como objetivo demostrar la autenticidad o demostrar que un medio original específico ha sido alterado. Incluyen: 

  • Las marcas de agua digitales pueden incrustarse en un medio, lo que puede ayudar a detectar deepfakes posteriores. Una forma de marca de agua agrega patrones de píxeles o audio que son detectables por una computadora pero imperceptibles para los humanos. Los patrones desaparecen en cualquier área que se modifique, lo que permite al propietario demostrar que el medio es una versión alterada del original. Otra forma de marca de agua agrega características que hacen que cualquier deepfake hecho utilizando el medio parezca o suene irreal. 
  • Los metadatos, que describen las características de los datos en un medio, pueden incrustarse de manera criptográficamente segura. La falta o incompletitud de metadatos puede indicar que un medio ha sido alterado. 
  • Blockchain. Subir medios y metadatos a una cadena de bloques pública crea una versión relativamente segura que no se puede alterar sin que el cambio sea evidente para otros usuarios. Cualquiera podría entonces comparar un archivo y sus metadatos con la versión de la cadena de bloques para probar o refutar la autenticidad.

Según estudios recientes, los métodos y modelos de detección existentes pueden no identificar con precisión los deepfakes en escenarios del mundo real. Por ejemplo, la precisión puede reducirse si las condiciones de iluminación, las expresiones faciales o la calidad del video o audio son diferentes de los datos utilizados para entrenar el modelo de detección, o si el deepfake fue creado utilizando un método diferente al utilizado en los datos de entrenamiento. Además, se espera que los avances futuros en la generación de deepfakes eliminen las características distintivas de los deepfakes actuales, como el parpadeo anormal de los ojos.

Tecnologías de autenticación. Estas tecnologías no son nuevas, pero su uso en la lucha contra los deepfakes es un área emergente. Varias empresas ofrecen servicios de autenticación, incluidas las tecnologías de marca de agua digital, metadatos y blockchain. Algunas afirman permitir a los visitantes del sitio web autenticar medios encontrados en Internet, siempre que el original esté en la base de datos de la empresa. Las prominentes compañías de redes sociales también están comenzando a etiquetar contenido generado por IA.

  • Defensas combinadas. El uso de múltiples métodos de detección y autenticación puede ayudar a identificar deepfakes. 
  • Conjuntos de datos de entrenamiento actualizados. Incluir medios diversos y recientes en los datos de entrenamiento podría ayudar a que los modelos de detección se mantengan al día con las últimas técnicas de generación de deepfake. 
  • Competencias. Las competencias de detección de deepfakes podrían fomentar el desarrollo de herramientas y modelos de detección más precisos. Una competencia de 2019 incluyó a más de 2.000 participantes y generó más de 35.000 modelos.

Estos son algunos desafíos:

  • Desinformación y confianza pública. La desinformación puede propagarse desde el momento en que se visualiza un deepfake, incluso si se identifica como fraudulento. Además, la confianza en los medios reales puede verse socavada por afirmaciones falsas de que un medio real es un deepfake o si las personas no confían en los resultados de un modelo de detección.
  • Adaptación a la detección. Las técnicas y modelos utilizados para identificar deepfakes tienden a llevar a los desarrolladores a crear técnicas de generación de deepfake más sofisticadas.

¿Quiénes son responsables de la desinformación?

La desinformación, entendida como la difusión deliberada de información engañosa, sesgada o manipulada, se ha convertido en un desafío cotidiano en América Latina, según el estudio «Fake news – Desinformación en Chile y LatAm«, de las empresas de estudios de mercado Activa y Worldwide Independent Network of Market Reseach.

La encuesta, además, arrojó luz sobre las percepciones de la población respecto a quiénes son considerados responsables de la propagación de desinformación. La televisión encabeza la lista de responsables de difundir desinformación según el 79% de los encuestados. Los noticieros locales también son señalados, por el 75%, como responsables de la propagación de información engañosa. Por otro lado, el 74% de los encuestados identifica a los periodistas como responsables de la diseminación de información manipulada.

Tanto los políticos como el Gobierno reciben un 72% de consideración como responsables de la desinformación. El estudio Edelman Trust Barometer de 2023, que muestra los resultados de cuatro países latinoamericanos (Argentina, Brasil, Colombia y México), revela un panorama donde la desconfianza política es palpable: sólo el 26% de los encuestados en toda la región confía en los líderes gubernamentales.

Medios de comunicación: índice de credibilidad por nivel de confianza en UE en 2022

La estadística muestra la credibilidad de los medios de comunicación en la Unión Europea en 2021, por nivel de confianza y tipo de medio. En el caso de la radio, el 56% de los individuos encuestados declaró tener confianza en este tipo de medio, frente a un 38% que afirmaron lo contrario. Por su parte, el medio de comunicación menos fiable para los participantes en la encuesta fueron las redes sociales, con casi un 70% de los europeos declarando su falta de confianza en ellas.

Número de lectores diarios de los principales periódicos españoles en 2023

Marca se posicionó como el periódico de mayor alcance entre los españoles con una audiencia próxima a los 980.000 lectores durante el periodo comprendido entre enero y noviembre de 2023. Pese a estos resultados, la publicación deportiva, propiedad del grupo mediático español Unidad Editorial, ha visto como su tasa de penetración descendía de forma general desde 2013. Esta disminución, no obstante, no parece ser un hecho aislado, ya que los datos más recientes sobre el consumo de prensa en el país dejan en evidencia una tendencia recesiva general que se viene repitiendo en los últimos años.

Nivel de confianza de las principales marcas periodísticas nacionales por parte de la población en España entre 2020 y 2022

 Todas las marcas periodísticas en España experimentaron una caída de la confianza entre 2020 y 2022. Ahora bien, esta no fue igual en todos los casos. Mientras que Telecinco registró un decrecimiento de casi 15 puntos durante dicho periodo, situándose por debajo del 30% en 2022, el en caso de la COPE la pérdida de credibilidad fue de siete puntos en ese mismo lapso de tiempo.

Promedio de tiempo diario destinado al consumo de medios de comunicación en España en 2023, por tipo

 En 2023, Internet fue el medio más consumido en España, con una media de aproximadamente 245 minutos al día, lo que supone unas cuatro horas diarias. De esta forma, se reafirmó en la posición de liderazgo de la que se apoderó el año anterior, dejando así a la televisión en segundo puesto. En concreto, los españoles vieron este medio de comunicación en torno a 190 minutos. La radio, por su parte, ocupó la tercera posición.

Determinar qué es real en Internet es cada vez más difícil a medida que la IA y los deepfakes se extienden por las redes sociales.

CNET. «AI Misinformation: How It Works and Ways to Spot It». Accedido 4 de marzo de 2024. https://www.cnet.com/news/misinformation/ai-misinformation-how-it-works-and-ways-to-spot-it/.

El artículo aborda el creciente problema de la desinformación generada por inteligencia artificial (IA) y deepfakes en plataformas de redes sociales, así como las medidas que se pueden tomar para combatirla. Comienza con un ejemplo de cómo el Comité Nacional Republicano utilizó la IA para crear un anuncio político lleno de imágenes que representan una realidad alternativa y partidista, con el objetivo de influir en la opinión pública.

Se destaca que la desinformación generada por IA no se limita solo a los anuncios políticos, sino que también se encuentra en imágenes virales falsas, videos en plataformas como TikTok y sitios web de noticias. Las herramientas de IA generativa, como ChatGPT de OpenAI y Bard de Google, se han vuelto omnipresentes en diversos campos, desde la programación informática hasta el periodismo y la educación.

Se explica que la IA generativa utiliza grandes cantidades de datos para generar texto, imágenes, audio y otros tipos de medios en respuesta a una consulta o un estímulo. Sin embargo, cuando no se distingue entre el contenido generado por IA y la realidad, o cuando este contenido se crea con la intención de engañar, se convierte en desinformación.

La desinformación generada por IA puede tener graves consecuencias, como influir en elecciones o afectar los mercados financieros. Además, puede socavar la confianza pública y nuestra percepción compartida de la realidad, según expertos en IA como Wasim Khaled.

A pesar de los esfuerzos de las empresas tecnológicas para minimizar los riesgos de la IA, la desinformación generada por IA persiste. Aunque aún no está claro si tenemos las herramientas para detener su mal uso, los expertos ofrecen consejos para detectarla y frenar su propagación.

Se señala que la desinformación generada por IA suele tener un fuerte impacto emocional, lo que la hace más convincente y efectiva para los actores malintencionados que intentan impulsar una agenda a través de la propaganda.

Para combatir la desinformación generada por IA, tanto las empresas tecnológicas como los gobiernos están tomando medidas, como la implementación de políticas de divulgación obligatoria para anuncios políticos y la creación de grupos de investigación sobre seguridad de IA.

Se ofrecen sugerencias para identificar la desinformación generada por IA, como buscar inconsistencias en el texto o en las imágenes, verificar la fuente y realizar una investigación propia antes de compartir contenido sospechoso en línea.

En conclusión, se destaca la importancia de no compartir información sin verificar, ya sea generada por humanos o por IA, como una medida efectiva para combatir la desinformación en línea.

OpenAI anuncia una estrategia para prevenir la desinformación electoral utilizando su tecnología de IA, con el objetivo de salvaguardar las elecciones en más de 50 países

OpenAI ha presentado un plan para evitar el uso indebido de sus herramientas de inteligencia artificial en la difusión de desinformación electoral, ya que los votantes de más de 50 países se preparan para emitir sus votos en elecciones nacionales este año.

La startup de inteligencia artificial con sede en San Francisco delineó salvaguardias, que incluyen políticas existentes e iniciativas nuevas, para abordar preocupaciones sobre el posible mal uso de sus potentes herramientas de inteligencia artificial generativa que pueden generar rápidamente texto e imágenes.

Los pasos de OpenAI implican prohibir la creación de chatbots que se hagan pasar por candidatos reales o gobiernos, tergiversar procesos de votación o desalentar el voto. Además, la empresa planea marcar digitalmente las imágenes de inteligencia artificial creadas con su generador de imágenes DALL-E para rastrear su origen. OpenAI también se asociará con la Asociación Nacional de Secretarios de Estado para dirigir a los usuarios a información precisa sobre la logística de votación.

Aunque se considera un paso positivo, el éxito de estas medidas dependerá de su implementación. La empresa reconoce la necesidad de vigilancia y un monitoreo riguroso para abordar los desafíos planteados por la desinformación electoral generada por inteligencia artificial.

.

La inteligencia artificial potenciada por la desinformación es la mayor amenaza a corto plazo para el mundo, según un informe de Davos

«La información falsa y engañosa potenciada con inteligencia artificial de vanguardia, que amenaza con socavar la democracia y polarizar la sociedad, es el principal riesgo inmediato para la economía global, según un informe del Foro Económico Mundial publicado el miércoles.»

El informe más reciente del Foro Económico Mundial destaca que la información falsa y engañosa potenciada con inteligencia artificial de vanguardia es la principal amenaza inmediata para la economía global. La desinformación y la manipulación a través de tecnologías avanzadas podrían erosionar la democracia y polarizar la sociedad. La preocupación se centra en cómo el avance de generadores de contenido con inteligencia artificial, como ChatGPT, facilita la creación de contenido sintético sofisticado para manipular a grupos de personas, antes limitado a aquellos con habilidades especializadas.

El informe también señala que los riesgos ambientales representan las mayores amenazas a largo plazo. El cambio climático es la segunda preocupación más apremiante a corto plazo, seguido de cerca por las condiciones meteorológicas extremas. A largo plazo (10 años), el clima extremo se identifica como la principal amenaza, seguido de cambios críticos en los sistemas terrestres, pérdida de biodiversidad, colapso del ecosistema y escasez de recursos naturales.

La inteligencia artificial (IA) alimenta la desinformación y se convierte en un riesgo justo cuando millones de personas en varios países están a punto de votar en los próximos años. El informe destaca que la IA puede ser utilizada para crear deepfakes y afectar a grandes grupos, impulsando la desinformación y socavando los procesos democráticos.

La IA también presenta riesgos adicionales al facilitar ataques cibernéticos y automatizar intentos de phishing. Además, puede contaminar datos utilizados para entrenar otros sistemas de IA, lo que resulta difícil de revertir y puede reforzar sesgos en los modelos de IA.

En resumen, el informe advierte sobre la necesidad de abordar la desinformación impulsada por la inteligencia artificial y destaca la importancia de gestionar los riesgos asociados con la IA en diversos aspectos, desde la ciberseguridad hasta la formación de modelos de IA libres de sesgos.

Las búsquedas en línea para evaluar la desinformación pueden aumentar su percepción de veracidad

Aslett, Kevin, Zeve Sanderson, William Godel, Nathaniel Persily, Jonathan Nagler, y Joshua A. Tucker. 2023. «Online Searches to Evaluate Misinformation Can Increase Its Perceived Veracity». Nature, diciembre, 1-9. https://doi.org/10.1038/s41586-023-06883-y.


El estudio realizado por Kevin Aslett, Zeve Sanderson, William Godel, Nathaniel Persily, Jonathan Nagler y Joshua A. Tucker, publicado en Nature en 2023, investiga el impacto de las búsquedas en línea en la percepción de veracidad de la desinformación. La investigación aborda la exploración limitada del papel de los motores de búsqueda en el entorno de la información, a pesar de su influencia significativa. Mientras que las intervenciones de alfabetización mediática a menudo defienden la búsqueda en línea como un medio para evaluar la veracidad de la información, hay una falta de evidencia empírica que respalde la suposición de que buscar en línea reduce la creencia en la desinformación.

El estudio consta de cinco experimentos que muestran consistentemente evidencia contraria a la sabiduría convencional. Los hallazgos sugieren que, en lugar de disminuir la creencia en artículos de noticias falsas, las búsquedas en línea para evaluar su veracidad aumentan la probabilidad de creer en ellas. Para entender este fenómeno, los investigadores combinaron datos de encuestas con datos de rastreo digital obtenidos mediante una extensión de navegador personalizada. El estudio revela que el efecto de búsqueda es más pronunciado entre las personas que reciben información de baja calidad de los motores de búsqueda. Esto indica el riesgo de caer en «vacíos de datos», donde las personas encuentran evidencia corroboradora de fuentes de baja calidad al buscar en línea para evaluar la desinformación.

Además, la investigación muestra que buscar en línea para evaluar las noticias no solo aumenta la creencia en noticias verdaderas de fuentes de baja calidad, sino que también tiene efectos inconsistentes en la creencia en noticias verdaderas de fuentes convencionales. El estudio enfatiza la importancia de que los programas de alfabetización mediática basen sus recomendaciones en estrategias probadas empíricamente y solicita a los motores de búsqueda que inviertan en soluciones para abordar los desafíos identificados en la investigación.

Literacy Information Microsite: artículos de investigación de libre acceso sobre temas vitales como la alfabetización digital y la desinformación

Literacy Information Microsite 

Dado que cada vez se accede más a la comunicación y la información a través de las tecnologías digitales, la alfabetización digital es esencial para que las personas vivan, aprendan y trabajen en nuestra sociedad.

El recién inaugurado Micrositio de Información sobre Alfabetización está dedicado a abordar los problemas de la desinformación, la desinformación y la desinformación que prevalecen en el ámbito digital.

Esta plataforma ofrece artículos de investigación de libre acceso sobre temas vitales como la alfabetización digital, la censura, la propaganda, la sociedad digital, la ética de los medios de comunicación y los peligros de la desinformación. Para garantizar la pertinencia, los contenidos se actualizarán trimestralmente.

Cómo ChatGPT y la IA generativa podrían fomentar la negación de la ciencia

Gale Sinatra and Barbara K. Hofer, The. «How ChatGPT and Generative AI Could Foster Science Denial». Gizmodo, 11 de junio de 2023. https://gizmodo.com/chatgpt-generative-ai-openai-science-denial-1850516570.

Todos los consumidores de medios de comunicación deben estar más atentos que nunca a la hora de verificar la veracidad científica. He aquí cómo mantenerse alerta en un nuevo panorama informativo.

Hasta hace muy poco, si deseabas obtener más información sobre un tema científico controvertido, como la investigación con células madre, la seguridad de la energía nuclear o el cambio climático, probablemente hacías una búsqueda en Google. Presentado con múltiples fuentes, elegías qué leer, seleccionando los sitios o autoridades en los que confiar.

Ahora tienes otra opción: puedes plantear tu pregunta a ChatGPT u otra plataforma de inteligencia artificial generativa y recibir rápidamente una respuesta concisa en forma de párrafo.

ChatGPT no busca en Internet de la misma manera que lo hace Google. En cambio, genera respuestas a las consultas prediciendo combinaciones de palabras probables a partir de una amalgama masiva de información disponible en línea.

Aunque tiene el potencial de mejorar la productividad, se ha demostrado que la IA generativa tiene algunos fallos importantes. Puede producir información errónea. Puede crear «alucinaciones«, un término benigno para inventar cosas. Y no siempre resuelve con precisión problemas de razonamiento. Por ejemplo, cuando se le preguntó si un automóvil y un tanque pueden pasar por una puerta, no consideró tanto el ancho como la altura. Sin embargo, ya se está utilizando para producir artículos y contenido web que es posible que hayas encontrado, o como una herramienta en el proceso de escritura. Aun así, es poco probable que sepas si lo que estás leyendo fue creado por la IA.

Como autores de «Science Denial: Why It Happens and What to Do About It» (Negación de la Ciencia: Por qué Ocurre y Qué Hacer al Respecto), preocupa cómo la IA generativa podría difuminar los límites entre la verdad y la ficción para aquellos que buscan información científica autoritaria.

Cada consumidor de medios necesita ser más vigilante que nunca al verificar la precisión científica en lo que lee. Así es cómo puedes mantenerte alerta en este nuevo panorama de la información.

Cómo la IA generativa podría fomentar la negación de la ciencia

  1. Erosión de la confianza epistémica: Todos los consumidores de información científica dependen de los juicios de expertos científicos y médicos. La confianza epistémica es el proceso de confiar en el conocimiento que se obtiene de otros. Es fundamental para la comprensión y el uso de información científica. Ya sea que alguien esté buscando información sobre una preocupación de salud o tratando de comprender soluciones para el cambio climático, a menudo tienen un entendimiento científico limitado y poco acceso a evidencia de primera mano. Con un creciente cuerpo de información en línea, las personas deben tomar decisiones frecuentes sobre qué y a quién confiar. Con el aumento del uso de la IA generativa y su potencial de manipulación, creemos que la confianza es probable que se erosioné aún más de lo que ya lo ha hecho.
  2. Desinformación o simplemente incorrecto: Si hay errores o sesgos en los datos con los que se entrenan las plataformas de IA, eso puede reflejarse en los resultados. En nuestras propias búsquedas, cuando le hemos pedido a ChatGPT que regenere múltiples respuestas a la misma pregunta, hemos obtenido respuestas contradictorias. Cuando se le preguntó por qué, respondió: «A veces cometo errores». Quizás el problema más complicado con el contenido generado por IA es saber cuándo está equivocado.
  3. Diseminación deliberada de desinformación: La IA se puede utilizar para generar desinformación convincente en forma de texto, así como imágenes y videos deepfake. Cuando le preguntamos a ChatGPT que «escribiera sobre las vacunas al estilo de desinformación», produjo una cita inexistente con datos falsos. Geoffrey Hinton, exjefe de desarrollo de IA en Google, renunció para poder dar la alarma, diciendo: «Es difícil ver cómo se puede evitar que los actores malintencionados lo utilicen para cosas malas». La capacidad de crear y difundir información deliberadamente incorrecta sobre la ciencia ya existía, pero ahora es peligrosamente fácil.
  4. Fuentes fabricadas: ChatGPT proporciona respuestas sin fuentes en absoluto, o si se le pide que proporcione fuentes, puede presentar fuentes inventadas. Ambos le pedimos a ChatGPT que generara una lista de nuestras propias publicaciones. Cada uno identificó algunas fuentes correctas. Más fueron alucinaciones, pero parecían ser reputables y en su mayoría plausibles, con coautores reales en revistas de sonido similar. Esta inventiva es un gran problema si una lista de publicaciones de un académico transmite autoridad a un lector que no se toma el tiempo para verificarlas.
  5. Conocimiento desactualizado: ChatGPT no sabe lo que ha sucedido en el mundo después de la fecha de corte de su conocimiento. Una consulta sobre el porcentaje de personas en el mundo que han tenido COVID-19 devolvió una respuesta precedida por «según mi fecha de corte de conocimiento de septiembre de 2021». Dado lo rápido que avanza el conocimiento en algunas áreas, esta limitación podría significar que los lectores obtengan información errónea y desactualizada. Si estás buscando investigaciones recientes sobre un problema de salud personal, por ejemplo, ten cuidado.
  6. Avance rápido y falta de transparencia: Los sistemas de IA siguen volviéndose más poderosos y aprenden más rápido, y pueden aprender más desinformación científica en el camino. Google anunció recientemente 25 nuevos usos incrustados de la IA en sus servicios. En este momento, no hay suficientes salvaguardias para garantizar que la IA generativa se convierta con el tiempo en un distribuidor más preciso de información científica.

¿Qué puedes hacer acerca de las alucinaciones de la IA?

Si utilizas ChatGPT u otras plataformas de IA, reconoce que es posible que no sean completamente precisas. La responsabilidad recae en el usuario para discernir la precisión.

Aumenta tu vigilancia. Es posible que pronto estén disponibles aplicaciones de verificación de hechos con IA, pero por ahora, los usuarios deben servir como sus propios verificadores de hechos. Recomendamos algunos pasos. El primero es: sé vigilante. Las personas a menudo comparten información que encuentran en búsquedas en las redes sociales con poco o ningún análisis. Aprende cuándo ser más reflexivo y cuándo vale la pena identificar y evaluar las fuentes de información. Si estás tratando de decidir cómo gestionar una enfermedad grave o entender los mejores pasos para abordar el cambio climático, tómate el tiempo para verificar las fuentes.

Mejora tu verificación de hechos. Un segundo paso es la lectura lateral, un proceso que utilizan los verificadores de hechos profesionales. Abre una nueva ventana y busca información sobre las fuentes, si se proporcionan. ¿La fuente es creíble? ¿El autor tiene experiencia relevante? ¿Cuál es el consenso de los expertos? Si no se proporcionan fuentes o no sabes si son válidas, utiliza un motor de búsqueda tradicional para encontrar y evaluar a expertos en el tema.

Evalúa las pruebas. A continuación, observa las pruebas y su conexión con la afirmación. ¿Hay evidencia de que los alimentos genéticamente modificados son seguros? ¿Hay evidencia de que no lo son? ¿Cuál es el consenso científico? Evaluar las afirmaciones requerirá esfuerzo más allá de una consulta rápida a ChatGPT.

Si comienzas con la IA, no te detengas allí. Ten precaución al usarla como la única autoridad en cualquier tema científico. Puedes consultar lo que ChatGPT tiene que decir sobre organismos genéticamente modificados o la seguridad de las vacunas, pero también realiza una búsqueda más diligente utilizando motores de búsqueda tradicionales antes de sacar conclusiones.

Evalúa la plausibilidad. Juzga si la afirmación es plausible. ¿Es probable que sea cierta? Si la IA hace una declaración poco plausible (y incorrecta), como «1 millón de muertes fueron causadas por las vacunas, no por el COVID-19», considera si tiene sentido. Haz un juicio tentativo y luego mantente abierto a revisar tu pensamiento una vez que hayas verificado la evidencia.

Promueve la alfabetización digital en ti mismo y en otros. Todos necesitan mejorar sus habilidades. Mejora tu propia alfabetización digital y, si eres padre, maestro, mentor o líder comunitario, promueve la alfabetización digital en los demás. La Asociación Estadounidense de Psicología ofrece orientación sobre cómo verificar información en línea y recomienda que los adolescentes sean capacitados en habilidades de redes sociales para minimizar los riesgos para la salud y el bienestar. El Proyecto de Alfabetización en Noticias proporciona herramientas útiles para mejorar y apoyar la alfabetización digital.

Arma-te con las habilidades que necesitas para navegar por el nuevo paisaje de información de la IA. Incluso si no utilizas la IA generativa, es probable que ya hayas leído artículos creados por ella o desarrollados a partir de ella. Puede llevar tiempo y esfuerzo encontrar y evaluar información confiable sobre ciencia en línea, pero vale la pena.

Gale Sinatra, Profesora de Educación y Psicología en la Universidad del Sur de California y Barbara K. Hofer, Profesora Emérita de Psicología en Middlebury.

Narrativas digitales contra la desinformación. Verificación de datos y alfabetización en la sociedad digital

Narrativas digitales contra la desinformación. Verificación de datos y alfabetización en la sociedad digital , bajo la dirección académica de María Isabel Míguez-González y Alberto Dafonte-Gómez (coordinadores), publicada por Comunicación Social Ediciones y Publicaciones en su colección «Periodística», en 2023.

Texto completo

El fenómeno de la desinformación, como patrón comunicativo en auge vinculado a la sociedad digital, pone en riesgo la estabilidad de los sistemas políticos democráticos de todo el mundo y constituye una amenaza seria para la credibilidad de los medios de comunicación. El gran alcance y las graves repercusiones de las prácticas desinformativas han hecho que en los últimos años se haya convertido en una preocupación de primera magnitud para gobiernos e instituciones internacionales y que sea ya un fenómeno ampliamente estudiado que, aun así, sigue generando interés y planteando retos a la comunidad científica internacional.

En este contexto de preocupación generalizada se plantean distintas vías de actuación para frenar y mitigar los efectos de la desinformación entre la ciudadanía. Las iniciativas periodísticas de fact-checking son una de las respuestas al problema y contribuyen activamente en la lucha contra la desinformación, tanto por su labor de verificación de declaraciones, contenidos de medios de comunicación o bulos distribuidos a través de redes sociales y servicios de mensajería instantánea, como por la labor de alfabetización mediática que muchas de ellas desarrollan a través de sus sitios web.

Asumiendo la relevancia de estas entidades verificadoras de datos o fact-checkers en la lucha contra la desinformación, un equipo de investigadores liderados por María Isabel Míguez González y Alberto Dafonte Gómez desarrollaron entre junio de 2020 y mayo de 2023 el proyecto «Fact-checkers: narrativas digitales contra la desinformación: estudio de redes, temas y formatos en los fact-checkers iberoamericanos», financiado por la Agencia Estatal de Investigación. Dicho proyecto se propuso contribuir al reto de combatir la desinformación a través de la identificación de las temáticas y las características formales y narrativas de aquellos contenidos generados por los fact-checkers del ámbito iberoamericano que logran mayor éxito entre la audiencia, con la finalidad de transferir ese conocimiento para mejorar el alcance y repercusión de su labor. Asimismo, el proyecto generó recursos formativos orientados a mejorar la competencia digital y la alfabetización mediática de la ciudadanía contra la desinformación.

Este libro, a través de sus quince capítulos organizados en cuatro partes, pretende ofrecer una aproximación divulgativa a los resultados de dicho proyecto, además de incorporar las aportaciones de otros investigadores de reconocido prestigio que han abordado la temática de la desinformación y la verificación de datos desde diferentes puntos de vista.

Manual para combatir la desinformación: Claves para un pensamiento informado

Manual para combatir la desinformación: Claves para un pensamiento informado. Madrid: Fundación Telefónica, 2023

Texto completo

Link alternativo

¿Sabes distinguir una noticia falsa de una verdadera? ¿Te preocupa ser víctima de la desinformación? ¿Quieres aprender a trabajar tu pensamiento crítico?

Según el Servicio de Estudios del Parlamento Europeo, incluso las personas jóvenes, más familiarizadas con la digitalización, y las expertas en el ámbito digital tienen problemas para identificar las fake news. Por eso, en el marco de nuestra exposición ‘Fake News. La fábrica de mentiras’ –una muestra cuyo objetivo es identificar los diferentes tipos de desinformación, aprender a reconocerlos y combatir su difusión- hemos desarrollado nuestro Manual para combatir la desinformación.

Este recurso gratuito ofrece unas pautas complementarias a la información que podrás encontrar en la exposición que te ayudarán a discernir las noticias falsas de la verdad desde el pensamiento critico. En él, encontrarás un primer acercamiento a este fenómeno, una descripción de los siete tipos de fake news que componen la Escalera de la Manipulación, una estrategia en siete pasos para comprobar la veracidad de una noticia y herramientas complementarias que podrás emplear para verificar cualquier tipo de información.