Archivo de la etiqueta: Noticias falsas

Qué es y que significa «alucinación» cuando utilizamos ChatGPT

En el contexto de la IA generativa, «alucinar» se refiere a la capacidad del modelo para generar información que puede parecer precisa y coherente, pero que en realidad no se basa en hechos reales o conocimiento verificable. Cuando un modelo de lenguaje como ChatGPT «alucina», está generando contenido que puede parecer posible, pero que no está respaldado por evidencia o información verificada.

ChatGPT es un generador de texto. No «sabe» nada y no garantiza que lo que dice sea correcto. De hecho, muchas de las cosas que proporciona son erróneas. Es importante tener en cuenta que ChatGPT, como modelo de lenguaje, aunque ha sido entrenado con una amplia variedad de datos y puede generar respuestas coherentes y contextualmente relevantes, pero no tiene acceso directo a información verificable ni a conocimiento específico más allá de lo que ha sido previamente entrenado. Por lo tanto, la información proporcionada por ChatGPT debe ser evaluada críticamente y verificada con otras fuentes confiables. Es importante tener en cuenta que la precisión de las respuestas generadas por un modelo de lenguaje depende de la calidad y la veracidad de los datos con los que fue entrenado.

Los desarrolladores de IA adoptaron el término «alucinaciones» de la psicología humana de manera intencional. Las alucinaciones en los seres humanos son percepciones de cosas que no existen realmente en el entorno circundante. De manera similar, en el contexto de la IA, se produce una alucinación cuando el modelo generativo de IA produce resultados que difieren de lo que se consideraría normal o esperado. Se dice que alucina cuando el modelo genera información que puede parecer plausible pero que no está respaldada por hechos verificables. Esto puede deberse a la forma en que el modelo asocia conceptos y genera respuestas a partir de los datos con los que fue entrenado. Por ejemplo, cuando se le presiona sobre la búsqueda de determinada bibliografía, la herramienta puede proporcionarnos libros o artículos que nunca fueron escritos, pero que podrían haber sido escritos por un autor determinado. Esta desviación puede llevar a la generación de información incorrecta, incoherente o fantasiosa.

Los expertos insisten en que estas herramientas son tan buenas como sus datos subyacentes, que sabemos que a veces pueden ser datos erróneos, sesgados y incluso diseñados para engañar. Por consiguiente, aunque el resultado generado por un modelo sea gramaticalmente correcto y suene sensato, puede contener información falsa, o información «inventada» por el modelo. De ahí viene el concepto de “Alucinación”. Las alucinaciones se producen porque, aunque los modelos se entrenan con enormes cantidades de datos textuales, no son capaces de entender el mundo de forma humana ni de verificar la veracidad de la información como harían las personas.

Si bien se han implementado medidas para mejorar la precisión y la coherencia de las respuestas generadas por ChatGPT, todavía es posible que ocasionalmente produzca información incorrecta o inexacta. Como un proceso en desarrollo continuo, OpenAI sigue trabajando en mejorar sus modelos y mitigar estos problemas.

Pero es muy importante que los usuarios sean críticos y verifiquen la información proporcionada buscando información adicional de fuentes confiables y contrastar los datos para obtener una imagen precisa. Ya que no se puede determinar la veracidad de un hecho generado por la IA basándose únicamente en el aspecto del texto o en la apariencia de veracidad que pueda tener. Los modelos de lenguaje como ChatGPT están diseñados para generar respuestas coherentes y contextualmente relevantes, lo que puede hacer que la información parezca verosímil y correcta. Sin embargo, la generación de texto se basa en patrones y datos previos en lugar de tener acceso directo a información verificable o conocimiento actualizado.

Desinformación, información errónea y noticias falsas en las redes sociales: desafíos y oportunidades de investigación emergentes

Shu, Kai, Suhang Wang, Dongwon Lee, y Huan Liu, eds. Disinformation, Misinformation, and Fake News in Social Media: Emerging Research Challenges and Opportunities. Lecture Notes in Social Networks. Cham: Springer International Publishing, 2020. https://doi.org/10.1007/978-3-030-42699-6.

PDF

ePub

Este libro sirve como un punto de entrada conveniente para que investigadores, profesionales y estudiantes comprendan los problemas y desafíos, aprendan soluciones de vanguardia para sus necesidades específicas e identifiquen rápidamente nuevos problemas de investigación en sus dominios. Los colaboradores de este volumen describen los avances recientes en tres partes relacionadas: (1) participación de los usuarios en el desorden de la difusión de la información; (2) técnicas para detectar y mitigar la desinformación; y (3) temas de actualidad como ética, blockchain, clickbaits, etc. Este volumen editado atraerá a estudiantes, investigadores y profesionales que trabajan con desinformación, información errónea y noticias falsas en las redes sociales desde una perspectiva única.

Las herramientas de IA están generando una desinformación convincente.

Foto generada con IA por Del Walker

Given, L. M. (2023, marzo 23). AI tools are generating convincing misinformation. Engaging with them means being on high alert. The Conversation.

Ver completo

Las herramientas de IA pueden ayudarnos a crear contenidos, aprender sobre el mundo y (quizá) eliminar las tareas más cotidianas y tediosas de la vida, pero no son perfectas. Se ha demostrado que pueden alterar la información, utilizan el trabajo de otras personas sin su consentimiento e incorporar convencionalismos sociales, como las disculpas, para ganarse la confianza de los usuarios.

Por ejemplo, algunos chatbots de IA, como los bots «acompañantes», se desarrollan a menudo con la intención de tener respuestas empáticas. Esto los hace especialmente creíbles. A pesar de nuestro asombro y admiración, debemos ser consumidores críticos de estas herramientas, o corremos el riesgo de ser engañados.

Sam Altman, consejero delegado de OpenAI (la empresa que creo el chatbot ChatGPT), ha declarado que le «preocupa que estos modelos puedan utilizarse para la desinformación a gran escala».

La desinformación crecerá con la IA de bolsillo

Las herramientas de aprendizaje automático utilizan algoritmos para realizar determinadas tareas. Van «aprendiendo» a medida que acceden a más datos y en consecuencia perfeccionan sus respuestas. Por ejemplo, Netflix utiliza IA para rastrear los programas que te gustan y sugerirte otros para ver en el futuro. Cuantos más programas de cocina veas, más programas de cocina te recomendará Netflix.

Aunque muchos estamos explorando y divirtiéndonos con las nuevas herramientas de IA, los expertos insisten en que estas herramientas son tan buenas como sus datos subyacentes, que sabemos que a veces pueden ser datos erróneos, sesgados y incluso diseñados para engañar. Mientras que antes los errores ortográficos nos alertaban de las estafas por correo electrónico, las mejoras del sistema hacen más difícil distinguir la realidad de la ficción.

Estas preocupaciones se ven acentuadas por la creciente integración de la IA en aplicaciones como Microsoft, Google y Adobe que han anunciado la introducción de herramientas de IA en varios de sus servicios, como Google Docs, Gmail, Word, PowerPoint, Excel, Photoshop e Illustrator.

Crear fotos y vídeos falsos ya no requiere conocimientos ni equipos especializados.

Por lo tanto, las herramientas avanzadas de IA permiten democratizar el acceso al conocimiento y su creación, pero tienen un precio. No siempre podemos consultar a expertos, así que tenemos que hacer juicios informados nosotros mismos. Aquí es donde el pensamiento crítico y las habilidades de verificación son vitales.

Estos consejos pueden ayudarle a navegar por un panorama informativo rico en IA.

  1. Haz preguntas y verifica con fuentes independientes
  2. Sé escéptico con los contenidos que encuentres
  3. Habla abiertamente de la IA en tus círculos

¿Está ChatGPT más cerca de un bibliotecario humano que de Google?


Shah, Chirag. «Is ChatGPT Closer to a Human Librarian Than It Is to Google?» Gizmodo, 19 de marzo de 2023. https://gizmodo.com/chatgpt-ai-openai-like-a-librarian-search-google-1850238908.

Más sobre

ChatGPT y Chatbot

Un investigador de motores de búsqueda explica la promesa y el peligro de dejar que ChatGPT y sus replicas busquen en Internet por ti.

El modelo predominante de acceso y recuperación de información antes de que los motores de búsqueda se convirtieran en la norma -bibliotecarios y expertos en la materia o en la búsqueda proporcionando información relevante- era interactivo, personalizado, transparente y autorizado. Hoy en día, los motores de búsqueda son la principal forma de acceder a la información, pero introducir unas cuantas palabras clave y obtener una lista de resultados ordenados por una función desconocida no es lo ideal.

Una nueva generación de sistemas de acceso a la información basados en inteligencia artificial, como Bing/ChatGPTGoogle/Bard y Meta/LLaMA está cambiando el modo tradicional de entrada y salida de los motores de búsqueda. Estos sistemas son capaces de a partir de frases completas e incluso párrafos y generar respuestas personalizadas en lenguaje natural.

A primera vista, esto podría parecer lo mejor de ambos mundos: respuestas personalizadas combinadas con la amplitud y profundidad del conocimiento en Internet. Pero como investigador que estudia los sistemas de búsqueda y recomendación, creo que el panorama es, en el mejor de los casos, contradictorio.

Los sistemas de IA como ChatGPT y Bard se basan en grandes modelos lingüísticos. Un modelo lingüístico es una técnica de aprendizaje automático que utiliza una gran cantidad de textos disponibles, como artículos de Wikipedia y PubMed, para aprender patrones. En términos sencillos, estos modelos calculan qué palabra es probable que venga a continuación, dado un conjunto de palabras o una frase. De este modo, son capaces de generar frases, párrafos e incluso páginas que corresponden a una consulta de un usuario. El 14 de marzo de 2023, OpenAI anunció la próxima generación de la tecnología, GPT-4, que funciona tanto con texto como con imágenes, y Microsoft anunció que su Bing conversacional se basa en GPT-4.

Gracias al entrenamiento sobre grandes volúmenes de texto, ajuste fino y otros métodos basados en el aprendizaje automático, este tipo de técnica de recuperación de información funciona con bastante eficacia. Los grandes sistemas basados en modelos lingüísticos generan respuestas personalizadas para satisfacer las consultas de información. Los resultados han sido tan impresionantes que ChatGPT alcanzó los 100 millones de usuarios en un tercio del tiempo que tardó TikTok en llegar a ese hito. La gente lo ha utilizado no sólo para encontrar respuestas, sino para generar diagnósticos, crear planes de dieta y hacer recomendaciones de inversión.

Sin embargo, existen muchos inconvenientes. En primer lugar, consideremos lo que constituye el núcleo de un gran modelo lingüístico: un mecanismo mediante el cual conecta las palabras y, presumiblemente, sus significados. Esto produce un resultado que a menudo parece una respuesta inteligente, pero se sabe que los grandes sistemas de modelos lingüísticos producen declaraciones casi como loros sin una comprensión real. Así que, aunque el resultado generado por estos sistemas pueda parecer inteligente, no es más que un reflejo de patrones subyacentes de palabras que la IA ha encontrado en un contexto apropiado.

Esta limitación hace que los grandes sistemas de modelos lingüísticos sean susceptibles de inventarse o «deducir» respuestas. Los sistemas tampoco son lo suficientemente inteligentes como para entender la premisa incorrecta de una pregunta y responder de todos modos a preguntas erróneas. Por ejemplo, cuando se le pregunta qué cara de presidente de EE.UU. aparece en el billete de 100 dólares, ChatGPT responde Benjamin Franklin sin darse cuenta de que Franklin nunca fue presidente y de que la premisa de que el billete de 100 dólares tiene la foto de un presidente de EE.UU. es incorrecta.

El problema es que, aunque estos sistemas se equivoquen sólo un 10% de las veces, no se sabe qué 10%. La gente tampoco puede validar rápidamente las respuestas de los sistemas. Esto se debe a que estos sistemas carecen de transparencia: no revelan con qué datos se han entrenado, qué fuentes han utilizado para dar respuestas o cómo se generan esas respuestas.

Por ejemplo, puedes pedirle a ChatGPT que escriba un informe técnico con citas. Pero a menudo se inventa estas citas, «elucubrando» tanto con los títulos de los artículos académicos como con los autores. Los sistemas tampoco validan la exactitud de sus respuestas. Esto deja la validación en manos del usuario, y los usuarios pueden no tener la motivación o las habilidades para hacerlo o incluso reconocer la necesidad de comprobar las respuestas de una IA. ChatGPT no sabe cuándo una pregunta no tiene sentido, porque no conoce ningún dato.

Aunque la falta de transparencia puede ser perjudicial para los usuarios, también es injusta para los autores, artistas y creadores de los contenidos originales de los que han aprendido los sistemas, ya que éstos no revelan sus fuentes ni proporcionan atribuciones suficientes. En la mayoría de los casos, los creadores no son compensados ni acreditados, ni se les da la oportunidad de dar su consentimiento.

Esto también tiene un aspecto económico. En un motor de búsqueda típico, los resultados se muestran con los enlaces a las fuentes. Esto no sólo permite al usuario verificar las respuestas y proporciona las atribuciones a esas fuentes, sino que también genera tráfico para esos sitios. Muchas de estas fuentes dependen de este tráfico para generar ingresos. Dado que los grandes sistemas de modelos lingüísticos producen respuestas directas pero no las fuentes de las que proceden, es probable que esos sitios vean disminuir sus flujos de ingresos.

Por último, esta nueva forma de acceder a la información también puede restar poder a las personas y les quita la oportunidad de aprender. Un proceso de búsqueda típico permite a los usuarios explorar el abanico de posibilidades para sus necesidades de información, lo que a menudo les lleva a ajustar lo que buscan. También les da la oportunidad de aprender qué hay ahí fuera y cómo se conectan las distintas piezas de información para realizar sus tareas. Y permite encuentros accidentales o serendipia.

Estos son aspectos muy importantes de la búsqueda, pero cuando un sistema produce los resultados sin mostrar sus fuentes ni guiar al usuario a través de un proceso, le priva de estas posibilidades.

Los grandes modelos lingüísticos suponen un gran avance en el acceso a la información, ya que ofrecen a las personas una forma de interactuar basada en el lenguaje natural, producir respuestas personalizadas y descubrir respuestas y patrones que a menudo resultan difíciles de encontrar para un usuario medio. Pero tienen graves limitaciones por la forma en que aprenden y construyen las respuestas. Sus respuestas pueden ser erróneas, tóxicas o sesgadas.

Aunque otros sistemas de acceso a la información también pueden adolecer de estos problemas, los sistemas de IA con grandes modelos lingüísticos también carecen de transparencia. Y lo que es peor, sus respuestas en lenguaje natural pueden contribuir a alimentar una falsa sensación de confianza y autoridad que puede resultar peligrosa para los usuarios desinformados.

La mayoría de las personas buscan noticias fiables, pero a menudo son vulnerables a la desinformación

Trust misplaced ? A report on the future of trust in media. Ipsos, 2020

Ver completo

La investigación de Ipsos para el Trust Project revela que la disposición a pagar por las noticias es limitada y que se confía más en la propia perspicacia sobre la fiabilidad de las fuentes que en la de los demás. En la mayoría de los países, la gente «se asegura de que las noticias que lee, ve o escucha proceden de fuentes fiables». Sin embargo, esto plantea algunos problemas. Por naturaleza, las personas confían en contenidos que consideran verdaderos, pero en muchos casos lo hacen porque refuerzan su visión del mundo.

El informe se basa en dos encuestas de Ipsos Global Advisor realizadas en 29 países. La mitad de los encuestados (49%) afirma que, por lo general, se asegura de que las noticias que lee, ve o escucha proceden de fuentes fiables, y un tercio (33%) afirma que lo hace ocasionalmente. Dos tercios (64%) afirman tener fácil acceso a noticias en las que pueden confiar.

Sin embargo, tras estos signos alentadores se esconde un posible terreno fértil para la continua propagación de la desinformación. A nivel mundial, el 67% de los adultos afirma que sólo lee noticias a las que puede acceder gratuitamente, mientras que sólo el 29% dice que puede y el 27% está dispuesto a pagar por noticias de fuentes en las que confía. Muchos confían en su capacidad para detectar «noticias falsas» (58 %), aunque confían menos en la capacidad de sus conciudadanos para hacerlo (30 %). Sólo la mitad de los encuestados (46%) cree que otros países se dirigen a la población de su país con desinformación, incluso en Estados Unidos (58%) y Gran Bretaña (54%), donde está ampliamente documentado.

Otras conclusiones clave

  • El porcentaje de adultos que buscan fuentes de noticias fiables al menos de vez en cuando oscila entre el 94% en Perú y el 92% en Colombia, Chile y Sudáfrica, y el 65% en Japón y el 66% en Corea del Sur. En Estados Unidos es del 88% (59% generalmente, 29% ocasionalmente).
  • En todos los países encuestados, la mayoría está de acuerdo en que tiene fácil acceso a noticias en las que confía y menos de uno de cada cinco está en desacuerdo, con la única excepción de Japón (25% de acuerdo frente a 23% en desacuerdo, mientras que el 53% ni está de acuerdo ni en desacuerdo).
  • Globalmente, la mayoría de los adultos encuestados obtienen con frecuencia noticias de diversas fuentes: Casi tres cuartas partes afirman obtener sus noticias al menos tres veces por semana de la televisión (74%) y las redes sociales (72%), seis de cada diez de sitios web de noticias (62%) y aplicaciones de noticias (61%), cuatro de cada diez de la radio (42%), y uno de cada cuatro de periódicos y revistas impresas (24%).
  • El uso de cada una de estas fuentes de noticias es algo menor en EE.UU., lo que sugiere que la dieta de medios de comunicación de los estadounidenses es menos variada que la de otras personas de todo el mundo, por término medio. Sin embargo, el orden de importancia de cada fuente de noticias es el mismo: televisión (64%), redes sociales (51%), sitios web de noticias (50%), aplicaciones de noticias (40%), radio (32%) y publicaciones impresas (19%).
  • La capacidad declarada de pagar por noticias procedentes de fuentes fiables varía mucho de un país a otro, desde el 57% en la India, el 48% en China y el 43% en los Países Bajos hasta sólo el 13% en Japón, el 15% en Rusia y el 18% en España y Francia. La disposición a hacerlo muestra un patrón muy similar.
  • La confianza en la propia capacidad para distinguir «noticias reales de noticias falsas» es mayor en América Latina, Oriente Medio y los países de habla inglesa, y menor en Japón, Corea del Sur, Europa continental y Rusia. En Estados Unidos, el 61% confía en su capacidad para discernir la fiabilidad de las noticias.
  • A nivel mundial, el porcentaje de quienes confían en su propia capacidad para contar noticias reales es 28 puntos superior al de quienes expresan confianza en que los hombres y mujeres de su país puedan hacerlo. La diferencia supera los 40 puntos en Gran Bretaña, Hungría y Estados Unidos; en cambio, es inferior a 10 puntos en Arabia Saudí, China y Japón.
  • Quienes están de acuerdo con ideas populistas o nativistas son más propensos a estar expuestos a la desinformación

¿Son capaces los estudiantes de hoy de discernir la información de calidad de la falsa en Internet? Casi el 96% no supo identificar la vinculación de un sitio web con un partido tendencioso

Breakstone, Joel, Mark Smith, Sam Wineburg, Amie Rapaport, Jill Carle, Marshall Garland, y Anna Saavedra. «Students’ Civic Online Reasoning: A National Portrait». Educational Researcher 50, n.o 8 (1 de noviembre de 2021): 505-15. https://doi.org/10.3102/0013189X211017495.

¿Son capaces los estudiantes de hoy de discernir la información de calidad de la falsa en Internet? En la mayor investigación de este tipo, administramos una evaluación a 3.446 estudiantes de secundaria. Equipados con una conexión a Internet en directo, los estudiantes respondieron a seis tareas de respuesta construida. Los alumnos tuvieron dificultades en todas ellas.

Cuando se les pidió que investigaran un sitio web que afirmaba «difundir informes objetivos» sobre la ciencia del clima, el 96% nunca se enteró de los vínculos de la organización con la industria de los combustibles fósiles. Dos tercios fueron incapaces de distinguir las noticias de los anuncios en la página de inicio de un popular sitio web. Más de la mitad creía que un vídeo publicado anónimamente en Facebook, grabado en Rusia, proporcionaba «pruebas sólidas» de fraude electoral en Estados Unidos. En lugar de investigar la organización o el grupo que estaba detrás de un sitio web, los estudiantes se dejaban engañar a menudo por débiles signos de credibilidad: el «aspecto» de un sitio web, su dominio de nivel superior, el contenido de su página

Acerca de y la gran cantidad de información que proporcionaba. La muestra del estudio reflejaba el perfil demográfico de los estudiantes de secundaria en Estados Unidos, y un modelo de regresión multinivel exploró si las puntuaciones variaban en función de las características de los estudiantes. Los resultados revelaron diferencias en las capacidades de los alumnos en función del curso, las calificaciones autodeclaradas, la localidad, el estatus socioeconómico, la raza, la educación materna y el estatus de almuerzo gratuito o de precio reducido. En conjunto, estos resultados revelan la urgente necesidad de preparar a los estudiantes para prosperar en un mundo en el que la información fluye incesantemente a través de sus pantallas.

Finlandia es el país europeo menos susceptible a las «noticias falsas». Índice de alfabetización mediática 2022

Lessenski,Marin. How It Started, How It is Going: Media Literacy Index 2022. Open Society, 2023

Texto completo

El informe, realizado por el Open Society Institute de Sofía (Bulgaria), analizó una serie de parámetros para determinar la alfabetización mediática general de los países europeos y de seis países seleccionados de fuera de Europa. El Instituto, fundado en 1990 gracias a una subvención de George Soros, utilizó datos de organizaciones como el Banco Mundial, las Naciones Unidas y Freedom House para calcular puntuaciones en cuatro métricas diferentes: libertad de prensa, educación, confianza y participación política, con la educación ponderada como la más importante.

Destacados

  • El índice evalúa la vulnerabilidad potencial de 41 sociedades europeas frente a las denominadas «fake news» y fenómenos afines empleando indicadores de libertad de los medios, educación y la educación y la confianza interpersonal.
  • Este es el primer índice que incluye a la mayoría de los países de Europa -41 en total-,
    frente a los 35 países incluidos en las ediciones anteriores del índice.
  • Los países del norte y oeste de Europa tienen un mayor potencial de resistencia a las noticias falsas con mejor educación, medios de comunicación libres y mayor confianza entre las personas.
  • Los países del sudeste y el este de Europa son, en general, más vulnerables a los efectos negativos de las noticias falsas y la posverdad, con medios de comunicación controlados, deficiencias en la educación y menor confianza en la sociedad.
  • La libertad de los medios de comunicación es un prerrequisito clave para abordar los problemas de las «fake news», incluso en el contexto de la salvaguarda de la democracia.
  • La educación sigue siendo un componente esencial para abordar los problemas de las «fake news» con formación en alfabetización mediática dirigida tanto a jóvenes como a adultos.
  • Mientras que la educación y la sensibilización siguen siendo soluciones a largo plazo, las medidas reguladoras son a corto plazo para abordar también la erosión de la democracia y los retos geopolíticos.

Entre los países con mejores resultados figuran Finlandia, Noruega, Dinamarca, Estonia, Irlanda, Suecia, Canadá, Suiza, Países Bajos y Australia. Alemania e Islandia fueron los países mejor clasificados en el segundo cuartil del índice, mientras que Italia e Israel cayeron al tercer cuartil de países «en transición» en cuanto a alfabetización mediática. Estos dos últimos países han celebrado recientemente elecciones en las que la extrema derecha llegó al poder.

Los países con peores resultados fueron Georgia, seguida de Macedonia del Norte, Kosovo, Bosnia y Herzegovina, Albania, Turquía, Montenegro, Moldavia, Bulgaria y Serbia.

Estos son los 10 países con mayor alfabetización mediática, según el Open Society Institute:

  1. Finlandia
  2. Noruega
  3. Dinamarca
  4. Estonia
  5. Irlanda
  6. Suecia
  7. Canadá
  8. Suiza
  9. Países Bajos
  10. Australia

Estos son los 10 últimos países en alfabetización mediática, según el instituto:

  1. Serbia
  2. Bulgaria
  3. Moldavia
  4. Montenegro
  5. Turquía
  6. Albania
  7. Bosnia y Herzegovina
  8. Kosovo
  9. Macedonia del Norte
  10. Georgia

El informe concluye que las personas que viven en países con gobiernos democráticos liberales son «más propensas a preocuparse por la desinformación que las que viven en países sin instituciones democráticas o con instituciones democráticas limitadas», y que la preocupación por las noticias falsas es mayor entre las personas con mayor nivel educativo.

«Es preocupante que las sociedades más vulnerables al impacto de las noticias falsas sean al mismo tiempo las menos preocupadas por la difusión y el impacto de la desinformación», declaró Marin Lessenski, autor del informe, en un comunicado de prensa. «Esto aumenta los riesgos relacionados con la desinformación en estos países, especialmente en el contexto de la guerra en Ucrania, ya que parte del público no se da cuenta o simplemente ignora su vulnerabilidad».

Según el informe, los «peligros de las noticias falsas y fenómenos afines para la democracia son difíciles de subestimar». Los países donde la alfabetización mediática es más baja son los que tienen mayores restricciones a la libertad de prensa y bajos niveles de educación y confianza personal.

En la era digital, la democracia depende de la alfabetización informacional

Badanes,Ginny «In the Digital Age, Democracy Depends on Information Literacy», Microsoft On the Issues 25 de enero de 2023. https://blogs.microsoft.com/on-the-issues/2023/01/25/information-literacy-national-news-literacy-week/.

La forma en que la gente consume noticias ha cambiado drásticamente en los últimos 20 años, en gran parte debido a la introducción de noticias y medios digitales, el crecimiento del sector tecnológico y los cambios en el modelo de negocio de las noticias locales. Esta evolución ha traído consigo muchas ventajas: la democratización y diversificación de las fuentes de noticias, un acceso más rápido a las noticias de última hora, así como conexiones y perspectivas de comunidades a las que antes no habríamos podido acceder.

Esta evolución digital también trae consigo nuevos retos para los consumidores de medios de comunicación, ya que el entorno informativo es vasto, complejo y a menudo engañoso. Cuando los supuestos sitios de noticias locales no son lo que parecen y las máquinas de propaganda difunden falsas narrativas por todo el mundo, es fácil entender por qué a los consumidores de noticias les cuesta identificar las fuentes de información y descifrar si una fuente es digna de confianza. Este es el contexto en el que las falsedades se difunden mucho más rápido que la verdad, y en el que la confianza en los medios de comunicación sigue disminuyendo.

En un estudio estadounidense de 2021, en el que se presentaron a unos 3.500 estudiantes seis tareas relacionadas con la alfabetización informacional, la inmensa mayoría tuvo problemas en todas ellas. Casi el 96% no supo identificar la conexión de un sitio web con un partido tendencioso y dos tercios fueron incapaces de distinguir las noticias de los anuncios en la página de inicio de un sitio web popular. Estas dificultades no son exclusivas de los jóvenes. En un estudio mundial realizado en 2020 por Ipsos y The Trust Project, sólo la mitad de los 20.000 adultos encuestados afirmaron que intentan asegurarse de que las noticias que consumen proceden de fuentes fiables.

No son problemas fáciles de resolver para la sociedad. Sin embargo, sabemos que las democracias prosperan cuando hay un entorno vibrante llena de ideas y debate, sobre todo cuando la comunidad se apoya en una oferta saludable de periodismo e información fidedigna. Las democracias también prosperan cuando la gente está informada, comprometida y es resistente.

Para ayudar a las personas a comprender mejor la información que consumen y a confiar en ella, investigaciones recientes han apuntado a la utilización de métodos de inoculación de información que pueden ampliarse y difundirse. Las campañas de alfabetización mediática no están diseñadas para decir a nadie lo que debe creer o cómo debe pensar, sino para equipar a la gente para que piense de forma crítica y tome decisiones informadas sobre la información que consume.

Los peligros de Deepfake: videos falsos manipulados por inteligencia artificial

«El destino ha querido que los hombres que fueron a la Luna para explorarla se queden en ella para descansar en paz. Estos hombres valientes, Neil Armstrong y Edwin Aldrin, saben que no hay esperanza de que sean rescatados…».

Nyman, Daniel, Chris Meserole, y V. S. Subrahmanian. «Essay | The Deepfake Dangers Ahead». Wall Street Journal, 23 de febrero de 2023, sec. Life. https://www.wsj.com/articles/the-deepfake-dangers-ahead-b08e4ecf.

¿Quieres poner cualquier afirmación en boca de un político, protagonizar tu película favorita o bailar como un profesional? Eso se puede hacer con los deepfake. Los deepfakes son videos falsos que utilizan una forma de inteligencia artificial llamada aprendizaje profundo para crear acontecimientos falsos. Por ejemplo un video falso en el que Nixon afirma que los estadounidenses nunca llegaron a la luna

Los «deepfakes» son videos falsos en los que una persona que aparece en una imagen o un vídeo es sustituida por otra a imagen y semejanza de otra persona, permitiendo manipular el mensaje de voz cambiándolo por otro falso en el que afirme cosas que nunca dijo.

En el ámbito nacional, los deepfakes corren el riesgo de hacer que la gente vea toda la información como sospechosa. Los soldados podrían no confiar en las órdenes reales, y el público podría pensar que los escándalos y atropellos auténticos no son reales. Un clima de sospecha generalizada permitirá a los políticos y a sus partidarios descartar cualquier información negativa sobre ellos como falsa o exagerada….

Las opciones para las democracias son complicadas y tendrán que combinar enfoques técnicos, normativos y sociales. Intel ya ha empezado a trabajar en el aspecto técnico. El pasado noviembre, los investigadores de la empresa propusieron un sistema llamado FakeCatcher que afirmaba tener una precisión del 96% en la identificación de deepfakes. La cifra es impresionante, pero dado el enorme volumen de material no confiable que puede producirse, incluso un detector con un 99% de precisión pasaría por alto un volumen inaceptable de desinformación. Además, los gobiernos contarán con los servicios de programadores altamente cualificados, lo que significa que sus deepfakes serán probablemente de los menos detectables. Incluso los detectores más ingeniosos tendrán sus límites, porque es casi seguro que los avances en la detección se utilizarán para mejorar la próxima generación de algoritmos de deepfake…..

El gobierno de Estados Unidos y otras democracias no pueden decir a sus ciudadanos lo que es o no es verdad, pero sí pueden insistir en que las empresas que producen y distribuyen medios falsos a gran escala hagan sus algoritmos más transparentes. El público debe saber cuáles son las políticas de una plataforma y cómo se aplican esas normas. Incluso se puede exigir a las plataformas que difunden deepfakes que permitan a investigadores independientes estudiar los efectos de estos medios y controlar si los algoritmos de las plataformas se comportan de acuerdo con sus políticas.

Los deepfakes van a cambiar la forma de hacer negocios de muchas instituciones en las democracias. Los militares necesitarán sistemas muy seguros para verificar las órdenes y asegurarse de que los sistemas automatizados no puedan ser activados por posibles deepfakes. Los líderes políticos que respondan a las crisis tendrán que prever retrasos para poder asegurarse de que la información que tienen ante sí no es falsa o incluso parcialmente manipulada por un adversario. Los periodistas y editores tendrán que desconfiar de las noticias impactantes, redoblando la norma de verificar los hechos con múltiples fuentes. En caso de duda, un medio podría marcar algunas noticias con brillantes advertencias del tipo «esta información no ha sido verificada».

Las bibliotecas están preparadas para desempeñar un papel fundamental en la prevención de la difusión de información sanitaria

Library News & Events. «Libraries Primed to Play Integral Role in Preventing the Spread of Health Misinformation», 21 de febrero de 2023. https://library.ucsd.edu/news-events/circuit-libraries-campaign-launch/.

Seis bibliotecas locales trabajan en colaboración para crear un conjunto de herramientas que aborden las crisis de salud pública provocadas durante la pandemia -y en general- por la desinformación sanitaria.

Se ha puesto en marcha un nuevo esfuerzo para contrarrestar la propagación de la desinformación sanitaria. San Diego Circuit libraries (Circuit), es un consorcio de seis destacadas bibliotecas universitarias y públicas, ha anunciado la disponibilidad de un sitio web de campaña diseñado para ayudar a los miembros de la comunidad a identificar y protegerse de la desinformación sanitaria.

Circuit está formado por dos bibliotecas públicas (San Diego County Library y San Diego Public Library) y cuatro bibliotecas universitarias (California State University San Marcos University Library, San Diego State University Library, UC San Diego Library y University of San Diego libraries, incluidas la Helen K. and James S. Copley Library y el Katherine M. and George M. Pardee Jr. Legal Research Center).

Como parte del esfuerzo, se ha desarrollado un conjunto de herramientas de comunicación digital para ayudar a los trabajadores de las bibliotecas de la región de San Diego y de otros lugares a compartir las habilidades necesarias para combatir la desinformación sobre la salud lanzando sus propias campañas de educación pública en línea.

«Dado que la desinformación sanitaria puede propagarse rápidamente por Internet, esta campaña se centra en la divulgación en línea», explica Erik Mitchell, bibliotecario universitario de Audrey Geisel y director del proyecto en la Universidad de California en San Diego. «Trabajar por una alfabetización positiva en información sobre salud en nuestras comunidades apoya directamente nuestros objetivos estratégicos y, al crear y compartir este conjunto de herramientas, esperamos involucrar y apoyar a las bibliotecas que también están trabajando para promover información confiable sobre salud en línea.»

Los principales objetivos del proyecto son tres:

1) concienciar sobre la desinformación sanitaria,

2) compartir técnicas para evaluar las afirmaciones sobre salud y encontrar fuentes fiables, y

3) ofrecer orientación sobre cómo responder a la desinformación de forma ética y responsable.

Un componente esencial de este esfuerzo es la promoción de los recursos de la National Library of Medicine, como MedlinePlus, PubMed y ClinicalTrials.gov, para ayudar a los miembros de la comunidad a encontrar fuentes científicas y de salud seguras para el consumidor.

«Las bibliotecas se comprometen con las comunidades en torno al uso de fuentes de información creíbles. Esto las coloca en una posición especialmente adecuada para dar un paso al frente y abogar por compartir de forma proactiva información sanitaria fiable», afirmó Migell Acosta, director de la Biblioteca del Condado de San Diego. «El conjunto de herramientas también será útil para las organizaciones que trabajan en la alfabetización sanitaria o las comunicaciones sobre salud».

El kit de herramientas, creado por el equipo de información sanitaria de Circuit, incluye hojas informativas multilingües en 10 idiomas, ejemplos de mensajes para publicaciones en redes sociales, gráficos y vídeos destinados a ser compartidos en los canales de medios propiedad de las bibliotecas locales y nacionales. Además de los recursos incluidos en el kit de herramientas, Circuit ofrece las mejores prácticas para lanzar una campaña de educación pública en línea en su sitio web.

«Nuestra esperanza es que la creación de este contenido elimine una barrera para que las bibliotecas se comprometan con sus comunidades locales en torno a la alfabetización informativa en salud», dijo Jeffery Loo, director del proyecto y bibliotecario clínico de la Biblioteca de la UC San Diego. «Otro aspecto importante y útil del conjunto de herramientas es que se puede personalizar. Hemos utilizado una plataforma de diseño que permite a cada biblioteca adaptar los gráficos y las hojas informativas a las necesidades de su comunidad e incluir su marca, si así lo desean.»