Archivo de la etiqueta: Noticias falsas

Los que tienen creencias ideológicas de derecha tienen más probabilidades de compartir noticias inexactas

reporters-to-lose-accreditation-for-spreading-fake-news

 

Tal vez no sea sorprendente que las personas con mayor interés en la política compartan noticias sobre política en los medios sociales, pero también hay algunas divisiones partidarias e ideológicas interesantes. La encuesta reveló algunas diferencias partidistas e ideológicas en la distribución de las noticias falsas o inventadas en los medios de comunicación social. Los partidarios conservadores y aquellos con ideología creencias de derechas son más propensos a compartir noticias falsas o inexactas y a ser reprendidos por otros por hacerlo.  Los partidarios de izquierda, y los que tienen creencias ideológicas de izquierda, son más dados a encontrar noticias inexactas y corregir a otros usuarios de los medios sociales por compartir noticias inexactas noticias. 

 

Los partidarios laboristas, del UKIP y los demócratas liberales son más propensos a compartir las noticias en los medios sociales que los partidarios conservadores. Aquellos que se describen a sí mismos como de la izquierda o la derecha ideológica comparten las noticias más que los del centro, y en general, aquellos que situados a la izquierda y centro-izquierda son más propensos a compartir noticias que aquellos situados a la derecha y centro-derecha.

Según un estudio de la Universidad de Loughborough a más de 2000 personas en el Reino Unido, existen algunas diferencias ideológicas cuando se comparten noticias inexactas o inventadas en los medios sociales. Los partidarios conservadores y los que tienen creencias ideológicas de derecha tienen más probabilidades de compartir noticias inexactas; también tienen más probabilidades de ser reprendidos por otros por hacerlo. Los partidarios del Partido Laborista y los que tienen creencias ideológicas de izquierda tienen más probabilidades de ver noticias inexactas y de corregir a otros usuarios de los medios sociales por compartirlas.

 

Casi la mitad de las personas comparten noticias falsas sospechando o sabiendo que lo son

 

artificial-intelligence-media-header

Chadwick, A.; Vaccari, C., 2019. News sharing on UK social media: misinformation, disinformation, and correction. Loughborough: Online Civic Culture Centre, Loughborough University.

Texto completo

En los sistemas de medios de comunicación de hoy en día, un gran número de ciudadanos comunes y corrientes comparten información política con gran regularidad. Como consecuencia, la información falsa y engañosa, ya sea que se origine en las élites o no, puede llegar a ser amplia y rápidamente distribuida. Ahora bien, esto hace más probable que la gente se encuentre con información falsa y engañosa a diario. Así que si realmente queremos llegar a la raíz del problema de las llamadas “noticias falsas” necesitamos entender mejor por qué tanta gente comparte fácilmente información falsa y engañosa en línea. Explorar por qué, y con qué efectos, la gente comparte noticias sobre política en los medios sociales es, por lo tanto, una parte esencial del debate más amplio sobre la relación entre Internet y la democracia.

El funcionamiento saludable de las democracias liberales depende de los ciudadanos cuya función es conocer el mundo social y político, intercambiar información y opiniones con sus conciudadanos, llegar a juicios ponderados sobre los asuntos públicos y poner en práctica esos juicios como comportamiento político. El problema es que actualmente sabemos muy poco sobre las motivaciones que impulsan a la gente a compartir noticias políticas en los medios sociales y cómo éstas podrían estar contribuyendo a los cambios en nuestra cultura cívica en línea. Si podemos aprender más sobre las cosas que la gente trata de lograr cuando comparte noticias en línea -y la medida en que estas motivaciones podrían reforzar o socavar la distribución de información falsa o engañosa- las democracias liberales pueden empezar a pensar en cómo pueden reducir importantes daños en línea. Este informe es el primero que aborda estas cuestiones en Gran Bretaña sobre la base de una encuesta de los hábitos de intercambio de noticias en los medios sociales de una muestra representativa del público británico.

En el estudio trató de contestar a estas cuestiones ¿Qué extendido está compartir noticias políticas falsas y engañosas entre los usuarios de los medios sociales?, ¿Hasta qué punto existe una cultura persistente y perjudicial de “todo vale” entre los que comparten noticias políticas en los medios sociales? ¿Hasta qué punto la corrección de noticias falsas y engañosas a través de la “sabiduría de las multitudes” funciona realmente en los medios sociales? A la encuesta respondieron 2.005 entre el 5 y el 16 de julio de 2018.

Como conclusión, los datos indican que en el Reino Unido, el 43% de los usuarios informaron que compartían contenidos problemáticos, y más de la mitad de ellos habían compartido al menos una historia en línea que consideraban totalmente inventada o exagerada. En el informe también se determinó que el 17% admitió haber compartido noticias que sabían que eran inventadas, lo que sugiere que la gente no comprende las repercusiones de la difusión de falsedades en línea.

Se ha demostrado que la información errónea consumida en línea tiene consecuencias peligrosas en el mundo real, como ocurrió en el incidente de Comet Pizza 2016 en el que un hombre armado abrió fuego en un restaurante de Washington DC después de creer en una teoría de conspiración difundida a través de los medios sociales de que en sus instalaciones se estaba abusando de niños.

Otros hallazgos clave:

  • Más de la mitad de los usuarios británicos de los medios sociales (57,7 por ciento) se encontraron con noticias en el último mes en los medios sociales que pensaban que no eran del todo exactas.
  • El 42,8 por ciento de los que comparten noticias admiten que comparten noticias inexactas o falsas; el 17,3 por ciento admiten que comparten noticias que pensaban que eran inventadas cuando las compartían. Estos usuarios son más propensos a ser hombres, jóvenes y muy interesados en la política.
  • Una parte sustancial de la difusión de información en los medios sociales de noticias inexactas o inventadas no se cuestiona. Sólo el 8,5 por ciento de los usuarios de medios sociales dijeron que reprendieron a otro usuario de medios sociales por compartir noticias inventadas.
  • Quienes comparten noticias en los medios sociales se sienten motivados principalmente a informar a los demás y a expresar sus sentimientos, pero las motivaciones más cívicas y ambivalentes también desempeñan un papel importante. Por ejemplo, casi una quinta parte de los que comparten noticias (18,7%) consideran que incomodar a los demás es una motivación importante cuando comparten noticias.
  • Hay algunas diferencias partidarias en compartir noticias inexactas o inventadas en los medios sociales del Reino Unido. Los partidarios conservadores y los que tienen creencias ideológicas de derecha tienen más probabilidades de compartir noticias inexactas; también tienen más probabilidades de ser reprendidos por otros por hacerlo. Los partidarios del Partido Laborista y los que tienen creencias ideológicas de izquierda tienen más probabilidades de ver noticias inexactas y de corregir a otros usuarios de los medios sociales por compartirlas.
  • Alrededor de un tercio (31 por ciento) de los usuarios de medios sociales comparten noticias en los medios sociales al menos una vez al mes. El perfil demográfico y conductual de estos usuarios se asemeja al de los miembros más activos políticamente del público en general, ya que es más probable que sean hombres, que tengan un mayor nivel educativo y que estén más interesados en la política.

 

El bajo nivel de alfabetización digital es uno de los principales factores que hacen que las personas mayores sean víctimas del fraude en línea

 

 

ipad4dad1

 

Tackling misinformation in an open society. How to respond to misinformation and disinformation when the cure risks being worse than the disease. London: Full Fact, 2020

Texto completo

 

Las personas mayores son las más propensas a ser victimas de la desinformación o a creer en una información falsa que se presenta como evidencia real, en la que a menudo es difícil discernir los hechos de la opinión. El bajo nivel de alfabetización en línea es uno de los principales factores que hacen que las personas mayores sean víctimas del fraude en línea. El informe afirma que hay tres factores que determinan la capacidad de cada uno de caer en la trampa de la información falsa: 1) La repetición, 2). La presentación de la información, 3) y Los propios sesgos ideológicos de cada uno.

 

 

Las conclusiones, publicadas por el informe de Full Fact, destacaron que las personas mayores también tienen dificultades para recordar la fuente de la desinformación, a pesar de recordar su contenido.

Los medios sociales desempeñan un papel importante en la forma en que se difunde la información falsa, ya que el informe de Full Fact indica que las personas tienen la mitad de probabilidades de recordar la fuente del contenido que han visto en las plataformas de los medios sociales en comparación con si lo han visto en un sitio de noticias.

El informe afirma que hay tres factores que determinan la capacidad de cada uno de caer en la trampa de la información falsa:

  • La repetición,
  • La presentación de la información
  • Los propios sesgos ideológicos de cada uno.

El primero es la repetición – si una declaración incorrecta se repite una y otra vez, se vuelve más creíble.

El informe demostró que las personas mayores de 50 años tienen menos probabilidades de escoger todas las afirmaciones factuales de una lista con opiniones, y que los mayores de 65 años tienen menos probabilidades de cambiar sus creencias, incluso después de ver cómo se desacredita algo que no es cierto.

El segundo es la forma en que aparece la información, con mucha gente sesgada inconscientemente hacia los mensajes en línea o los correos electrónicos que “parecen” correctos. Esto significa que el contenido que es más fácil de procesar naturalmente cuando tiende a ser visto como más agradable y más confiable. El informe encontró que el tamaño de las fuentes, la complejidad de las palabras, el contraste y la gramática influyen en la probabilidad de que alguien crea una declaración falsa hecha en línea. También, las imágenes tienden a creerse más fácilmente como reales porque crean una ilusión de evidencia objetiva de un evento, y se procesan fácilmente.

Y en tercer lugar el informe también destaca que el sesgo que ya tiene la gente antes de consumir la información contribuye a creer que esa noticia es real. Los puntos de vista de las personas influirán en la forma en que se acepte la nueva información, incluso cuando la persona sepa lo contrario. Las creencias políticas o sociales pueden impedir que la gente acepte la información, a pesar de su nivel de educación o de conocimientos sobre los medios de comunicación.

El bajo nivel de alfabetización en línea es uno de los principales factores que hacen que las personas mayores sean víctimas del fraude en línea, con casi 49.000 personas mayores de 60 años como objetivo en 2017. Full Fact dijo que una solución a este problema es que el gobierno invierta en llegar a este grupo de edad y educarlos sobre la información falsa y cómo detectarla.

Otra forma de contrarrestar la propagación de la desinformación es que las empresas empleen verificadores de hechos para contrarrestar la información en línea, detectar la propagación de la información errónea en una fase temprana es la forma más eficaz de combatirla. También  atraer al público a los debates sobre la información errónea también ayudaría, y a concienciar a la gente de su papel en la difusión o la ayuda para combatir la difusión de información falsa en línea.

Los usuarios de mayor edad pueden ser particularmente vulnerables a los problemas de la absorción de información falsa, pero hay factores que afectan universalmente a todos los grupos de edad y a la capacidad de las personas para distinguir los hechos de la ficción.

Luchando contra la desinformación en línea: construyendo la base de datos de herramientas web

 

2020-02-18_10-10-40-768x1160-1

 

Fighting Disinformation Online: Building the Database of Web Tools”. New Report from RAND, 2020

Texto completo

Base de datos

El ecosistema de información de hoy en día da acceso a cantidades aparentemente infinitas de información de forma instantánea. También contribuye a la rápida difusión de la desinformación a millones de personas. En respuesta a este desafío y como parte de la iniciativa “Truth Decay” de la RAND Corporation, los investigadores de RAND trabajaron para identificar y caracterizar el universo de herramientas en línea dirigidas a la desinformación en línea, centrándose en aquellas herramientas creadas por organizaciones sin ánimo de lucro o de la sociedad civil.

Hallazgos clave

  • Cada instrumento enumerado en la base de datos tiene por objeto mejorar el ecosistema de información en línea de alguna manera.
  • Las herramientas se identificaron mediante búsquedas en la web, artículos en los que se examinan las herramientas y los avances en este campo, y debates con expertos (por ejemplo, los que participan en el desarrollo o la financiación de herramientas).
  • Cada entrada es un instrumento que o bien es interactivo o bien produce algún producto que los consumidores pueden utilizar o aplicar a su propia navegación por la web o consumo de información.
  • Esta base de datos se centra en los instrumentos elaborados por organizaciones sin fines de lucro y de la sociedad civil.
  • Cada entrada debe centrarse explícitamente en la desinformación en línea.
  • Se enfoca en herramientas basadas en los Estados Unidos que se dirigen al mercado de los Estados Unidos.

Se identificaron siete tipos de instrumentos; cada instrumento de la base de datos se clasifica en al menos una categoría y hasta dos categorías

  • Las herramientas de detección de bots y de spam tienen como objetivo identificar las cuentas automatizadas en las plataformas de medios sociales.
  • Los códigos y normas se derivan de la creación de un conjunto de principios o procesos para la producción, el intercambio o el consumo de información que los miembros deben comprometerse y a los que deben adherirse a cambio de algún signo externo de pertenencia que pueda ser reconocido por otros.
  • Los instrumentos de puntuación de la credibilidad asignan una calificación o puntuación a las distintas fuentes en función de su exactitud, calidad o fiabilidad.
  • Los instrumentos de rastreo de la desinformación estudian el flujo y la prevalencia de la desinformación, ya sea rastreando piezas específicas de desinformación y su propagación a lo largo del tiempo o midiendo o informando el nivel de noticias falsas o engañosas en una plataforma particular.
  • Los instrumentos de educación y capacitación son todos los cursos, juegos y actividades destinados a combatir la desinformación enseñando a las personas nuevas aptitudes o conceptos.
  • Los instrumentos de verificación tienen por objeto determinar la exactitud de la información y los instrumentos que funcionan para autenticar fotos, imágenes y otra información.
  • Las listas blancas crean listas de direcciones web o sitios web de confianza para distinguir entre los usuarios o sitios de confianza y los que pueden ser falsos o maliciosos.

 

 

 

Investigadores del MIT desarrollan un sistema automatizado que puede reescribir frases obsoletas en los artículos de Wikipedia

 

wikipediabotsfeature

 

Darsh J Shah, Tal Schuster, Regina Barzilay. Automatic Fact-guided Sentence Modification. AAAI 2020

Texto completo

Mit News

 

Un sistema creado por los investigadores del MIT podría utilizarse para actualizar automáticamente las inconsistencias de los hechos en los artículos de la Wikipedia, reduciendo el tiempo y el esfuerzo de los editores humanos que ahora hacen la tarea manualmente.

 

En un documento que se presenta en la Conferencia de la AAAI sobre Inteligencia Artificial, los investigadores describen un sistema de generación de texto que señala y reemplaza información específica en frases relevantes de Wikipedia, manteniendo el lenguaje similar a la forma en que los humanos escriben y editan.

La idea es que los humanos escriban en una interfaz una oración no estructurada con información actualizada, sin necesidad de preocuparse por el estilo o la gramática. El sistema entonces buscaría en Wikipedia, localizaría la página apropiada y la oración obsoleta, y la reescribiría de manera similar a la de los humanos. En el futuro, dicen los investigadores, existe la posibilidad de construir un sistema totalmente automatizado que identifique y utilice la información más reciente de toda la web para producir frases reescritas en los artículos correspondientes de Wikipedia que reflejen la información actualizada.

“Hay tantas actualizaciones que se necesitan constantemente para los artículos de Wikipedia. Sería beneficioso modificar automáticamente porciones exactas de los artículos, con poca o ninguna intervención humana”, dice Darsh Shah, un estudiante de doctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y uno de los autores principales. “En lugar de cientos de personas trabajando en la modificación de cada artículo de la Wikipedia, entonces sólo se necesitará unos pocos, porque el modelo está ayudando o lo hace automáticamente. Eso ofrece mejoras importantes respecto a la eficiencia.”

Existen muchos otros bots que hacen ediciones automáticas de Wikipedia. Típicamente, esos trabajan en la mitigación del vandalismo o en coordinar alguna información estrechamente definida en plantillas predefinidas, dice Shah. El modelo de los investigadores, dice, resuelve un problema más difícil de inteligencia artificial: Dada una nueva pieza de información no estructurada, el modelo modifica automáticamente la frase de manera humana. “Las otras tareas [bot] se basan más en reglas, mientras que ésta es una tarea que requiere razonar sobre partes contradictorias en dos frases y generar un texto coherente”, dice.

El sistema también puede ser usado para otras aplicaciones de generación de texto, dice el co-autor principal y estudiante graduado de CSAIL, Tal Schuster. En su trabajo, los investigadores también lo usaron para sintetizar automáticamente las oraciones en un popular conjunto de datos de verificación de hechos que ayudaron a reducir el sesgo, sin tener que recolectar manualmente datos adicionales. “De esta manera, el rendimiento mejora para los modelos de verificación automática de hechos en el conjunto de datos para, por ejemplo, la detección de noticias falsas”, dice Schuster.

 

El jengibre no puede curar el cáncer: luchando contra las noticias de salud falsas

opened-drug-capsule-medicine-business-royalty-free-illustration-1578066354

 

Enyan Dai, Yiwei Sun, Suhang Wang. “Ginger Cannot Cure Cancer: Battling Fake Health News with a Comprehensive Data Repository”. ArXiv, 2020

Texto completo

 

Hoy en día, Internet es una fuente principal para obtener información de salud. Las noticias de salud falsas masivas que se están extendiendo por Internet se han convertido en una grave amenaza para la salud pública. Se han realizado numerosos estudios y trabajos de investigación en el dominio de detección de noticias falsas, sin embargo, pocos de ellos están diseñados para hacer frente a los desafíos en las noticias de salud. Para mitigar estos problemas, se construyó un repositorio completo, FakeHealth, que incluye contenido de noticias con funciones completas, reseñas de noticias con explicaciones detalladas, compromisos sociales y una red social usuario-usuario. Además, se realizan análisis exploratorios para comprender las características de los conjuntos de datos, analizar patrones útiles y validar la calidad de los conjuntos de datos para la detección de noticias falsas sobre la salud.

 

Google Parent prueba una herramienta gratuita para ayudar a los periodistas a detectar fotografías manipuladas

5210285b15d

Assembler

Assembler,  la herramienta de Google analiza imágenes utilizando detectores, tecnología capacitada para identificar tipos específicos de manipulación, y evalúa si las imágenes pueden haber sido alteradas y dónde.

 

La desinformación hoy implica campañas de influencia sofisticadas y dirigidas, a menudo lanzadas por los gobiernos, con el objetivo de influir en eventos sociales, económicos y militares en todo el mundo. Pero a medida que las tácticas de desinformación evolucionaban, también lo hacen las tecnologías utilizadas para detectar y finalmente detener la desinformación.

La empresa matriz de Google, Alphabet, lanzó el martes una herramienta gratuita para que los periodistas identifiquen fotos que han sido manipuladas.

Jigsaw, una subsidiaria de Alphabet enfocada en tecnología de punta, anunció la nueva herramienta, llamada Assembler, en una publicación de blog.

Assembler, que se creó en coordinación con Google Research y expertos, combina múltiples detectores de imágenes para identificar si se han utilizado métodos comunes de manipulación de imágenes en una foto.

La herramienta se probará con varios medios, incluidos Agence France-Presse y el sitio de noticias filipino Rappler, antes de estar ampliamente disponible para los periodistas.