Archivo de la etiqueta: Bots

Casi la mitad de las cuentas de Twitter que discuten la ‘Reapertura de América’ o curas milagrosas en la crisis del COVID-19 pueden ser bots

 

png-3

 

Virginia Alvino Young. Nearly Half Of The Twitter Accounts Discussing ‘Reopening America’ May Be Bots. Wednesday, May 20, 2020

Ver noticia

 

Investigadores de la Universidad Carnegie Mellon han descubierto que gran parte de la discusión sobre la pandemia y las órdenes de quedarse en casa está siendo impulsada por campañas de desinformación que usan bots. Los investigadores de CMU dicen que las sofisticadas y orquestadas campañas de bot tienen como objetivo sembrar la división en favor de intereses políticos y/o económicos.

 

Para analizar la actividad de los bots en torno a la pandemia, los investigadores de CMU  han recopilado desde enero más de 200 millones de tweets sobre coronavirus o COVID-19. Descubrieron que de los 50 principales retuiteadores influyentes, el 82% son bots. De los principales 1.000 retweeters, el 62% son bots.

Se han identificado más de 100 tipos de historias COVID-19 inexactas, como aquellas sobre posibles curas. Pero los bots también dominan las conversaciones sobre el fin de las órdenes de quedarse en casa y la “reapertura de Estados Unidos”.

“Estamos viendo hasta dos veces más actividad de bot que habíamos predicho en desastres naturales, crisis y elecciones anteriores”, dijo Kathleen Carley, profesora del Instituto de Investigación de Software de la Facultad de Informática y directora del Centro. para el análisis computacional de los sistemas sociales y organizativos (CASOS) y el Centro para la democracia informada y la seguridad cibernética social (IDeaS).

Carley dijo que múltiples factores contribuyen al aumento. Primero, más personas tienen tiempo libre para crear bots. Pero también ha aumentado la cantidad de grupos que contratan empresas para ejecutar cuentas de bot. La naturaleza de la pandemia también es importante. “Debido a que es global, está siendo utilizada por varios países y grupos de interés como una oportunidad para cumplir con las agendas políticas”.

El equipo de investigación de Carley utiliza múltiples métodos para determinar quién es o no un bot. La inteligencia artificial procesa la información de la cuenta y analiza cosas como la cantidad de seguidores, la frecuencia de los tuits y la red de menciones de una cuenta.

“Tuitear con más frecuencia de lo que es humanamente posible o parecer estar en un país y luego en otras pocas horas después es indicativo de un bot”, dijo Carley.

Muchos factores de las discusiones en línea sobre “reapertura de Estados Unidos” sugieren que la actividad de bot está orquestada. Un indicador es la gran cantidad de bots, muchos de los cuales son cuentas que se crearon recientemente. Las cuentas que posiblemente sean humanos con asistentes de bot generan el 66% de los tweets. Las cuentas que definitivamente son bots generan el 34% de los tweets.

“Cuando vemos un montón de tweets al mismo tiempo o seguidos, es como si estuvieran cronometrados”, dijo Carley. “También buscamos el uso del mismo hashtag exacto, o mensajes que parecen ser copiados y pegados de un bot al siguiente”.

 

BotSight: Una nueva herramienta para detectar bots en Twitter en tiempo real

 

tinder-bots-featured-1

BotSight browser extension

La información falsa esté relacionada con la política, la economía, la epidemia de COVID-19, o incluso campañas de desprestigio, el objetivo de estos bots es lograr que suficientes personas crean en las falsedades para que ellos mismos comiencen a difundirlas. Esto no significa que todos los bots se creen para difundir información falsa, ya que muchos bots se utilizan para publicar contenido legítimo de manera automatizada.

Si es bien cierto que los medios sociales se han convertido en un semillero de campañas de desinformación difundidas mediante el uso de bots que responden automáticamente a los tweets con información falsa que se ajusta a una narrativa particular. La nueva extensión del navegador llamada BotSight tiene como objetivo revelar qué cuentas de Twitter son bots o humanos reales para poder juzgar la veracidad de sus tweets.

¿Cómo funciona?

Lanzada por el Grupo de Investigación NortonLifeLock (anteriormente conocido como Symantec Research Labs), la extensión del navegador BotSight mostrará un pequeño icono y una puntuación porcentual junto a cada cuenta para indicar si está clasificada como una persona real o un bot. Esta clasificación se muestra mediante un icono humano en verde o un icono de robot en rojo, junto a una puntuación que indica la probabilidad de que la cuenta sea humana. Por ejemplo, la cuenta que se muestra en la imagen de arriba ha sido clasificada por Twitter con un 93% de probabilidades de ser un bot. (imagen arriba a la derecha)

bot

Para obtener estos datos, el algoritmo de aprendizaje de la máquina considera 20 características diferentes, incluyendo cuántos mensajes han gustado en la cuenta, su tasa de adquisición de seguidores y la entropía de su nombre.

Manipulación de redes sociales: “Los investigadores utilizan el aprendizaje automático para descubrir ‘pods’ subterráneos de Instagram”

 

instagram_pods_drive_reciprocity_abuse

 

Rachel Greenstad ; Damon McCoy. The Pod People: Understanding Manipulation of Social Media Popularidad via Reciprocity Abuse. Proceedings of The World Wide Web Conference. 2020

Texto completo

 

Me gustas, acciones, seguidores y comentarios son la moneda de las redes sociales en línea. Las publicaciones con altos niveles de interacción son priorizadas por los algoritmos de curación de contenido, lo que permite a los “influencers” de las redes sociales monetizar el tamaño y la lealtad de su audiencia.

Sin embargo, no todo compromiso es orgánico, según un equipo de investigadores de la Escuela de Ingeniería Tandon de la Universidad de Nueva York y la Universidad de Drexel, que han publicado el primer análisis de un robusto ecosistema subterráneo de ‘pods’. Estos grupos de usuarios manipulan algoritmos de curación y aumentan artificialmente la popularidad del contenido, ya sea para aumentar el alcance del contenido promocionado o amplificar la retórica, a través de una táctica conocida como “abuso de reciprocidad”, por la cual cada miembro interactúa recíprocamente con el contenido publicado por otros miembros del grupo.

Los investigadores también desarrollaron una herramienta de aprendizaje automático para detectar publicaciones con una alta probabilidad de tener alta popularidad, herramienta qu podría implementarse como parte de los algoritmos de curación de contenido.

Uno de los hallazgos más sorprendentes fue cuán efectivo es el abuso de reciprocidad no solo para aumentar la visibilidad de una publicación, sino también para aumentar el compromiso real y orgánico.

En la primera caracterización de características distintivas, patrones de uso y reglas de operación de una parte del ecosistema de pods, el proyecto involucró el análisis de 1.8 millones de publicaciones de Instagram pertenecientes a 111.455 cuentas únicas de Instagram, anunciadas en más de 400 pods de Instagram.

Los investigadores encontraron que:

  • El setenta por ciento de los usuarios experimentó un aumento de dos veces o más en el nivel de interacción en las publicaciones de control después de que comenzaron a publicar en pods, y de promedio, estos usuarios experimentantaro un aumento de cinco veces en los comentarios recibidos.
  • Cuando los usuarios que nunca habían publicado en pods comenzaron a publicar el 50% de sus publicaciones en pods, vieron un aumento de más de cinco veces en la interacción orgánica con las publicaciones que no publicaron en pods
  • Cada pod tenía, en promedio, alrededor de 900 usuarios, aunque algunos tenían hasta 17.000 usuarios
  • La barrera de entrada es baja: solo el 4% de los pods descubiertos requieren que los usuarios tengan un número mínimo de seguidores antes de unirse
  • Los pods muy activos recibieron más de 4.000 mensajes por día.

 

 

 

Papel de los bots en la Wikipedia

 

wikipediabots

 

Lei (Nico) Zheng, Christopher M. Albano, Neev M. Vora, Feng Mai, and Jeffrey V. Nickerson. 2019. The Roles Bots Play in Wikipedia. Proc. ACM Hum.-Comput. Interact. 3, CSCW, Article 215 (November 2019), 20 pages. https://doi.org/10.1145/3359317

Texto completo

 

Si bien todos podemos aprender de los 40 millones de artículos de Wikipedia, los constructores de bots de gestión específicamente pueden obtener una educación significativa al estudiar la creación, investigación y roles de los 1.601 bots que ayudan a mantener el sitio e interactuar con sus más de 137,000 editores humanos.

Cada bot realiza un trabajo único: algunos generan artículos basados ​​en plantillas; algunos arreglan errores tipográficos, errores ortográficos y errores en enlaces; algunos identifican spam, vándalos o infracciones de políticas; algunos interactúan con humanos saludando a los recién llegados, enviando notificaciones o proporcionando sugerencias.

Los bots juegan un papel cada vez más importante en la creación de conocimiento en Wikipedia. En muchos casos, los editores y los bots forman equipos muy unidos. Los humanos desarrollan bots, solicitan su aprobación y los mantienen, realizando tareas como monitorear la actividad, fusionar bots similares, dividir bots complejos y desactivar bots que no funcionan correctamente.

Los investigadores del Instituto de Tecnología Stevens clasificaron los bots de Wikipedia en nueve roles y 25 funciones asociadas con el objetivo de comprender qué hacen los bots ahora y qué podrían hacer en el futuro. Jeffrey Nickerson, profesor y decano asociado de investigación en la Escuela de Negocios de Stevens, y autor de “The Roles Bots Play en Wikipedia“, publicado en noviembre de 2019, comparó la clasificación con la forma en que los humanos hablan sobre ocupaciones y profesiones, las habilidades requeridas para hacerlos y las tareas que se deben realizar.

Otra característica de los bots de Wikipedia es cómo funcionan con los editores humanos. A menudo, los editores crean un bot para automatizar algunos de sus procesos de edición, dijo Nickerson. Una vez que lo construyen, lo sueltan y lo revisan periódicamente. Eso libera a los editores para hacer el trabajo que más les interesa, pero también se convierten en mantenedores de bots.

Investigadores del MIT desarrollan un sistema automatizado que puede reescribir frases obsoletas en los artículos de Wikipedia

 

wikipediabotsfeature

 

Darsh J Shah, Tal Schuster, Regina Barzilay. Automatic Fact-guided Sentence Modification. AAAI 2020

Texto completo

Mit News

 

Un sistema creado por los investigadores del MIT podría utilizarse para actualizar automáticamente las inconsistencias de los hechos en los artículos de la Wikipedia, reduciendo el tiempo y el esfuerzo de los editores humanos que ahora hacen la tarea manualmente.

 

En un documento que se presenta en la Conferencia de la AAAI sobre Inteligencia Artificial, los investigadores describen un sistema de generación de texto que señala y reemplaza información específica en frases relevantes de Wikipedia, manteniendo el lenguaje similar a la forma en que los humanos escriben y editan.

La idea es que los humanos escriban en una interfaz una oración no estructurada con información actualizada, sin necesidad de preocuparse por el estilo o la gramática. El sistema entonces buscaría en Wikipedia, localizaría la página apropiada y la oración obsoleta, y la reescribiría de manera similar a la de los humanos. En el futuro, dicen los investigadores, existe la posibilidad de construir un sistema totalmente automatizado que identifique y utilice la información más reciente de toda la web para producir frases reescritas en los artículos correspondientes de Wikipedia que reflejen la información actualizada.

“Hay tantas actualizaciones que se necesitan constantemente para los artículos de Wikipedia. Sería beneficioso modificar automáticamente porciones exactas de los artículos, con poca o ninguna intervención humana”, dice Darsh Shah, un estudiante de doctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y uno de los autores principales. “En lugar de cientos de personas trabajando en la modificación de cada artículo de la Wikipedia, entonces sólo se necesitará unos pocos, porque el modelo está ayudando o lo hace automáticamente. Eso ofrece mejoras importantes respecto a la eficiencia.”

Existen muchos otros bots que hacen ediciones automáticas de Wikipedia. Típicamente, esos trabajan en la mitigación del vandalismo o en coordinar alguna información estrechamente definida en plantillas predefinidas, dice Shah. El modelo de los investigadores, dice, resuelve un problema más difícil de inteligencia artificial: Dada una nueva pieza de información no estructurada, el modelo modifica automáticamente la frase de manera humana. “Las otras tareas [bot] se basan más en reglas, mientras que ésta es una tarea que requiere razonar sobre partes contradictorias en dos frases y generar un texto coherente”, dice.

El sistema también puede ser usado para otras aplicaciones de generación de texto, dice el co-autor principal y estudiante graduado de CSAIL, Tal Schuster. En su trabajo, los investigadores también lo usaron para sintetizar automáticamente las oraciones en un popular conjunto de datos de verificación de hechos que ayudaron a reducir el sesgo, sin tener que recolectar manualmente datos adicionales. “De esta manera, el rendimiento mejora para los modelos de verificación automática de hechos en el conjunto de datos para, por ejemplo, la detección de noticias falsas”, dice Schuster.

 

Papel de los bots en la Wikipedia

 

bots-wikipedia-670x335

 

Zheng Stevens, Christopher M. Albano. The Roles Bots Play en Wikipedia. ACM, 2019

Texto completo

Los bots juegan un papel cada vez más importante en la creación de contenidos en Wikipedia. En muchos casos, los editores y los bots forman equipos muy unidos. Los humanos desarrollan bots, solicitan su aprobación y los mantienen, realizando tareas como monitorear la actividad, fusionando bots similares, dividiendo bots complejos y desactivando bots que funcionan mal. Sin embargo, esta no es la imagen completa. Los bots están diseñados para realizar ciertas funciones y pueden adquirir una nueva funcionalidad con el tiempo. Desempeñan papeles particulares en el proceso de edición. Comprender estos roles es un paso importante para comprender el ecosistema y diseñar mejores bots e interfaces entre bots y humanos. Esto es importante para comprender Wikipedia junto con otros tipos de trabajo en los que las máquinas autónomas afectan las tareas realizadas por humanos.

Crece la preocupación de los estadounidenses ante las capacidades de los algorritos informáticos para tomar decisiones sobre la vida de las personas

algorithms-to-live-by-brain

Smith, Aaron. “Public Attitudes Toward Computer Algorithms“. Whasingthon: Pew Research Center, 2018

Texto completo

Los estadounidenses expresan una amplia preocupación por la imparcialidad y efectividad de los programas de computación al tomar decisiones importantes en la vida de las personas.

 

Los algoritmos están a nuestro alrededor, utilizando almacenes masivos de datos y análisis complejos para tomar decisiones que a menudo tienen un impacto significativo en los seres humanos. Nos recomiendan libros y películas para que los leamos y los veamos, publican noticias que creen que pueden ser relevantes, estiman la probabilidad de que un tumor sea canceroso y predicen si alguien puede ser un criminal o un riesgo de crédito vale la pena. Pero a pesar de la creciente presencia de algoritmos en muchos aspectos de la vida diaria, una encuesta del Pew Research Center a adultos de EE. UU. encuentra que la gente es escéptica con estas herramientas cuando se usan en varias situaciones de la vida real.

Este escepticismo abarca varias dimensiones. A un nivel más amplio, el 58% de los estadounidenses piensa que los programas siempre reflejarán algún nivel de sesgo humano – aunque el 40% piensa que estos programas pueden ser diseñados de una manera libre de sesgos. Y en varios contextos, a la gente le preocupa que estas herramientas puedan violar la privacidad, no captar los matices de situaciones complejas, o simplemente poner a las personas que están evaluando en una situación injusta. Las percepciones del público sobre la toma de decisiones algorítmicas también suelen ser muy contextuales. La encuesta muestra que, de lo contrario, tecnologías similares pueden ser vistas con apoyo o sospecha, dependiendo de las circunstancias o de las tareas que se les asignen.

Para medir las opiniones de los estadounidenses de a pie sobre este tema relativamente complejo y técnico, la encuesta presentó a los encuestados cuatro escenarios diferentes en los que las computadoras toman decisiones mediante la recolección y el análisis de grandes cantidades de datos públicos y privados. Cada uno de estos escenarios se basó en ejemplos del mundo real de la toma de decisiones algorítmicas e incluyó: un puntaje para ofrecer a los consumidores tratos o descuentos; una evaluación de riesgo criminal de las personas en libertad condicional; un programa automatizado de selección de currículum vitae para los solicitantes de empleo; y un análisis computarizado de las entrevistas de trabajo. La encuesta también incluyó preguntas sobre el contenido al que los usuarios están expuestos en las plataformas de medios sociales como una forma de medir las opiniones de los algoritmos más orientados al consumidor.

El 81% de los estadounidenses consideran que una buena parte de las noticias que reciben en medios sociales provienen de robots

robot-periodistas-770x470

Stocking, Galen ; Sumida,Nami. “Social Media Bots Draw Public’s Attention and Concern” Washington: Pew Research Center, 2018

Texto completo

Desde las elecciones presidenciales de 2016 en Estados Unidos, muchos estadounidenses han expresado su preocupación por la presencia de información errónea en línea, particularmente en los medios sociales. Las recientes audiencias e investigaciones del Congreso por parte de sitios de medios sociales e investigadores académicos han sugerido que un factor en la propagación de la desinformación son los bots de medios sociales – cuentas que operan por su cuenta, sin participación humana, para publicar e interactuar con otros en sitios de medios sociales.

El tema de los robots que emitan noticias como si fueran seres humanos ha llamado la atención de gran parte del público: Cerca de dos tercios de los estadounidenses (66%) han oído hablar de los robots de las redes sociales, aunque muchos menos (16%) han oído hablar mucho de este tema. Entre los que conocen el fenómeno, una gran mayoría está preocupado por el uso malicioso de las cuentas de bot, según una nueva encuesta del Pew Research Center realizada del 30 de julio al 12 de agosto de 2018, entre 4.581 adultos estadounidenses que son miembros del American Trends Panel representativo a nivel nacional del Pew Research Center (el Centro ha estudiado previamente los bots en Twitter y los sitios de noticias a los que se enlazan). Ocho de cada diez de los que han oído hablar de los robots dicen que estas cuentas se utilizan sobre todo para malos propósitos, mientras que sólo el 17% dice que se utilizan sobre todo para buenos propósitos.

Para entender mejor algunos de los matices de los puntos de vista del público sobre los bots en los medios sociales, este estudio explora las actitudes de aquellos estadounidenses que han oído hablar de ellos (alrededor de un tercio – 34% – no han oído nada sobre ellos).

Mientras que muchos estadounidenses son conscientes de la existencia de los robots de las redes sociales que emiten noticias con unos intereses determinados, menos confían en que puedan identificarlos. Alrededor de la mitad de los que han oído hablar de los bots (47%) están muy o algo seguros de que pueden reconocer estas noticias falsas en los medios sociales, y sólo el 7% dice que está muy seguro de sí mismo. En contraste, el 84% de los estadounidenses expresó confianza en su capacidad para reconocer las noticias inventadas en un estudio anterior.

Cuando se trata específicamente del entorno de las noticias, muchos encuentran que la presencia de los robots de los medios sociales es omnipresente y preocupante. Alrededor de ocho de cada diez de los que han oído hablar de los bots (81%) piensan que al menos una buena parte de las noticias que la gente recibe de los medios sociales provienen de estos bots, incluyendo el 17% que piensa que una gran parte proviene de bots. Y cerca de dos tercios (66%) piensan que los robots de los medios sociales tienen un efecto mayormente negativo sobre cuán bien informados están los estadounidenses acerca de los eventos actuales, mientras que muchos menos (11%) creen que tienen un efecto mayormente positivo.

Mientras que la impresión general del público sobre los robots de los medios sociales es negativa, ellos tienen puntos de vista más matizados sobre los usos específicos de estas cuentas – con algunos usos que reciben un apoyo u oposición abrumador. Por ejemplo, el 78% de los que han oído hablar de los bots apoyan que el gobierno los utilice para publicar actualizaciones de emergencia, la función más popular de las nueve sobre las que se preguntó en la encuesta. En contraste, estos estadounidenses se oponen abrumadoramente al uso de bots para publicar noticias inventadas o información falsa (92%). También se oponen en gran medida a que los bots se utilicen con fines políticos y están más divididos a la hora de considerar cómo las empresas y las organizaciones de noticias utilizan a menudo los bots.

 

¿Cómo se difundió la desinformación durante las elecciones presidenciales de 2016? Estudio de las campañas de desinformación e influencia de las ‘Noticias falsas’ en Twitter

 

unknown-4

 

Matthew Hindman ; Vlad Barash. Disinformation, and Influence Campaigns on Twitter. Knigth Foundation, 2017

Texto completo

 

El informe revela un concentrado ecosistema de “noticias falsas”, que vincula a más de 6,6 millones de tweets con los editores de noticias falsas y de noticias de conspiración en el mes anterior a las elecciones de 2016. El problema persistió después de las elecciones con 4 millones de tweets de noticias falsas destinados a conspirar desde mediados de marzo hasta mediados de abril de 2017. Una gran mayoría de estas cuentas siguen activas en la actualidad.

 

¿Cómo se difundió la desinformación durante las elecciones presidenciales de 2016? ¿ha cambiado la situación desde entonces? Un nuevo estudio de más de 10 millones de tweets de 700.000 cuentas de Twitter que se vincularon a más de 600 medios que difunden informaciones falsas.

El estudio, uno de los más grandes hasta la fecha sobre este tema, cuenta con el apoyo de la Fundación Knight, producido por Matthew Hindman de la Universidad George Washington en colaboración con Vlad Barash de la firma de análisis de redes Graphika. Knight encargó el estudio para mejorar la comprensión de cómo la desinformación se propaga en línea.

“Las “noticias falsas” y la desinformación siguen llegando a millones: Más del 80 por ciento de las cuentas que repetidamente difundieron información falsa durante la campaña electoral de 2016 siguen activas, y continúan publicando más de un millón de tweets en un día normal. El 65% de los enlaces de noticias falsos y de conspiración proceden de sólo 10 sitios.

La mayoría de las cuentas que difunden noticias falsas incluidas en el informe muestran evidencia de publicación automatizada: El treinta y tres por ciento de las 100 cuentas más seguidas en el mapa postelectoral del informe – y más del 60 por ciento de una muestra aleatoria de todas las cuentas – muestran evidencia de actividad automatizada.

Las noticias falsas siguen recibiendo muchos menos enlaces que las fuentes de los medios de comunicación tradicionales: Los sitios de noticias falsas recibieron alrededor del 13 por ciento de los enlaces de Twitter; mientras que los medios de comunicación tradicionales recibieron el 37 por ciento de los enlaces recibidos por un conjunto de periódicos regionales. Pero, las cuentas que difunden noticias falsas o de conspiración revelan un núcleo ultra-denso de cuentas que se suceden. Una cantidad sustancial de información errónea fue difundida tanto por cuentas identificadas con los republicanos como con los demócratas: Mientras que la mayoría de las “noticias falsas” procedían de cuentas pro-republicanas y pro-Trump. Después del período electoral, las noticias falsas de tendencia izquierdista disminuyeron mucho más que las noticias falsas de tendencia derechista.

La difusión coordinada de información errónea por parte de los trolls de la Agencia Rusa de Investigación en Internet (IRA) es evidente. De las más de 2,700 cuentas IRA nombradas públicamente cuando se realizó la investigación, el 65 están incluidas en al menos uno de los mapas del informe. Estas cuentas incluyen varias que fueron ampliamente citadas en los medios de comunicación estadounidenses, como @WarfareWWW, @TEN_GOP y @Jenn_Abrams. Sin embargo, el contenido con mensajes similares fue tuiteado por muchas otras cuentas con muchos más seguidores que los trolls del IRA, así como por cuentas todavía activas que probablemente están automatizadas.

 

Reporteros sin Fronteras publica un informe sobre el acoso de periodistas en Internet

 

nota22a-1

Online harassment of journalists: the trolls attack. [Report] Reporters Without Borders (RSF). 2018

Texto completo

En el informe Reporteros sin Fronteras (RSF) expresa su preocupación por la magnitud de una nueva amenaza a la libertad de prensa y el acoso masivo de periodistas en línea. Los perpetradores de estas amenazas pueden ser desde individuos o comunidades de individuos escondidos detrás de sus pantallas a “ejércitos de trolls” de mercenarios en línea creados por regímenes autoritarios. En ambos casos, el objetivo es el mismo: silenciar a los periodistas cuyos reportajes molestan, utilizando a menudo métodos excepcionalmente abusivos.

Durante meses, RSF documentó estos nuevos ataques en línea y analizó el modus operandi de los depredadores de la libertad de prensa, que han sido capaces de explotar las últimas tecnologías para ampliar su alcance opresivo. Sin embargo, es difícil establecer un vínculo directo entre los gobiernos y las conspiraciones en línea contra los periodistas. RSF ha investigado y documentado casos de acoso en línea de periodistas en 32 países, arrojando luz sobre campañas de odio orquestadas por regímenes autoritarios u opresivos en países como China, India, Turquía, Vietnam, Irán y Argelia. Los metodos utilizados son:

  • Desinformación : el contenido periodístico en las redes sociales se ahoga en una avalancha de noticias falsas y contenido progubernamental;
  • Amplificación: el impacto de los contenidos progubernamentales se ve artificialmente incrementado por los comentaristas a los que el gobierno paga para que publiquen mensajes en las redes sociales o por los bots, programas informáticos que generan mensajes automáticamente;
  • Intimidación: los periodistas son atacados, insultados y amenazados personalmente, con el fin de desacreditarlos y reducirlos al silencio.

 

Estas agresivas campañas de acoso cibernético también son llevadas a cabo por comunidades de individuos o grupos políticos en países supuestamente democráticos como México, e incluso en países que ocupan los primeros puestos del Índice Mundial de Libertad de Prensa, como Suecia y Finlandia. Las mujeres periodistas son las más afectadas por el acoso cibernético. Dos tercios de las mujeres periodistas han sido víctimas de acoso y, en el 25% de los casos, el acoso se produjo en línea.

Las consecuencias son a menudo dramáticas: muchas de las víctimas de acoso cibernético con las que habló RSF dijeron que terminaron censurándose a sí mismas en respuesta a los torrentes de abusos en línea, cuya magnitud nunca habían imaginado posible.

En respuesta a estos hallazgos, RSF ha formulado 25 recomendaciones para los gobiernos, la comunidad internacional, las plataformas en línea, los medios de comunicación y los anunciantes con el objetivo de hacer frente a estas nuevas amenazas digitales. El informe de RSF también incluye un tutorial titulado “Periodistas – cómo tratar con los ejércitos troll” que recuerda a los periodistas las prácticas de seguridad digital que deben adoptar.