Archivo de la etiqueta: Bots

La sobrecarga de información ayuda a difundir noticias falsas, y las redes sociales lo saben

Information Overload Helps Fake News Spread, and Social Media Knows It: Understanding how algorithm manipulators exploit our cognitive vulnerabilities empowers us to fight back
By: Filippo Menczer, Thomas Hills
Scientific American December 1, 2020|

Ver noticia

Una de las primeras consecuencias de la llamada economía de la atención es la pérdida de información de alta calidad. El equipo de OSoMe demostró este resultado con un conjunto de simulaciones simples.

Crear, producir y difundir «memes» a través de blogs, videos, tweets y otras unidades de información es barato y fácil de producir, hasta un punto tal, que el mercado de la información está inundado de estos productos. Ante la imposibilidad de procesar todo esta información dejamos que nuestros sesgos cognitivos decidan a qué debemos prestar atención. Estos atajos mentales influyen en la información que buscamos, comprendemos, recordamos y repetimos de manera perjudicial.

La necesidad de comprender estas vulnerabilidades cognitivas y cómo los algoritmos las usan o manipulan se ha vuelto una urgencia. En la Universidad de Warwick en Inglaterra y en el Observatorio de Redes Sociales de Bloomington de la Universidad de Indiana los equipos están utilizando experimentos cognitivos, simulaciones, minería de datos e inteligencia artificial para comprender las vulnerabilidades cognitivas de los usuarios de las redes sociales. Los conocimientos de los estudios psicológicos sobre la evolución de la información realizados en Warwick analizan los modelos informáticos desarrollados en Indiana y viceversa. También se están desarrollando ayudas analíticas y de aprendizaje automático para combatir la manipulación de las redes sociales. Algunas de estas herramientas ya están siendo utilizadas por periodistas, organizaciones de la sociedad civil e individuos para detectar agentes que implican noticias falsas.

Para empeorar las cosas, los motores de búsqueda y las plataformas de redes sociales brindan recomendaciones personalizadas basadas en la gran cantidad de datos que tienen sobre las preferencias pasadas de los usuarios. Ellos dan prioridad a la información en nuestros feeds con la que es más probable que estemos de acuerdo, sin importar cuán marginal sea, y nos protegen de la información que podría hacernos cambiar de opinión. Esto nos convierte en objetivos fáciles de la polarización.

Las redes sociales siguen una dinámica similar. Confundimos popularidad con calidad y terminamos copiando el comportamiento que observamos. Cuando estamos expuestos repetidamente a una idea, generalmente de muchas fuentes, es más probable adoptarla y compartirla. Este sesgo social se amplifica aún más por lo que los psicólogos llaman el efecto de «mera exposición»: cuando las personas se exponen repetidamente a los mismos estímulos, como ciertas caras, les gustan más esos estímulos que los que han encontrado con menos frecuencia.

Tales sesgos se traducen en un impulso irresistible de prestar atención a la información que se está volviendo viral. De hecho, los programadores que diseñan los algoritmos para clasificar los memes en las redes sociales asumen que la “sabiduría de las multitudes” identificará rápidamente los elementos de alta calidad; utilizan la popularidad como un sustituto de la calidad. 

La mayoría de nosotros no creemos seguir a la manada. Pero nuestro sesgo de confirmación nos lleva a seguir a otros que son como nosotros, una dinámica que a veces se conoce como homofilia, una tendencia de las personas de ideas afines a conectarse entre sí. Las redes sociales amplifican la homofilia al permitir a los usuarios alterar sus estructuras de redes sociales mediante el seguimiento, la eliminación de amigos, etc. El resultado es que las personas se segregan en comunidades grandes, densas y cada vez más mal informadas, comúnmente descritas como cámaras de eco.

De hecho, las cámaras de eco político en Twitter son tan extremas que las inclinaciones políticas de los usuarios individuales se pueden predecir con gran precisión : tienes las mismas opiniones que la mayoría de tus conexiones. 

La calidad de la información se ve aún más afectada por los robots sociales, que pueden explotar todas nuestras lagunas cognitivas. Los bots son fáciles de crear. Las plataformas de redes sociales proporcionan las llamadas interfaces de programación de aplicaciones que hacen que sea bastante trivial para un solo actor configurar y controlar miles de bots. Pero amplificar un mensaje, incluso con solo unos pocos votos a favor de los bots en plataformas de redes sociales como Reddit, puede tener un gran impacto en la popularidad posterior de una publicación.

Comprender nuestros sesgos cognitivos y cómo los algoritmos y bots los explotan nos permite protegernos mejor contra la manipulación. 

Los bots de Twitter están difundiendo cantidades masivas de información errónea COVID-19.

 

mzy1odcwng

 

Twitter Bots Are Spreading Massive Amounts of COVID-19 Misinformation By Thor Benson IEEE Spectrum.Posted 29 Jul 2020 | 19:00 GMT

Texto completo

 

En febrero, la Organización Mundial de la Salud calificó el torrente de información errónea sobre el coronavirus que fluye a través de Internet como una «infodemia masiva«. Desde entonces, la situación no ha mejorado. Si bien las plataformas de redes sociales han prometido detectar y etiquetar publicaciones que contienen información engañosa relacionada con COVID-19, no han detenido su aumento.

¿Pero quién es responsable de todas esas publicaciones engañosas? Para ayudar a responder la pregunta, los investigadores del Observatorio de Redes Sociales de la Universidad de Indiana utilizaron una herramienta de su propia creación llamada BotometerLite que detecta bots en Twitter. Primero compilaron una lista de lo que llaman «dominios de baja credibilidad» que han estado difundiendo información errónea sobre COVID-19, luego usaron su herramienta para determinar cuántos bots compartían enlaces a esta información errónea.

Sus hallazgos, que presentaron en la reunión de este año de la Asociación para el Avance de la Inteligencia Artificial, revelaron que los bots difundieron abrumadoramente información errónea sobre COVID-19 en lugar de contenido preciso. También descubrieron que algunos de los bots actuaban «de manera coordinada» para amplificar mensajes engañosos.

 

Casi la mitad de las cuentas de Twitter que discuten la ‘Reapertura de América’ o curas milagrosas en la crisis del COVID-19 pueden ser bots

 

png-3

 

Virginia Alvino Young. Nearly Half Of The Twitter Accounts Discussing ‘Reopening America’ May Be Bots. Wednesday, May 20, 2020

Ver noticia

 

Investigadores de la Universidad Carnegie Mellon han descubierto que gran parte de la discusión sobre la pandemia y las órdenes de quedarse en casa está siendo impulsada por campañas de desinformación que usan bots. Los investigadores de CMU dicen que las sofisticadas y orquestadas campañas de bot tienen como objetivo sembrar la división en favor de intereses políticos y/o económicos.

 

Para analizar la actividad de los bots en torno a la pandemia, los investigadores de CMU  han recopilado desde enero más de 200 millones de tweets sobre coronavirus o COVID-19. Descubrieron que de los 50 principales retuiteadores influyentes, el 82% son bots. De los principales 1.000 retweeters, el 62% son bots.

Se han identificado más de 100 tipos de historias COVID-19 inexactas, como aquellas sobre posibles curas. Pero los bots también dominan las conversaciones sobre el fin de las órdenes de quedarse en casa y la «reapertura de Estados Unidos».

«Estamos viendo hasta dos veces más actividad de bot que habíamos predicho en desastres naturales, crisis y elecciones anteriores», dijo Kathleen Carley, profesora del Instituto de Investigación de Software de la Facultad de Informática y directora del Centro. para el análisis computacional de los sistemas sociales y organizativos (CASOS) y el Centro para la democracia informada y la seguridad cibernética social (IDeaS).

Carley dijo que múltiples factores contribuyen al aumento. Primero, más personas tienen tiempo libre para crear bots. Pero también ha aumentado la cantidad de grupos que contratan empresas para ejecutar cuentas de bot. La naturaleza de la pandemia también es importante. «Debido a que es global, está siendo utilizada por varios países y grupos de interés como una oportunidad para cumplir con las agendas políticas».

El equipo de investigación de Carley utiliza múltiples métodos para determinar quién es o no un bot. La inteligencia artificial procesa la información de la cuenta y analiza cosas como la cantidad de seguidores, la frecuencia de los tuits y la red de menciones de una cuenta.

«Tuitear con más frecuencia de lo que es humanamente posible o parecer estar en un país y luego en otras pocas horas después es indicativo de un bot», dijo Carley.

Muchos factores de las discusiones en línea sobre «reapertura de Estados Unidos» sugieren que la actividad de bot está orquestada. Un indicador es la gran cantidad de bots, muchos de los cuales son cuentas que se crearon recientemente. Las cuentas que posiblemente sean humanos con asistentes de bot generan el 66% de los tweets. Las cuentas que definitivamente son bots generan el 34% de los tweets.

«Cuando vemos un montón de tweets al mismo tiempo o seguidos, es como si estuvieran cronometrados», dijo Carley. «También buscamos el uso del mismo hashtag exacto, o mensajes que parecen ser copiados y pegados de un bot al siguiente».

 

BotSight: Una nueva herramienta para detectar bots en Twitter en tiempo real

 

tinder-bots-featured-1

BotSight browser extension

La información falsa esté relacionada con la política, la economía, la epidemia de COVID-19, o incluso campañas de desprestigio, el objetivo de estos bots es lograr que suficientes personas crean en las falsedades para que ellos mismos comiencen a difundirlas. Esto no significa que todos los bots se creen para difundir información falsa, ya que muchos bots se utilizan para publicar contenido legítimo de manera automatizada.

Si es bien cierto que los medios sociales se han convertido en un semillero de campañas de desinformación difundidas mediante el uso de bots que responden automáticamente a los tweets con información falsa que se ajusta a una narrativa particular. La nueva extensión del navegador llamada BotSight tiene como objetivo revelar qué cuentas de Twitter son bots o humanos reales para poder juzgar la veracidad de sus tweets.

¿Cómo funciona?

Lanzada por el Grupo de Investigación NortonLifeLock (anteriormente conocido como Symantec Research Labs), la extensión del navegador BotSight mostrará un pequeño icono y una puntuación porcentual junto a cada cuenta para indicar si está clasificada como una persona real o un bot. Esta clasificación se muestra mediante un icono humano en verde o un icono de robot en rojo, junto a una puntuación que indica la probabilidad de que la cuenta sea humana. Por ejemplo, la cuenta que se muestra en la imagen de arriba ha sido clasificada por Twitter con un 93% de probabilidades de ser un bot. (imagen arriba a la derecha)

bot

Para obtener estos datos, el algoritmo de aprendizaje de la máquina considera 20 características diferentes, incluyendo cuántos mensajes han gustado en la cuenta, su tasa de adquisición de seguidores y la entropía de su nombre.

Manipulación de redes sociales: «Los investigadores utilizan el aprendizaje automático para descubrir ‘pods’ subterráneos de Instagram»

 

instagram_pods_drive_reciprocity_abuse

 

Rachel Greenstad ; Damon McCoy. The Pod People: Understanding Manipulation of Social Media Popularidad via Reciprocity Abuse. Proceedings of The World Wide Web Conference. 2020

Texto completo

 

Me gustas, acciones, seguidores y comentarios son la moneda de las redes sociales en línea. Las publicaciones con altos niveles de interacción son priorizadas por los algoritmos de curación de contenido, lo que permite a los «influencers» de las redes sociales monetizar el tamaño y la lealtad de su audiencia.

Sin embargo, no todo compromiso es orgánico, según un equipo de investigadores de la Escuela de Ingeniería Tandon de la Universidad de Nueva York y la Universidad de Drexel, que han publicado el primer análisis de un robusto ecosistema subterráneo de ‘pods’. Estos grupos de usuarios manipulan algoritmos de curación y aumentan artificialmente la popularidad del contenido, ya sea para aumentar el alcance del contenido promocionado o amplificar la retórica, a través de una táctica conocida como «abuso de reciprocidad», por la cual cada miembro interactúa recíprocamente con el contenido publicado por otros miembros del grupo.

Los investigadores también desarrollaron una herramienta de aprendizaje automático para detectar publicaciones con una alta probabilidad de tener alta popularidad, herramienta qu podría implementarse como parte de los algoritmos de curación de contenido.

Uno de los hallazgos más sorprendentes fue cuán efectivo es el abuso de reciprocidad no solo para aumentar la visibilidad de una publicación, sino también para aumentar el compromiso real y orgánico.

En la primera caracterización de características distintivas, patrones de uso y reglas de operación de una parte del ecosistema de pods, el proyecto involucró el análisis de 1.8 millones de publicaciones de Instagram pertenecientes a 111.455 cuentas únicas de Instagram, anunciadas en más de 400 pods de Instagram.

Los investigadores encontraron que:

  • El setenta por ciento de los usuarios experimentó un aumento de dos veces o más en el nivel de interacción en las publicaciones de control después de que comenzaron a publicar en pods, y de promedio, estos usuarios experimentantaro un aumento de cinco veces en los comentarios recibidos.
  • Cuando los usuarios que nunca habían publicado en pods comenzaron a publicar el 50% de sus publicaciones en pods, vieron un aumento de más de cinco veces en la interacción orgánica con las publicaciones que no publicaron en pods
  • Cada pod tenía, en promedio, alrededor de 900 usuarios, aunque algunos tenían hasta 17.000 usuarios
  • La barrera de entrada es baja: solo el 4% de los pods descubiertos requieren que los usuarios tengan un número mínimo de seguidores antes de unirse
  • Los pods muy activos recibieron más de 4.000 mensajes por día.

 

 

 

Papel de los bots en la Wikipedia

 

wikipediabots

 

Lei (Nico) Zheng, Christopher M. Albano, Neev M. Vora, Feng Mai, and Jeffrey V. Nickerson. 2019. The Roles Bots Play in Wikipedia. Proc. ACM Hum.-Comput. Interact. 3, CSCW, Article 215 (November 2019), 20 pages. https://doi.org/10.1145/3359317

Texto completo

 

Si bien todos podemos aprender de los 40 millones de artículos de Wikipedia, los constructores de bots de gestión específicamente pueden obtener una educación significativa al estudiar la creación, investigación y roles de los 1.601 bots que ayudan a mantener el sitio e interactuar con sus más de 137,000 editores humanos.

Cada bot realiza un trabajo único: algunos generan artículos basados ​​en plantillas; algunos arreglan errores tipográficos, errores ortográficos y errores en enlaces; algunos identifican spam, vándalos o infracciones de políticas; algunos interactúan con humanos saludando a los recién llegados, enviando notificaciones o proporcionando sugerencias.

Los bots juegan un papel cada vez más importante en la creación de conocimiento en Wikipedia. En muchos casos, los editores y los bots forman equipos muy unidos. Los humanos desarrollan bots, solicitan su aprobación y los mantienen, realizando tareas como monitorear la actividad, fusionar bots similares, dividir bots complejos y desactivar bots que no funcionan correctamente.

Los investigadores del Instituto de Tecnología Stevens clasificaron los bots de Wikipedia en nueve roles y 25 funciones asociadas con el objetivo de comprender qué hacen los bots ahora y qué podrían hacer en el futuro. Jeffrey Nickerson, profesor y decano asociado de investigación en la Escuela de Negocios de Stevens, y autor de «The Roles Bots Play en Wikipedia«, publicado en noviembre de 2019, comparó la clasificación con la forma en que los humanos hablan sobre ocupaciones y profesiones, las habilidades requeridas para hacerlos y las tareas que se deben realizar.

Otra característica de los bots de Wikipedia es cómo funcionan con los editores humanos. A menudo, los editores crean un bot para automatizar algunos de sus procesos de edición, dijo Nickerson. Una vez que lo construyen, lo sueltan y lo revisan periódicamente. Eso libera a los editores para hacer el trabajo que más les interesa, pero también se convierten en mantenedores de bots.

Investigadores del MIT desarrollan un sistema automatizado que puede reescribir frases obsoletas en los artículos de Wikipedia

 

wikipediabotsfeature

 

Darsh J Shah, Tal Schuster, Regina Barzilay. Automatic Fact-guided Sentence Modification. AAAI 2020

Texto completo

Mit News

 

Un sistema creado por los investigadores del MIT podría utilizarse para actualizar automáticamente las inconsistencias de los hechos en los artículos de la Wikipedia, reduciendo el tiempo y el esfuerzo de los editores humanos que ahora hacen la tarea manualmente.

 

En un documento que se presenta en la Conferencia de la AAAI sobre Inteligencia Artificial, los investigadores describen un sistema de generación de texto que señala y reemplaza información específica en frases relevantes de Wikipedia, manteniendo el lenguaje similar a la forma en que los humanos escriben y editan.

La idea es que los humanos escriban en una interfaz una oración no estructurada con información actualizada, sin necesidad de preocuparse por el estilo o la gramática. El sistema entonces buscaría en Wikipedia, localizaría la página apropiada y la oración obsoleta, y la reescribiría de manera similar a la de los humanos. En el futuro, dicen los investigadores, existe la posibilidad de construir un sistema totalmente automatizado que identifique y utilice la información más reciente de toda la web para producir frases reescritas en los artículos correspondientes de Wikipedia que reflejen la información actualizada.

«Hay tantas actualizaciones que se necesitan constantemente para los artículos de Wikipedia. Sería beneficioso modificar automáticamente porciones exactas de los artículos, con poca o ninguna intervención humana», dice Darsh Shah, un estudiante de doctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y uno de los autores principales. «En lugar de cientos de personas trabajando en la modificación de cada artículo de la Wikipedia, entonces sólo se necesitará unos pocos, porque el modelo está ayudando o lo hace automáticamente. Eso ofrece mejoras importantes respecto a la eficiencia.»

Existen muchos otros bots que hacen ediciones automáticas de Wikipedia. Típicamente, esos trabajan en la mitigación del vandalismo o en coordinar alguna información estrechamente definida en plantillas predefinidas, dice Shah. El modelo de los investigadores, dice, resuelve un problema más difícil de inteligencia artificial: Dada una nueva pieza de información no estructurada, el modelo modifica automáticamente la frase de manera humana. «Las otras tareas [bot] se basan más en reglas, mientras que ésta es una tarea que requiere razonar sobre partes contradictorias en dos frases y generar un texto coherente», dice.

El sistema también puede ser usado para otras aplicaciones de generación de texto, dice el co-autor principal y estudiante graduado de CSAIL, Tal Schuster. En su trabajo, los investigadores también lo usaron para sintetizar automáticamente las oraciones en un popular conjunto de datos de verificación de hechos que ayudaron a reducir el sesgo, sin tener que recolectar manualmente datos adicionales. «De esta manera, el rendimiento mejora para los modelos de verificación automática de hechos en el conjunto de datos para, por ejemplo, la detección de noticias falsas», dice Schuster.

 

Papel de los bots en la Wikipedia

 

bots-wikipedia-670x335

 

Zheng Stevens, Christopher M. Albano. The Roles Bots Play en Wikipedia. ACM, 2019

Texto completo

Los bots juegan un papel cada vez más importante en la creación de contenidos en Wikipedia. En muchos casos, los editores y los bots forman equipos muy unidos. Los humanos desarrollan bots, solicitan su aprobación y los mantienen, realizando tareas como monitorear la actividad, fusionando bots similares, dividiendo bots complejos y desactivando bots que funcionan mal. Sin embargo, esta no es la imagen completa. Los bots están diseñados para realizar ciertas funciones y pueden adquirir una nueva funcionalidad con el tiempo. Desempeñan papeles particulares en el proceso de edición. Comprender estos roles es un paso importante para comprender el ecosistema y diseñar mejores bots e interfaces entre bots y humanos. Esto es importante para comprender Wikipedia junto con otros tipos de trabajo en los que las máquinas autónomas afectan las tareas realizadas por humanos.

Crece la preocupación de los estadounidenses ante las capacidades de los algorritos informáticos para tomar decisiones sobre la vida de las personas

algorithms-to-live-by-brain

Smith, Aaron. «Public Attitudes Toward Computer Algorithms«. Whasingthon: Pew Research Center, 2018

Texto completo

Los estadounidenses expresan una amplia preocupación por la imparcialidad y efectividad de los programas de computación al tomar decisiones importantes en la vida de las personas.

 

Los algoritmos están a nuestro alrededor, utilizando almacenes masivos de datos y análisis complejos para tomar decisiones que a menudo tienen un impacto significativo en los seres humanos. Nos recomiendan libros y películas para que los leamos y los veamos, publican noticias que creen que pueden ser relevantes, estiman la probabilidad de que un tumor sea canceroso y predicen si alguien puede ser un criminal o un riesgo de crédito vale la pena. Pero a pesar de la creciente presencia de algoritmos en muchos aspectos de la vida diaria, una encuesta del Pew Research Center a adultos de EE. UU. encuentra que la gente es escéptica con estas herramientas cuando se usan en varias situaciones de la vida real.

Este escepticismo abarca varias dimensiones. A un nivel más amplio, el 58% de los estadounidenses piensa que los programas siempre reflejarán algún nivel de sesgo humano – aunque el 40% piensa que estos programas pueden ser diseñados de una manera libre de sesgos. Y en varios contextos, a la gente le preocupa que estas herramientas puedan violar la privacidad, no captar los matices de situaciones complejas, o simplemente poner a las personas que están evaluando en una situación injusta. Las percepciones del público sobre la toma de decisiones algorítmicas también suelen ser muy contextuales. La encuesta muestra que, de lo contrario, tecnologías similares pueden ser vistas con apoyo o sospecha, dependiendo de las circunstancias o de las tareas que se les asignen.

Para medir las opiniones de los estadounidenses de a pie sobre este tema relativamente complejo y técnico, la encuesta presentó a los encuestados cuatro escenarios diferentes en los que las computadoras toman decisiones mediante la recolección y el análisis de grandes cantidades de datos públicos y privados. Cada uno de estos escenarios se basó en ejemplos del mundo real de la toma de decisiones algorítmicas e incluyó: un puntaje para ofrecer a los consumidores tratos o descuentos; una evaluación de riesgo criminal de las personas en libertad condicional; un programa automatizado de selección de currículum vitae para los solicitantes de empleo; y un análisis computarizado de las entrevistas de trabajo. La encuesta también incluyó preguntas sobre el contenido al que los usuarios están expuestos en las plataformas de medios sociales como una forma de medir las opiniones de los algoritmos más orientados al consumidor.

El 81% de los estadounidenses consideran que una buena parte de las noticias que reciben en medios sociales provienen de robots

robot-periodistas-770x470

Stocking, Galen ; Sumida,Nami. «Social Media Bots Draw Public’s Attention and Concern» Washington: Pew Research Center, 2018

Texto completo

Desde las elecciones presidenciales de 2016 en Estados Unidos, muchos estadounidenses han expresado su preocupación por la presencia de información errónea en línea, particularmente en los medios sociales. Las recientes audiencias e investigaciones del Congreso por parte de sitios de medios sociales e investigadores académicos han sugerido que un factor en la propagación de la desinformación son los bots de medios sociales – cuentas que operan por su cuenta, sin participación humana, para publicar e interactuar con otros en sitios de medios sociales.

El tema de los robots que emitan noticias como si fueran seres humanos ha llamado la atención de gran parte del público: Cerca de dos tercios de los estadounidenses (66%) han oído hablar de los robots de las redes sociales, aunque muchos menos (16%) han oído hablar mucho de este tema. Entre los que conocen el fenómeno, una gran mayoría está preocupado por el uso malicioso de las cuentas de bot, según una nueva encuesta del Pew Research Center realizada del 30 de julio al 12 de agosto de 2018, entre 4.581 adultos estadounidenses que son miembros del American Trends Panel representativo a nivel nacional del Pew Research Center (el Centro ha estudiado previamente los bots en Twitter y los sitios de noticias a los que se enlazan). Ocho de cada diez de los que han oído hablar de los robots dicen que estas cuentas se utilizan sobre todo para malos propósitos, mientras que sólo el 17% dice que se utilizan sobre todo para buenos propósitos.

Para entender mejor algunos de los matices de los puntos de vista del público sobre los bots en los medios sociales, este estudio explora las actitudes de aquellos estadounidenses que han oído hablar de ellos (alrededor de un tercio – 34% – no han oído nada sobre ellos).

Mientras que muchos estadounidenses son conscientes de la existencia de los robots de las redes sociales que emiten noticias con unos intereses determinados, menos confían en que puedan identificarlos. Alrededor de la mitad de los que han oído hablar de los bots (47%) están muy o algo seguros de que pueden reconocer estas noticias falsas en los medios sociales, y sólo el 7% dice que está muy seguro de sí mismo. En contraste, el 84% de los estadounidenses expresó confianza en su capacidad para reconocer las noticias inventadas en un estudio anterior.

Cuando se trata específicamente del entorno de las noticias, muchos encuentran que la presencia de los robots de los medios sociales es omnipresente y preocupante. Alrededor de ocho de cada diez de los que han oído hablar de los bots (81%) piensan que al menos una buena parte de las noticias que la gente recibe de los medios sociales provienen de estos bots, incluyendo el 17% que piensa que una gran parte proviene de bots. Y cerca de dos tercios (66%) piensan que los robots de los medios sociales tienen un efecto mayormente negativo sobre cuán bien informados están los estadounidenses acerca de los eventos actuales, mientras que muchos menos (11%) creen que tienen un efecto mayormente positivo.

Mientras que la impresión general del público sobre los robots de los medios sociales es negativa, ellos tienen puntos de vista más matizados sobre los usos específicos de estas cuentas – con algunos usos que reciben un apoyo u oposición abrumador. Por ejemplo, el 78% de los que han oído hablar de los bots apoyan que el gobierno los utilice para publicar actualizaciones de emergencia, la función más popular de las nueve sobre las que se preguntó en la encuesta. En contraste, estos estadounidenses se oponen abrumadoramente al uso de bots para publicar noticias inventadas o información falsa (92%). También se oponen en gran medida a que los bots se utilicen con fines políticos y están más divididos a la hora de considerar cómo las empresas y las organizaciones de noticias utilizan a menudo los bots.