Archivo de la etiqueta: Bots

Papel de los bots en la Wikipedia

wikipediabots

 

Lei (Nico) Zheng, Christopher M. Albano, Neev M. Vora, Feng Mai, and Jeffrey V. Nickerson. 2019. The Roles Bots Play in Wikipedia. Proc. ACM Hum.-Comput. Interact. 3, CSCW, Article 215 (November 2019), 20 pages. https://doi.org/10.1145/3359317

Texto completo

 

Si bien todos podemos aprender de los 40 millones de artículos de Wikipedia, los constructores de bots de gestión específicamente pueden obtener una educación significativa al estudiar la creación, investigación y roles de los 1.601 bots que ayudan a mantener el sitio e interactuar con sus más de 137,000 editores humanos.

Cada bot realiza un trabajo único: algunos generan artículos basados ​​en plantillas; algunos arreglan errores tipográficos, errores ortográficos y errores en enlaces; algunos identifican spam, vándalos o infracciones de políticas; algunos interactúan con humanos saludando a los recién llegados, enviando notificaciones o proporcionando sugerencias.

 

Los bots juegan un papel cada vez más importante en la creación de conocimiento en Wikipedia. En muchos casos, los editores y los bots forman equipos muy unidos. Los humanos desarrollan bots, solicitan su aprobación y los mantienen, realizando tareas como monitorear la actividad, fusionar bots similares, dividir bots complejos y desactivar bots que no funcionan correctamente.

Los investigadores del Instituto de Tecnología Stevens clasificaron los bots de Wikipedia en nueve roles y 25 funciones asociadas con el objetivo de comprender qué hacen los bots ahora y qué podrían hacer en el futuro. Jeffrey Nickerson, profesor y decano asociado de investigación en la Escuela de Negocios de Stevens, y autor de “The Roles Bots Play en Wikipedia“, publicado en noviembre de 2019, comparó la clasificación con la forma en que los humanos hablan sobre ocupaciones y profesiones, las habilidades requeridas para hacerlos y las tareas que se deben realizar.

Otra característica de los bots de Wikipedia es cómo funcionan con los editores humanos. A menudo, los editores crean un bot para automatizar algunos de sus procesos de edición, dijo Nickerson. Una vez que lo construyen, lo sueltan y lo revisan periódicamente. Eso libera a los editores para hacer el trabajo que más les interesa, pero también se convierten en mantenedores de bots.

Investigadores del MIT desarrollan un sistema automatizado que puede reescribir frases obsoletas en los artículos de Wikipedia

 

wikipediabotsfeature

 

Darsh J Shah, Tal Schuster, Regina Barzilay. Automatic Fact-guided Sentence Modification. AAAI 2020

Texto completo

Mit News

 

Un sistema creado por los investigadores del MIT podría utilizarse para actualizar automáticamente las inconsistencias de los hechos en los artículos de la Wikipedia, reduciendo el tiempo y el esfuerzo de los editores humanos que ahora hacen la tarea manualmente.

 

En un documento que se presenta en la Conferencia de la AAAI sobre Inteligencia Artificial, los investigadores describen un sistema de generación de texto que señala y reemplaza información específica en frases relevantes de Wikipedia, manteniendo el lenguaje similar a la forma en que los humanos escriben y editan.

La idea es que los humanos escriban en una interfaz una oración no estructurada con información actualizada, sin necesidad de preocuparse por el estilo o la gramática. El sistema entonces buscaría en Wikipedia, localizaría la página apropiada y la oración obsoleta, y la reescribiría de manera similar a la de los humanos. En el futuro, dicen los investigadores, existe la posibilidad de construir un sistema totalmente automatizado que identifique y utilice la información más reciente de toda la web para producir frases reescritas en los artículos correspondientes de Wikipedia que reflejen la información actualizada.

“Hay tantas actualizaciones que se necesitan constantemente para los artículos de Wikipedia. Sería beneficioso modificar automáticamente porciones exactas de los artículos, con poca o ninguna intervención humana”, dice Darsh Shah, un estudiante de doctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y uno de los autores principales. “En lugar de cientos de personas trabajando en la modificación de cada artículo de la Wikipedia, entonces sólo se necesitará unos pocos, porque el modelo está ayudando o lo hace automáticamente. Eso ofrece mejoras importantes respecto a la eficiencia.”

Existen muchos otros bots que hacen ediciones automáticas de Wikipedia. Típicamente, esos trabajan en la mitigación del vandalismo o en coordinar alguna información estrechamente definida en plantillas predefinidas, dice Shah. El modelo de los investigadores, dice, resuelve un problema más difícil de inteligencia artificial: Dada una nueva pieza de información no estructurada, el modelo modifica automáticamente la frase de manera humana. “Las otras tareas [bot] se basan más en reglas, mientras que ésta es una tarea que requiere razonar sobre partes contradictorias en dos frases y generar un texto coherente”, dice.

El sistema también puede ser usado para otras aplicaciones de generación de texto, dice el co-autor principal y estudiante graduado de CSAIL, Tal Schuster. En su trabajo, los investigadores también lo usaron para sintetizar automáticamente las oraciones en un popular conjunto de datos de verificación de hechos que ayudaron a reducir el sesgo, sin tener que recolectar manualmente datos adicionales. “De esta manera, el rendimiento mejora para los modelos de verificación automática de hechos en el conjunto de datos para, por ejemplo, la detección de noticias falsas”, dice Schuster.

 

Papel de los bots en la Wikipedia

 

bots-wikipedia-670x335

Zheng Stevens, Christopher M. Albano. The Roles Bots Play en Wikipedia. ACM, 2019

Texto completo

Los bots juegan un papel cada vez más importante en la creación de contenidos en Wikipedia. En muchos casos, los editores y los bots forman equipos muy unidos. Los humanos desarrollan bots, solicitan su aprobación y los mantienen, realizando tareas como monitorear la actividad, fusionando bots similares, dividiendo bots complejos y desactivando bots que funcionan mal. Sin embargo, esta no es la imagen completa. Los bots están diseñados para realizar ciertas funciones y pueden adquirir una nueva funcionalidad con el tiempo. Desempeñan papeles particulares en el proceso de edición. Comprender estos roles es un paso importante para comprender el ecosistema y diseñar mejores bots e interfaces entre bots y humanos. Esto es importante para comprender Wikipedia junto con otros tipos de trabajo en los que las máquinas autónomas afectan las tareas realizadas por humanos.

Crece la preocupación de los estadounidenses ante las capacidades de los algorritos informáticos para tomar decisiones sobre la vida de las personas

algorithms-to-live-by-brain

Smith, Aaron. “Public Attitudes Toward Computer Algorithms“. Whasingthon: Pew Research Center, 2018

Texto completo

Los estadounidenses expresan una amplia preocupación por la imparcialidad y efectividad de los programas de computación al tomar decisiones importantes en la vida de las personas.

 

Los algoritmos están a nuestro alrededor, utilizando almacenes masivos de datos y análisis complejos para tomar decisiones que a menudo tienen un impacto significativo en los seres humanos. Nos recomiendan libros y películas para que los leamos y los veamos, publican noticias que creen que pueden ser relevantes, estiman la probabilidad de que un tumor sea canceroso y predicen si alguien puede ser un criminal o un riesgo de crédito vale la pena. Pero a pesar de la creciente presencia de algoritmos en muchos aspectos de la vida diaria, una encuesta del Pew Research Center a adultos de EE. UU. encuentra que la gente es escéptica con estas herramientas cuando se usan en varias situaciones de la vida real.

Este escepticismo abarca varias dimensiones. A un nivel más amplio, el 58% de los estadounidenses piensa que los programas siempre reflejarán algún nivel de sesgo humano – aunque el 40% piensa que estos programas pueden ser diseñados de una manera libre de sesgos. Y en varios contextos, a la gente le preocupa que estas herramientas puedan violar la privacidad, no captar los matices de situaciones complejas, o simplemente poner a las personas que están evaluando en una situación injusta. Las percepciones del público sobre la toma de decisiones algorítmicas también suelen ser muy contextuales. La encuesta muestra que, de lo contrario, tecnologías similares pueden ser vistas con apoyo o sospecha, dependiendo de las circunstancias o de las tareas que se les asignen.

Para medir las opiniones de los estadounidenses de a pie sobre este tema relativamente complejo y técnico, la encuesta presentó a los encuestados cuatro escenarios diferentes en los que las computadoras toman decisiones mediante la recolección y el análisis de grandes cantidades de datos públicos y privados. Cada uno de estos escenarios se basó en ejemplos del mundo real de la toma de decisiones algorítmicas e incluyó: un puntaje para ofrecer a los consumidores tratos o descuentos; una evaluación de riesgo criminal de las personas en libertad condicional; un programa automatizado de selección de currículum vitae para los solicitantes de empleo; y un análisis computarizado de las entrevistas de trabajo. La encuesta también incluyó preguntas sobre el contenido al que los usuarios están expuestos en las plataformas de medios sociales como una forma de medir las opiniones de los algoritmos más orientados al consumidor.

El 81% de los estadounidenses consideran que una buena parte de las noticias que reciben en medios sociales provienen de robots

robot-periodistas-770x470

Stocking, Galen ; Sumida,Nami. “Social Media Bots Draw Public’s Attention and Concern” Washington: Pew Research Center, 2018

Texto completo

Desde las elecciones presidenciales de 2016 en Estados Unidos, muchos estadounidenses han expresado su preocupación por la presencia de información errónea en línea, particularmente en los medios sociales. Las recientes audiencias e investigaciones del Congreso por parte de sitios de medios sociales e investigadores académicos han sugerido que un factor en la propagación de la desinformación son los bots de medios sociales – cuentas que operan por su cuenta, sin participación humana, para publicar e interactuar con otros en sitios de medios sociales.

El tema de los robots que emitan noticias como si fueran seres humanos ha llamado la atención de gran parte del público: Cerca de dos tercios de los estadounidenses (66%) han oído hablar de los robots de las redes sociales, aunque muchos menos (16%) han oído hablar mucho de este tema. Entre los que conocen el fenómeno, una gran mayoría está preocupado por el uso malicioso de las cuentas de bot, según una nueva encuesta del Pew Research Center realizada del 30 de julio al 12 de agosto de 2018, entre 4.581 adultos estadounidenses que son miembros del American Trends Panel representativo a nivel nacional del Pew Research Center (el Centro ha estudiado previamente los bots en Twitter y los sitios de noticias a los que se enlazan). Ocho de cada diez de los que han oído hablar de los robots dicen que estas cuentas se utilizan sobre todo para malos propósitos, mientras que sólo el 17% dice que se utilizan sobre todo para buenos propósitos.

Para entender mejor algunos de los matices de los puntos de vista del público sobre los bots en los medios sociales, este estudio explora las actitudes de aquellos estadounidenses que han oído hablar de ellos (alrededor de un tercio – 34% – no han oído nada sobre ellos).

Mientras que muchos estadounidenses son conscientes de la existencia de los robots de las redes sociales que emiten noticias con unos intereses determinados, menos confían en que puedan identificarlos. Alrededor de la mitad de los que han oído hablar de los bots (47%) están muy o algo seguros de que pueden reconocer estas noticias falsas en los medios sociales, y sólo el 7% dice que está muy seguro de sí mismo. En contraste, el 84% de los estadounidenses expresó confianza en su capacidad para reconocer las noticias inventadas en un estudio anterior.

Cuando se trata específicamente del entorno de las noticias, muchos encuentran que la presencia de los robots de los medios sociales es omnipresente y preocupante. Alrededor de ocho de cada diez de los que han oído hablar de los bots (81%) piensan que al menos una buena parte de las noticias que la gente recibe de los medios sociales provienen de estos bots, incluyendo el 17% que piensa que una gran parte proviene de bots. Y cerca de dos tercios (66%) piensan que los robots de los medios sociales tienen un efecto mayormente negativo sobre cuán bien informados están los estadounidenses acerca de los eventos actuales, mientras que muchos menos (11%) creen que tienen un efecto mayormente positivo.

Mientras que la impresión general del público sobre los robots de los medios sociales es negativa, ellos tienen puntos de vista más matizados sobre los usos específicos de estas cuentas – con algunos usos que reciben un apoyo u oposición abrumador. Por ejemplo, el 78% de los que han oído hablar de los bots apoyan que el gobierno los utilice para publicar actualizaciones de emergencia, la función más popular de las nueve sobre las que se preguntó en la encuesta. En contraste, estos estadounidenses se oponen abrumadoramente al uso de bots para publicar noticias inventadas o información falsa (92%). También se oponen en gran medida a que los bots se utilicen con fines políticos y están más divididos a la hora de considerar cómo las empresas y las organizaciones de noticias utilizan a menudo los bots.

 

¿Cómo se difundió la desinformación durante las elecciones presidenciales de 2016? Estudio de las campañas de desinformación e influencia de las ‘Noticias falsas’ en Twitter

unknown-4

Texto completo

 

El informe revela un concentrado ecosistema de “noticias falsas”, que vincula a más de 6,6 millones de tweets con los editores de noticias falsas y de noticias de conspiración en el mes anterior a las elecciones de 2016. El problema persistió después de las elecciones con 4 millones de tweets de noticias falsas destinados a conspirar desde mediados de marzo hasta mediados de abril de 2017. Una gran mayoría de estas cuentas siguen activas en la actualidad.

 

¿Cómo se difundió la desinformación durante las elecciones presidenciales de 2016? ¿ha cambiado la situación desde entonces? Un nuevo estudio de más de 10 millones de tweets de 700.000 cuentas de Twitter que se vincularon a más de 600 medios que difunden informaciones falsas.

El estudio, uno de los más grandes hasta la fecha sobre este tema, cuenta con el apoyo de la Fundación Knight, producido por Matthew Hindman de la Universidad George Washington en colaboración con Vlad Barash de la firma de análisis de redes Graphika. Knight encargó el estudio para mejorar la comprensión de cómo la desinformación se propaga en línea.

“Las “noticias falsas” y la desinformación siguen llegando a millones: Más del 80 por ciento de las cuentas que repetidamente difundieron información falsa durante la campaña electoral de 2016 siguen activas, y continúan publicando más de un millón de tweets en un día normal. El 65% de los enlaces de noticias falsos y de conspiración proceden de sólo 10 sitios.

La mayoría de las cuentas que difunden noticias falsas incluidas en el informe muestran evidencia de publicación automatizada: El treinta y tres por ciento de las 100 cuentas más seguidas en el mapa postelectoral del informe – y más del 60 por ciento de una muestra aleatoria de todas las cuentas – muestran evidencia de actividad automatizada.

Las noticias falsas siguen recibiendo muchos menos enlaces que las fuentes de los medios de comunicación tradicionales: Los sitios de noticias falsas recibieron alrededor del 13 por ciento de los enlaces de Twitter; mientras que los medios de comunicación tradicionales recibieron el 37 por ciento de los enlaces recibidos por un conjunto de periódicos regionales. Pero, las cuentas que difunden noticias falsas o de conspiración revelan un núcleo ultra-denso de cuentas que se suceden. Una cantidad sustancial de información errónea fue difundida tanto por cuentas identificadas con los republicanos como con los demócratas: Mientras que la mayoría de las “noticias falsas” procedían de cuentas pro-republicanas y pro-Trump. Después del período electoral, las noticias falsas de tendencia izquierdista disminuyeron mucho más que las noticias falsas de tendencia derechista.

La difusión coordinada de información errónea por parte de los trolls de la Agencia Rusa de Investigación en Internet (IRA) es evidente. De las más de 2,700 cuentas IRA nombradas públicamente cuando se realizó la investigación, el 65 están incluidas en al menos uno de los mapas del informe. Estas cuentas incluyen varias que fueron ampliamente citadas en los medios de comunicación estadounidenses, como @WarfareWWW, @TEN_GOP y @Jenn_Abrams. Sin embargo, el contenido con mensajes similares fue tuiteado por muchas otras cuentas con muchos más seguidores que los trolls del IRA, así como por cuentas todavía activas que probablemente están automatizadas.

 

Reporteros sin Fronteras publica un informe sobre el acoso de periodistas en Internet

 

nota22a-1

Online harassment of journalists: the trolls attack. [Report] Reporters Without Borders (RSF). 2018

Texto completo

En el informe Reporteros sin Fronteras (RSF) expresa su preocupación por la magnitud de una nueva amenaza a la libertad de prensa y el acoso masivo de periodistas en línea. Los perpetradores de estas amenazas pueden ser desde individuos o comunidades de individuos escondidos detrás de sus pantallas a “ejércitos de trolls” de mercenarios en línea creados por regímenes autoritarios. En ambos casos, el objetivo es el mismo: silenciar a los periodistas cuyos reportajes molestan, utilizando a menudo métodos excepcionalmente abusivos.

Durante meses, RSF documentó estos nuevos ataques en línea y analizó el modus operandi de los depredadores de la libertad de prensa, que han sido capaces de explotar las últimas tecnologías para ampliar su alcance opresivo. Sin embargo, es difícil establecer un vínculo directo entre los gobiernos y las conspiraciones en línea contra los periodistas. RSF ha investigado y documentado casos de acoso en línea de periodistas en 32 países, arrojando luz sobre campañas de odio orquestadas por regímenes autoritarios u opresivos en países como China, India, Turquía, Vietnam, Irán y Argelia. Los metodos utilizados son:

  • Desinformación : el contenido periodístico en las redes sociales se ahoga en una avalancha de noticias falsas y contenido progubernamental;
  • Amplificación: el impacto de los contenidos progubernamentales se ve artificialmente incrementado por los comentaristas a los que el gobierno paga para que publiquen mensajes en las redes sociales o por los bots, programas informáticos que generan mensajes automáticamente;
  • Intimidación: los periodistas son atacados, insultados y amenazados personalmente, con el fin de desacreditarlos y reducirlos al silencio.

 

Estas agresivas campañas de acoso cibernético también son llevadas a cabo por comunidades de individuos o grupos políticos en países supuestamente democráticos como México, e incluso en países que ocupan los primeros puestos del Índice Mundial de Libertad de Prensa, como Suecia y Finlandia. Las mujeres periodistas son las más afectadas por el acoso cibernético. Dos tercios de las mujeres periodistas han sido víctimas de acoso y, en el 25% de los casos, el acoso se produjo en línea.

Las consecuencias son a menudo dramáticas: muchas de las víctimas de acoso cibernético con las que habló RSF dijeron que terminaron censurándose a sí mismas en respuesta a los torrentes de abusos en línea, cuya magnitud nunca habían imaginado posible.

En respuesta a estos hallazgos, RSF ha formulado 25 recomendaciones para los gobiernos, la comunidad internacional, las plataformas en línea, los medios de comunicación y los anunciantes con el objetivo de hacer frente a estas nuevas amenazas digitales. El informe de RSF también incluye un tutorial titulado “Periodistas – cómo tratar con los ejércitos troll” que recuerda a los periodistas las prácticas de seguridad digital que deben adoptar.