Archivo de la etiqueta: Bots

Dos tercios de los enlaces a sitios web populares son publicados por cuentas automatizadas, no por seres humanos

los-bots-estc3a1n-en-todas-partes

Wojcik, S., S. Messing, et al. (2018). [e-Book]  “Bots in the Twittersphere” (Two-Thirds of Tweeted Links to Popular Websites are Posted by Automated Accounts, Not Human Beings). Washington D. C., Pew Research Center, 2018.

Texto completo

 

Una gran parte de los enlaces twiteados a contenido digital son generados por bots, es decir, por cuentas automatizadas que publican contenido o interactúan con otros usuarios sin participación humana directa. Un nuevo análisis del Pew Research Center de 1,2 millones de tweets encuentra que el 66% de los enlaces tuiteados al contenido de sitios web populares son publicados o compartidos por bots. Estos hallazgos ilustran hasta qué punto los bots juegan un papel prominente y omnipresente en el entorno de los medios sociales.

 

El análisis se centró en enlaces a 2.315 sitios web populares en una amplia gama de temas, incluyendo deportes, información comercial, celebridades, noticias y sitios creados por diversas organizaciones. Entre los sitios web de noticias populares y eventos actuales, el 66% de los enlaces tweeteados son compartidos por bots – similar a la proporción total de enlaces creados por robots a todo tipo de sitios populares-. La proporción de enlaces tuiteados compartidos por los robots varía dependiendo de los atributos de los diferentes sitios de noticias y eventos actuales. Por ejemplo, el 89% de los enlaces tuiteados a sitios de agregación -sitios que recopilan historias de toda la web- son publicados por bots.

La importancia del estudio es que surgen en un momento en que el papel de los bots en la promoción de material web está centrando el debate sobre los cambios en los hábitos de información de las personas, la veracidad de la información y la prevalencia de las “noticias falsas” en línea. Este análisis proporciona una nueva evidencia sobre el alcance de la actividad de los robots en la esfera de Twitter. El estudio no hace ninguna evaluación sobre si los robots son “buenos” o “malos”, ni de la precisión del material compartido por ellos, o el grado en que el público se involucra con el material generado por los robots.

Resultados fundamentales:

  • Ciertos tipos de sitios -sobre todo los que se centran en contenidos para adultos y deportes- reciben una gran parte de sus enlaces de Twitter de cuentas automatizadas. Los investigadores clasificaron los sitios en siete grupos diferentes: contenido para adultos, deportes, celebridades, productos o servicios comerciales, organizaciones o grupos, noticias y eventos actuales, y tweets con enlaces a otros materiales en Twitter. Las cuentas automatizadas fueron responsables de aproximadamente el 90% de todos los enlaces twiteados a sitios web populares centrados en contenido para adultos durante el periodo de estudio. En el caso de los sitios web populares centrados en contenidos deportivos, se estimó que esa proporción era del 76%.
  • Entre los sitios web de noticias populares y de eventos actuales, el 66% de los enlaces twitteados son hechos por bots sospechosos. La proporción de enlaces twiteados creados por robots es aún mayor entre ciertos tipos de sitios de noticias.
  • Un número relativamente pequeño de robots altamente activos son responsables de una parte significativa de los enlaces a sitios de noticias populares y eventos actuales. Este análisis encuentra que las 500 cuentas de bot más activas son responsables del 22% de los enlaces tuiteados a sitios de noticias populares y eventos actuales durante el periodo en el que se llevó a cabo este estudio. En comparación, los 500 usuarios humanos más activos son responsables de una proporción mucho menor (se estima que el 6%) de los enlaces twiteados a estos puntos de venta.
  • El estudio no encuentra evidencia de que las cuentas automatizadas tengan un “sesgo político” liberal o conservador en su comportamiento general de compartir enlaces. Un análisis de un subconjunto de sitios de noticias y eventos actuales que se enfocan al contenido político encontró que los bots sospechosos comparten aproximadamente el 41% de los enlaces a sitios políticos cuya audiencia es principalmente conservadora y el 44% de los enlaces a sitios políticos cuya audiencia es principalmente liberal – una diferencia que no es estadísticamente significativa. Por el contrario, los bots sospechosos comparten entre el 57% y el 66% de los enlaces de sitios de noticias y eventos actuales cuya audiencia es ideológicamente mixta o centrista.

 

Estos hallazgos ilustran hasta qué punto los bots juegan un papel prominente y omnipresente en el entorno de los medios sociales, ya que las cuentas automatizadas están lejos de ser un fenómeno de nicho: comparten una porción significativa de enlaces tuiteados, incluso a las publicaciones más prominentes e importantes y a los puntos de venta en línea. Dado que estos datos pueden impactar la información que la gente ve en los medios sociales, es importante tener un sentido de su importancia en los medios sociales.

 

 

 

Bots, Machine Learning, Servicios Cognitivos. Realidad y perspectivas de la Inteligencia Artificial en España, 2018.

perspectiva-ia-espana-2018-02

Realidad y perspectivas de la IA en España, 2018. Bots, Machine Learning, Servicios Cognitivos”. Madrid: PwC y Microsoft, 2018

Texto completo

Más infromación sobre 

La escasez de talento y la falta de un modelo de negocio claro son los dos principales obstáculos con los que se encuentran las empresas españolas a la hora de aplicar la Inteligencia Artificial (IA) en sus negocios. Esta es una de las principales conclusiones del informe “Realidad y perspectivas de la IA en España, 2018” elaborado por PwC en colaboración con Microsoft, a partir de encuestas a una treintena de grandes compañías españolas líderes en su sector.  

El documento revela que solo un 11% de las compañías entrevistadas cuenta con los profesionales y las capacidades adecuadas para poner en marcha iniciativas en el campo de la IA. Y, por consiguiente, seis de cada diez están buscando de forma activa los perfiles profesionales necesarios.

Pero a la escasez de talento se suman otros obstáculos a la hora de apostar por la IA, como la falta de un modelo de negocio que les permita saber cuál es el retorno de la inversión; las dificultades en la gestión del cambio cultural dentro de la empresa, o la ausencia de un liderazgo claro a la hora de impulsar este tipo de iniciativas.

El estudio tiene como objetivo ofrecer una perspectiva realista del nivel de desarrollo de la IA en el mercado español tomando como referencia un grupo de empresas que se pueden considerar avanzadilla en materia de digitalización. Los resultados son claros: para la mayoría de las grandes empresas participantes en el informe (80%), la Inteligencia Artificial no es un conjunto de iniciativas aisladas sino una tecnología que, en el largo plazo, supondrá cambios muy disruptivos para los negocios.

A pesar de las barreras mencionadas arriba, del selecto grupo de empresas participantes, más de la mitad ya está intentando, en mayor o menor medida, sacar partido de la IA. Un 46% tiene en marcha algún tipo de proyecto piloto o prueba, y un 11,5% ya están viendo resultados, sobre todo, en la mejora de la satisfacción del cliente, en la toma de decisiones o en la reducción de costes. Pero si vemos la encuesta de otra manera, no todo son avances: un 42,5% de las compañías todavía no han puesto de marcha ninguna iniciativa en relación con la IA o solo tienen una hoja de ruta.

¿Cuáles son las aplicaciones de la IA con más potencial para las compañías españolas? El análisis predictivo, que permite anticipar eventos, comportamientos y condiciones futuras en base a información recogida por la compañía, es la preferida por las empresas. Le sigue el reconocimiento por lenguaje y voz. En tercer lugar se sitúan el machinelearning, los chatbots y las técnicas de RPA –procesos automatizados por robótica- (ver cuadro adjunto). 

El uso malicioso de la inteligencia artificial: previsión, prevención y mitigación

 

ia

The Malicious Use of Artificial Intelligence: Forecasting, Prevention, and Mitigation” [e-Book]. Oxford, Future of Humanity Institute, University of Oxford, 2018.

Texto completo

La inteligencia artificial y las capacidades de autoaprendizaje de máquinas están creciendo a un ritmo sin precedentes. Estas tecnologías tienen muchas aplicaciones beneficiosas, que van desde la traducción automática hasta el análisis de imágenes médicas. Se están desarrollando innumerables aplicaciones de este tipo y cabe esperar que se desarrollen a largo y medio plazo. Históricamente se ha prestado menos atención a las formas en que la inteligencia artificial puede ser utilizada maliciosamente. Este informe examina el panorama de las posibles amenazas a la seguridad derivadas de los usos maliciosos de las tecnologías de inteligencia artificial y propone formas de prever, prevenir y mitigar mejor esas amenazas. Se analiza, la cuestión de cuál será el equilibrio a largo plazo entre beneficios y perjuicios del uso de la tecnología de IA.

Detección de robots Web en la promoción de publicaciones académicas

usuario-robot

 

 Lagopoulos, A. ; Tsoumakas, G; Papadopoulos, G  “Web Robot Detection in Academic Publishing”. ArXiv, 2017

Texto completo

Informes recientes de la industria aseguran el surgimiento de robots web  constituyen más de la mitad del tráfico web total. No solo amenazan la seguridad, la privacidad y la eficiencia de la web, sino que también distorsionan los análisis y las métricas, y ponen en duda la veracidad de la información que promocionan. En el dominio de la publicación académica, esto puede hacer que artículos erróneos se presenten como prominentes e influyentes. En este documento, se presenta un enfoque sobre la detección de robots web en sitios web de publicaciones académicas. Para ello los autores Utilizaron diferentes algoritmos de aprendizaje supervisado con una variedad de características derivadas tanto de los archivos de registro del servidor como del contenido servido por el sitio web. El análisis llevado a cabo se basa en la suposición de que los usuarios humanos estarán interesados ​​en dominios o artículos específicos, mientras que los robots web rastrean una biblioteca web incoherentemente.  El estudio muestra resultados prometedores, identificando la importancia de las características semánticas en el problema de detección de robots web.

La propagación de noticias falsas por medio de “bots” podría llegar a ser una amenaza para las democracias

35397859793_0f4714c89c_b_d

 Shao, Chengcheng, Ciampaglia,  Giovanni Luca..  “The Spread of Fake News by Social Bots”. Arxiv, 2017

Texto completo

 

La difusión masiva de noticias falsas ha sido identificada como un riesgo global importante y se ha alegado que podría  influir en las elecciones y amenazar a las democracias.

Los científicos de la comunicación, los cognitivos, los sociales y los informáticos se dedican a estudiar las causas complejas de la difusión viral de la desinformación digital y a desarrollar soluciones, mientras que las plataformas de búsqueda y redes sociales están empezando a desplegar contramedidas. Sin embargo, hasta la fecha, estos esfuerzos han sido principalmente informados por evidencia anecdótica en lugar de datos sistemáticos.

En esta investigación se analizaron 14 millones de mensajes que propagan 400 mil reclamos en Twitter durante y después de la campaña presidencial de 2016 en Estados Unidos y las elecciones.  Encontrándose evidencias de que los bots sociales juegan un papel clave en la difusión de noticias falsas, ya que las cuentas que difunden activamente la desinformación son significativamente más propensas a ser bots.

Las cuentas automatizadas son particularmente activas en las primeras fases de propagación de las reclamaciones virales y tienden a dirigirse a usuarios influyentes. Los seres humanos son vulnerables a esta manipulación impulsada por bots de retweeting que publican noticias falsas. Las fuentes exitosas de afirmaciones falsas y sesgadas están fuertemente apoyadas por bots sociales. Estos resultados sugieren que frenar los bots sociales puede ser una estrategia eficaz para mitigar la propagación de la desinformación en línea.

¿Qué son los bots y qué importancia tendrán en el futuro de la web?

 

Funny robot sit with headphones

Cada día más las páginas web incorporan bots (aféresis de robot). Un bot es un programa informático que se comportan como un humanos para realizar tareas como responder a las preguntas de los usuarios, hacer publicidad o abrir cuentas de correo electrónico

Un bot (aféresis de robot) es un programa informático, imitando el comportamiento de un humano. En sitios wiki, como Wikipedia (véase “Wikipedia:Bot“), un bot puede realizar funciones rutinarias de edición. En otros sitios, como Youtube, el bot puede responder a cuestiones sobre el propio contenido del sitio (bots conversacionales). En un chat un bot puede incluso simular a un conversador. En general los bots se utilizan para simplificar o automatizar tareas cuya realización manual resultaría muy tediosa, tales como corregir ortografía, concordancias, etc.

En los últimos años, ha habido un gran aumento en el número de bots en línea, que van desde rastreadores web para motores de búsqueda, chatbots para el servicio al cliente en línea, spambots en redes sociales y bots de edición de contenido en comunidades de colaboración en línea.

Según una investigación de la Universidad de Oxford hasta 4,7 millones de las ediciones de los artículos de Wikipedia son correcciones que hacen los bots constantemente entre sí, ejerciendo una especie de edición sin fin.

El mundo en línea se ha convertido en un ecosistema de bots, y estos dispositivos colaborativos llevan a cabo interacciones entre ellos como editar los artículos en Wikipedia para hacer correcciones. Además, al igual que los seres humanos, los robots de Wikipedia exhiben diferencias culturalese incluso pueden colaborar en interacciones complejas. Por ejemplo si cualquiera edita un artículo de la enciclopedia y pone una barbaridad los bots pueden consultar sitios de referencia como agencias de noticias para verificar esa información.

Una de las tareas que realizarán los bots en el futuro es enviarnos toda aquella información que sea de nuestro interés sin necesidades de registrarse en ningún sitio. Facebook y otras compañías ahora mismo está experimentando con esta tecnología que hará posible que podamos entendernos directamente con las máquinas. Los boots se están adaptando también a dispositivos móviles y hay quienes apuntan a que en un futuro inmediato puedan sustituir a las apps. Es el ejemplo de Cortana, un asistente personal inteligente desarrollado por Microsoft, que puede ser usado en diversos dispositivos. Cortana reconoce el lenguaje natural (sin necesidad de utilizar comandos concretos) y utiliza Bing, Yelp y Foursquare como bases de datos. Se diferencia de Google Now y de Siri en que es el primer asistente virtual que incluye una “Libreta”, donde Cortana guarda toda la información que tiene sobre el usuario, sus intereses, rutinas, etcétera. De esa manera la información que el sistema tiene del usuario es fácilmente controlable, pudiendo borrar todo rastro o introducir a propósito sus gustos y demás para mejorar el servicio.