Archivo de la etiqueta: Robots

Aumentar la cualificación del personal para la edad de la máquina

 

31969201548_c35c3e23ab_b_d

Upskilling your workforce for the age of the machine: Why a workforce upskilling strategy is key to unleashing automation’s productivity potential”. Capgemini Research Institute, 2018

Texto completo

Infografía

Un informe de Capgemini revela que los programas de adecuación de competencias ayudan a las iniciativas de automatización a alcanzar sus objetivos de productividad, procurando ahorros de millones de dólares al año

Un nuevo informe del Instituto de Investigación de Capgemini pone de manifiesto que en la mayoría de las empresas (58%), la automatización sigue sin propiciar los objetivos de incremento de productividad esperados por la dirección. El estudio, bajo el título “Upskilling your workforce for the age of the machine”, revela que, si bien la automatización eleva en cierto grado la productividad, la clave para extraer todo su potencial reside en que las empresas proporcionen las competencias adecuadas a los empleados.

El estudio, que se basa en una encuesta realizada a 800 directivos y 1.200 empleados de más de 400 grandes organizaciones, pone de relieve la importancia de los programas de mejora de competencias de la plantilla (también, programas de upskilling) para conseguir incrementos de productividad y ahorros. Así, una empresa con una plantilla igual o superior a 50.000 trabajadores, madura tanto en la adopción de tecnologías de automatización como en la implantación de programas de mejora de competencias podría conseguir ahorros de unos 90 millones de dólares al año más frente a las empresas que, aunque maduras en esta tecnología, no acometen planes de actualización de competencias.

También destaca el informe que las organizaciones con iniciativas de mejora de competencias para los empleados reportan un mayor éxito con la automatización. El 43% experimenta un buen progreso en el punto intermedio, en comparación con el 24% de las organizaciones sin iniciativas a gran escala.

No se trata solo de aplicar la tecnología correcta a los procesos correctos; se debe dar el mismo enfoque a las personas de una organización y este equilibrio se puede lograr con la mejora de competencias que aumenta el compromiso y el rendimiento de los empleados.

El informe también ofrece consideraciones clave en el diseño e implementación de una estrategia para implantar un programa de mejora de capacitación con el objetivo de equipar a una fuerza laboral de herramientas para afrontar al cambio impulsado por la automatización.

 

Los robots están esperando ¿Estamos preparados para la implantación de robots en las empresas?

img_mrius_20180518-143709_imagenes_lv_terceros_llamadas_robot-kfkf-u443669859826n1f-992x558lavanguardia-web

“The robots are waiting, Are you ready to reap the benefits?” Deloitte, 2018

Texto completo

 

Cada vez más empresas reconocen los beneficios aportados por Robotic Process Automation (RPA) en la productividad que van mucho más allá de la reducción de costes. De hecho, solo el 5% de las compañías que implementan RPA lo hacen únicamente para reducir costes, comparado con el 21% de las empresas que decían lo mismo en 2017.

Datos clave:

  • El 95% de las organizaciones que han implementado Robotic Process Automation (RPA) afirma que la tecnología ha aumentado la productividad.
  • El 93% de aquellas que han implementado RPA afirma que ha mejorado
  • El 81% indica haber reducido costes
  • El  77% asegura que la tecnología les proporciona una mejor gestión de la información.

 

Percepción cada vez más favorable al uso de robotics

 

La encuesta de Deloitte concluye que el 67% de las organizaciones ya han empezado a implementar una estrategia de RPA, un incremento interanual de 18 puntos porcentuales.

 

Hay un significante incremento en la percepción favorable hacia RPA entre aquellas empresas que ya la han implementado, con un 81% de los líderes empresariales de dichas organizaciones que muestran su apoyo al uso de robótica, frente al 72% de 2017. Adicionalmente, el 68% de los directores y líderes de equipos apoyan la automatización, el doble de los que dijeron lo mismo en 2017.

Luis González Gugel, socio responsable de Robotics en Deloitte, afirma que “es más habitual encontrar robots en las empresas y el valor que proporcionan es percibido positivamente por una amplia mayoría. El desafío es lograr ampliar su uso de manera efectiva para mostrar, verdaderamente, toda su capacidad de aumentar la productividad, reducir los riesgos, aumentar los ingresos y mejorar la experiencia tanto de clientes como de empleados.”

 

Principales barreras al avance de robotics

A pesar del cada vez mayor apoyo por parte de los profesionales a la implantación de robotics, todavía hay mucho potencial de crecimiento. Tan solo el 4% de las empresas está operando actualmente con más de 50 robots, respecto al 3% que lo hacía en 2017. El 27% está poniendo en marcha proyectos concretos de RPA con menos de 10 robots o ha abordado una completa implementación utilizando únicamente entre 10 y 50 robots.

 

Los encuestados citan entre las principales barreras para lograr el escalado de la tecnología: la fragmentación de procesos y la amplia diversidad de las tareas offline online involucradas en los procesos establecidos para ser automatizados (32%); seguido de la falta de una visión clara de RPA (17%); y la falta de preparación en materia de TI (17%).

 

González Gugel añade que “pocas organizaciones han podido escalar la robótica rápidamente. Para desbloquear los programas de automatización, se debe invertir en nuevas capacidades y fomentar una cultura de aprendizaje, innovación e interacción y avanzar hacia formas ágiles de trabajar. En definitiva, debemos tener una visión, una estrategia y un enfoque claros de la automatización.”

 

 

¿Por qué los robots cambiarán el mundo?

 

43910919180_ce7d3b6fcf_b_d

Future smart: Why robotics changes everything. Deloite, 2018

Texto completo

 

CFO Insights, estudio elaborado por Deloitte, analiza en esta nueva edición cómo la implementación del Robotic Process Automation (RPA) se ha convertido en una parte integral de la función financiera.

 

En cuanto a la robótica aplicada a Finanzas, existen dos categorías de empresas: las que han realizado pilotos y ahora están tratando de escalar la tecnología, y las que están en las primeras etapas de explorar sus posibilidades. En este aspecto, invertir tiempo en comprender el valor y las limitaciones de las herramientas que decida implementar resulta crítico ya que, necesita comprender cuáles son adecuadas para las necesidades actuales de su empres

Los robots ya están ahorrando a las empresas cantidades considerables de tiempo y dinero. En algunos casos, hemos encontrado que el RPA es quince veces más eficiente que los seres humanos y ofrece una oportunidad de reducción de costes del 15% al 90%.

Asimismo, se podría automatizar casi la mitad de las funciones realizadas por el conjunto de los perfiles financieros.

Existen algunos conceptos erróneos sobre el RPA, como las siguientes afirmaciones

  • Necesitas un ejército de robots para que valga la pena. En absoluto. De hecho, uno de los principales atractivos de RPA es la capacidad de automatizar la “long tail” de los procesos de bajo volumen o de bajo valor que no sería económico para abordar a través de otros medios.
  • Los robots son infalibles. Es cierto que pueden trabajar 24/7, pero pueden cometer errores debido a la escasa calidad de los datos de entrada. Además, éstos robots carecen de “sentido común” y no son capaces de identificar errores básicos.
  • Los robots tomarán nuestros trabajos. Esta afirmación provoca un gran temor en la sociedad actual. Sin embargo, una evaluación de las organizaciones que han implementado la automatización sugiere que la mayoría se centran en aumentar la eficiencia y la efectividad de su fuerza de trabajo en lugar de eliminarla. En consecuencia, las personas quedan liberadas de las tareas rutinarias y pueden reorientarse hacia actividades más valiosas o gratificantes.

Un laboratorio de IA en una biblioteca ¿Por qué es importante la inteligencia artificial?

uri20ai20lab

 

 

Más post en UA sobre  

Tradicionalmente, los laboratorios de inteligencia artificial (IA) que disponen los campus se han ubicado en edificios de ciencias, ingeniería o informática, proporcionando un espacio para que los investigadores y estudiantes de posgrado desarrollen algoritmos informáticos que puedan aprender o exhibir un comportamiento inteligente. Sin embargo, en otoño de 2018 se abrirá en la Universidad de Rhode Island el primer Laboratorio de Inteligencia Artificial (IA) integrado en una biblioteca universitaria, que estará disponible para todos los profesores y estudiantes en la Biblioteca Robert L. Carothers de la universidad.

 

Para los gestores de la University of Rhode Island (URI), la ubicación de este laboratorio en la biblioteca es clave, ya que se trata de un lugar central compartido, que impulsará la conciencia de la importancia de la Inteligencia Artificial a toda la comunidad universitaria, más allá de los profesores y estudiantes de las áreas tradicionales que habitualmente utilizan la IA. En su opinión, la biblioteca, como espacio interdisciplinario que tiene como objetivo la inclusión, es el lugar ideal para que las personas de todos los orígenes aprendan sobre la IA,

Antes de tomar esta decisión, se hizo una encuesta en la que se preguntó a los estudiantes de University of Rhode Island sobre qué asuntos deseaban que incluyeran en su currículo. La IA estaba entre los más solicitados. Esto impulsó a iniciar una reflexión sobre la creación de un  laboratorio de IA en la universidad.

La IA comenzó a utilizarse más en la década de 1980, cuando se desarrollaron sistemas expertos para imitar el proceso de toma de decisiones humanas. Sin embabrgo, en los últimos años, la tecnología ha avanzado considerablemente, porque Internet permite una mayor escala de datos, y la informática de alta velocidad ha multiplicado el poder de procesamiento. Los avances en las redes neuronales artificiales han producido una técnica llamada aprendizaje profundo, que ha permitido desarrollar una serie de tecnologías tales como coches sin conductor, recomendaciones de Netflix, traducciones en tiempo real, reconocimiento facial, e imágenes médicas que pueden superar a la radiología tradicional. Pero en muchos casos, las herramientas de IA son propietarias, complejas y no pueden ser utilizadas por cualquiera que no trabaje en una compañía o laboratorio.  Por ello es importante que estos tipos de proyectos se ubiquen en un lugar público como las bibliotecas, en el que todos tienen la posibilidad de acceder a los conocimientos en el mismo plano de igualdad.

El laboratorio de Inteligencia Artificial funcionará como un espacio de colaboración entre los estudiantes que están trabajando en sus proyectos finales o de clase. Se requerirá que los estudiantes se registren y hagan previamente varios cursos de aprendizaje, desde los más básicos hasta los más avanzados, que los prepararán para aplicar la IA en sus proyectos.

El laboratorio de IA ocupará una sala de 500 metros cuadrados, que tendrá tres zonas.

Zona 1: Estaciones de trabajo de AI para el aprendizaje individualizado

El laboratorio contendrá ocho estaciones de trabajo idénticas donde un estudiante o un equipo de estudiantes pueden aprender cosas sobre IA y otras áreas temáticas relevantes. Cada estación de trabajo dispone de una supercomputadora donde los estudiantes -comenzando con ejercicios introductorios-, pueden fácilmente hacer la transición a proyectos prácticos en el siguiente nivel.

Zona 2: Banco de Proyectos Práctico

Después de que los estudiantes reciban la formación básica sobre IA y ciencia de datos, trabajarán con herramientas avanzadas para diseñar proyectos prácticos en los que pueden aplicar algoritmos de IA a diversas aplicaciones:

  • Robots de Aprendizaje Profundo: para que los estudiantes programen robots móviles instrumentados con cámaras, radares, y sensores para construir algoritmos de Inteligencia Artificial.
  • Internet de las cosas para las ciudades inteligentes: Se desarrollará un modelo físico en Rhode Island. El modelo contendrá sensores distribuidos para que los estudiantes puedan diseñar proyectos algorítmicos inteligentes para controlar los espacios de la ciudad tales como iluminación, tráfico, tránsito y estacionamiento.
  • Análisis de datos de investigación (Big Data): Un entorno de aprendizaje con otros profesores para que los estudiantes puedan acceder y analizar varios tipos de datos masivos disponibles en el dominio público.

 

Zona 3: AI Hub para el pensamiento colaborativo

En el centro del Laboratorio de Inteligencia Artificial, se ubicará un centro de Inteligencia Artificial donde los estudiantes con expertos pueden seguir un pensamiento colaborativo, que incluirá pensamiento de diseño y lluvia de ideas sobre la Inteligencia Artificial.

 

 

Dos tercios de los enlaces a sitios web populares son publicados por cuentas automatizadas, no por seres humanos

los-bots-estc3a1n-en-todas-partes

Wojcik, S., S. Messing, et al. (2018). [e-Book]  “Bots in the Twittersphere” (Two-Thirds of Tweeted Links to Popular Websites are Posted by Automated Accounts, Not Human Beings). Washington D. C., Pew Research Center, 2018.

Texto completo

 

Una gran parte de los enlaces twiteados a contenido digital son generados por bots, es decir, por cuentas automatizadas que publican contenido o interactúan con otros usuarios sin participación humana directa. Un nuevo análisis del Pew Research Center de 1,2 millones de tweets encuentra que el 66% de los enlaces tuiteados al contenido de sitios web populares son publicados o compartidos por bots. Estos hallazgos ilustran hasta qué punto los bots juegan un papel prominente y omnipresente en el entorno de los medios sociales.

 

El análisis se centró en enlaces a 2.315 sitios web populares en una amplia gama de temas, incluyendo deportes, información comercial, celebridades, noticias y sitios creados por diversas organizaciones. Entre los sitios web de noticias populares y eventos actuales, el 66% de los enlaces tweeteados son compartidos por bots – similar a la proporción total de enlaces creados por robots a todo tipo de sitios populares-. La proporción de enlaces tuiteados compartidos por los robots varía dependiendo de los atributos de los diferentes sitios de noticias y eventos actuales. Por ejemplo, el 89% de los enlaces tuiteados a sitios de agregación -sitios que recopilan historias de toda la web- son publicados por bots.

La importancia del estudio es que surgen en un momento en que el papel de los bots en la promoción de material web está centrando el debate sobre los cambios en los hábitos de información de las personas, la veracidad de la información y la prevalencia de las “noticias falsas” en línea. Este análisis proporciona una nueva evidencia sobre el alcance de la actividad de los robots en la esfera de Twitter. El estudio no hace ninguna evaluación sobre si los robots son “buenos” o “malos”, ni de la precisión del material compartido por ellos, o el grado en que el público se involucra con el material generado por los robots.

Resultados fundamentales:

  • Ciertos tipos de sitios -sobre todo los que se centran en contenidos para adultos y deportes- reciben una gran parte de sus enlaces de Twitter de cuentas automatizadas. Los investigadores clasificaron los sitios en siete grupos diferentes: contenido para adultos, deportes, celebridades, productos o servicios comerciales, organizaciones o grupos, noticias y eventos actuales, y tweets con enlaces a otros materiales en Twitter. Las cuentas automatizadas fueron responsables de aproximadamente el 90% de todos los enlaces twiteados a sitios web populares centrados en contenido para adultos durante el periodo de estudio. En el caso de los sitios web populares centrados en contenidos deportivos, se estimó que esa proporción era del 76%.
  • Entre los sitios web de noticias populares y de eventos actuales, el 66% de los enlaces twitteados son hechos por bots sospechosos. La proporción de enlaces twiteados creados por robots es aún mayor entre ciertos tipos de sitios de noticias.
  • Un número relativamente pequeño de robots altamente activos son responsables de una parte significativa de los enlaces a sitios de noticias populares y eventos actuales. Este análisis encuentra que las 500 cuentas de bot más activas son responsables del 22% de los enlaces tuiteados a sitios de noticias populares y eventos actuales durante el periodo en el que se llevó a cabo este estudio. En comparación, los 500 usuarios humanos más activos son responsables de una proporción mucho menor (se estima que el 6%) de los enlaces twiteados a estos puntos de venta.
  • El estudio no encuentra evidencia de que las cuentas automatizadas tengan un “sesgo político” liberal o conservador en su comportamiento general de compartir enlaces. Un análisis de un subconjunto de sitios de noticias y eventos actuales que se enfocan al contenido político encontró que los bots sospechosos comparten aproximadamente el 41% de los enlaces a sitios políticos cuya audiencia es principalmente conservadora y el 44% de los enlaces a sitios políticos cuya audiencia es principalmente liberal – una diferencia que no es estadísticamente significativa. Por el contrario, los bots sospechosos comparten entre el 57% y el 66% de los enlaces de sitios de noticias y eventos actuales cuya audiencia es ideológicamente mixta o centrista.

 

Estos hallazgos ilustran hasta qué punto los bots juegan un papel prominente y omnipresente en el entorno de los medios sociales, ya que las cuentas automatizadas están lejos de ser un fenómeno de nicho: comparten una porción significativa de enlaces tuiteados, incluso a las publicaciones más prominentes e importantes y a los puntos de venta en línea. Dado que estos datos pueden impactar la información que la gente ve en los medios sociales, es importante tener un sentido de su importancia en los medios sociales.

 

 

 

Inteligencia artificial. Las máquinas que aprenden solas

Rodríguez Canfranc, Pablo. Inteligencia artificial. Las máquinas que aprenden solas. Madrid: Fundación Telefónica, 2017

Texto completo

ReadSpeaker Escuchar PDF – Descargar PDF – (Español)

Descargar PDF

La evolución de la inteligencia artificial durante las últimas décadas ha creado programas y algoritmos que no solo realizan mecánicamente tareas programadas, sino que además son capaces de aprender de la experiencia, como hacemos los humanos, pueden elaborar juicios y tomar decisiones. Esta inteligencia, que supera la capacidad humana, está planteando nuevos y desafiantes retos a la altura de los argumentos de la ciencia ficción.

 

 

 

Detección de robots Web en la promoción de publicaciones académicas

usuario-robot

 

 Lagopoulos, A. ; Tsoumakas, G; Papadopoulos, G  “Web Robot Detection in Academic Publishing”. ArXiv, 2017

Texto completo

Informes recientes de la industria aseguran el surgimiento de robots web  constituyen más de la mitad del tráfico web total. No solo amenazan la seguridad, la privacidad y la eficiencia de la web, sino que también distorsionan los análisis y las métricas, y ponen en duda la veracidad de la información que promocionan. En el dominio de la publicación académica, esto puede hacer que artículos erróneos se presenten como prominentes e influyentes. En este documento, se presenta un enfoque sobre la detección de robots web en sitios web de publicaciones académicas. Para ello los autores Utilizaron diferentes algoritmos de aprendizaje supervisado con una variedad de características derivadas tanto de los archivos de registro del servidor como del contenido servido por el sitio web. El análisis llevado a cabo se basa en la suposición de que los usuarios humanos estarán interesados ​​en dominios o artículos específicos, mientras que los robots web rastrean una biblioteca web incoherentemente.  El estudio muestra resultados prometedores, identificando la importancia de las características semánticas en el problema de detección de robots web.