Archivo de la etiqueta: Inteligencia artificial

PimEyes: herramienta de reconocimiento facial por aprendizaje automático

 

ef4ee21f-pim

 

PimEyes

 

PimEyes es una herramienta avanzada que te ayudará a encontrar la cara que busca en Internet. Esto es posible gracias a la última tecnología: reconocimiento facial combinado con el poder del aprendizaje automático.

Puede enviar una imagen de la cara a PimEyes para encontrar a la persona en Internet. PimEyes utiliza algoritmos modernos de reconocimiento facial y el poder del aprendizaje automático para generar resultados de búsqueda de la más alta calidad. La aplicación se centra solo en reconocimiento de caras, la composición y los colores de la imagen no son importantes. El  motor de búsqueda no compara el corte de pelo, solo importan los rasgos faciales.

Según la información que proporciona la página, la imagen que envías a PimEyes se guarda temporalmente durante 48 horas. No almacena ningún dato privado de los usuarios. Buscar con PimEyes es seguro y está protegido. Si desea eliminar su imagen, utilice el botón especial “Informar abuso” en la esquina inferior derecha de cada resultado de búsqueda. Luego complete el formulario y envíe su solicitud.

Con la versión gratuita de PimEyes, puedes buscar en toda la base de datos de PimEyes. Sin embargo, si no es un miembro premium, no podrás averiguar dónde se encuentra una imagen específica. Los miembros Premium también tienen acceso a funciones adicionales, por ejemplo, filtros de búsqueda, y mayores límites de alertas de PimEyes.

Inteligencia artificial naturalmente: Un manual de convivencia entre humanos y máquinas para que la tecnología nos beneficie a todos

 

inteligencia20artificial20202020ontsi20250x250

 

Oliver, Nuria. Inteligencia artificial naturalmente: Un manual de convivencia entre humanos y máquinas para que la tecnología nos beneficie a todos. Madrid: ONTSI, 2020

Texto completo

 

Un manual de convivencia entre humanos y máquinas para que la tecnología nos beneficie a todos” es Nuria Oliver, Directora de Investigación en Ciencias de Datos en Vodafone y Chief Data Scientist en Data-Pop Alliance.

Basado es el discurso pronunciado por la autora en su ingreso a la Real Academia de Ingeniería, se centra en la Inteligencia Artificial, haciendo un breve recorrido por su historia, describiendo su impacto actual y planteando los retos que presenta desde diferentes perspectivas. Está escrito en primera persona, a fin de llevar de la mano a los lectores en el acercamiento a un tema complejo pero que afecta crecientemente la vida de todos

Inteligencia artificial en medicina y salud. Aplicaciones, disponibilidad e impacto social

 

120214_183359

 

Artificial Intelligence in Medicine and Healthcare: applications, availability and societal impact. Brussels: European Unión, 2020

Texto completo

 

Este informe revisa y clasifica las aplicaciones actuales y futuras de la Inteligencia Artificial (IA) en Medicina y Salud de acuerdo con su impacto ético y social y el nivel de disponibilidad de las diversas implementaciones tecnológicas. Proporciona bases conceptuales para un trabajo orientado a políticas bien informado, investigación y actividades prospectivas que aborden oportunidades y desafíos creados en el campo de la IA en Medicina y Salud.

Industria 4.0. Inteligencia artificial, IoT, trazabilidad y blockchain

 

image-34

 

Industria 4.0. Inteligencia artificial, IoT, trazabilidad y blockchain. DigitalES, 2020

Texto completo

 

España sigue mejorando en su proceso de desarrollo de la digitalización (puesto 45 en 2017 acorde al Business Usage Index incuído en el estudio de Siemens sobre “España 4.0”) gracias a los esfuerzos de la administración pública, las inversiones privadas, el liderazgo de algunas empresas, el talento residente y asociaciones como DigitalES que evangelizan y dinamizan el entorno empresarial y social con un gran impacto positivo. Desde la perspectiva de la Industria 4.0, entendida como la 4ª revolución industrial caracterizada por una operativa basada en sistemas ciber-físicos, existen unas tecnologías digitales primordiales que ya han demostrado su valor. El grupo de trabajo de DigitalES: Industria 4.0 (con aportaciones principales de GE Digital, PwC, EY, Minsait, IBM y Everis) ha identificado cuatro tecnologías que considera son las más susceptibles de generar valor industrial inmediato en España: Inteligencia Artificial (AI en inglés), Internet de las cosas (IoT), Blockchain (BC) y la Trazabilidad en la Cadena de Suministro. Estas tecnologías además se complementan unas a otras en la mejora de los procesos industriales de principio a fin. En general, estas tecnologías (o suma de las mismas) suponen oportunidades para la industria española referentes a la mejora de la eficiencia y flexibilidad productiva y de los niveles de servicio, y la generación de nuevos modelos de negocio. Y todas ellas se apoyan jugando papeles necesarios y complementarios en la Industria 4.0:

• la AI (Inteligencia Artificial) como el sw de algoritmos que produce inteligencia acorde a criterios industriales.

• el IoT (Internet de las cosas) permite la transmisión de dicha inteligencia entre dispositivos con acciones que mejoran la eficiencia industrial.

• la Trazabilidad que hace visible los bienes de equipos de principio a fin en la cadena de suministro para que las acciones del IoT que mejoran la eficiencia industrial puedan ser analizadas correctamente.

• y el Blockchain que registra en un entorno público o privado todo lo mencionado anteriormente de forma secuencial y acorde a los criterios de los múltiples participantes sin dependencia de terceros.

 

 

Los bibliotecarios del futuro serán archiveros de IA

 

nnavigator-logo-cropped-1589391044

 

The Librarians of the Future Will Be AI Archivists It isn’t easy to archive images. That’s where AI comes in. BY COURTNEY LINDER MAY 13, 2020

Texto completo

 

Un científico informático de la Biblioteca del Congreso está utilizando el aprendizaje automático para aislar imágenes históricas de archivos de periódicos digitales. El proyecto, llamado Newspaper Navigator, utiliza algoritmos ópticos de reconocimiento de caracteres para convertir caracteres escritos a mano o basados ​​en texto en un documento de búsqueda. El aprendizaje automático automatiza el proceso.

 

En julio de 1848, L’illustration, un semanario francés, imprimió la primera foto que apareció junto a una historia. Representaba las barricadas parisinas levantadas durante el levantamiento de los días de junio de la ciudad. Casi dos siglos después, el fotoperiodismo ha proporcionado a las bibliotecas millones imágenes de archivo que cuentan historias de nuestro pasado. Pero sin un enfoque metódico para curarlas, estas imágenes históricas podrían perderse en montones interminables de datos.

Es por ello que la Biblioteca del Congreso en Washington, DC está experimentando un proyecto sobre esta cuestión. Los investigadores están utilizando algoritmos especializados para extraer imágenes históricas de los periódicos. Si bien los escaneos digitales ya pueden compilar fotos, estos algoritmos también pueden analizarlas, catalogarlas y archivarlas. Esto dio como resultado 16 millones de páginas de periódicos en imágenes que los archiveros pueden visualizar con una simple búsqueda.

Ben Lee, en la Biblioteca del Congreso especialista en computación en la Universidad de Washington, encabeza lo que se llama Newspaper NavigatorSu conjunto de datos proviene de un proyecto existente llamado Chronicling America, que compila páginas de periódicos digitales entre 1789 y 1963.

Se dio cuenta de que la biblioteca ya se había embarcado en un viaje de crowdsourcing para convertir algunas de esas páginas de periódicos en una base de datos de búsqueda, con un enfoque en el contenido relacionado con la Primera Guerra Mundial. Los voluntarios podrían marcar y transcribir las páginas de periódicos digitales, algo que las computadoras no son capaces de hacer de una manera adecuada. En efecto, lo que habían construido era un conjunto perfecto de datos de entrenamiento para un algoritmo de aprendizaje automático que podía automatizar todo ese trabajo agotador y laborioso.

Newspaper Navigator se basa en la misma tecnología que los ingenieros utilizaron para crear Google Books. Se llama reconocimiento óptico de caracteres u OCR para abreviar, y es una clase de algoritmos de aprendizaje automático que pueden traducir imágenes de símbolos escritos a mano o escritos, como palabras en una página de revista escaneada, en texto digital legible por máquina. Pero las imágenes son algo completamente distinto.

 

screen-shot-2020-05-13-at-3-44-22-pm-1589399096

 

Utilizando el aprendizaje profundo, Lee creó un modelo de detección de objetos que podría aislar siete tipos diferentes de contenido: fotografías, ilustraciones, mapas, cómics, dibujos animados editoriales, titulares y anuncios. Lee también dice que, incluso a pesar de sus mejores esfuerzos, este tipo de sistemas siempre codificará algún sesgo humano. “Es fácil suponer que el aprendizaje automático resuelve todos los problemas, eso es una fantasía, pero en este proyecto, creo que es una oportunidad real para enfatizar que debemos tener cuidado de cómo usamos estas herramientas”.

La nueva herramienta de búsqueda de Google basada en inteligencia artificial ayuda a los investigadores con consultas sobre coronavirus

 

exuvhckwaaeql-m

Google Blog

COVID-19 research explorer tool

El equipo de inteligencia artificial de Google ha lanzado una nueva herramienta para ayudar a los investigadores a encontrar una gran cantidad de artículos, revistas y artículos sobre coronavirus. La herramienta de exploración de investigación COVID-19 es una  interfaz de búsqueda semántica que se encuentra en la parte superior del  conjunto de datos de investigación abierta COVID-19  (CORD-19). 

El equipo dice que los motores de búsqueda tradicionales son suficientes para responder consultas como “¿Cuáles son los síntomas del coronavirus?” o “¿Dónde puedo hacerme la prueba en mi país?”. Sin embargo, cuando se trata de preguntas más puntuales de los investigadores, estos motores de búsqueda y su  enfoque basado en palabras clave no logran obtener resultados precisos.

La nueva herramienta de Google ayuda a los investigadores a resolver ese problema. La base de datos CORD-19 tiene más de 50.000  artículos de revistas y trabajos de investigación relacionados con el coronavirus. Sin embargo, una simple búsqueda de palabras clave en los motores tradicionales no arrojaría resultados confiables. Sin embargo, la herramienta de Google utiliza la búsqueda semántica basada en la comprensión del lenguaje natural (NLU) para responder esas consultas. 

 

Los asesores científicos piden que los editores den acceso gratuito a toda información sobre el coronavirus

Long Island Laboratory To Start Semi-Automated Coronavirus Testing

 

A dozen national science advisers ask publishers to make all coronavirus research available for AI by Alan Boyle on March 13, 2020 at 9:53 am

Ver completo

 

Las principales editoriales científicas del mundo, como Science and Nature, tradicionalmente cobran por el acceso a sus revistas de primera categoría. Pero  en una carta emitida hoy, los asesores científicos de la Casa Blanca y otros 11 gobiernos nacionales están pidiendo a los editores de todo el mundo que brinden acceso libre y gratuito a todas las investigaciones relacionadas con los coronavirus.

Si se responde a la declaración, todas las investigaciones relacionadas con COVID-19, el virus SARS-CoV-2 que causa la enfermedad, así como otros coronavirus, se pondrían a disposición abierta en una forma que permita la minería de datos habilitada para IA. Ello es fundamental para el Instituto Allen de Inteligencia Artificial de Seattle y su motor de búsqueda académica Semantic Scholar. 

Los firmantes de la carta representan a Estados Unidos, así como a Australia, Brasil, Gran Bretaña, Canadá, Alemania, India, Italia, Japón, Nueva Zelanda, Singapur y Corea del Sur. Aunque ya muchos editores están proporcionando acceso abierto a la investigación de coronavirus, pero no siempre en forma legible por máquina.

La Unión Europea ha prohibido el reconocimiento facial: libro blanco europeo sobre Inteligencia Artificial (IA)

72b0f32797dd441c89b1396bba9ac524_18

WHITE PAPER
On Artificial Intelligence – A European approach to excellence and trust

Brussels, 19.2.2020
COM(2020) 65 final

Texto completo

 

La Comisión Europea está considerando la posibilidad de prohibir temporalmente el uso de las tecnologías de reconocimiento facial en las zonas públicas por un período de hasta cinco años. Una prohibición temporal daría a los reguladores el tiempo que necesitan para averiguar cómo evitar que el reconocimiento facial sea objeto de abusos tanto por parte de los gobiernos como de las empresas. Sin embargo, podrían hacerse excepciones a la prohibición para los proyectos de seguridad, así como para la investigación y el desarrollo.

La Inteligencia Artificial se está desarrollando rápidamente. Cambiará nuestras vidas mejorando la asistencia sanitaria (por ejemplo, haciendo diagnóstico más preciso, permitiendo una mejor prevención de las enfermedades), aumentando la eficiencia de la agricultura, contribuyendo a la mitigación del cambio climático y a la adaptación al mismo, mejorando la eficiencia de los sistemas de producción mediante el mantenimiento predictivo, aumentando la seguridad de los europeos, y de muchas otras formas que sólo podemos empezar a imaginar. Al mismo tiempo, la Inteligencia Artificial (IA) conlleva una serie de riesgos potenciales, como la toma de decisiones opaca, la discriminación por motivos de género u otros tipos de discriminación, la intrusión en nuestras vidas privadas o el ser utilizada con fines delictivos.

En el libro blanco se propone imponer obligaciones tanto a los desarrolladores como a los usuarios del reconocimiento facial, al tiempo que se pide a los países de la Unión Europea que creen una autoridad para vigilar las nuevas normas que rodean a esta controvertida tecnología.

Ciertos programas de IA para el análisis facial muestran sesgos de género y raciales, demostrando bajos errores en la determinación del género de los hombres de piel clara pero altos errores en la determinación del género de las mujeres de piel más oscura. Fuente: Joy Buolamwini, Timnit Gebru; Proceedings of the 1st Conference on Fairness, Accountability and Transparency, PMLR 81:77-91, 2018.

La identificación biométrica a distancia debe distinguirse de la autenticación biométrica (esta última es un proceso de seguridad que se basa en las características biológicas únicas de un individuo para verificar que es quien dice ser). La identificación biométrica es cuando se establecen las identidades de múltiples personas con la ayuda de identificadores biométricos (huellas dactilares, imagen facial, iris, patrones vasculares, etc.) a distancia, en un espacio público y en un continuo o de manera que se cotejen con los datos almacenados en una base de datos.

La reunión y utilización de datos biométricos con fines de identificación a distancia, por ejemplo, mediante el despliegue del reconocimiento facial en lugares públicos, entraña riesgos específicos para los derechos fundamentales. En relación con ello, los derechos al respeto de la vida privada y a la protección de los datos personales están en el núcleo de las preocupaciones de derechos fundamentales cuando se utiliza la tecnología de reconocimiento facial. También hay un posible impacto en la no discriminación y los derechos de grupos especiales, como los niños, las personas de edad y las personas con discapacidad. Además, La libertad de expresión, asociación y reunión no debe ser socavada por el uso de la tecnología. Ver: Tecnología facial de de reconocimiento: consideraciones sobre los derechos fundamentales en el contexto de la aplicación de la ley,

 

 

Investigadores del MIT desarrollan un sistema automatizado que puede reescribir frases obsoletas en los artículos de Wikipedia

 

wikipediabotsfeature

 

Darsh J Shah, Tal Schuster, Regina Barzilay. Automatic Fact-guided Sentence Modification. AAAI 2020

Texto completo

Mit News

 

Un sistema creado por los investigadores del MIT podría utilizarse para actualizar automáticamente las inconsistencias de los hechos en los artículos de la Wikipedia, reduciendo el tiempo y el esfuerzo de los editores humanos que ahora hacen la tarea manualmente.

 

En un documento que se presenta en la Conferencia de la AAAI sobre Inteligencia Artificial, los investigadores describen un sistema de generación de texto que señala y reemplaza información específica en frases relevantes de Wikipedia, manteniendo el lenguaje similar a la forma en que los humanos escriben y editan.

La idea es que los humanos escriban en una interfaz una oración no estructurada con información actualizada, sin necesidad de preocuparse por el estilo o la gramática. El sistema entonces buscaría en Wikipedia, localizaría la página apropiada y la oración obsoleta, y la reescribiría de manera similar a la de los humanos. En el futuro, dicen los investigadores, existe la posibilidad de construir un sistema totalmente automatizado que identifique y utilice la información más reciente de toda la web para producir frases reescritas en los artículos correspondientes de Wikipedia que reflejen la información actualizada.

“Hay tantas actualizaciones que se necesitan constantemente para los artículos de Wikipedia. Sería beneficioso modificar automáticamente porciones exactas de los artículos, con poca o ninguna intervención humana”, dice Darsh Shah, un estudiante de doctorado en el Laboratorio de Ciencias de la Computación e Inteligencia Artificial (CSAIL) y uno de los autores principales. “En lugar de cientos de personas trabajando en la modificación de cada artículo de la Wikipedia, entonces sólo se necesitará unos pocos, porque el modelo está ayudando o lo hace automáticamente. Eso ofrece mejoras importantes respecto a la eficiencia.”

Existen muchos otros bots que hacen ediciones automáticas de Wikipedia. Típicamente, esos trabajan en la mitigación del vandalismo o en coordinar alguna información estrechamente definida en plantillas predefinidas, dice Shah. El modelo de los investigadores, dice, resuelve un problema más difícil de inteligencia artificial: Dada una nueva pieza de información no estructurada, el modelo modifica automáticamente la frase de manera humana. “Las otras tareas [bot] se basan más en reglas, mientras que ésta es una tarea que requiere razonar sobre partes contradictorias en dos frases y generar un texto coherente”, dice.

El sistema también puede ser usado para otras aplicaciones de generación de texto, dice el co-autor principal y estudiante graduado de CSAIL, Tal Schuster. En su trabajo, los investigadores también lo usaron para sintetizar automáticamente las oraciones en un popular conjunto de datos de verificación de hechos que ayudaron a reducir el sesgo, sin tener que recolectar manualmente datos adicionales. “De esta manera, el rendimiento mejora para los modelos de verificación automática de hechos en el conjunto de datos para, por ejemplo, la detección de noticias falsas”, dice Schuster.

 

Tecnologías emergentes y datos abiertos: Inteligencia Artificial

30e68744ab73e1ef663a5602785fdeaa

 

Alejandro Alija. Tecnologías emergentes y datos abiertos: Inteligencia Artificial. Madrid: Gobierno de España, 2020

Texto completo

PDF

DOC

 

El primer informe de la serie está dedicado a la Inteligencia Artificial. Podemos definir la Inteligencia Artificial (IA) como la capacidad de una máquina para imitar la inteligencia humana. Esta tecnología tendrá un gran impacto en nuestras vidas, mediante dos vías: la automatización de tareas cotidianas, rutinarias y peligrosas y el aumento de las capacidades humanas, ayudando a potenciar la fuerza del trabajo del futuro.