New York Times está utilizando Google Cloud para encontrar historias no contadas en millones de fotos archivadas

 

morgue7.max-2200x2200-1

 

Sam Greenfield. Picture what the cloud can do: How the New York Times is using Google Cloud to find untold stories in millions of archived photos. Google Cloud Blog, 2019

Ver completo

Durante más de 100 años, The Times ha archivado aproximadamente de cinco a siete millones de sus fotos antiguas en cientos de archivadores tres pisos debajo del nivel de la calle cerca de sus oficinas de Times Square en un lugar llamado “morgue”. Muchas de las fotos han sido almacenadas en carpetas y no se habían visto en años. Aunque un catálogo de tarjetas proporciona una visión general del contenido del archivo, hay muchos detalles en las fotos que no se capturan en forma indexada.

El depósito contiene fotos de finales del siglo XIX, y muchos de sus contenidos tienen un gran valor histórico, algunos que no se almacenan en ningún otro lugar del mundo. En 2015, una tubería rota inundó la biblioteca de archivos, poniendo en riesgo toda la colección. Afortunadamente, solo se causaron daños menores, pero el evento planteó la pregunta: ¿cómo pueden almacenarse de manera segura algunos de los activos físicos más preciados de la compañía?

Google Cloud se ha asociado con The New York Times para ayudarlos a digitalizar su vasta colección de fotos. Está haciendo uso de numerosas herramientas dentro de Google Cloud Platform que les permiten almacenar de forma segura sus imágenes, proporcionarles una mejor interfaz para encontrar fotos y encontrar nuevos conocimientos incluso de los datos que aparecen en el reverso de las imágenes. No solo las imágenes de las fotos contienen información valiosa. En muchos casos, el reverso de las fotos incluye la hora y el lugar donde se tomó la foto.

Para preservar esta historia invaluable, y para darle a The Times la capacidad de mejorar sus informes con una historia visual y un contexto histórico aún más, The Times está digitalizando su archivo, utilizando Cloud Storage para almacenar escaneos de alta resolución de todas las imágenes del archivo.

Cloud Storage es un sistema duradero para almacenar objetos, y proporciona a los clientes como The Times una gestión automática del ciclo de vida, almacenamiento en regiones geográficamente distintas y una interfaz de administración y API fáciles de usar. Simplemente almacenar imágenes de alta resolución no es suficiente para crear un sistema que los editores de fotos puedan usar fácilmente. Un sistema de gestión de activos que funcione debe permitir que los usuarios puedan navegar y buscar fotos fácilmente. The Timesconstruyó una tubería de procesamiento que almacena y procesa las fotos y utilizará tecnología en la nube para procesar y reconocer texto, escritura a mano.

Así es como funciona. Una vez que una imagen se ingresa en el almacenamiento en la nube, The Times usa Cloud Pub / Sub para iniciar la canalización de procesamiento para realizar varias tareas. Las imágenes se redimensionan a través de servicios que se ejecutan en Google Kubernetes Engine (GKE) y los metadatos de la imagen se almacenan en una base de datos PostgreSQL que se ejecuta en Cloud SQL , la oferta de base de datos está totalmente administrada de Google.

En el caso de The Times, uno de los mayores desafíos en el escaneo de su archivo fotográfico ha sido agregar datos sobre el contenido de las imágenes. La API de Cloud Vision puede ayudar a llenar ese vacío. Si la parte posterior de las fotos contiene una gran cantidad de información útil, la API de Cloud Vision puede ayudarnos a procesarla, almacenarla y leerla. Este es solo el comienzo de lo que es posible para las empresas con archivos físicos. Pueden usar la API de Vision para identificar objetos, lugares e imágenes.

La API de lenguaje natural en la nube podría usarse para agregar información semántica adicional al texto reconocido. Por ejemplo, si pasamos el texto “The New York Time THE WAY IT WAY – Crowded Penn Station en 1942, una era en la que solo los valientes volaban – a Washington, Miami y varias estaciones de ruta” a través de Cloud Natural Language API, identifica correctamente “Penn Station”, “Washington” y “Miami” como ubicaciones, y clasifica la oración completa en la categoría “viajes” y la subcategoría “autobús y ferrocarril”. Es decir, utiliza un sistema de aprendizaje automático para obtener información adicional, de modo que es capaz a través de los datos obtenidos en la foto y de los contenidos en el sistema o web datos sobre la imagen que no estaban recogidos en la foto original a través de los datos masivos y la inteligencia artificial.