Facebook más cerca de gafas de realidad aumentada con implante cerebral que decodifica el diálogo de la actividad neuronal

screen-shot-2016-04-12-at-3.53.43-pm-1

Facebook Closer to Augmented Reality Glasses With Brain Implant That Decodes Dialogue From Neural Activity

IEE Spectrum By MEGAN SCUDELLARI

Posted 30 Jul 2019 | 15:09 GMT

Ver original

En 2017, Mark Chevillet de Facebook se otorgó dos años para demostrar si era factible desarrollar una tecnología no invasiva capaz de leer 100 palabras por minuto de la actividad cerebral.

Han pasado dos años y el veredicto está en: “La promesa está ahí”, dijo Chevillet a IEEE Spectrum . “Creemos que será posible”.

Como director de investigación del  programa de interfaz cerebro-computadora de  Facebook Reality Labs, Chevillet planea seguir adelante con el proyecto y el objetivo final de la compañía de desarrollar gafas de realidad aumentada (AR) que puedan controlarse sin tener que hablar en voz alta.

El optimismo de Chevillet se ve impulsado en gran parte por ser el primero en el campo de las interfaces cerebro-computadora que llegó a la prensa esta mañana: en la revista Nature Communications , un equipo de la Universidad de California en San Francisco, financiado por Facebook Reality Labs, ha creado una interfaz cerebro-computadora que decodifica con precisión el diálogo (palabras y frases  tanto escuchadas como habladas por la persona que usa el dispositivo) a partir de señales cerebrales en tiempo real.

Los resultados son un paso importante hacia los implantes neurales que podrían usarse para restaurar la comunicación natural a los pacientes que han perdido la capacidad de hablar debido a un accidente cerebrovascular, lesión de la médula espinal u otras afecciones, dice el autor principal y neurocirujano de la UCSF,  Edward Chang .

Facebook, sin embargo, está más interesado en construir gafas de realidad aumentada que dispositivos biomédicos. Este trabajo proporciona una prueba de principio de que es posible decodificar el habla imaginada a partir de señales cerebrales midiendo la actividad de grandes poblaciones de neuronas, dice Chevillet. “Este [resultado] ayuda a establecer la especificación de qué tipo de dispositivo portátil necesitamos construir”.

En abril, el equipo de Chang estrenó una interfaz cerebro-computadora diferente capaz de decodificar directamente el habla de las señales cerebrales. El objetivo del trabajo descrito en el lanzamiento de hoy era aumentar la precisión de la decodificación de la actividad cerebral. “Estamos decodificando dos tipos de información de dos partes diferentes del cerebro, y usándola como contexto”, dice Chang. El resultado es un “impacto considerable” en la precisión de la decodificación, dice.

Esa precisión mejorada se basa en un concepto simple: agregar contexto. Usando electrodos implantados en el cerebro de tres pacientes voluntarios sometidos a tratamiento para la epilepsia, el equipo de Chang registró la actividad cerebral mientras los voluntarios escuchaban un conjunto de preguntas pregrabadas y hablaban en voz alta sus respuestas.

La mayoría de los decodificadores de voz funcionan adivinando qué sonido está pensando una persona, por lo que se espera que un decodificador cerebral normal se confunda con palabras de sonido similar como ‘sintetizador’ y ‘fertilizante’. El nuevo sistema UCSF agrega contexto para ayudar a discriminar entre esas palabras. Primero, el algoritmo predice la pregunta que se escuchará de un conjunto conocido de preguntas, como “¿Qué difundes en un campo?”. Esa información luego se usa como contexto para ayudar a predecir la respuesta: “Fertilizante”.