Interfaz cerebro-computadora puede traducir pensamientos en el habla

$config[ads_kvadrat] not found

Cómo está actualmente el tema de la interfaz cerebro-ordenador (sorprendente)

Cómo está actualmente el tema de la interfaz cerebro-ordenador (sorprendente)

Tabla de contenido:

Anonim

De acuerdo con un estudio publicado el martes, los neuroingenieros han creado un nuevo sistema que puede convertir pensamientos simples en un habla reconocible, utilizando inteligencia artificial y un sintetizador de voz.

Un equipo de investigadores con sede en Nueva York pudo reconstruir palabras utilizando solo actividad cerebral, una innovación que podría allanar el camino para tecnologías controladas por el cerebro como, por ejemplo, un teléfono inteligente que puede traducir sus pensamientos en mensajes de texto.

La Dra. Nima Mesgarani, profesora asociada de la Universidad de Columbia, dirigió el estudio y le dice a Inverso que ve un gran potencial para ayudar a restaurar el habla a las personas que se están recuperando de un derrame cerebral o que viven con esclerosis lateral amiotrófica (ELA). Más abajo en la línea, este tipo de tecnología también podría abrir las puertas a los teléfonos inteligentes conectados al cerebro que podrían permitirles a los usuarios enviar mensajes de texto usando sus mentes, aunque eso todavía está muy lejos. Su trabajo fue publicado en la revista. Informes cientificos.

"Una de las motivaciones de este trabajo … es por métodos alternativos de interacción persona-computadora, como una posible interfaz entre un usuario y un teléfono inteligente", dice. "Sin embargo, aún está lejos de la realidad, y en este momento, la información que se puede extraer mediante métodos no invasivos no es lo suficientemente buena para una aplicación de interfaz cerebro-computadora del habla".

Escucha el discurso generado por la interfaz cerebro-computadora.

Para desarrollar la nueva técnica, Mesgarani y su colega, el Dr. Ashesh Dinesh Mehta, del Instituto de Neurociencia de Northwell Health Physician Partners, comenzaron a examinar la actividad cerebral de los pacientes con epilepsia para su estudio. Estos pacientes ya tenían implantes de electrodos en sus cerebros para monitorear las convulsiones, que Mesgarani y Mehta pudieron usar para recopilar datos para su investigación.

El dúo pidió a los participantes dispuestos a escuchar a los oradores recitar los números entre cero y nueve, y luego registraron las señales cerebrales de esa interacción. Luego, entrenaron una red neuronal, un programa que imita la estructura de las neuronas en el cerebro humano, para reconocer los patrones en las señales y traducirlas en palabras que suenan robóticas usando un sintetizador de voz, conocido como vocoder.

El resultado fue un breve clip de voz de lo que parece que Microsoft Sam cuenta de cero a nueve. La parte impresionante es cuán claro se compara el discurso con otros métodos que los investigadores probaron. Sin embargo, todavía queda mucho trabajo por hacer.

"Puede pasar una década antes de que esta tecnología esté disponible", dice Mesgarani. “Necesitamos más avances tanto en electrodos implantables biocompatibles a largo plazo como en tecnologías avanzadas en métodos de registro neuronal no invasivos. También necesitamos una mejor comprensión de cómo el cerebro representa el habla, para poder refinar nuestros métodos de decodificación ".

Los pacientes que formaron parte de este estudio, por ejemplo, se sometieron a cirugía cerebral para implantar monitores de electrocorticografía. Este es un proceso extremadamente invasivo que requiere cirugía cerebral abierta, algo que la mayoría de las personas podría no estar dispuesta a realizar, incluso si existiera la posibilidad de restaurar algunas de sus capacidades del habla.

Por ahora, este estudio introdujo un método para decodificar señales cerebrales en el habla. Si descubrimos cómo detectar con precisión la actividad cerebral sin cirugía, estaremos un paso más cerca no solo de revolucionar la terapia del habla, sino también de crear teléfonos inteligentes conectados al cerebro.

La investigación de la interfaz cerebro-computadora ha estado recibiendo un nuevo interés en los últimos años. En abril de 2017, Facebook anunció que estaba trabajando en un BCI durante su conferencia anual F8. Y Elon Musk anunció en noviembre de 2018 que Neuralink, su propia startup de BCI, estaba contratando.

Resumen

La reconstrucción del estímulo auditivo es una técnica que encuentra la mejor aproximación del estímulo acústico de la población de actividad neural evocada. La reconstrucción del habla a partir de la corteza auditiva humana crea la posibilidad de que una neuroprótesis del habla establezca una comunicación directa con el cerebro y se ha demostrado que es posible tanto en condiciones abiertas como encubiertas. Sin embargo, la baja calidad del habla reconstruida ha limitado gravemente la utilidad de este método para aplicaciones de interfaz cerebro-computadora (BCI). Para avanzar en el estado de la técnica en la neuroprótesis del habla, combinamos los avances recientes en el aprendizaje profundo con las últimas innovaciones en tecnologías de síntesis de voz para reconstruir el habla inteligible en un conjunto cerrado de la corteza auditiva humana. Investigamos la dependencia de la precisión de la reconstrucción en los métodos de regresión lineal y no lineal (red neuronal profunda) y la representación acústica que se utiliza como el objetivo de la reconstrucción, incluidos los parámetros del espectrograma auditivo y de síntesis del habla. Además, comparamos la precisión de reconstrucción de rangos de frecuencia neural baja y alta. Nuestros resultados muestran que un modelo de red neuronal profunda que estima directamente los parámetros de un sintetizador de voz a partir de todas las frecuencias neuronales alcanza las puntuaciones subjetivas y objetivas más altas en una tarea de reconocimiento de dígitos, mejorando la inteligibilidad en un 65% con respecto al método de base que usó la regresión lineal para Reconstruir el espectrograma auditivo. Estos resultados demuestran la eficacia de los algoritmos de aprendizaje profundo y de síntesis de voz para diseñar la próxima generación de sistemas BCI de voz, que no solo pueden restablecer las comunicaciones para los pacientes paralizados sino que también tienen el potencial de transformar las tecnologías de interacción humano-computadora.

Video relacionado: Los robots de detección de ondas cerebrales pueden servir como extensiones del cuerpo humano

$config[ads_kvadrat] not found