Fotografía: Maria Krisanova en Unsplash
stop

Un intérprete virtual que convierte los pulsos eléctricos del cerebro en habla tiene el potencial de dar voz a personas con parálisis muscular

Madrid, 29 de abril de 2019 (10:03 CET)

"Por primera vez", dice Edward Chang, "un estudio científico demuestra que es posible reproducir el habla a partir de la actividad cerebral". El profesor de cirugía neurológica de la Universidad de California en San Francisco celebra este logro como "una estimulante prueba de principio" de que se puede "construir un dispositivo clínicamente viable para pacientes con pérdida del habla".

Su laboratorio ha desarrollado el primer sistema que puede convertir los pensamientos en habla. El hallazgo se ha publicado esta semana en la revista científica Nature y, aunque todavía que mucho trabajo antes de que tenga aplicaciones prácticas en pacientes, esta interfaz entre el cerebro y la máquina tiene el potencial para mejorar la calidad de vida de quienes no pueden expresas con palabras sus pensamientos.

Sin embargo el sistema no es capaz de leer la mente ni de expresas de viva voz pensamientos abstractos. En cambio el dispositivo interpreta los pulsos eléctricos del cerebro encargados de activar el sistema vocal.

Por tanto para que el desarrollo resulte útil la persona tiene que tener la capacidad de convertir los pensamientos en habla, aunque el sistema vocal no sea capaz de reproducirlos.

Por ejemplo, tiene el potencial de aplicarse en caso de enfermedades neurodegenerativas como la esclerosis lateral amiotrófica (ELA) que inhabilita los músculos del tracto vocal y de la cara, impidiendo el habla, pero no en caso de daños y lesiones cerebrales que afecten al origen neurológico del habla.

Un descodificador para la actividad eléctrica del cerebro

Como explica National Geographic el estudio demuestra que se puede descodificar la actividad eléctrica del cerebro y trasladarse a un sintetizador del habla. El científico del habla Gopala Anumanchipalli, uno de los investigadores participantes, comentó que "la relación entre los movimientos del tracto vocal y los sonidos del habla es compleja".

"Pensamos que si estos centros de habla en el cerebro codifican movimientos en lugar de sonidos, deberíamos intentar hacer lo mismo para descodificar esas señales", añadió Anumanchipalli.

Ese descodificador consiste en una malla que agrupa decenas de electrodos que detecta los impulsos nerviosos en su recorrido hacia el tracto vocal, lo que requiere su colocación sobre la superficie del cerebro. Determinando qué músculos y en qué medida se activan (o deberían activarse) en respuesta a esos impulsos se puede recrear un modelo del sistema vocal del paciente.

Recrear el modelo vocal del paciente

Para recrear el modelo vocal se utiliza un sistema de aprendizaje automático que convierte las señales eléctricas dirigidas al sistema vocal en palabras. "Es lectura cerebral pero no es lectura de la mente," explican.

El funcionamiento del intérprete artificial varía mucho dependiendo de las palabras y frases que se deseen expresas; las frases sencilla se pudieron descodificar en la mayoría de los casos, mientras que las frases o palabras más complejas resultan en interpretaciones menos fiables.

Este tipo de desarrollos se ha aplicado con éxito en prótesis para extremidades, en especial brazos y manos; aplicado al habla, sin embargo, el desafío es mayor por la mayor complejidad y el amplio abanico de variaciones que, al hablar, se traduce en palabras que son similares pero suenan diferentes, lo suficiente como para cambiar totalmente el sentido y el significado de una frase.

"Pasarán años hasta que la tecnología esté disponibles para los pacientes y adaptado a idiomas distintos al inglés," dicen en National Geographic. "Pero los resultados son prometedores."

 

Suscribir a boletines

Al suscribirte confirmas nuestra política de privacidad