El sistema logró decodificar la información de los centros del habla para que controlen un sistema fonador virtual que podría implantarse en pacientes que perdieron el habla por una parálisis o por otros daños neurológicos.
Una interfaz cerebro-máquina logró generar un discurso sintético a partir de la lectura de la actividad cerebral.
El implante cerebral logró decodificar la información de los centros del habla para que controlen un sistema vocal virtual y una simulación por ordenador anatómicamente detallada que incluye los labios, la mandíbula, la lengua y la laringe.
La prueba, realizado en la Universidad de California San Francisco (UCSF), se realizó en personas sin problemas de habla, pero esta tecnología podría ser útil para personas que perdieron esta capacidad debido a una parálisis o a otros daños neurológicos.
Es el caso de los accidentes cerebrovasculares, las lesiones cerebrales traumáticas y las enfermedades neurodegenerativas como la enfermedad de Parkinson, la esclerosis múltiple y la esclerosis lateral amiotrófica (ELA).
Un caso emblemático es el de Stephen Hawking y la ELA.
Stephen Hawking aprendió a explicar sus pensamientos letra por letra con la ayuda de un dispositivo que detectaba la dirección de sus ojos en una pantalla con el alfabeto.
Este método lleva mucho trabajo, es propenso a errores y dolorosamente lento porque solo permite “decir” un máximo de 10 palabras por minuto, en comparación con las 100-150 palabras por minuto de lenguaje natural.
Este nuevo implante mejora todos estos problemas.
Los detalles del sistema fueron publicados en la revista Nature.

Edwardg Chang , uno de los autores investigador del Instituto de Neurociencia Weill de la UCSF, cree que «en el futuro este implante podría restaurar la comunicación fluida a personas con discapacidades del habla severas y reproducir parte de la musicalidad de la voz humana que transmite las emociones y la personalidad del hablante».
«Por primera vez, este estudio se basa en la actividad cerebral de un individuo», dijo Chang.Y agregó: «Esta es una prueba inicial estimulante que está al alcance, pero debemos trabajar en la creación de un dispositivo clínicamente viable para pacientes con pérdida del habla».
Ciencia básica
los dos medicos que estudiaron la creacion del sistema determinaron cómo realizan los centros del habla del cerebro la coreografía de labios, mandíbula, lengua y otros componentes del tracto vocal para producir un habla fluida… en lugar de pensar que el cerebro codifica sonidos, los investigadores razonaron que esta codificando movimientos.
El nuevo dispositivo logró codificar esos mensajes del cerebro y transformarlos en discurso a partir de un aparato fonador virtual.
Para probarlo utilizaron pacientes voluntarios que ya tenían implantados electrodos en el cerebro para tratar problemas de epilepsia.

IMPLANTE. El implante fue desarrollado en la Universidad de California (UCSF)
Mucho por hacer
El científico del habla Gopala Anumanchipalli, uno de los investigadores participantes, comentó que «la relación entre los movimientos del tracto vocal y los sonidos del habla es compleja».
«Pensamos que si estos centros de habla en el cerebro codifican movimientos en lugar de sonidos, deberíamos intentar hacer lo mismo para descodificar esas señales», añadió .
Ese descodificador consiste en una malla que agrupa decenas de electrodos que detectan los impulsos nerviosos en su recorrido hacia el tracto vocal, por lo que requiere su colocación sobre la superficie del cerebro.
Determinando qué músculos y en qué medida se activan (o deberían activarse) en respuesta a esos impulsos se puede recrear un modelo del sistema vocal del paciente.
Recrear el modelo vocal del paciente
Para recrear el modelo vocal se utiliza un sistema de aprendizaje automático que convierte las señales eléctricas dirigidas al sistema vocal en palabras.
«Es lectura cerebral pero no es lectura de la mente,» explican.
El funcionamiento del intérprete artificial varía mucho dependiendo de las palabras y frases que se deseen expresas; las frases sencilla se pudieron descodificar en la mayoría de los casos, mientras que las frases o palabras más complejas resultan en interpretaciones menos fiables.
Este tipo de sistema se ha aplicado con éxito en prótesis para extremidades, en especial brazos y manos pero al aplicarlo al habla, sin embargo, el desafío es mayor por la complejidad y el amplio abanico de variaciones que, al hablar, se traduce en palabras que son similares pero suenan diferentes, lo suficiente como para cambiar totalmente el sentido y el significado de una frase.
«Pasarán años hasta que la tecnología esté disponibles para los pacientes y adaptado a idiomas distintos al inglés pero los resultados son prometedores.»
Para la creación del dispositivo se combinaron conocimientos de red neuronal y algoritmos de aprendizaje automático… un decodificador que transforma los patrones de actividad cerebral en un tracto vocal virtual y un sintetizador que convierte estos movimientos del tracto vocal en una aproximación sintética de la voz del participante.
Los algoritmos produjeron oraciones que eran comprensibles por miles de personas pero el sistema muestra dificultades para sintetizar determinados sonidos y oraciones más largas y , además de estos problemas de software, los científicos deben realizarle mejoras de hardware para hacerlo implantable en personas.