Tecnología

Los implantes cerebrales ya pueden traducir los pensamientos a voz en tiempo real

Gracias a un implante cerebral y a una interfaz cerebro-computadora (BCI, por su nombre en inglés), un hombre con discapacidad grave del habla logró comunicarse e incluso cantar en tiempo real. El estudio de la Universidad de California, Davis, publicado en Nature, representa un avance significativo en el desarrollo de los implantes cerebrales capaces de traducir la actividad neuronal en palabras y matices del habla.

El BCI utilizó inteligencia artificial para descifrar la actividad eléctrica del cerebro de un paciente de 45 años que perdió la capacidad de hablar tras desarrollar esclerosis lateral amiotrófica. El padecimiento afecta los nervios que controlan los músculos, entre ellos, los necesarios para que se produzcan los sonidos desde la garganta.

Después de cinco años de diagnóstico, el hombre se sometió a un tratamiento experimental en donde se le insertaron 256 electrodos de silicio, de 1.5 mm de largo, en la región del cerebro que controla el movimiento (el giro precentral ventral). Tras varias sesiones de pruebas y entrenamiento automático, el participante pensó en hablar e inmediatamente una voz sintética reprodujo su pensamiento.


192 electrodos conectados al hemisferio izquierdo de un paciente con lesión espinal le permitieron volar un dron en una simulación por computadora.


Implantes cerebrales para recuperar el habla

De acuerdo con el estudio, el logro de este procedimiento radica en la notable reducción del tiempo de interpretación. Al nuevo BCI le tomó 10 milisegundos reproducir las palabras que el paciente intentaba expresar. En comparación, otros BCI logran transmitir la información en al menos tres segundos o hasta que la persona termina de formular.

La disminución del tiempo se debe a un cambio en la metodología convencional. En lugar de interpretar palabras completas, este nuevo algoritmo decodifica los fonemas que constituyen las palabras, lo que esencialmente lo faculta para trabajar en “tiempo real”. Enfocarse en las vocalizaciones y no en los conceptos es lo que permite acelerar el proceso. Además, la interpretación del sonido atrajo otros fenómenos naturales del habla, como el tono que tienen las palabras para comunicar intenciones.

Para ofrecer una comunicación más orgánica, el equipo desarrolló una voz sintética personalizada. Se entrenó una IA con grabaciones de la voz del paciente realizadas antes de que se manifestara la esclerosis. Así, respaldado por el BCI y el software vocal, el participante pudo comunicarse a través de una computadora como si nunca hubiera perdido su capacidad de hablar.

“Independientemente del contenido fonémico, también pudimos decodificar características paralingüísticas de la actividad intracortical, lo que permitió al participante modular su voz sintetizada mediante BCI en tiempo real para cambiar la entonación y cantar melodías cortas. Estos resultados demuestran la viabilidad de permitir que las personas con parálisis hablen de forma inteligible y expresiva a través de una BCI», concluye el estudio.

DERECHOS DE AUTOR
Esta información pertenece a su autor original y fue recopilada del sitio https://es.wired.com/articulos/los-implantes-cerebrales-ya-pueden-traducir-los-pensamientos-a-voz-en-tiempo-real

Publicaciones relacionadas

Botón volver arriba