California.- La revista Nature Neuroscience publicó que un equipo científico de la Universidad de California en Berkeley y en San Francisco, diseñó un dispositivo capaz de traducir la actividad del habla en el cerebro en palabras habladas casi en tiempo real, consiguiendo que una mujer de 47 años con tetraplejia “hablara” después de 18 años.
Este trabajo resuelve "el viejo problema" de la latencia de las neuroprótesis del habla, es decir, el tiempo que transcurre entre el momento en que un sujeto intenta hablar y el momento en que se produce el sonido.
Gracias a los últimos avances basados en inteligencia artificial (IA), los investigadores desarrollaron un método de transmisión que sintetiza las señales cerebrales en habla audible casi en tiempo real.
"Nuestro enfoque de streaming lleva la misma capacidad de decodificación rápida del habla de dispositivos como Alexa y Siri a las neuroprótesis", resume Gopala Anumanchipalli, coinvestigador principal del estudio.
"Utilizando un tipo de algoritmo similar, descubrimos que podíamos descodificar datos neuronales y, por primera vez, hacer posible una transmisión de voz casi sincrónica. El resultado es una síntesis del habla más natural y fluida", explica el científico.
Para Edward Chang, otro de los científicos principales, esta nueva tecnología "tiene un enorme potencial" para mejorar la calidad de vida de las personas con parálisis graves que afectan al habla.
Como parte de un ensayo clínico, los equipos de Chang y Anumanchipalli implantaron la interfaz cerebro-computadora en una mujer de 47 años con tetraplejia, que no había hablado o vocalizado durante 18 años después de sufrir un accidente cerebrovascular.
Para recopilar los datos necesarios para entrenar su algoritmo, los investigadores primero hicieron que la participante mirara una indicación en la pantalla, como la frase "hola, ¿cómo estás?", y luego intentara pronunciar esa frase en silencio.
Así, los autores entrenaron una red neuronal de aprendizaje profundo usando la actividad cerebral de la participante, que se registró mediante electrodos implantados sobre su corteza sensomotora del habla, mientras pronunciaba internamente en su cerebro frases completas que contenían mil 024 palabras únicas.
A continuación, se utilizó este modelo para descodificar el habla en línea, simultáneamente con la intención vocal de la participante, y luego producir audio imitando su voz -esta había sido entrenada utilizando un clip de ella hablando antes de la lesión-.
Cheol Jun Cho, otro de los firmantes del trabajo, resume que la neuroprótesis funciona tomando muestras de datos neuronales de la corteza motora, la parte del cerebro que controla la producción del habla y luego utiliza la IA para descodificar la función cerebral y convertirla en habla.
En su anterior estudio sobre este tipo de dispositivos, los investigadores se encontraron con una larga latencia de descodificación, de unos ocho segundos para una sola frase. Con el nuevo método de transmisión, la salida audible puede generarse casi en tiempo real, mientras el sujeto intenta hablar, recoge un comunicado de la Facultad de Ingeniería de la Universidad de California en Berkeley.