
Investigadores da Universidade de Berkeley, nos EUA, recorreram à inteligência artificial (IA) para criar um dispositivo que permitiu que uma mulher tetraplégica "falasse" ao fim de 18 anos.
Na prática, os investigadores criaram um mecanismo capaz de traduzir a atividade cerebral associada à fala em palavras faladas quase em tempo real, anunciam as conclusões do estudo publicadas, segunda-feira, na revista científica Nature Neuroscience.
Esta investigação resolveu o "velho problema" da latência neuroprotética da fala, ou seja, o tempo que decorre entre o momento em que uma pessoa tenta falar e o momento em que o som é produzido.
Utilizando os últimos avanços em IA, a equipa de cientistas desenvolveu um método de transmissão que sintetiza sinais cerebrais em discurso audível quase em simultâneo.
"A nossa abordagem traz as mesmas capacidades de descodificação rápida de voz de dispositivos como Alexa e Siri para neuropróteses", explicou Gopala Anumanchipalli, um dos investigadores principais do estudo.
De acordo com o cientista, utilizando um tipo de algoritmo semelhante, foi possível descodificar dados neurais e, pela primeira vez, permitir a transmissão de voz quase síncrona.
"O resultado é uma síntese de fala mais natural e fluida", salientou Anumanchipalli.
Para Edward Chang, outro dos investigadores da equipa de Berkeley, esta nova tecnologia "tem um enorme potencial" para melhorar a qualidade de vida das pessoas com paralisia grave que afeta a fala.
"É entusiasmante que os últimos avanços na IA estejam a acelerar muito as interfaces cérebro-computador para utilização prática no mundo real num futuro próximo", afirmou.
No âmbito de um ensaio clínico, as equipas de Chang e Anumanchipalli implantaram a interface cérebro-computador numa mulher de 47 anos com tetraplegia (paralisia dos membros e do tronco) que não conseguiu falar ou vocalizar durante 18 anos, após ter sofrido um acidente vascular cerebral.
Para recolher os dados necessários para treinar o seu algoritmo, os investigadores pediram primeiro à participante que olhasse para uma mensagem no ecrã, como a frase "Olá, como estás?", e depois tentasse pronunciar essa frase silenciosamente.
Os autores treinaram uma rede neural de aprendizagem profunda, utilizando a atividade cerebral da participante, registada por elétrodos implantados no seu córtex motor da fala, enquanto esta pronunciava internamente frases completas contendo 1.024 palavras únicas.
Este modelo foi então utilizado para descodificar o discurso `online´, simultaneamente com a intenção vocal da participante, e depois para produzir áudio imitando a sua voz - que tinha sido treinada usando um `clip´ dela a falar antes da lesão.
Cheol Jun Cho, outro autor do artigo, adiantou que a neuroprótese funciona através da recolha de amostras de dados neurais do córtex motor, a parte do cérebro que controla a produção da fala, e depois utilizando a IA para descodificar a função cerebral e convertê-la em fala.
Num estudo anterior deste tipo de dispositivos, os investigadores encontraram uma longa latência de descodificação de cerca de oito segundos para uma única frase.
Com o novo método de transmissão, a saída audível pode ser gerada quase em tempo real, enquanto a pessoa tenta falar, de acordo com um comunicado da Escola de Engenharia da Universidade da Califórnia, em Berkeley.