Três
cientistas dos Estados Unidos desenvolveram uma nova interface
cérebro-computador que consegue transformar a actividade cerebral em fala. Por
agora, a equipa só testou este implante em pessoas com voz e demonstrou – num
artigo na revista científica Nature – que é possível
sintetizar a sua fala directamente a partir de sinais do cérebro. No futuro,
espera-se que este dispositivo seja usado para devolver a voz a pessoas com
essa incapacidade.
Quando
se fala em sintetizadores de voz, quase sempre nos vem à cabeça o de Stephen
Hawking (1942-2018). O físico – que tinha esclerose lateral amiotrófica –
falava com a ajuda de um sintetizador de voz e de um computador integrado na
cadeira de rodas. Como fazia? Escolhia as palavras que queria transmitir
através do movimento dos músculos das suas bochechas. “O movimento das minhas
bochechas é detectado por um interruptor de infravermelhos que está montado nos
meus óculos. Este interruptor é a única interface com o computador”, descreveu
Stephen Hawking no seu site.
Logo
no início do artigo da Nature,
os cientistas salientam a importância deste tipo de dispositivos: “As doenças
neurológicas que levam à perda de comunicação são devastadoras. Muitos doentes
dependem de aparelhos de comunicação alternativos que analisam pequenos
movimentos não verbais na cabeça e olhos ou de interfaces cérebro-computador.” Ao mesmo tempo,
aponta-se um problema: muitos utilizadores desses aparelhos têm dificuldades em
transmitir mais de dez palavras por minuto, enquanto no “discurso natural” se
utilizam 150 palavras por minuto. “Uma alternativa promissora é sintetizar
directamente a voz a partir da actividade cerebral”, lê-se no artigo.
Como
tal, uma equipa liderada por Edward Chang (da Universidade da Califórnia, nos
Estados Unidos) tinha o objectivo de mostrar a “viabilidade” de um implante que
conseguisse transformar os sinais do cérebro num discurso sintetizado ao nível
de um falante fluente, como se conta no artigo.
Gopala
Anumanchipalli (também autor do estudo e da Universidade da Califórnia, em São
Francisco) explica ao PÚBLICO que houve uma descoberta fundamental que precedeu
este estudo: “Em 2018, percebemos que o córtex motor orquestra um movimento
particularmente coordenado no tracto vocal [nomeadamente na mandíbula, laringe,
lábios e língua] quando se está a falar.”
A
equipa desenvolveu então um método para sintetizar a voz de uma pessoa através
de sinais cerebrais relacionados com os movimentos do tracto vocal. As
experiências foram feitas com cinco voluntários – com voz – do Centro de
Epilepsia da Universidade da Califórnia, que já tinham eléctrodos implantados
na superfície do cérebro, pois estavam a preparar-se para uma neurocirurgia
para controlar as suas convulsões.
Nesta
experiência, através dos eléctrodos, a equipa começou por gravar a actividade
no córtex do cérebro dos voluntários enquanto eles liam frases e histórias em
voz alta. Depois, a partir das gravações, criou-se um sistema que utiliza
inteligência artificial – através de machine learning (aprendizagem
automática) – capaz de descodificar os sinais cerebrais dos movimentos do
tracto vocal dos voluntários. Por fim, conseguiu-se sintetizar a voz a partir
da descodificação desses movimentos. Qual o resultado? Verificou-se que a voz
sintetizada através de aprendizagem automática é “significativamente melhor” do
que a voz sintetizada sem o recurso a essa tecnologia, refere-se num comunicado
da Universidade da Califórnia.
Gopala
Anumanchipalli realça ainda que também se conseguiu sintetizar a voz de
participantes que estavam em silêncio e apenas mimetizaram os movimentos da
fala.
Biologia do discurso
“A
nossa abordagem mimetiza a biologia do discurso. Neste caso, simula-se a forma
como o cérebro humano normalmente produz voz ao orquestrar os movimentos
complexos do tracto vocal”, resume Gopala Anumanchipalli. De acordo com o
cientista, este estudo demonstra que o código neuronal para os movimentos do
tracto vocal é parcialmente partilhado entre os indivíduos. Desta forma,
através da modelação de um tracto vocal artificial, poderá usar-se a voz de uma
pessoa na actividade cerebral de outra que não consiga falar.
Contudo,
Gopala Anumanchipalli reconhece que neste estudo apenas “se demonstra a prova
de conceito” de que é possível sintetizar o discurso directamente a partir da
actividade cerebral. Ao que Edward Chang afirma: “Esta é uma estimulante prova
de conceito de que, com tecnologia que já está ao nosso alcance, podemos ser
capazes de construir um aparelho que é clinicamente viável em doentes que não
conseguem falar.”
Em
futuros estudos, a equipa pretende adaptar então esta tecnologia a pessoas que
não conseguem falar. Espera-se ainda que com esta abordagem se possa não apenas
devolver a voz a pessoas com essa incapacidade, mas também que essa voz tenha
“alguma da musicalidade da voz humana, permitindo exprimir emoções e
personalidade”, destaca-se no comunicado.
Num comentário a este trabalho – também
na revista Nature – Chethan Pandarinath e Yahia Ali (ambos da
Universidade de Emory, nos Estados Unidos, e que não participaram no estudo)
escrevem: “Os resultados da equipa de Anumanchipalli fornecem-nos uma
convincente prova de conceito para uma interface cérebro-computador que
sintetiza a voz.” Contudo, reforçam que ainda há um longo caminho para se
perceber se é “clinicamente viável”.
Ainda
sobre este estudo, Gopala Anumanchipalli deixa uma nota: “Estou orgulhoso de
que tenhamos sido capazes de juntar o conhecimento da neurociência, da
linguística e da machine learning como parte deste importante
marco para ajudar doentes neurológicos.”
Comentários
Enviar um comentário