Biotecnologia

Os cientistas descobriram uma maneira de descodificar os sinais do cérebro através do discurso

É um passo em direção a um sistema que permitiria às pessoas enviar textos diretamente dos seus cérebros.

Não precisa pensar muito a seu respeito: quando fala, o seu cérebro envia sinais aos lábios, língua, mandíbula e laringe, que trabalham juntos para produzir os sons pretendidos.

Agora, os cientistas em São Francisco dizem que utilizaram esses sinais cerebrais para criar um dispositivo capaz de emitir frases completas, como “Não lave a louça suja do Charlie” e “Equipamentos fundamentais precisam de manutenção adequada”.

A investigação é um passo em direção a um sistema que seria capaz de ajudar pessoas com paralisia severa a falar — e, talvez um dia, dispositivos disponibilizados para o comércio que permitam que qualquer pessoa envie um texto diretamente do cérebro.

Uma equipa liderada pelo neurocirurgião Edward Chang, da Universidade da Califórnia, em São Francisco, analisou o cérebro de cinco pessoas com epilepsia, que já estavam a passar por uma cirurgia no cérebro, enquanto falavam frases de uma lista com 100 possibilidades.

Quando a equipa de Chang posteriormente adicionou os sinais num modelo de computador do sistema vocal humano, este gerou uma fala sintetizada que era quase inteligível.

Uma amostra da fala gerada pela decodificação dos sinais cerebrais de um paciente.

O dispositivo não capta pensamentos abstratos, mas identifica a ativação dos nervos enquanto dizem aos seus órgãos vocais para se moverem. Anteriormente, os investigadores usaram esses sinais motores de outras partes do cérebro para controlar braços robóticos.

“Estamos a aceder às partes do cérebro que controlam esses movimentos — estamos a tentar descodificá-los, em vez de falar diretamente com o cérebro”, refere Chang.

Na experiência de Chang, os sinais foram registados utilizando eletrodos flexíveis num aparelho chamado matriz de eletrocorticografia, ou ECoG, que fica na superfície do cérebro.

Para testar o quão bem os sinais podem ser usados ​​para recriar o que os pacientes disseram, os investigadores apresentaram os resultados sintetizados para pessoas que trabalham no Mechanical Turk, um site colaborativo, que tentaram transcrevê-los usando um conjunto de palavras possíveis. Esses ouvintes conseguiam entender cerca de 50% a 70% das palavras, em média.

“Este é provavelmente o melhor trabalho que está a ser feito em BCI [interfaces cérebro-computador] no momento”, diz Andrew Schwartz, um investigador sobre essas tecnologias na Universidade de Pittsburgh. Schwartz diz que se os investigadores colocassem sondas dentro do tecido cerebral, e não apenas sobre o cérebro, a precisão poderia ser muito maior.

Esforços anteriores procuraram reconstruir palavras ou sons de palavras a partir de sinais cerebrais. Em janeiro de 2019, por exemplo, investigadores da Universidade de Columbia mediram sinais na parte auditiva do cérebro enquanto os pacientes ouviam outra pessoa falar os números de 0 a 9. Eles foram então capazes de determinar qual número tinha sido ouvido.

As BCI ainda não são avançadas o suficiente, nem simples o suficiente, para ajudar as pessoas que estão paralisadas, embora isso seja um objetivo dos cientistas.

Em 2018, outro investigador da Universidade da Califórnia em São Francisco (UCSF) começou a recrutar pessoas com Esclerose Lateral Amiotrófica (ELA), ou doença de Lou Gehrig, para receber implantes de ECoG. Esse estudo tentará sintetizar a fala, de acordo com uma descrição do ensaio do teste, bem como solicitar aos pacientes que controlem um exoesqueleto que sustenta os seus braços.

Chang diz que o seu próprio sistema não está a ser testado em pacientes. E ainda não está claro se funcionaria para pessoas que não conseguem mover a boca. A equipa UCSF diz que o seu dispositivo não funcionou tão bem quando pediram aos oradores que pronunciassem as palavras silenciosamente em vez de dizê-las em voz alta.

Algumas empresas de Silicon Valley esperam desenvolver leitores cerebrais comerciais de pensamento para texto. Uma delas, o Facebook, diz que está a financiar pesquisas relacionadas na UCSF “para revelar a primeira interface de fala silenciosa capaz de digitar 100 palavras por minuto”, segundo um porta-voz.

O Facebook não pagou pelo estudo atual e a UCSF recusou-se a descrever que outras pesquisas estão a fazer em nome do gigante de social media. Mas o Facebook afirma ver que o sistema implantado é um passo em direção ao tipo de dispositivo de consumo que deseja criar.

“Este objetivo está bem alinhado com a missão da UCSF de desenvolver uma prótese de comunicação implantável para pessoas que não falam — uma missão que apoiamos. O Facebook não está a desenvolver produtos que requerem dispositivos implantáveis, mas a investigação na UCSF pode fundamentar pesquisas em tecnologias não invasivas”, de acordo com a empresa.

Chang diz que “não está ciente” de nenhuma tecnologia capaz de funcionar fora do cérebro, onde os sinais se misturam e se tornam difíceis de ler.

“O estudo que fizemos envolveu pessoas que passaram pela neurocirurgia.  Não temos realmente conhecimento da tecnologia não invasiva disponível atualmente que possa permitir que faça isso sem precisar de abrir a cabeça”, admite. “Acredite em mim, se existisse teria profundas aplicações médicas”.

Aritgo de Antonio Regalado, Senior Editor – MIT Tecnhology Review EUA (adaptado)

Nossos tópicos