1. Pular para o conteúdo
  2. Pular para o menu principal
  3. Ver mais sites da DW

O que acontece no cérebro quando falamos?

Gudrun Heise (lpf)3 de julho de 2015

Pesquisadores conseguiram associar sons emitidos durante a fala a padrões de atividades cerebrais. O princípio assemelha-se ao do reconhecimento de voz de celulares e pode dar esperança a pacientes.

https://p.dw.com/p/1FsMT
Foto: Fotolia/lassedesignen

"A ideia é bem simples: transformar sinais enviados pelo cérebro durante a fala em palavras e frases", diz Tanja Schultz, cientista da computação do Instituto de Tecnologia de Karlsruhe, na Alemanha. Graças a circunstâncias inusitadas, sua equipe conseguiu observar o cérebro humano durante a fala.

Sete pacientes com epilepsia colocaram-se à disposição para testes nos Estados Unidos. Uma rede de eletrodos foi colocada diretamente sobre o córtex cerebral deles, e, então, os médicos aguardaram por ataques epilépticos para fazer medições necessárias.

"O objetivo desse tipo de exame é descobrir em que locais do cérebro a epilepsia começa e que pontos os médicos podem eventualmente manipular para diminuir o número de ataques", diz Schultz.

Para os exames, os pacientes precisaram ficar entre uma e duas semanas numa clínica, com o cérebro exposto. Eles tomaram anestesia local para não sentir dor, mas ficaram totalmente conscientes. Inicialmente, as redes de eletrodos não tinham como objetivo estudar a fala e como ela é formada no cérebro, mas elas ofereceram as condições ideias para os pesquisadores de Karlsruhe.

Schultz pediu aos pacientes que lessem pequenos textos em voz alta. Os sinais de atividade cerebral emitidos durante a leitura foram gravados pelos cientistas e sincronizados com os sinais acústicos da fala.

"Com base nos sinais acústicos, conseguimos associar cada um dos sons às respectivas ondas cerebrais", afirma Schultz. Para isso, os pesquisadores usaram sistemas de reconhecimento de voz convencionais.

Protótipos diferente para idiomas diferentes

A língua falada durante os testes foi o inglês. Para todos os sons do idioma, os pesquisadores criaram protótipos, chegando a 50 deles. "Se fossemos fazer isso para o alemão, então precisaríamos de cerca de 60 protótipos. Mas tanto faz se aprendemos 60, 50 ou 40 protótipos. O princípio básico é o do tradicional reconhecimento de voz, como o embutido em muitos celulares", diz Schultz.

A única e importante diferença é que o sistema de reconhecimento de voz tradicional é abastecido com sinais acústicos, ou seja, ondas sonoras, e não cerebrais. "Com essa estratégia, estabelecemos para cada som uma espécie de banco de dados com protótipos de padrões de atividades cerebrais, verificados toda vez que esse som é produzido."

A partir de um som é possível identificar o respectivo padrão de atividade cerebral e vice-versa: a partir de padrões de atividades cerebrais, identificam-se os sons correspondentes. O resultado é a fala.

Esperança para pacientes

Para os testes, os pacientes leram textos curtos, mas os pesquisadores têm esperança de que o princípio também funcione quando palavras e textos não são lidos em voz alta, mas apenas em pensamento.

Num futuro distante, o princípio chamado de "brain to text" (do cérebro para o texto) talvez possa ajudar pacientes vítimas da síndrome do encarceramento a se comunicar. Essas pessoas têm plena consciência, mas não são capazes de controlar nenhum músculo do corpo.

"A esperança seria que esses pacientes pensassem em dizer algo e que, com a nossa tecnologia, os sinais no cérebro possam ser transformados imediatamente em palavras e, então, expressados", diz Schultz.

"Com essa tecnologia, podemos observar o cérebro durante a fala e ter um melhor entendimento de que regiões do cérebro participam da fala e como elas reagem entre si. Assim, talvez seja possível dar voz aos pacientes com síndrome do encarceramento." A cientista está confiante e tem esperança de ver isso se tornar realidade.