2 de jul de 2018

Neural lace: como funciona e quem investe (de verdade) nesta promissora interface cérebro-máquina

Udacity Brasil

O desenvolvimento tecnológico do século 20 trouxe técnicas para criar sistemas eletrônicos programáveis e a capacidade de programá-los para uma diversidade quase infinita de tarefas. Agora os empreendedores doo Vale do Silício estão tentando aplicar essa mesma técnica a outros sistemas: nosso DNA, com ferramentas de edição genética, e nosso cérebro.

A ideia se chama “neural lace”, algo como "laço neural": uma interface cérebro-máquina que permitiria “reprogramar” nosso cérebro da mesma maneira que se altera a programação de um software. Uma tecnologia desse tipo abriria portas para que, por exemplo, se aprendesse uma nova língua fazendo “download” dela ou se fizesse um “upload” da nossa consciência para preservá-la em um servidor. (Se você criou uma comparação com _Matrix_, não está totalmente errado.)

Por mais que isso soe como ficção científica, os primeiros passos nesse sentido já estão sendo dados e com resultados muito promissores. Com o vídeo abaixo mostra, uma interface cérebro-máquina já pode ser usada para permitir que pessoas com paralisia controlem próteses externas e, dessa forma, voltem a ser capazes de realizar tarefas cotidianas:

Quem está investindo em neural lace

E há bastante gente investindo pesadamente nessa ideia. Uma das pessoas que está apostando nisso é Elon Musk, o CEO da SpaceX e da Tesla. Musk Anunciou em 2017 a criação da Neuralink, uma empresa dedicada a pesquisar interfaces cérebro-máquina, com o intuito de levar essas pesquisas além do que já existe.

Segundo o jornal _The Guardian_, a principal motivação de Musk foi o desenvolvimento da inteligência artificial, uma área na qual ele também está envolvido por meio de outra organização sua, a OpenAI. Sem uma interface que capacite humanos a extraírem os benefícios da computação para si próprios, Musk crê que a espécie corre o risco sério de se tornar obsoleta.

“Em qualquer ritmo de evolução da inteligência artificial, nós ficaremos muito para trás”, disse ele em uma conferência em 2016, de acordo com a Wired. “A situação benigna com uma inteligência artificial ultra-avançada é que nós estaríamos tão abaixo dela em termos de inteligência que seríamos como um animal de estimação, um gato doméstico. Eu não gosto da ideia de ser um gato doméstico”, complementou.

Por isso, ele pretende, por meio da Neuralink, criar uma interface que nos permita aprender tão rapidamente quanto computadores. Essa mesma interface cérebro-máquina tornaria o nosso cérebro muito mais acessível e maleável, propiciando uma série de outros benefícios, como a cura de algumas doenças.

Outra empresa que vem investindo nessa ideia se chama Kernel. Ela foi fundada por Bryan Johnson, um empreendedor do Vale do Silício que já vendeu uma startup sua para a PayPal por 800 milhões de dólares, e que se comprometeu a investir 100 milhões de dólares do próprio bolso na busca por um “neural lace”.

De acordo com o site da empresa, sua missão é “desenvolver tecnologias para entender e tratar doenças neurológicas de maneiras novas e empolgantes” e depois “interpretar os funcionamentos complexos do cérebro para criar aplicações voltadas para o melhoramento cognitivo”.

Não fica claro o que seria “melhoramento cognitivo”. Mas a expressão faz lembrar outra instituição que também está investindo nessa área: a DARPA, o braço de pesquisa do exército dos Estados Unidos responsável por criações e ideias realmente impressionantes, como a própria internet.

A DARPA possui um programa chamado NESD, sigla que, em inglês, significa “Neural Engineering System Design”. Como parte desse programa, ela já distribuiu mais de US$ 65 milhões em financiamento para pesquisas referentes a interfaces implantáveis que permitam uma comunicação de mão dupla entre o cérebro humano e sistemas digitais.

O investimento, segundo a DARPA, “pode avançar consideravelmente o entendimento de cientistas quanto às bases neurais da visão, audição e fala”, propiciando novos tratamentos para quem tiver problemas nesses sentidos. Mas por se tratar de uma agência de pesquisa militar, é fácil imaginar a tecnologia sendo usada para tentar criar primeiro soldados com visão e audição muito além daquelas de seres humanos comuns.

Leia também: O avanço da inteligência artificial (e dos desafios éticos envolvidos)

Como funciona a interface cérebro-máquina

As ideias dessas organizações podem estar há alguns anos de distância, mas já há interfaces cérebro-máquina atualmente que funcionam e que são capazes de ajudar pessoas de maneiras muito concretas. Gabriela Castellano, professora associada do Instituto de Física Gleb Wataghin da Unicamp, realiza pesquisa nessa área desde 2010.

De acordo com ela, interfaces cérebro-máquina são usadas atualmente para ajudar pessoas que não têm um membro do corpo a controlar uma prótese com seu cérebro, por exemplo. Elas também podem permitir que uma pessoa controle uma cadeira de rodas com o pensamento ou use o cérebro para interagir com um teclado e, assim, se comunicar.

Para fazer uma interface desse tipo, no entanto, são necessários muitos passos. Segundo Gabriela, primeiro é preciso medir os sinais dos cérebros das pessoas. Isso pode ser feito de diversas maneiras: a mais comum é a eletroencefalografia (ou EEG), que coloca eletrodos na cabeça da pessoa e, por meio deles, consegue medir a atividade elétrica dos neurônios.

Há outras maneiras de fazer essa medição. Uma delas é a ressonância magnética funcional, que tem a desvantagem de não ser portátil: a pessoa precisa estar dentro da máquina para que ela funcione. E há ainda uma técnica chama de NIRS, sigla que significa “near infrared spectroscopy”, que faz uma aferição óptica.

Além delas, há técnicas mais invasivas. É possível colocar uma malha de eletrodos diretamente sobre o córtex cerebral da pessoa (técnica conhecida como eletrocorticografia, ou ECoG), ou ainda implantar eletrodos diretamente no cérebro dos pacientes.

No entanto, como se pode imaginar, essas técnicas são incrivelmente arriscadas: Gabriela só se lembra de dois estudos feitos nos Estados Unidos com eletrodos implantados diretamente no cérebro; no Brasil, ela não conhece nenhum estudo desse tipo. Mesmo a rede que fica sobre o córtex só é usada em casos em que uma cirurgia é inevitável.

A vantagem desses métodos invasivos, no entanto, é que eles oferecem sinais muito mais claros do funcionamento cerebral. No caso da EEG, por exemplo, “o sinal atravessa osso, líquido e pele, então naturalmente ele tem artefatos”, diz Gabriela. Esses artefatos dificultam a compreensão daquele sinal.

Limpando os sinais

Por isso, é necessário em seguida fazer uma “limpeza” dos sinais e usar técnicas matemáticas para entender que parte do sinal captado é realmente devida ao disparo do neurônio. Essa parte é essencial para que o sinal possa, em seguida, ser aproveitado em outro sistema.

É necessário então fazer o cérebro da pessoa gerar sinais cuja resposta já é conhecida, para “calibrar” o sistema. Para isso, é possível, por exemplo, pedir à pessoa que imagine o movimento de uma parte do corpo – a mera imaginação já provoca uma resposta conhecida.

Outro método de calibragem é pedir à pessoa que olhe para uma tela que pisca numa determinada frequência. Já se sabe que aquela frequência provoca uma resposta determinada no cérebro, e, portanto, pode-se procurar essa resposta específica no sinal medido.

Mesmo com todas essas etapas, ainda é difícil usar os sinais cerebrais para controlar um sistema externo. Isso porque segundo Gabriela, os sinais são muito variáveis. “A mesma pessoa, dependendo do horário do dia, emite sinais diferentes para a mesma coisa”, diz.

Dessa forma, é necessário criar um algoritmo adaptativo capaz de entender que diversos sinais cerebrais diferentes significam, na verdade, a mesma coisa. E esse algoritmo precisa ser customizado para cada pessoa, já que os sinais emitidos para um mesmo estímulo variam entre indivíduos.

Questões éticas envolvidas nas interfaces cérebro-máquina

Todo esse trabalho de limpar os sinais pode parecer excessivo. No entanto, ele é necessário quando se utiliza métodos não-invasivos para captar os sinais cerebrais das pessoas. O uso de métodos mais invasivos, como implantar um eletrodo no cérebro de alguém esbarra em questões éticas importantes, que tornam pesquisas desse tipo bem mais raras. Uma pesquisa que envolva implantes desse tipo dificilmente conseguiria se justificar quando já há maneiras alternativas de se conseguir medições semelhantes.

Projetos de pesquisa propostos para estudo costumam precisar da aprovação de comitês de ética – um comitê dificilmente aprovaria um estudo que envolvesse implantes cerebrais, em qualquer situação que fosse, por conta dos riscos envolvidos no implante.

Dessa forma, segundo Gabriela, estudos desse tipo costumam ser feitos apenas em pessoas que inevitavelmente precisam passar por uma cirurgia cerebral. Nesse caso, como o procedimento invasivo já é inevitável, a realização da pesquisa é mais justificável.

De resto, métodos não-invasivos são via de regra para a captação de sinais cerebrais. Faz sentido: quando se pensa em desenvolver um novo tratamento, o melhor é que ele seja tão seguro quanto possível, mesmo que isso signifique o trabalho de eliminar ruídos dos sinais.

Leia também: Entre uma crise e outra, o debate ganha espaço: a tecnologia precisa de um código de ética?

Aplicações de interfaces cérebro-máquina

No entanto, uma vez que esses sinais são bem compreendidos, eles estabelecem uma linha de comunicação entre o cérebro e algo externo, que pode ser simplesmente outra pessoa. Esta foi inclusive das principais motivações para o desenvolvimento das interfaces cérebro-máquina: tornar possível a comunicação com pacientes em estado vegetativo.

Segundo a revista científica _Nature_, por meio das técnicas citadas acima (como a ressonância magnética funcional), é possível comunicar-se com pacientes cujo estado de consciência não é muito claro. E ao monitorar as áreas do cérebro que são ativadas em respostas a determinados estímulos, pode-se criar um sistema de respostas sim/não por meio do qual o paciente consegue responder.

As interfaces cérebro-máquina permitem também usar o cérebro para comandar um dispositivo externo. Por exemplo: os sinais emitidos pelo cérebro da pessoa podem ser convertidos para controlar um cursor sobre uma tela, permitindo que a pessoa interaja com telas e outros sistemas, como o vídeo abaixo mostra:

Em outro exemplo: quando a pessoa olha para uma tela piscando a 10 Hertz, os sinais cerebrais gerados por esse pensamento são captados por um EEG, que então envia um comando para uma prótese de braço que então, efetivamente, se dobra, devolvendo a capacidade desse movimento ao usuário.

O mesmo princípio pode ser aproveitado para controlar uma cadeira de rodas: a pessoa pensa no movimento da língua e isso gera um sinal captado pelo EEG; um sistema interpreta esse sinal e entende que ele significa “mover a cadeira para frente”, e então a cadeira avança. E, pensando no movimento dos pés, ela faria a cadeira ir para trás.

No vídeo abaixo, é possível ver um sistema desenvolvido pela Unicamp que usa uma tela, com regiões piscando em frequências diferentes, para permitir a um paciente controlar uma cadeira de rodas:

Gabriela explica o que acontece nesses momentos: “A pessoa tem que pensar em coisas ou executar ações mentais que geralmente não têm nada a ver com o que ela quer que o dispositivo externo faça”. Isso porque “é muito difícil distinguir sinais de EEG. Eles têm que ter alguma característica muito específica”. Ou seja, é necessário associar o movimento a uma ação mental que o EEG consiga captar com clareza – o que, muitas vezes, não tem nada a ver com o movimento desejado.

Em todos esses casos, trata-se de uma espécie de “via de mão única”: a pessoa dá sinais para o sistema, mas o sistema não é capaz de enviar sinais à pessoa. Mas, segundo Gabriela, já há pesquisas que procuram transformar essa interface em uma via de duas mãos.

Nesse caso, seria possível criar, por exemplo, uma prótese com sensação de tato. A pessoa que utilizasse uma mão prostética desse tipo também teria de volta a sensação na mão, e isso a capacitaria a realizar tarefas delicadas, que seriam impensáveis mesmo para alguém com uma prótese sofisticada sem esse tipo de feedback.

Os limites das interfaces cérebro-máquina

Se essas aplicações parecem distantes do futuro de ficção científica prometido por empresas como a Neuralink, é porque, de fato, estão. Segundo Gabriela, aplicações como aprender a lutar karatê fazendo download de um programa para o seu cérebro ainda estão “muito distantes”.

Mas os primeiros passos nesse sentido já foram dados. Já existem, por exemplo, tratamentos que envolvem “estimulação cerebral” para algumas doenças. Uma delas é a doença de Parkinson: Um eletrodo implantado no cérebro do paciente consegue reorganizar os disparos neurais do cérebro da pessoa e, com isso, elimina a tremedeira que a doença tem como sintoma.

Há pesquisas de tratamentos semelhantes para epilepsia e para depressão também. “Você está, de fato, fazendo uma moldagem dos sinais neurais, então você realmente está alterando o cérebro da pessoa. Mas daí a alterarcérebro para que ela saia lutando karatê... é uma complexidade muito maior”, considera Gabriela.

E a ideia de ter um backup da sua consciência em algum servidor – e assim posteriormente fazer seu download num corpo robótico, evitando assim que morra quando seu corpo de carne e osso deixar de funcionar está ainda mais distante, e por motivos que vão bem além da neurociência.

“Ainda não se entende muito o que é a consciência, ou o que é a identidade, não apenas do ponto de vista neurológico como também da perspectiva filosófica”, diz. Se humanos querem ter a chance de algum dia projetar a consciência para fora de seus próprios corpos, será preciso ter uma resposta para essa questão (dificílima) antes.

Leia também:

Sobre o autor
Udacity Brasil

A Udacity, conhecida como a "Universidade do Vale do Silício", é uma plataforma online e global que conecta educação e mercado para ensinar as habilidades do futuro – de data science e marketing digital à inteligência artificial e desenvolvimento. Hoje, há mais de 7 mil alunos ativos no país e 50 mil pelo mundo.