Implantes cerebrais, software orientam as palavras pretendidas por pessoas com deficiência de fala na tela do computador (2023)

A prescrição de Pat Bennett é um pouco mais complicada do que “Tome algumas aspirinas e me ligue de manhã”. Mas um quarteto de sensores do tamanho de uma aspirina para bebês, implantados em seu cérebro, tem como objetivo resolver uma condição que frustra a ela e a outras pessoas: a perda da capacidade de falar de forma inteligível. Os dispositivos transmitem sinais de algumas regiões do cérebro de Bennett relacionadas à fala para um software de última geração que decodifica sua atividade cerebral e a converte em texto exibido na tela do computador.

Bennett, agora com 68 anos, é ex-diretor de recursos humanos e ex-hipismo que corria diariamente. Em 2012, ela foi diagnosticada com esclerose lateral amiotrófica, uma doença neurodegenerativa progressiva que ataca os neurônios que controlam os movimentos, causando fraqueza física e eventual paralisia.

“Quando você pensa em ELA, você pensa no impacto nos braços e nas pernas”, escreveu Bennett em uma entrevista realizada por e-mail. “Mas num grupo de pacientes com ELA, começa com dificuldades de fala. Não consigo falar.”

Normalmente, a ELA se manifesta primeiro na periferia do corpo – braços e pernas, mãos e dedos. Para Bennett, a deterioração não começou na medula espinhal, como é típico, mas no tronco cerebral. Ela ainda consegue se movimentar, vestir-se e usar os dedos para digitar, embora com dificuldade crescente. Mas ela não consegue mais usar os músculos dos lábios, da língua, da laringe e da mandíbula para enunciar claramente os fonemas - ou unidades de som, comoeh- esses são os blocos de construção do discurso.

Embora o cérebro de Bennett ainda consiga formular instruções para gerar esses fonemas, seus músculos não conseguem executar os comandos.

Em 29 de março de 2022, um neurocirurgião da Stanford Medicine colocou dois pequenos sensores cada um em duas regiões distintas – ambas implicadas na produção da fala – ao longo da superfície do cérebro de Bennett. Os sensores são componentes de uma interface intracortical cérebro-computador, ou iBCI. Combinados com software de decodificação de última geração, eles são projetados para traduzir a atividade cerebral que acompanha as tentativas de fala em palavras em uma tela.

Cerca de um mês após a cirurgia, uma equipe de cientistas de Stanford iniciou sessões de pesquisa duas vezes por semana para treinar o software que interpretava sua fala. Depois de quatro meses, as tentativas de expressão de Bennett estavam sendo convertidas em palavras na tela de um computador a 62 palavras por minuto – mais de três vezes mais rápido que o recorde anterior de comunicação assistida pela BCI.

“Esses resultados iniciais comprovaram o conceito e, eventualmente, a tecnologia irá alcançá-lo para torná-lo facilmente acessível a pessoas que não conseguem falar”, escreveu Bennett. “Para aqueles que não são verbais, isso significa que podem permanecer conectados com o mundo maior, talvez continuar a trabalhar, manter amigos e relacionamentos familiares.”

Aproximando-se da velocidade da fala

O ritmo de Bennett começa a se aproximar da taxa natural de conversação de aproximadamente 160 palavras por minuto entre falantes de inglês, disseJamie Henderson, MD, o cirurgião que realizou a cirurgia.

“Mostramos que é possível decodificar a fala pretendida gravando a atividade de uma área muito pequena na superfície do cérebro”, disse Henderson.

Henderson, professor John, Jean Blume-Robert e Ruth Halperin no departamento de neurocirurgia, é co-autor sênior de umpapeldescrevendo os resultados, publicado em 23 de agosto emNatureza. Seu coautor sênior, Krishna Shenoy, PhD, professor de engenharia elétrica e de bioengenharia,morreuantes do estudo ser publicado.

Frank Willett, PhD, cientista da equipe do Howard Hughes Medical Institute afiliado ao Neural Prosthetics Translational Lab, que Henderson e Shenoy co-fundaram em 2009, compartilha a autoria principal do estudo com os estudantes de pós-graduação Erin Kunz e Chaofei Fan.

Em 2021, Henderson, Shenoy e Willett foram coautores de umestudarpublicado emNaturezadescrevendo seu sucesso na conversão da caligrafia imaginada de uma pessoa paralisada em texto em uma tela usando um iBCI, atingindo uma velocidade de 90 caracteres, ou 18 palavras, por minuto – um recorde mundial até agora para uma metodologia relacionada ao iBCI.

Quando Bennett soube do trabalho de Henderson e Shenoy, ela entrou em contato com Henderson e se ofereceu para participar do ensaio clínico.

Como funciona

Os sensores que Henderson implantou no córtex cerebral de Bennett, a camada mais externa do cérebro, são conjuntos quadrados de minúsculos eletrodos de silício. Cada conjunto contém 64 eletrodos, dispostos em grades de 8 por 8 e espaçados uns dos outros por uma distância de cerca de metade da espessura de um cartão de crédito. Os eletrodos penetram no córtex cerebral a uma profundidade aproximadamente igual à de dois quartos empilhados.

As matrizes implantadas são presas a finos fios de ouro que saem através de pedestais aparafusados ​​ao crânio, que são então conectados por cabo a um computador.

Um algoritmo de inteligência artificial recebe e decodifica informações eletrônicas provenientes do cérebro de Bennett, eventualmente aprendendo a distinguir a atividade cerebral distinta associada às suas tentativas de formular cada um dos 39 fonemas que compõem o inglês falado. Ele alimenta seu melhor palpite sobre a sequência das tentativas de fonemas de Bennett em um chamado modelo de linguagem, essencialmente um sofisticado sistema de autocorreção, que converte os fluxos de fonemas na sequência de palavras que eles representam.

“Este sistema é treinado para saber quais palavras devem vir antes de outras e quais fonemas formam quais palavras”, explicou Willett. “Se alguns fonemas foram interpretados incorretamente, ainda é possível dar um bom palpite.”

A prática leva à perfeição

Para ensinar o algoritmo a reconhecer quais padrões de atividade cerebral estavam associados a quais fonemas, Bennett se envolveu em cerca de 25Sessões de treinamento, cada um com duração de cerca de quatro horas, durante as quais ela tentou repetir frases escolhidas aleatoriamente em um grande conjunto de dados composto por amostras de conversas entre pessoas falando ao telefone.

Um exemplo: “Só tem sido assim nos últimos cinco anos”. Outro: “Saí bem no meio”.

À medida que tentava recitar cada frase, a atividade cerebral de Bennett, traduzida pelo descodificador num fluxo de fonemas e depois reunida em palavras pelo sistema de autocorreção, era exibida no ecrã abaixo do original. Então uma nova frase apareceria na tela.

Bennett repetiu de 260 a 480 frases por sessão de treinamento. Todo o sistema continuou melhorando à medida que se familiarizava com a atividade cerebral de Bennett durante suas tentativas de fala.

A capacidade de tradução da fala pretendida do iCBI foi testada em frases diferentes daquelas usadas nas sessões de treinamento. Quando as frases e o modelo de linguagem de montagem de palavras foram restritos a um vocabulário de 50 palavras (caso em que as frases utilizadas foram extraídas de uma lista especial), a taxa de erro do sistema de tradução foi de 9,1%.

Quando o vocabulário foi expandido para 125.000 palavras (grande o suficiente para compor quase tudo o que você quisesse dizer), a taxa de erro subiu para 23,8% – longe de ser perfeita, mas um passo gigantesco em relação ao estado da arte anterior.

“Esta é uma prova científica de conceito, não um dispositivo real que as pessoas possam usar na vida cotidiana”, disse Willett. “Mas é um grande avanço para restaurar a comunicação rápida entre pessoas com paralisia que não conseguem falar.”

“Imagine”, escreveu Bennett, “quão diferente será a realização de atividades cotidianas, como fazer compras, comparecer a compromissos, pedir comida, ir a um banco, falar ao telefone, expressar amor ou apreço – até mesmo discutir – quando pessoas não-verbais puderem comunicar seus pensamentos em palavras. tempo real."

O dispositivo descrito neste estudo é licenciado apenas para uso investigativo e não está disponível comercialmente. O estudo, um ensaio clínico registrado, foi realizado sob a égide do BrainGate, um consórcio multi-institucional dedicado ao avanço do uso de BCIs em aplicações protéticas, liderado pelo coautor do estudo Leigh Hochberg, MD, PhD, neurologista e pesquisador afiliado. com o Massachusetts General Hospital, a Brown University e o VA Providence (Rhode Island) Healthcare System.

O estudo foi financiado pelos Institutos Nacionais de Saúde (subsídios U01-DC017844 e U01-DC019430), pelo Departamento de Assuntos de Veteranos dos EUA, pelo Instituto de Neurociências Stanford Wu Tsai, pelo HHMI, pela Fundação Simons e por Larry e Pamela Garlick.

Encontre mais fotosaqui(crédito: Steve Fisch/Stanford Medicine).

References

Top Articles
Latest Posts
Article information

Author: Margart Wisoky

Last Updated: 10/08/2023

Views: 6421

Rating: 4.8 / 5 (78 voted)

Reviews: 85% of readers found this page helpful

Author information

Name: Margart Wisoky

Birthday: 1993-05-13

Address: 2113 Abernathy Knoll, New Tamerafurt, CT 66893-2169

Phone: +25815234346805

Job: Central Developer

Hobby: Machining, Pottery, Rafting, Cosplaying, Jogging, Taekwondo, Scouting

Introduction: My name is Margart Wisoky, I am a gorgeous, shiny, successful, beautiful, adventurous, excited, pleasant person who loves writing and wants to share my knowledge and understanding with you.