Os neurocientistas podem um dia ser capaz de ouvir o discurso imaginário de um paciente incapaz de falar devido a acidente vascular cereb...
Os neurocientistas podem um dia ser capaz de ouvir o discurso imaginário de um paciente incapaz de falar devido a acidente vascular cerebral ou paralisia, de acordo com a Universidade de Califórnia , Berkeley, pesquisadores.
Nesta edição do Podcast PLoS, Biologia Editor de PLoS Ruchir Shah entrevistas Brian Pasley e (Bob) Robert Knight da UC Berkeley. Brian é um pós-doutorado no laboratório de Bob, e Bob é o diretor do Centro de Neurociência Helen Wills, em Berkeley.
Essencialmente, eles foram capazes de decodificar a atividade do sistema auditivo humano, a fim de adivinhar as palavras que as pessoas estavam realmente a ouvir. Esta técnica, chamada de "estímulo reconstrução", tem recebido muita atenção da mídia, particularmente devido a alegações sensacionalistas de leitura da mente. Mas, na realidade, existem algumas aplicações importantes práticas deste tipo de pesquisa para próteses neurais. Para os pacientes que não podem falar, por exemplo, ser capaz de reconstruir as palavras que eles imaginam lhes permitirá comunicar através de uma nova interface.
Neste podcast, Brian e Bob discutir como eles foram capazes de reconstruir palavras usando a atividade em uma região específica do cérebro humano chamado de giro temporal superior, ou STG. Eles, então, discutir as implicações para próteses neurais, e também as possíveis implicações éticas para a "leitura da mente".
PLoS Biology Podcast Episódio 2: Decoding discurso do cérebro humano ( entrevista com Brian Pasley e Knight Robert) pela Public Library of Science
Estes cientistas conseguiram decodificar a atividade elétrica no lobo temporal do cérebro - a sede do sistema auditivo - como uma pessoa ouve a conversa normal. Com base nessa correlação entre som e atividade cerebral, então eles foram capazes de prever as palavras que a pessoa tinha ouvido falar exclusivamente da atividade do lobo temporal.
"Esta pesquisa é baseada em uma pessoa soa realmente ouve, mas para usá-lo para reconstruir conversas imaginárias, estes princípios terão de aplicar a verbalizações internas de alguém", advertiu o primeiro autor Brian N. Pasley, pesquisador de pós-doutorado no centro. "Há alguma evidência de que ouvir o som e imaginando o som ativam áreas semelhantes do cérebro. Se você pode entender a relação bem o suficiente entre as gravações do cérebro e som, você poderia sintetizar o som real de uma pessoa está pensando, ou apenas escrever as palavras com um tipo de dispositivo de interface. "
"Este é enorme para os pacientes que têm dano aos seus mecanismos de fala por causa de um acidente vascular cerebral ou doença de Lou Gehrig e não pode falar", disse o co-autor Robert Knight, UC Berkeley professor de psicologia e neurociência. "Se você pudesse, eventualmente, reconstruir conversas imaginárias da atividade cerebral, milhares de pessoas poderiam se beneficiar."
Além do potencial para a expansão da capacidade de comunicação de pessoas com deficiência grave, observou ele, a pesquisa também "nos diz muito sobre como o cérebro de pessoas normais representa e processa os sons da fala."
Pasley e seus colegas da Universidade de Berkeley, UC San Francisco , da Universidade de Maryland e da Universidade Johns Hopkins relatam seus resultados em 31 de janeiro de acesso aberto PLoS Biology.
Ajuda de pacientes com epilepsia
Eles pediram a ajuda de pessoas submetidas a cirurgia cerebral para determinar a localização de convulsões intratáveis de modo a que a área possa ser removido em uma segunda cirurgia. Os neurocirurgiões tipicamente um furo no crânio e seguramente colocar eléctrodos sobre a superfície do cérebro ou córtex - neste caso, um máximo de 256 eléctrodos que cobrem o lobo temporal - para registar a actividade durante um período de uma semana para detectar os ataques. Para este estudo, 15 pacientes neurocirúrgicos voluntários para participar.
Um raio-X tomografia computadorizada da cabeça de um dos voluntários, mostrando eletrodos distribuídos ao longo do lobo temporal do cérebro, onde os sons são processados.
Crédito: Adeen Flinker, UC Berkeley
Pasley visitou cada pessoa no hospital para registrar a atividade cerebral detectada pelos eletrodos como ouviram 5-10 minutos de conversa. Pasley usado esses dados para reconstruir e reproduzir os sons que os pacientes ouvidos. Ele foi capaz de fazer isto porque não há evidência de que o cérebro quebra de som em suas frequências acústicas de componentes - por exemplo, entre um mínimo de cerca de 1 Hertz (ciclos por segundo) para um máximo de cerca de 8000 Hertz, que são importantes para o discurso sons.
Pasley testados dois diferentes modelos computacionais para combinar sons falados para o padrão de atividade nos eletrodos. Os pacientes então ouviu uma única palavra, e Pasley usados os modelos para prever a palavra com base em gravações de eletrodos.
"Nós estamos olhando para que sites corticais estão aumentando a atividade em freqüências acústicas particulares e, a partir disso, traçar de volta para o som", Pasley disse. Ele comparou a técnica para um pianista que conhece os sons das teclas tão bem que ela pode olhar para as teclas de outro pianista está jogando em uma sala à prova de som e "ouvir" a música, assim como Ludwig van Beethoven foi capaz de "ouvir "suas composições, apesar de ser surdo.
O melhor dos dois métodos foi capaz de reproduzir um som perto o suficiente para a palavra original para Pasley e seus colegas pesquisadores adivinhar corretamente a palavra.
"Nós achamos que seria mais preciso com uma hora de ouvir e gravar e depois repetindo a palavra muitas vezes", disse Pasley. Mas porque qualquer dispositivo realista seria necessário para identificar com precisão palavras ouvidas pela primeira vez, ele decidiu testar os modelos usando apenas um julgamento único.
"Esta pesquisa é um grande passo para a compreensão do que dispõe do discurso são representadas no cérebro humano" disse Knight. "A análise de Brian pode reproduzir o som ouvido do paciente, e você pode realmente reconhecer a palavra, embora não a um nível perfeito".
Cavaleiro prevê que este sucesso pode ser estendido para imaginadas, verbalizações internas, porque estudos científicos têm demonstrado que, quando as pessoas são convidadas a imaginar falar uma palavra, as regiões cerebrais semelhantes são ativados como quando a pessoa realmente pronuncia a palavra.
"Com neuroprosthetics, as pessoas têm mostrado que é possível controlar o movimento com a atividade do cérebro", disse Knight. "Mas esse trabalho, enquanto não é fácil, é relativamente simples em comparação com a reconstrução da linguagem.Esta experiência se que o trabalho mais cedo para um nível totalmente novo. "
Com base em trabalhos anteriores com furões
A pesquisa atual se baseia no trabalho por outros pesquisadores sobre como os animais codificar sons em córtex cerebral auditivo. De fato, alguns pesquisadores, incluindo o co-autores do estudo da Universidade de Maryland, tem sido capaz de adivinhar os furões palavras foram lidas por cientistas com base em gravações do cérebro, embora os furões eram incapazes de compreender as palavras.
O objetivo final da UC Berkeley estudo foi explorar a forma como o cérebro humano codifica fala e determinar quais aspectos do discurso são as mais importantes para o entendimento.
"Em algum momento, o cérebro tem de extrair todas as informações que longe auditivo e apenas mapeá-lo em uma palavra, uma vez que podemos entender a fala e as palavras, independentemente da forma como o som que eles", disse Pasley. "A grande questão é, o que é a unidade mais significativa de fala? Uma sílaba, um telefone, um fonema? Podemos testar estas hipóteses utilizando os dados que obtemos destas gravações. "
Os co-autores do estudo são engenheiros Stephen V. David, Nima Mesgarani e Shihab A. Shamma, da Universidade de Maryland; Adeen Flinker de Helen UC Berkeley Wills Neuroscience Institute, e neurologista Nathan Crone E. da Johns Hopkins University, em Baltimore, Md . O trabalho foi feito principalmente nos laboratórios de Robert Knight na Universidade de Berkeley e Chang Edward, um neurocirurgião da UCSF.
Chang e Knight são membros do Centro de Engenharia Neural e Próteses, um conjunto UC Berkeley grupo / UCSF focado em utilizar a atividade do cérebro para desenvolver próteses neurais para motor e distúrbios da fala na desativação distúrbios neurológicos.
O trabalho é apoiado pelo Instituto Nacional de Distúrbios Neurológicos e Derrame do Instituto Nacional de Saúde e da Fundação Humboldt.
Contactos e fontes:
Por Robert Sanders
Citação: Junto com seus colaboradores no UCSF, sua equipe de pesquisa publicou um novo artigo na PLoS Biology chamado "discurso de reconstrução de córtex auditivo humano". (http://www.plosbiology.org/article/info:doi/10.1371/journal.pbio.1001251 )
Ouvir o áudio
Nenhum comentário