.
Para percorrer o mundo, nosso cérebro deve desenvolver uma compreensão intuitiva do mundo físico que nos rodeia, que então usamos para interpretar as informações sensoriais que chegam ao cérebro.
Como o cérebro desenvolve essa compreensão intuitiva? Muitos cientistas acreditam que pode usar um processo semelhante ao que é conhecido como “aprendizagem auto-supervisionada”. Esse tipo de aprendizado de máquina, originalmente desenvolvido como uma forma de criar modelos mais eficientes para visão computacional, permite que modelos computacionais aprendam sobre cenas visuais com base apenas nas semelhanças e diferenças entre elas, sem rótulos ou outras informações.
Dois estudos de pesquisadores do Centro de Neurociência Computacional Integrativa (ICoN) K. Lisa Yang do MIT oferecem novas evidências que apoiam esta hipótese. Os investigadores descobriram que quando treinaram modelos conhecidos como redes neurais utilizando um tipo específico de aprendizagem auto-supervisionada, os modelos resultantes geraram padrões de actividade muito semelhantes aos observados nos cérebros de animais que realizavam as mesmas tarefas que os modelos.
As descobertas sugerem que estes modelos são capazes de aprender representações do mundo físico que podem usar para fazer previsões precisas sobre o que acontecerá nesse mundo, e que o cérebro dos mamíferos pode estar a usar a mesma estratégia, dizem os investigadores.
“O tema do nosso trabalho é que a IA projetada para ajudar a construir robôs melhores acaba sendo também uma estrutura para compreender melhor o cérebro de forma mais geral”, diz Aran Nayebi, pós-doutorado no Centro ICoN. “Ainda não podemos dizer se é o cérebro inteiro, mas em escalas e áreas cerebrais díspares, os nossos resultados parecem sugerir um princípio organizador”.
Nayebi é o autor principal de um dos estudos, em coautoria com Rishi Rajalingham, ex-pós-doutorado do MIT agora no Meta Reality Labs, e com os autores seniores Mehrdad Jazayeri, professor associado de ciências cerebrais e cognitivas e membro do Instituto McGovern de Pesquisa do Cérebro; e Robert Yang, professor assistente de ciências cerebrais e cognitivas e membro associado do Instituto McGovern. Ila Fiete, diretora do ICoN Center, professora de ciências cerebrais e cognitivas e membro associado do Instituto McGovern, é a autora sênior do outro estudo, que foi co-liderado por Mikail Khona, um estudante de pós-graduação do MIT, e Rylan Schaeffer, ex-pesquisador sênior do MIT.
Ambos os estudos serão apresentados na Conferência sobre Sistemas de Processamento de Informação Neural (NeurIPS) de 2023, em dezembro.
Modelando o mundo físico
Os primeiros modelos de visão computacional baseavam-se principalmente na aprendizagem supervisionada. Usando essa abordagem, os modelos são treinados para classificar imagens rotuladas com um nome – gato, carro, etc. Os modelos resultantes funcionam bem, mas esse tipo de treinamento requer uma grande quantidade de dados rotulados por humanos.
Para criar uma alternativa mais eficiente, nos últimos anos os pesquisadores recorreram a modelos construídos por meio de uma técnica conhecida como aprendizagem auto-supervisionada contrastiva. Esse tipo de aprendizado permite que um algoritmo aprenda a classificar objetos com base em quão semelhantes eles são entre si, sem fornecer rótulos externos.
“Este é um método muito poderoso porque agora você pode aproveitar grandes conjuntos de dados modernos, especialmente vídeos, e realmente desbloquear seu potencial”, diz Nayebi. “Grande parte da IA moderna que você vê agora, especialmente nos últimos anos com ChatGPT e GPT-4, é resultado do treinamento de uma função objetivo auto-supervisionada em um conjunto de dados em grande escala para obter uma representação muito flexível.”
Esses tipos de modelos, também chamados de redes neurais, consistem em milhares ou milhões de unidades de processamento conectadas entre si. Cada nó possui conexões de intensidades variadas com outros nós da rede. À medida que a rede analisa grandes quantidades de dados, a força dessas conexões muda à medida que a rede aprende a executar a tarefa desejada.
À medida que o modelo executa uma tarefa específica, os padrões de atividade de diferentes unidades da rede podem ser medidos. A atividade de cada unidade pode ser representada como um padrão de disparo, semelhante aos padrões de disparo dos neurônios no cérebro. Trabalhos anteriores de Nayebi e outros mostraram que modelos de visão auto-supervisionados geram atividade semelhante à observada no sistema de processamento visual dos cérebros dos mamíferos.
Em ambos os novos estudos do NeurIPS, os investigadores decidiram explorar se modelos computacionais auto-supervisionados de outras funções cognitivas também poderiam mostrar semelhanças com o cérebro dos mamíferos. No estudo liderado por Nayebi, os investigadores treinaram modelos auto-supervisionados para prever o estado futuro do seu ambiente através de centenas de milhares de vídeos naturalistas que retratam cenários do quotidiano.
“Durante a última década, o método dominante para construir modelos de redes neurais na neurociência cognitiva é treinar essas redes em tarefas cognitivas individuais. Mas os modelos treinados desta forma raramente generalizam para outras tarefas”, diz Yang. “Aqui testamos se podemos construir modelos para algum aspecto da cognição, primeiro treinando em dados naturalísticos usando aprendizagem auto-supervisionada e depois avaliando em laboratório.”
Depois que o modelo foi treinado, os pesquisadores generalizaram-no para uma tarefa que chamam de “Mental-Pong”. Isso é semelhante ao videogame Pong, onde um jogador move uma raquete para acertar uma bola que viaja pela tela. Na versão Mental-Pong, a bola desaparece pouco antes de atingir a raquete, então o jogador tem que estimar sua trajetória para acertar a bola.
Os pesquisadores descobriram que o modelo foi capaz de rastrear a trajetória da bola oculta com precisão semelhante à dos neurônios no cérebro dos mamíferos, que havia sido demonstrado em um estudo anterior de Rajalingham e Jazayeri para simular sua trajetória – um fenômeno cognitivo conhecido como “ simulação mental.” Além disso, os padrões de ativação neural observados no modelo eram semelhantes aos observados nos cérebros dos animais enquanto jogavam – especificamente, numa parte do cérebro chamada córtex frontal dorsomedial. Nenhuma outra classe de modelo computacional foi capaz de corresponder tão estreitamente aos dados biológicos como este, dizem os investigadores.
&ldqu
.png)
.png)
.png)
.png)