Um novo estudo do Instituto de Tecnologia de Massachusetts (MIT) está mudando a forma como entendemos uma das principais vias visuais do cérebro. Até hoje, pesquisadores acreditavam que o chamado fluxo ventral – responsável por processar o que vemos – fosse otimizado para reconhecer objetos: identificar que aquilo à nossa frente é uma caneca, um gato ou uma cadeira. Mas e se essa via também nos ajudasse a entender onde esses objetos estão, em que posição, a que distância, ou como estão orientados no espaço?
Essa é a proposta de um grupo de neurocientistas e engenheiros do MIT. Eles treinaram modelos computacionais, inspirados na arquitetura do cérebro, para realizar tarefas relacionadas à orientação espacial – como identificar a rotação, o tamanho e a localização de um objeto dentro do campo visual. O que descobriram foi surpreendente: os modelos foram tão eficazes em prever a atividade do cérebro quanto os tradicionais modelos voltados apenas para o reconhecimento de objetos.
“Essa descoberta sugere que o fluxo ventral pode ser mais versátil do que imaginávamos”, afirma Yudi Xie, doutorando do MIT e autor principal do estudo, que será apresentado na International Conference on Learning Representations (ICLR). “Ele pode estar envolvido também em como percebemos o espaço ao nosso redor, não apenas no que estamos vendo.”
Como foi feito o estudo
Há anos, os cientistas usam redes neurais convolucionais (CNNs) para imitar o comportamento do fluxo ventral. Essas redes são treinadas para identificar objetos em milhares de imagens rotuladas e, ao final, apresentam padrões de ativação muito parecidos com os que ocorrem no cérebro humano. O que os pesquisadores fizeram agora foi treinar redes semelhantes, mas com outro foco: detectar propriedades espaciais dos objetos, como posição, rotação e distância.
Para isso, criaram um banco de imagens sintéticas contendo objetos simples (como chaleiras ou calculadoras) posicionados de diferentes maneiras. Os modelos aprenderam a reconhecer essas variações e, depois, foram avaliados com base em uma métrica chamada neuroalinhamento — que compara o comportamento dos modelos com a atividade real de neurônios do fluxo ventral. O resultado: os modelos “espaciais” se alinharam tão bem quanto os modelos tradicionais focados em reconhecimento visual. Em outras palavras, o fluxo ventral parece responder tanto à identidade quanto à orientação dos objetos.
O que isso muda na neurociência
Desde a década de 1980, a neurociência acredita que o cérebro processa imagens em dois caminhos distintos:
- O fluxo dorsal, que cuidaria da localização e do movimento (o “onde” e o “como”).
- E o fluxo ventral, encarregado do reconhecimento (o “o quê”).
Essa divisão — também conhecida como a teoria das “duas vias visuais” — permanece influente até hoje. Mas os novos dados desafiam essa separação tão rígida. “Não podemos presumir que o fluxo ventral se limita à categorização de objetos”, afirma Xie. “Aparentemente, ele também está envolvido em aspectos espaciais da visão.”
O estudo mostra que, mesmo quando treinados para identificar apenas uma característica (como rotação), os modelos acabam aprendendo também sobre características “secundárias”, como posição ou tamanho. Isso acontece porque os objetos variam naturalmente em muitas dimensões visuais ao mesmo tempo — e o cérebro (assim como os modelos) parece usar toda essa informação, mesmo que ela não seja o foco da tarefa.
O próximo passo
Os pesquisadores agora querem desenvolver novas formas de medir o quão semelhantes esses modelos computacionais são ao cérebro humano — e entender melhor como cada um deles constrói suas “representações internas” do que está vendo. “Ainda há detalhes sutis que não conseguimos capturar com as métricas atuais”, diz Xie. “Mas esse estudo nos dá uma pista importante: talvez o fluxo ventral seja uma via multifuncional, capaz de processar tanto a identidade quanto a orientação dos objetos — algo essencial para a forma como navegamos e interagimos com o mundo ao nosso redor.”