Neurociência e a caverna de Platão: o que a ciência pode nos dizer sobre a possibilidade de participantes sintéticos

Neurociência e a Caverna de PlatãoRay Poynter, 21 de setembro de 2025


Para mim, o júri está na discussão sobre o que os dados sintéticos podem ser capazes de alcançar na replicação de decisões e comportamentos humanos. Estou preocupado com algumas das afirmações exageradas e chocado com o número de pessoas que rejeitam as noções como sendo evidentemente erradas (sem sentir a necessidade de apoiar a sua rejeição com dados). Neste post, quero explorar uma linha de pensamento relacionada ao debate mais amplo, a saber, o que o cérebro humano está fazendo e como isso pode ajudar ou dificultar a criação de modelos preditivos (também conhecidos como dados sintéticos).

Os avanços na neurociência e na economia comportamental desafiaram cada vez mais a noção de que os humanos são tomadores de decisão racionais. As descobertas sugerem que grande parte do nosso pensamento e comportamento pode ser governado por processos inconscientes e/ou determinísticos. Isto, por sua vez, sugere-se, torna as respostas humanas mais previsíveis do que tradicionalmente se supõe. Os filósofos há muito que debatem o determinismo, a ideia de que acontecimentos anteriores causam todas as escolhas, e talvez estes debates ganhem nova relevância à medida que a inteligência artificial se torna uma parte significativa do nosso mundo. As pessoas estão tentando usar modelos de IA para replicar respostas semelhantes às humanas em linguagem natural. Esta nota explora como o pensamento da neurociência e da economia comportamental sobre a nossa “irracionalidade previsível” (como disse Dan Ariely) poderia moldar o nosso pensamento sobre campos como os dados sintéticos.

Décadas de investigação em neurociência indicam que a tomada de decisões humanas é muitas vezes iniciada subconscientemente, pondo em causa a noção tradicional de livre arbítrio totalmente consciente. Numa experiência marcante da década de 1980, Benjamin Libet sugeriu que a atividade cerebral indicando uma decisão aparecia cerca de 300 milissegundos antes de uma pessoa relatar ter feito uma escolha consciente de se mover. Estudos de acompanhamento utilizando imagens cerebrais modernas reforçaram esse fenômeno. Por exemplo, Soon et al. (2008) descobriram que, ao analisar exames cerebrais de fMRI, eles poderiam prever as decisões simples de uma pessoa até 7 a 10 segundos antes da consciência da escolha da pessoa. Tais resultados sugerem que uma parte significativa do que experienciamos como “tomar uma decisão” pode ser determinada por processos neurais que operam abaixo do nível do pensamento consciente.

Estas descobertas, juntamente com outras, sugerem que o nosso sentido de “livre arbítrio” pode ser, pelo menos em parte, uma narrativa construída. Nossos cérebros podem ser contadores de histórias post-hoc, criando uma explicação para ações que foram desencadeadas por algoritmos neurais inconscientes. Isto se alinha com a ideia dos humanos como algoritmos biológicos, que recebem entradas, processam-nas de acordo com o condicionamento e a programação evolutiva e tomam decisões de saída. Esta semelhança com os sistemas de IA reforça a possibilidade de replicar computacionalmente as respostas humanas.

Enquanto o debate sobre o livre arbítrio continua, muitos neurocientistas, incluindo Robert Sapolsky no seu livro Determinado: Uma Ciência da Vida Sem Livre Arbítrio, concluem que o livre arbítrio tradicional é em grande parte uma ilusão. Isto posiciona a IA como potencialmente capaz de replicar ou prever decisões humanas, uma vez que as nossas respostas podem ser mais mecanicistas do que intuitivamente acreditamos.

A economia comportamental revela que mesmo os nossos julgamentos conscientes muitas vezes se desviam da racionalidade de forma sistemática. Kahneman, Tversky e Ariely demonstraram que os humanos são previsivelmente irracionais, usando consistentemente heurísticas e preconceitos. Esses preconceitos, como o efeito de enquadramento, a ancoragem e a heurística de disponibilidade, não são aleatórios, mas previsíveis.

Por exemplo, ao enquadrar experiências, as pessoas preferiram uma opção “vidas salvas” a uma opção equivalente “vidas perdidas”, destacando a tomada de decisões irracional, mas padronizada. É importante ressaltar que os modelos de IA treinados em dados humanos também apresentam esses mesmos vieses, como o efeito de enquadramento. Isto mostra que a IA não só aprende o nosso raciocínio racional, mas também a nossa irracionalidade previsível, tornando-a especialmente capaz de replicar respostas humanas a perguntas. É por isso que estamos tão preocupados com os preconceitos da IA, não porque sejam racionais, mas porque são semelhantes aos preconceitos das pessoas nas quais foram treinados.

Modelos recentes de IA generativa demonstram que as respostas humanas seguem padrões que as máquinas podem aprender. Em 2025, pesquisadores de Stanford demonstraram que o GPT-4 poderia simular com precisão os resultados de 476 experimentos de ciências sociais, prevendo respostas humanas com correlações comparáveis ​​às das previsões de especialistas. Isto mostra o potencial da IA ​​para actuar como “populações virtuais” para investigação.

Em ambientes aplicados, os entrevistadores de IA são agora usados ​​por muitas empresas, incluindo entrevistas de contratação, pesquisa de conversas em RM e treinamento de clientes (onde a IA desempenha o papel de cliente, paciente ou líder de vendas). Empresas como a Shopify estão usando agentes de atendimento ao cliente de IA para lidar com uma proporção crescente de interações. A análise destes sistemas sugere que eles fornecem respostas consistentes, rápidas e semelhantes às humanas, mas muitas vezes carecem de empatia, o que continua a ser uma limitação.

Todos os dias, IA conversacional como ChatGPT e Gemini também demonstram a capacidade de simular perspectivas humanas ou dados demográficos específicos, destacando ainda mais o quão padronizadas são as nossas respostas e quão replicáveis ​​elas podem ser. Existem agora milhões de pessoas que tratam um sistema de IA como amigo e que parecem acreditar que as reações transmitem uma conexão humana. (Isso é algo que considero preocupante do ponto de vista da dependência humana, mas fornece informações sobre a capacidade da IA ​​de imitar respostas que correspondam ao que o ser humano espera e deseja.)

Tomadas em conjunto, a neurociência e a economia comportamental sugerem que as respostas humanas podem ser mais padronizadas e previsíveis do que a maioria das pessoas supõe. Se assim for, isto poderia permitir que a IA modelasse humanos em pesquisas de mercado em grande escala e de muitas mais maneiras do que o atualmente previsto.

Acredito que precisamos de transparência (sem caixas pretas), de experimentação real (testes onde o sucesso ou o fracasso realmente apontam para algo útil) e uma mentalidade disposta a ser liderada pelos dados. Temo que estejamos vendo, em algumas das principais vozes, outro exemplo da analogia da caverna de Platão. As pessoas estão acorrentadas no escuro e acreditam que as sombras são a realidade; se alguém tenta lhes contar sobre o mundo real, elas resistem em dissonância cognitiva.


Se você estiver no Congresso, realizarei uma sessão na manhã de quarta-feira, onde veremos as novas orientações da ESOMAR sobre Dados Sintéticos e onde teremos uma sessão de Q e Ray.

Deixe um comentário