Researchers at Stanford and Google DeepMind acabaram de desenvolver agents of artificial intelligence (IA) que podem prever as atitudes e comportamentos de um indivíduo treinando os modelos em duas horas de dados de entrevistas qualitativas.
ADVERTISING
See the details
- A equipe entrevistou 1.052 pessoas por duas horas cada, usando um entrevistador de IA, criando transcrições detalhadas de suas histórias de vida e pontos de vista.
- Usando essas transcrições, os pesquisadores construíram agentes de IA individuais, alimentados por grandes modelos de linguagem, que poderiam simular as respostas e comportamentos de cada pessoa.
- Tanto os humanos quanto os agentes fizeram o ‘Inquérito Social Geral’, com os agentes de IA correspondendo a 85% das respostas dos seus homólogos humanos.
- Em experimentos testando comportamento social, as respostas da IA correlacionaram-se com as reações humanas em 98% – quase perfeitamente emulando como pessoas reais agiriam.
Why does it matter
Se agentes treinados em dados de entrevistas podem imitar com precisão as atitudes humanas, o que a IA que está sempre aprendendo será capaz de realizar? Essa abordagem pode mudar como os pesquisadores testam em campos como economia e sociologia – mas também mostra o quão poderosos serão os agentes que podem constantemente observar e aprender.
Read also