Uma nova pesquisa da Universidade de Londres descobriu que agentes de inteligência artificial (IA) podem desenvolver convenções sociais compartilhadas e comportamentos coletivos apenas por meio da interação, sem qualquer coordenação central, de forma muito semelhante às comunidades humanas.
PUBLICIDADE
Detalhes do que revelou o estudo
- A equipe testou “jogos de nomeação” de IA com grupos de agentes pareados aleatoriamente para selecionar rótulos, com recompensas para escolhas correspondentes e penalidades para escolhas diferentes.
- Mesmo que agentes individuais tivessem memória limitada e não fossem informados de que faziam parte de um grupo, convenções compartilhadas ainda emergiram em toda a população.
- Preconceitos em nível de grupo surgiram apenas dessas interações de IA, mesmo quando agentes individuais começaram sem nenhuma inclinação específica.
- Pequenos, mas determinados, subgrupos de IA foram capazes de mudar as normas estabelecidas de toda a comunidade, assim como os pontos de inflexão em mudanças sociais humanas.
Por que isso importa
Grupos de agentes de IA estão prestes a interagir por toda a internet, e esta pesquisa mostra que pode haver uma dinâmica social mais profunda sob a superfície. À medida que os agentes começam a negociar, alinhar-se e trabalhar juntos em objetivos e comportamentos compartilhados, entender essas dinâmicas será importante para mantê-los alinhados com os valores humanos.
Relevância do tema
A pesquisa é bastante interessante e levanta questões importantes sobre como a interação entre IAs pode gerar comportamentos emergentes complexos, algo que pode ter implicações significativas no futuro, especialmente considerando o crescente uso de múltiplos agentes de IA trabalhando em conjunto. É crucial entender esses processos para garantir que essas “sociedades” de IA evoluam de maneira benéfica para a humanidade.
Leia também: