Dezesseis empresas líderes no desenvolvimento de inteligência artificial (IA) se comprometeram na terça-feira (21), em um encontro global, a desenvolver a tecnologia com segurança. Isso ocorre em um momento em que reguladores correm para acompanhar a rápida inovação e os riscos emergentes.
Entre as empresas estão as líderes americanas Google, Meta, Microsoft e OpenAI, além de firmas da China, Coreia do Sul e Emirados Árabes Unidos.
Elas foram apoiadas por uma declaração mais ampla do G7 (as sete maiores economias do mundo), União Europeia, Cingapura, Austrália e Coreia do Sul, em uma reunião virtual liderada pelo primeiro-ministro britânico Rishi Sunak e o presidente sul-coreano Yoon Suk Yeol.
O gabinete presidencial da Coreia do Sul afirmou que os países concordaram em priorizar a segurança, inovação e inclusão da IA.
“Devemos garantir a segurança da IA para… proteger o bem-estar e a democracia de nossa sociedade”, disse Yoon, mencionando preocupações com riscos como deepfakes (vídeos falsos criados por IA).
Os participantes destacaram a importância da interoperabilidade entre estruturas de governança, planos para uma rede de institutos de segurança e engajamento com órgãos internacionais para construir sobre o acordo do primeiro encontro e lidar melhor com os riscos.
Outras empresas comprometidas com a segurança incluem Zhipu.ai (apoiada pelas chinesas Alibaba, Tencent, Meituan e Xiaomi), o Instituto de Inovação Tecnológica dos Emirados Árabes Unidos, Amazon, IBM e Samsung Electronics.
Elas se comprometeram a publicar estruturas de segurança para medir riscos, evitar modelos onde os riscos não possam ser suficientemente mitigados e garantir governança e transparência.
“É vital obter um acordo internacional sobre as ‘linhas vermelhas’ onde o desenvolvimento de IA se tornaria perigosamente inaceitável para a segurança pública”, disse Beth Barnes, fundadora da METR, um grupo que promove a segurança de modelos de IA, em resposta à declaração.
O cientista da computação Yoshua Bengio, conhecido como um “padrinho da IA”, saudou os compromissos, mas observou que compromissos voluntários precisariam ser acompanhados de regulamentação.
Desde novembro, a discussão sobre a regulação da IA mudou de cenários apocalípticos de longo prazo para preocupações mais práticas, como o uso da IA em áreas como medicina e finanças, disse Aidan Gomez, cofundador da empresa de modelos de linguagem grande Cohere, à margem da cúpula.
A China, que co-assinou o “Acordo de Bletchley” sobre o gerenciamento coletivo de riscos de IA durante a primeira reunião de novembro, não compareceu à sessão de terça-feira, mas participará de uma sessão ministerial presencial na quarta-feira, disse um oficial presidencial sul-coreano.
Elon Musk da Tesla, o ex-CEO do Google Eric Schmidt, o presidente da Samsung Electronics Jay Y. Lee e outros líderes da indústria de IA participaram da reunião.
O próximo encontro será na França, disseram autoridades.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:51
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…