Dezesseis empresas líderes no desenvolvimento de inteligência artificial (IA) se comprometeram na terça-feira (21), em um encontro global, a desenvolver a tecnologia com segurança. Isso ocorre em um momento em que reguladores correm para acompanhar a rápida inovação e os riscos emergentes.
Entre as empresas estão as líderes americanas Google, Meta, Microsoft e OpenAI, além de firmas da China, Coreia do Sul e Emirados Árabes Unidos.
Elas foram apoiadas por uma declaração mais ampla do G7 (as sete maiores economias do mundo), União Europeia, Cingapura, Austrália e Coreia do Sul, em uma reunião virtual liderada pelo primeiro-ministro britânico Rishi Sunak e o presidente sul-coreano Yoon Suk Yeol.
O gabinete presidencial da Coreia do Sul afirmou que os países concordaram em priorizar a segurança, inovação e inclusão da IA.
“Devemos garantir a segurança da IA para… proteger o bem-estar e a democracia de nossa sociedade”, disse Yoon, mencionando preocupações com riscos como deepfakes (vídeos falsos criados por IA).
Os participantes destacaram a importância da interoperabilidade entre estruturas de governança, planos para uma rede de institutos de segurança e engajamento com órgãos internacionais para construir sobre o acordo do primeiro encontro e lidar melhor com os riscos.
Outras empresas comprometidas com a segurança incluem Zhipu.ai (apoiada pelas chinesas Alibaba, Tencent, Meituan e Xiaomi), o Instituto de Inovação Tecnológica dos Emirados Árabes Unidos, Amazon, IBM e Samsung Electronics.
Elas se comprometeram a publicar estruturas de segurança para medir riscos, evitar modelos onde os riscos não possam ser suficientemente mitigados e garantir governança e transparência.
“É vital obter um acordo internacional sobre as ‘linhas vermelhas’ onde o desenvolvimento de IA se tornaria perigosamente inaceitável para a segurança pública”, disse Beth Barnes, fundadora da METR, um grupo que promove a segurança de modelos de IA, em resposta à declaração.
O cientista da computação Yoshua Bengio, conhecido como um “padrinho da IA”, saudou os compromissos, mas observou que compromissos voluntários precisariam ser acompanhados de regulamentação.
Desde novembro, a discussão sobre a regulação da IA mudou de cenários apocalípticos de longo prazo para preocupações mais práticas, como o uso da IA em áreas como medicina e finanças, disse Aidan Gomez, cofundador da empresa de modelos de linguagem grande Cohere, à margem da cúpula.
A China, que co-assinou o “Acordo de Bletchley” sobre o gerenciamento coletivo de riscos de IA durante a primeira reunião de novembro, não compareceu à sessão de terça-feira, mas participará de uma sessão ministerial presencial na quarta-feira, disse um oficial presidencial sul-coreano.
Elon Musk da Tesla, o ex-CEO do Google Eric Schmidt, o presidente da Samsung Electronics Jay Y. Lee e outros líderes da indústria de IA participaram da reunião.
O próximo encontro será na França, disseram autoridades.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:51
Pesquisadores japoneses desenvolveram um sistema de inteligência artificial (IA) que pode detectar condições como pressão…
O Google DeepMind acabou de abrir o código-fonte do seu revolucionário modelo de previsão de…
Esforços para influenciar as políticas do presidente eleito Donald Trump por meio de Elon Musk…
Empresas de inteligência artificial (IA) como a OpenAI estão buscando superar atrasos inesperados e desafios…
Pesquisadores do MIT divulgaram um sistema de inteligência artificial (IA) chamado LucidSim que treina robôs…
Sam Altman, CEO da OpenAI, acabou de prever que a inteligência artificial geral (AGI) será…