O governo Biden anunciou na quarta-feira (18) que realizará uma Cúpula Global de Segurança sobre Inteligência Artificial (IA), enquanto o Congresso continua a enfrentar dificuldades para regular a tecnologia.
A Secretária de Comércio, Gina Raimondo, e o Secretário de Estado, Anthony Blinken, serão os anfitriões da primeira reunião da Rede Internacional de Institutos de Segurança de IA em San Francisco, nos dias 20 e 21 de novembro, para “promover a cooperação global em direção ao desenvolvimento seguro, confiável e confiável da inteligência artificial”.
Os membros da rede incluem Austrália, Canadá, União Europeia, França, Japão, Quênia, Coreia do Sul, Singapura, Reino Unido e Estados Unidos.
A IA generativa – que pode criar texto, fotos e vídeos em resposta a prompts abertos – despertou entusiasmo e também temores de que possa tornar alguns empregos obsoletos, prejudicar eleições e potencialmente dominar os humanos, com efeitos catastróficos.
Em maio, Raimondo anunciou o lançamento da Rede Internacional de Institutos de Segurança de IA durante a Cúpula de IA de Seul, onde as nações concordaram em priorizar a segurança, inovação e inclusão da IA. O objetivo da reunião de San Francisco é iniciar a colaboração técnica antes da Cúpula de Ação de IA em Paris, em fevereiro.
A reunião de San Francisco contará com especialistas técnicos de cada instituto de segurança de IA dos membros ou escritório científico equivalente apoiado pelo governo, para discutir áreas de trabalho prioritárias e promover a colaboração global e o compartilhamento de conhecimento sobre segurança de IA.
Na semana passada, o Departamento de Comércio dos EUA disse que estava propondo exigir requisitos detalhados de relatórios para desenvolvedores avançados de IA e provedores de computação em nuvem para garantir que as tecnologias sejam seguras e possam resistir a ataques cibernéticos.
A pressão regulatória ocorre enquanto a ação legislativa no Congresso sobre IA está estagnada.
O presidente Joe Biden assinou em outubro de 2023 um decreto executivo exigindo que os desenvolvedores de sistemas de IA que representam riscos à segurança nacional, economia, saúde pública ou segurança dos EUA compartilhem os resultados dos testes de segurança com o governo dos EUA antes de serem lançados publicamente.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 10:30
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…