O ministro da Ciência e Tecnologia da Coreia do Sul disse na quarta-feira (22) que o mundo precisa cooperar para garantir o desenvolvimento bem-sucedido da inteligência artificial (IA), encerrando a cúpula global sobre essa tecnologia em rápida evolução sediada por seu país.
A cúpula de IA em Seul, co-organizada com a Grã-Bretanha, discutiu preocupações como segurança de emprego, direitos autorais e desigualdade na quarta-feira, depois que 16 empresas de tecnologia assinaram um acordo voluntário para desenvolver IA com segurança um dia antes.
Um compromisso separado foi assinado na quarta-feira (22) por 14 empresas, incluindo Google (Alphabet), Microsoft, OpenAI e seis empresas coreanas, para usar métodos como marca d’água para ajudar a identificar conteúdo gerado por IA, além de garantir a criação de empregos e o auxílio a grupos socialmente vulneráveis.
“Cooperação não é uma opção, é uma necessidade”, disse Lee Jong-Ho, Ministro da Ciência e TIC (Tecnologia da Informação e Comunicação) da Coreia do Sul, em entrevista à Reuters.
“A cúpula de Seul moldou ainda mais as conversas sobre segurança de IA e adicionou discussões sobre inovação e inclusão”, disse Lee, acrescentando que espera que as discussões na próxima cúpula incluam mais colaboração em institutos de segurança de IA.
A primeira cúpula global de IA foi realizada na Grã-Bretanha em novembro, e o próximo encontro presencial deve ocorrer na França, provavelmente em 2025.
Ministros e autoridades de vários países discutiram na quarta-feira a cooperação entre institutos estatais de segurança de IA para ajudar a regulamentar a tecnologia.
Especialistas em IA saudaram as medidas tomadas até agora para começar a regulamentar a tecnologia, embora alguns afirmem que regras precisam ser aplicadas.
“Precisamos ir além do voluntário… as pessoas afetadas devem definir as regras por meio dos governos”, disse Francine Bennett, diretora do Instituto Ada Lovelace focado em IA.
Os serviços de IA devem comprovar que atendem a padrões de segurança obrigatórios antes de chegar ao mercado, para que as empresas equiparem segurança a lucro e evitem qualquer reação negativa do público por danos inesperados, disse Max Tegmark, presidente do Future of Life Institute, uma organização que se manifesta sobre os riscos dos sistemas de IA.
O ministro da ciência sul-coreano, Lee, disse que as leis tendem a ficar atrás da velocidade de avanço de tecnologias como a IA.
“Mas para o uso seguro pelo público, é necessário que haja leis e regulamentações flexíveis.”
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 17:38
O mais recente modelo experimental Gemini da Google (1121) acabou de recuperar o primeiro lugar…
A OpenAI está considerando desenvolver um navegador web que se integraria ao ChatGPT e aos…
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…