Tendo sido co-organizada pelo Reino Unido e pela Coreia do Sul, a Segunda Cúpula de Segurança em IA teve duração de dois dias, encerrados nesta quarta-feira (22). Com pautas focadas em inclusão, diversidade, inovação e uso seguro de inteligência artificial (IA), o evento estabeleceu novas diretrizes para algumas de suas discussões em pauta.
PUBLICIDADE
Nesta quarta-feira, em meio às discussões focadas em segurança no trabalho, direitos autorais e igualdade tecnológica, 16 empresas de tecnologia assinaram um acordo de compromisso para um desenvolvimento de IA responsável.
As empresas líderes dos EUA, como Google, Meta, Microsoft e OpenAI, juntamente com empresas da China, Coreia do Sul e Emirados Árabes Unidos, estiveram envolvidas nesta iniciativa.
Elas foram respaldadas por uma declaração abrangente dos principais países do G7, da União Europeia, de Cingapura, Austrália e Coreia do Sul em uma reunião virtual presidida pelo primeiro-ministro britânico Rishi Sunak e pelo presidente sul-coreano Yoon Suk Yeol.
PUBLICIDADE
O escritório presidencial da Coreia do Sul enfatizou que as nações concordaram em priorizar a segurança, inovação e inclusão da IA.
“Devemos garantir a segurança da IA para proteger o bem-estar e a democracia de nossa sociedade”, disse Yoon, destacando preocupações com riscos como deepfake.
Os participantes ressaltaram a importância da interoperabilidade entre estruturas de governança, planos para uma rede de institutos de segurança e o engajamento com órgãos internacionais para construir sobre o acordo em uma primeira reunião para abordar melhor os riscos.
PUBLICIDADE
As empresas também se comprometeram com a segurança, incluindo Zhipu.ai, apoiada pela Alibaba e Tencent da China, Meituan e Xiaomi, bem como o Instituto de Inovação Tecnológica dos Emirados Árabes Unidos, Amazon, IBM e Samsung Electronics.
Elas se comprometeram a publicar estruturas de segurança para medir riscos, evitar modelos em que os riscos não pudessem ser suficientemente mitigados e garantir governança e transparência.
“É vital obter um acordo internacional sobre as ‘linhas vermelhas’ onde o desenvolvimento de IA se tornaria inaceitavelmente perigoso para a segurança pública”, disse Beth Barnes, fundadora do METR, um grupo que promove a segurança de modelos de IA, em resposta à declaração.
PUBLICIDADE
O cientista da computação Yoshua Bengio, conhecido como “padrinho da IA”, recebeu bem os compromissos, mas observou que os compromissos voluntários teriam que ser acompanhados por regulamentação.
Também na quarta-feira, um compromisso separado foi assinado por 14 empresas, incluindo Alphabet’s Google, Microsoft, OpenAI e seis empresas sul-coreanas, para usar métodos como marca d’água para ajudar a identificar conteúdo gerado por IA, além de garantir a criação de empregos e auxílio para grupos socialmente vulneráveis.
“A cooperação não é uma opção, é uma necessidade,” disse Lee Jong-Ho, Ministro de Ciência e Tecnologia da Informação e Comunicação da Coreia do Sul, em entrevista à Reuters.
PUBLICIDADE
“A cúpula de Seul moldou ainda mais as discussões sobre segurança da IA e acrescentou debates sobre inovação e inclusividade,” acrescentou Lee, dizendo que espera que as discussões na próxima cúpula incluam mais colaboração em institutos de segurança da IA.
Compromisso internacional
Dez países e a União Europeia desenvolverão mais institutos de segurança em inteligência artificial para alinhar a pesquisa em padrões e testes de aprendizado de máquina.
A rede internacional foi acordada durante a Cúpula de Segurança em IA em Seul, Coreia do Sul, durante a qual líderes mundiais se reuniram virtualmente.
Ela reunirá cientistas de instituições apoiadas publicamente, como o Instituto de Segurança em IA do Reino Unido, para compartilhar informações sobre os riscos, capacidades e limitações dos modelos de IA. O grupo de instituições também monitorará “incidentes específicos de segurança em IA” quando ocorrerem.
“A IA é uma tecnologia extremamente empolgante… mas para obter os benefícios, devemos garantir que seja segura”, disse o primeiro-ministro do Reino Unido, Rishi Sunak, em comunicado à imprensa.
“É por isso que estou encantado que tenhamos chegado a um acordo hoje para uma rede de Institutos de Segurança em IA”.
Os signatários desta nova rede de Institutos de Segurança em IA incluem a UE, França, Alemanha, Itália, Reino Unido, Estados Unidos, Singapura, Japão, Coreia do Sul, Austrália e Canadá.
O Reino Unido afirma ter criado o primeiro Instituto de Segurança em IA do mundo em novembro passado, com um investimento inicial de £100 milhões (€117,4 milhões).
Desde então, outros países como Estados Unidos, Japão e Singapura lançaram os seus próprios.
A missão do Instituto de Segurança em IA do Reino Unido é “minimizar surpresas para o Reino Unido e para a humanidade a partir de avanços rápidos e inesperados em IA”, diz um comunicado de imprensa do governo do Reino Unido de novembro de 2023.
A UE, tendo agora aprovado o ‘Ato da IA da UE‘, está se preparando para lançar seu escritório de IA. A Comissão Europeia disse anteriormente em entrevista que contratará o chefe do novo escritório assim que a lei for totalmente aprovada.
Ursula von der Leyen, presidente da Comissão Europeia, disse na Cúpula de Segurança em IA do ano passado que o escritório de IA teria e deveria ter uma “vocação global” para que pudesse “cooperar com entidades similares ao redor do mundo”.
Os líderes também assinaram a Declaração de Seul mais ampla durante esta conferência, que declara a importância da “cooperação internacional aprimorada” para desenvolver uma IA centrada no ser humano e confiável.
Leia também: