AI Safety Summit 2024: Compromissos, Redes e Diretrizes para o Futuro da Tecnologia

Tendo sido co-organizada pelo Reino Unido e pela Coreia do Sul, a Segunda Cúpula de Segurança em IA teve duração de dois dias, encerrados nesta quarta-feira (22). Com pautas focadas em inclusão, diversidade, inovação e uso seguro de inteligência artificial (IA), o evento estabeleceu novas diretrizes para algumas de suas discussões em pauta.

PUBLICIDADE

Nesta quarta-feira, em meio às discussões focadas em segurança no trabalho, direitos autorais e igualdade tecnológica, 16 empresas de tecnologia assinaram um acordo de compromisso para um desenvolvimento de IA responsável.

As empresas líderes dos EUA, como Google, Meta, Microsoft e OpenAI, juntamente com empresas da China, Coreia do Sul e Emirados Árabes Unidos, estiveram envolvidas nesta iniciativa.

Elas foram respaldadas por uma declaração abrangente dos principais países do G7, da União Europeia, de Cingapura, Austrália e Coreia do Sul em uma reunião virtual presidida pelo primeiro-ministro britânico Rishi Sunak e pelo presidente sul-coreano Yoon Suk Yeol.

PUBLICIDADE

O escritório presidencial da Coreia do Sul enfatizou que as nações concordaram em priorizar a segurança, inovação e inclusão da IA.

“Devemos garantir a segurança da IA para proteger o bem-estar e a democracia de nossa sociedade”, disse Yoon, destacando preocupações com riscos como deepfake.

Os participantes ressaltaram a importância da interoperabilidade entre estruturas de governança, planos para uma rede de institutos de segurança e o engajamento com órgãos internacionais para construir sobre o acordo em uma primeira reunião para abordar melhor os riscos.

PUBLICIDADE

As empresas também se comprometeram com a segurança, incluindo Zhipu.ai, apoiada pela Alibaba e Tencent da China, Meituan e Xiaomi, bem como o Instituto de Inovação Tecnológica dos Emirados Árabes Unidos, Amazon, IBM e Samsung Electronics.

Elas se comprometeram a publicar estruturas de segurança para medir riscos, evitar modelos em que os riscos não pudessem ser suficientemente mitigados e garantir governança e transparência.

“É vital obter um acordo internacional sobre as ‘linhas vermelhas’ onde o desenvolvimento de IA se tornaria inaceitavelmente perigoso para a segurança pública”, disse Beth Barnes, fundadora do METR, um grupo que promove a segurança de modelos de IA, em resposta à declaração.

PUBLICIDADE

O cientista da computação Yoshua Bengio, conhecido como “padrinho da IA”, recebeu bem os compromissos, mas observou que os compromissos voluntários teriam que ser acompanhados por regulamentação.

Também na quarta-feira, um compromisso separado foi assinado por 14 empresas, incluindo Alphabet’s Google, Microsoft, OpenAI e seis empresas sul-coreanas, para usar métodos como marca d’água para ajudar a identificar conteúdo gerado por IA, além de garantir a criação de empregos e auxílio para grupos socialmente vulneráveis.

“A cooperação não é uma opção, é uma necessidade,” disse Lee Jong-Ho, Ministro de Ciência e Tecnologia da Informação e Comunicação da Coreia do Sul, em entrevista à Reuters.

PUBLICIDADE

“A cúpula de Seul moldou ainda mais as discussões sobre segurança da IA e acrescentou debates sobre inovação e inclusividade,” acrescentou Lee, dizendo que espera que as discussões na próxima cúpula incluam mais colaboração em institutos de segurança da IA.

Compromisso internacional

Dez países e a União Europeia desenvolverão mais institutos de segurança em inteligência artificial para alinhar a pesquisa em padrões e testes de aprendizado de máquina.

A rede internacional foi acordada durante a Cúpula de Segurança em IA em Seul, Coreia do Sul, durante a qual líderes mundiais se reuniram virtualmente.

Ela reunirá cientistas de instituições apoiadas publicamente, como o Instituto de Segurança em IA do Reino Unido, para compartilhar informações sobre os riscos, capacidades e limitações dos modelos de IA. O grupo de instituições também monitorará “incidentes específicos de segurança em IA” quando ocorrerem.

“A IA é uma tecnologia extremamente empolgante… mas para obter os benefícios, devemos garantir que seja segura”, disse o primeiro-ministro do Reino Unido, Rishi Sunak, em comunicado à imprensa.

“É por isso que estou encantado que tenhamos chegado a um acordo hoje para uma rede de Institutos de Segurança em IA”.

Os signatários desta nova rede de Institutos de Segurança em IA incluem a UE, França, Alemanha, Itália, Reino Unido, Estados Unidos, Singapura, Japão, Coreia do Sul, Austrália e Canadá.

O Reino Unido afirma ter criado o primeiro Instituto de Segurança em IA do mundo em novembro passado, com um investimento inicial de £100 milhões (€117,4 milhões).

Desde então, outros países como Estados Unidos, Japão e Singapura lançaram os seus próprios.

A missão do Instituto de Segurança em IA do Reino Unido é “minimizar surpresas para o Reino Unido e para a humanidade a partir de avanços rápidos e inesperados em IA”, diz um comunicado de imprensa do governo do Reino Unido de novembro de 2023.

A UE, tendo agora aprovado o ‘Ato da IA da UE‘, está se preparando para lançar seu escritório de IA. A Comissão Europeia disse anteriormente em entrevista que contratará o chefe do novo escritório assim que a lei for totalmente aprovada.

Ursula von der Leyen, presidente da Comissão Europeia, disse na Cúpula de Segurança em IA do ano passado que o escritório de IA teria e deveria ter uma “vocação global” para que pudesse “cooperar com entidades similares ao redor do mundo”.

Os líderes também assinaram a Declaração de Seul mais ampla durante esta conferência, que declara a importância da “cooperação internacional aprimorada” para desenvolver uma IA centrada no ser humano e confiável.

Leia também:

Rolar para cima