O Reino Unido precisa de um sistema para registrar uso indevido e falhas em inteligência artificial (IA) ou as autoridades correm o risco de não estarem cientes de incidentes alarmantes envolvendo a tecnologia, revelou um relatório do tink tank (ou laboratório de ideias) Centro de Resiliência de Longo Prazo (CLTR).
De acordo com a publicação do CLTR, o próximo governo deve criar um sistema para registrar incidentes envolvendo IA em serviços públicos e deve considerar a construção de um hub central para coletar episódios relacionados à tecnologia em todo o Reino Unido.
O CLTR – que se concentra nas respostas do governo do Reino Unido às crises imprevistas e riscos extremos – afirmou que um regime de relatórios de incidentes, como o sistema operado pelo Air Accidents Investigation Branch (AAIB), é vital para o uso bem-sucedido da inteligência artificial.
O relatório cita 10.000 “incidentes de segurança” de IA registrados por veículos de notícias desde 2014, listados em um banco de dados compilado pela Organização para Cooperação e Desenvolvimento Econômico (OCDE). A definição da OCDE de um incidente prejudicial de IA varia desde danos físicos a danos econômicos, reputacionais e psicológicos.
Exemplos registrados no monitor de incidentes de segurança de IA da OCDE incluem um deepfake do líder trabalhista Keir Starmer supostamente sendo abusivo com a equipe do partido, o modelo Gemini do Google retratando soldados alemães da Segunda Guerra Mundial como pessoas de cor, incidentes envolvendo carros autônomos e um homem que planejava assassinar a falecida rainha recebendo encorajamento de um chatbot.
“Relatórios de incidentes desempenharam um papel transformador na mitigação e gestão de riscos em indústrias críticas para a segurança, como aviação e medicina. Mas está amplamente ausente do cenário regulatório que está sendo desenvolvido para IA. Isso está deixando o governo do Reino Unido cego para os incidentes que estão surgindo do uso da IA, inibindo sua capacidade de responder”, disse Tommy Shaffer Shane, gerente de políticas do CLTR e autor do relatório.
O CLTR afirmou que o governo do Reino Unido deve seguir o exemplo de indústrias onde a segurança é uma questão crítica, como na aviação e na medicina, e introduzir um “regime de relatórios de incidentes bem-funcionante”. O CLTR disse que muitos incidentes de IA provavelmente não seriam cobertos pelos vigilantes do Reino Unido porque não há um regulador focado em sistemas de IA de ponta, como chatbots e geradores de imagens.
Tal configuração forneceria insights rápidos sobre como a IA está dando errado, disse o think tank, e ajudaria o governo a antecipar incidentes semelhantes no futuro. Acrescentou que os relatórios de incidentes ajudariam a coordenar respostas a incidentes graves onde a rapidez da resposta é crucial e identificar sinais iniciais de danos em larga escala que poderiam ocorrer no futuro.
Alguns modelos podem mostrar danos apenas quando são totalmente liberados, apesar de terem sido testados pelo Instituto de Segurança de IA do Reino Unido, com relatórios de incidentes pelo menos permitindo que o governo veja como a configuração regulatória do país está lidando com esses riscos.
O CLTR afirmou que o Departamento de Ciência, Inovação e Tecnologia (DSIT) corre o risco de não ter uma visão atualizada do uso indevido de sistemas de IA, como campanhas de desinformação, desenvolvimento de armas biológicas, preconceito em sistemas de IA ou uso indevido de IA em serviços públicos, como na Holanda, onde as autoridades fiscais mergulharam milhares de famílias em dificuldades financeiras após o uso de um programa de IA em uma tentativa equivocada de combater fraudes de benefícios.
“O DSIT deve priorizar garantir que o governo do Reino Unido descubra esses novos danos não através das notícias, mas através de processos comprovados de relatórios de incidentes”, disse o relatório.
O CLTR, que é amplamente financiado pelo rico programador de computadores estoniano Jaan Tallinn, recomendou três passos imediatos: criar um sistema governamental para relatar incidentes de IA em serviços públicos; pedir aos reguladores do Reino Unido que encontrem lacunas nos relatórios de incidentes de IA; e considerar a criação de um banco de dados piloto de incidentes de IA, que poderia coletar episódios relacionados à IA de órgãos existentes, como o AAIB, o Escritório do Comissário de Informação e o regulador de medicamentos MHRA.
O CLTR disse que o sistema de relatórios para o uso de IA em serviços públicos poderia se basear no padrão existente de relatórios de transparência algorítmica, que incentiva departamentos e autoridades policiais a revelar o uso de IA.
Em maio, 10 países, incluindo o Reino Unido, além da UE, assinaram uma declaração sobre cooperação em segurança de IA que incluía monitorar “danos e incidentes de segurança de IA”.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:28
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…