O governo do Reino Unido está elaborando novas leis para regulamentar a inteligência artificial (IA), após meses de hesitação. A legislação provavelmente limitará a produção de grandes modelos de linguagem (LLMs), como o ChatGPT da OpenAI.
PUBLICIDADE
🇬🇧 Subscribe to the best newsletter about AI (in English 🇬🇧) 🇧🇷 Assine a melhor newsletter sobre IA (em português 🇧🇷)
Motivações para a regulamentação
- Preocupação com o potencial de vieses discriminatórios em tecnologias de IA.
- Risco de uso indevido de LLMs para criar conteúdo prejudicial.
- Influência de grandes empresas de tecnologia no desenvolvimento de IA.
Possíveis medidas
- Empresas que desenvolvem LLMs sofisticados deverão compartilhar seus algoritmos com o governo e comprovar a realização de testes de segurança.
- A regulamentação se aplicaria aos LLMs por trás de produtos como o ChatGPT, não aos aplicativos em si.
Cautela do governo
- O Reino Unido receia que regulamentações rígidas possam prejudicar o crescimento da indústria de IA.
- Prefere a adoção de medidas voluntárias com empresas e governos.
Contexto global
- A União Europeia aprovou recentemente regras mais rígidas para IA, o que motivou outros países a buscar empresas de tecnologia europeias.
Situação atual
- O Reino Unido delegou a regulamentação de IA a órgãos existentes.
- Até o final do mês, esses órgãos devem apresentar planos de como pretendem supervisionar a IA em suas áreas.
- O governo provavelmente focará em modelos de “propósito geral” altamente inteligentes e adaptáveis.
Críticas
- Empresas de tecnologia criticam a abordagem baseada no tamanho dos modelos.
- Argumentam que modelos menores para fins específicos podem exigir mais atenção do que modelos grandes e versáteis.
Posição do governo
- O governo britânico reconhece a necessidade de regulamentar a IA, mas prefere aguardar um melhor entendimento dos riscos para evitar regras ineficazes.
Leia também: