Empresas de tecnologia dizem que os novos padrões de segurança australianos tornarão inadvertidamente mais difícil para sistemas de IA generativa detectar e prevenir abuso infantil online e material pró-terrorismo.
Os padrões abrangem uma variedade de tecnologias, incluindo sites, serviços de armazenamento em nuvem, mensagens de texto e aplicativos de chat. Eles também cobrem serviços de inteligência artificial (IA) generativa de alto impacto e modelos de aprendizado de máquina de código aberto.
A WeProtect Global Alliance, um consórcio sem fins lucrativos com mais de 100 governos e 70 empresas que visam a exploração e abuso sexual infantil online, destacou a natureza do problema. Ela disse que a IA de código aberto já está sendo usada para produzir material de abuso infantil e deepfakes, e os padrões propostos capturam as plataformas e serviços corretos.
“Ao focar na possibilidade de uso indevido, o limiar reflete a realidade de que mesmo modelos de aprendizado de máquina e inteligência artificial com exposição direta limitada a dados sensíveis ou conjuntos de dados contendo dados ilícitos ainda podem ser usados indevidamente para criar conteúdo ilegal, como material de abuso sexual infantil ‘sintético’ e deepfakes sexuais.”
Mas empresas de tecnologia, incluindo Microsoft, Meta e Stability AI, disseram que suas tecnologias estão sendo desenvolvidas com salvaguardas para evitar que sejam usadas dessa maneira.
A Microsoft alertou que os padrões, conforme redigidos, poderiam limitar a eficácia dos modelos de segurança de IA usados para detectar e sinalizar abuso infantil ou material pró-terrorismo.
“Para garantir que os modelos de IA e os sistemas de segurança (como classificadores) possam ser treinados para detectar e sinalizar tal conteúdo, é necessário que a IA seja exposta a tal conteúdo e que sejam estabelecidos processos de avaliação para medir e mitigar os riscos”, disse a Microsoft.
“Dados de treinamento inteiramente ‘limpos’ podem reduzir a eficácia de tais ferramentas e reduzir a probabilidade de operarem com precisão e sutileza.
“Um dos elementos mais promissores da ferramenta de IA para moderação de conteúdo é a capacidade avançada de avaliar o contexto – sem dados de treinamento que suportem tal avaliação sutil, corremos o risco de perder os benefícios de tal inovação.”
A Stability AI também alertou que a IA teria um grande papel na moderação online, e definições excessivamente amplas poderiam dificultar determinar o que deve ser detectado para cumprir com os padrões propostos.
A empresa controladora do Facebook, Meta, disse que, embora seu modelo Llama 2 tenha ferramentas de segurança e guias de uso responsável, seria difícil impor salvaguardas quando a ferramenta é baixada.
“Não é possível para nós suspender a provisão do Llama 2 depois que ele foi baixado nem terminar uma conta, ou dissuadir, perturbar, detectar, relatar ou remover conteúdo de modelos que foram baixados”, disse a empresa.
O Google recomendou que a IA não fosse incluída nos padrões e, em vez disso, fosse considerada integralmente como parte da atual revisão governamental da Lei de Segurança Online e das Expectativas Básicas de Segurança Online.
As empresas de tecnologia também ecoaram comentários feitos pela Apple na semana passada de que os padrões devem declarar explicitamente que propostas para escanear serviços em nuvem e mensagens “quando tecnicamente viáveis” não comprometerão a criptografia, e a viabilidade técnica abrangerá mais do que simplesmente o custo para uma empresa desenvolver tal tecnologia.
Em comunicado, a comissária de eSafety, Julie Inman Grant, disse que os padrões não exigiriam que a indústria quebrasse ou enfraquecesse a criptografia, monitorasse textos ou escaneasse indiscriminadamente grandes quantidades de dados pessoais, e a comissária estava agora considerando emendas potenciais para esclarecer esse ponto.
“Fundamentalmente, a eSegurança não acredita que a indústria deva ser isenta de responsabilidade por enfrentar conteúdo ilegal sendo hospedado e compartilhado livremente em suas plataformas. A eSegurança observa que alguns grandes serviços de mensagens criptografadas de ponta a ponta já estão tomando medidas para detectar este conteúdo prejudicial”, disse ela.
As versões finais dos padrões serão apresentadas ao parlamento para consideração ainda este ano, disse Inman Grant.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 15:54
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…