Créditos da imagem: Valter Campanato/Agência Brasil

Austrália obrigará empresas de mídia social a reprimir os danos das falsificações de IA e do discurso de ódio

As plataformas de mídia social e as empresas de tecnologia serão obrigadas a eliminar material prejudicial criado através da inteligência artificial (IA), como imagens íntimas deepfake e discursos de ódio, de acordo com novas regras de segurança online do governo da Austrália.

A ministra das comunicações, Michelle Rowland , sinalizou que mudanças são necessárias para responder a “danos novos e emergentes” causados pelo avanço contínuo nos serviços generativos de IA ​​para criar imagens, vídeos e textos ofensivos ou perigosos.

PUBLICIDADE

As atualizações das Expectativas Básicas de Segurança Online (Bose) nas empresas de tecnologia também as obrigará a garantir que seus algoritmos – responsáveis pelo que os usuários veem online -não amplifiquem conteúdo prejudicial ou “extremo”, incluindo racismo, sexismo e homofobia.

Rowland também levantou preocupações sobre o aumento do conteúdo antissemita e islamofóbico no X, anteriormente conhecido como Twitter.

“Nos últimos dois anos, tornou-se cada vez mais difícil distinguir entre imagens geradas por IA e imagens genuínas. Embora esta tecnologia tenha um potencial incrível como ferramenta positiva, também a vimos ser utilizada para criar imagens destinadas a humilhar, envergonhar, ofender – e até abusar – de outras pessoas.”

PUBLICIDADE

As Expectativas Básicas de Segurança Online podem ser atualizadas por regulamentação governamental e não exigirá legislação, com consultas até fevereiro de 2024. A revisão da Lei de Segurança Online começará no início de 2024.

Leia também:

Rolar para cima