Privacidade com IA preocupa Google e funcionários são orientados

O Google emitiu um alerta aos seus funcionários sobre a importância de tomar precauções ao utilizar o chatbot de inteligência artificial da empresa, o Bard.

No caso, divulgado na última quinta (15), a empresa aconselha os engenheiros a serem cautelosos ao inserir informações confidenciais nos chatbots e a evitar o uso direto do código gerado por eles.

PUBLICIDADE

Essas orientações têm como objetivo reduzir ou evitar potenciais riscos de vazamento de dados e garantir a segurança das informações dos usuários, segundo a empresa. Como essas ferramentas se tratam de modelos de aprendizagem de muitos conteúdos em massa, existe a preocupação de que o sistema possa inadvertidamente reproduzir informações confidenciais aprendidas durante esse processo.

Google orienta funcionários

Com a advertência, o objetivo é fornecer orientações claras aos funcionários sobre o uso responsável do chatbot de IA, para evitar qualquer potencial exposição de informações confidenciais.

Para a Reuters, a Alphabet, dona do Google, disse que “o Bard pode fazer sugestões indesejadas de código, mas ajuda os programadores”, além disso, a empresa contou que “pretende ser transparente sobre as limitações de sua tecnologia”.

PUBLICIDADE

Veja também:

Rolar para cima