No caso, divulgado na última quinta (15), a empresa aconselha os engenheiros a serem cautelosos ao inserir informações confidenciais nos chatbots e a evitar o uso direto do código gerado por eles.
PUBLICIDADE
Essas orientações têm como objetivo reduzir ou evitar potenciais riscos de vazamento de dados e garantir a segurança das informações dos usuários, segundo a empresa. Como essas ferramentas se tratam de modelos de aprendizagem de muitos conteúdos em massa, existe a preocupação de que o sistema possa inadvertidamente reproduzir informações confidenciais aprendidas durante esse processo.
Google orienta funcionários
Com a advertência, o objetivo é fornecer orientações claras aos funcionários sobre o uso responsável do chatbot de IA, para evitar qualquer potencial exposição de informações confidenciais.
Para a Reuters, a Alphabet, dona do Google, disse que “o Bard pode fazer sugestões indesejadas de código, mas ajuda os programadores”, além disso, a empresa contou que “pretende ser transparente sobre as limitações de sua tecnologia”.
PUBLICIDADE
Veja também: