O Google emitiu um alerta aos seus funcionários sobre a importância de tomar precauções ao utilizar o chatbot de inteligência artificial da empresa, o Bard.
No caso, divulgado na última quinta (15), a empresa aconselha os engenheiros a serem cautelosos ao inserir informações confidenciais nos chatbots e a evitar o uso direto do código gerado por eles.
Essas orientações têm como objetivo reduzir ou evitar potenciais riscos de vazamento de dados e garantir a segurança das informações dos usuários, segundo a empresa. Como essas ferramentas se tratam de modelos de aprendizagem de muitos conteúdos em massa, existe a preocupação de que o sistema possa inadvertidamente reproduzir informações confidenciais aprendidas durante esse processo.
Com a advertência, o objetivo é fornecer orientações claras aos funcionários sobre o uso responsável do chatbot de IA, para evitar qualquer potencial exposição de informações confidenciais.
Para a Reuters, a Alphabet, dona do Google, disse que “o Bard pode fazer sugestões indesejadas de código, mas ajuda os programadores”, além disso, a empresa contou que “pretende ser transparente sobre as limitações de sua tecnologia”.
Veja também:
Este post foi modificado pela última vez em 16 de junho de 2023 14:48
O Google está adicionando uma extensão do Google Home ao aplicativo Gemini, permitindo que você…
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…
A Nvidia acaba de publicar uma nova pesquisa apresentando o HOVER, uma pequena rede neural…
O ChatGPT agora é oficialmente um mecanismo de busca com inteligência artificial (IA). A empresa…
A Ucrânia está usando dezenas de sistemas de inteligência artificial (IA) fabricados localmente para seus…
A Alphabet, dona do Google, anunciou na quinta-feira (31) um conjunto de recursos que incorporam…