O Google emitiu um alerta aos seus funcionários sobre a importância de tomar precauções ao utilizar o chatbot de inteligência artificial da empresa, o Bard.
No caso, divulgado na última quinta (15), a empresa aconselha os engenheiros a serem cautelosos ao inserir informações confidenciais nos chatbots e a evitar o uso direto do código gerado por eles.
Essas orientações têm como objetivo reduzir ou evitar potenciais riscos de vazamento de dados e garantir a segurança das informações dos usuários, segundo a empresa. Como essas ferramentas se tratam de modelos de aprendizagem de muitos conteúdos em massa, existe a preocupação de que o sistema possa inadvertidamente reproduzir informações confidenciais aprendidas durante esse processo.
Com a advertência, o objetivo é fornecer orientações claras aos funcionários sobre o uso responsável do chatbot de IA, para evitar qualquer potencial exposição de informações confidenciais.
Para a Reuters, a Alphabet, dona do Google, disse que “o Bard pode fazer sugestões indesejadas de código, mas ajuda os programadores”, além disso, a empresa contou que “pretende ser transparente sobre as limitações de sua tecnologia”.
Veja também:
Este post foi modificado pela última vez em 16 de junho de 2023 14:48
O Google acaba de anunciar a introdução de anúncios em seus resumos de pesquisa do…
A OpenAI acaba de lançar o Canvas, um novo lançamento de interface do ChatGPT que…
O uso de inteligência artificial (IA) em áreas como segurança pública está cada vez mais…
A OpenAI garantiu uma nova linha de crédito rotativa de US$ 4 bilhões, anunciou a…
Pesquisadores do MIT desenvolveram um sistema de inteligência artificial (IA) chamado "Future You" que permite…
O Google está supostamente avançando no desenvolvimento de modelos de inteligência artificial (IA) com capacidades…