O Google emitiu um alerta aos seus funcionários sobre a importância de tomar precauções ao utilizar o chatbot de inteligência artificial da empresa, o Bard.
No caso, divulgado na última quinta (15), a empresa aconselha os engenheiros a serem cautelosos ao inserir informações confidenciais nos chatbots e a evitar o uso direto do código gerado por eles.
Essas orientações têm como objetivo reduzir ou evitar potenciais riscos de vazamento de dados e garantir a segurança das informações dos usuários, segundo a empresa. Como essas ferramentas se tratam de modelos de aprendizagem de muitos conteúdos em massa, existe a preocupação de que o sistema possa inadvertidamente reproduzir informações confidenciais aprendidas durante esse processo.
Com a advertência, o objetivo é fornecer orientações claras aos funcionários sobre o uso responsável do chatbot de IA, para evitar qualquer potencial exposição de informações confidenciais.
Para a Reuters, a Alphabet, dona do Google, disse que “o Bard pode fazer sugestões indesejadas de código, mas ajuda os programadores”, além disso, a empresa contou que “pretende ser transparente sobre as limitações de sua tecnologia”.
Veja também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:48
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…