A Microsoft Corp. está tentando tornar mais difícil para as pessoas enganarem os chatbots de inteligência artificial para que façam coisas estranhas.
Os novos recursos de segurança estão sendo integrados ao Azure AI Studio, que permite aos desenvolvedores criar assistentes de inteligência artificial personalizados usando seus próprios dados, disse a Microsoft em um blog na quinta-feira (28).
As defesas projetadas pela Microsoft visam detectar e bloquear atividades suspeitas.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:17
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…