A Microsoft Corp. está tentando tornar mais difícil para as pessoas enganarem os chatbots de inteligência artificial para que façam coisas estranhas.
Os novos recursos de segurança estão sendo integrados ao Azure AI Studio, que permite aos desenvolvedores criar assistentes de inteligência artificial personalizados usando seus próprios dados, disse a Microsoft em um blog na quinta-feira (28).
As defesas projetadas pela Microsoft visam detectar e bloquear atividades suspeitas.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 12:17
A Perplexity acaba de lançar uma nova experiência de compra para seus usuários Pro nos…
A startup francesa de inteligência artificial (IA), Mistral, acaba de lançar o Pixtral Large, um…
Mustafa Suleyman, CEO de inteligência artificial (IA) da Microsoft, acabou de revelar que a empresa…
Cientistas do Instituto de Pesquisa Arc acabaram de apresentar o Evo, um modelo de inteligência…
Novos processos judiciais de Elon Musk contra a OpenAI expuseram emails internos dos primeiros anos…
Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…