A Microsoft Corp. está tentando tornar mais difícil para as pessoas enganarem os chatbots de inteligência artificial para que façam coisas estranhas.
Os novos recursos de segurança estão sendo integrados ao Azure AI Studio, que permite aos desenvolvedores criar assistentes de inteligência artificial personalizados usando seus próprios dados, disse a Microsoft em um blog na quinta-feira (28).
As defesas projetadas pela Microsoft visam detectar e bloquear atividades suspeitas.
Leia também:
Este post foi modificado pela última vez em 1 de abril de 2024 12:17
Arqueólogos da Universidade de Yamagata, no Japão, em colaboração com a IBM Research, utilizaram inteligência…
O Google acaba de atualizar sua ferramenta NotebookLM, adicionando suporte para vídeos do YouTube e…
O regulador de concorrência da Grã-Bretanha disse na sexta-feira (27) que a parceria de inteligência…
O Google DeepMind acaba de apresentar o AlphaChip, um sistema de inteligência artificial (IA) que…
Pesquisadores da Harvard Medical School desenvolveram recentemente um modelo de IA chamado TxGNN que pode…
A Qure.AI, startup indiana, afirma que suas soluções de inteligência artificial (IA) superam radiologistas e…