Inteligência Artificial

Microsoft cria ferramentas para impedir que usuários enganem chatbots

A Microsoft Corp. está tentando tornar mais difícil para as pessoas enganarem os chatbots de inteligência artificial para que façam coisas estranhas.

Publicado por
Isabella Caminoto

Os novos recursos de segurança estão sendo integrados ao Azure AI Studio, que permite aos desenvolvedores criar assistentes de inteligência artificial personalizados usando seus próprios dados, disse a Microsoft em um blog na quinta-feira (28).

As defesas projetadas pela Microsoft visam detectar e bloquear atividades suspeitas.

Leia também:

Este post foi modificado pela última vez em %s = human-readable time difference 12:17

Isabella Caminoto

Advogada e mestranda em Direito Internacional, tenho a democracia e a liberdade como bandeiras irrenunciáveis. Sou apaixonada pelos animais e acredito que o bem-estar do nosso planeta deveria ser o destaque diário da pauta da nossa sociedade.

Posts recentes

Google se associa à Apptronik para desenvolver robôs humanoides

O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…

20 de dezembro de 2024

Genesis: Um novo patamar para simulações físicas em IA

Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…

20 de dezembro de 2024

Google lança seu próprio modelo de IA de “raciocínio”

O Google acabou de lançar o que está chamando de um novo modelo de inteligência…

19 de dezembro de 2024

GitHub Copilot agora é gratuito

A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…

19 de dezembro de 2024

ChatGPT ganha um novo número de telefone; veja

A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…

19 de dezembro de 2024

Google lança novo benchmark para testar a factualidade de LLMs

O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…

18 de dezembro de 2024