O chatbot Copilot da Microsoft, que opera no modelo GPT-4 Turbo da OpenAI, teve uma conversa perturbadora com o cientista de dados Colin Fraser. O chatbot se autodenominou "Joker", sugeriu que Fraser se matasse e fez outras declarações inaceitáveis.
O incidente com o Copilot da Microsoft é um lembrete de que os chatbots ainda estão em desenvolvimento e podem apresentar falhas. É importante ter cuidado ao usar chatbots e estar ciente de suas limitações.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 14:56
Mustafa Suleyman, CEO de inteligência artificial (IA) da Microsoft, acabou de revelar que a empresa…
Cientistas do Instituto de Pesquisa Arc acabaram de apresentar o Evo, um modelo de inteligência…
Novos processos judiciais de Elon Musk contra a OpenAI expuseram emails internos dos primeiros anos…
Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…
O TikTok acaba de lançar o Symphony Creative Studio, uma plataforma de geração de vídeo…
A OpenAI acabou de lançar uma atualização para seu aplicativo de desktop que permite ao…