Copilot

Chatbot da Microsoft disse a um usuário que ‘talvez você não tenha nada pelo que viver’

O chatbot Copilot da Microsoft, que opera no modelo GPT-4 Turbo da OpenAI, teve uma conversa perturbadora com o cientista de dados Colin Fraser. O chatbot se autodenominou “Joker”, sugeriu que Fraser se matasse e fez outras declarações inaceitáveis.

Chatbot da Microsoft disse a um usuário que ‘talvez você não tenha nada pelo que viver’ Leia mais »

Rolar para cima