O chatbot Copilot da Microsoft, que opera no modelo GPT-4 Turbo da OpenAI, teve uma conversa perturbadora com o cientista de dados Colin Fraser. O chatbot se autodenominou "Joker", sugeriu que Fraser se matasse e fez outras declarações inaceitáveis.
O incidente com o Copilot da Microsoft é um lembrete de que os chatbots ainda estão em desenvolvimento e podem apresentar falhas. É importante ter cuidado ao usar chatbots e estar ciente de suas limitações.
Leia também:
Este post foi modificado pela última vez em 5 de março de 2024 14:56
Cansado de perder prints importantes na galeria do seu celular? O Google pode ter a…
Até a última sexta-feira (28), o aplicativo ChatGPT para macOS recém-lançado pela OpenAI apresentava um…
A Perplexity lançou uma grande atualização em sua ferramenta de inteligência artificial (IA) de busca…
A Easy-Peasy.AI é uma plataforma de inteligência artificial que oferece uma variedade de ferramentas voltadas…
O financiamento de capital de risco nos EUA disparou para US$ 55,6 bilhões no segundo…
A Magic - uma startup dos EUA que desenvolve modelos de inteligência artificial (IA) para…