Vários pesquisadores levantaram preocupações após descobrir que a ferramenta de transcrição Whisper da OpenAI sofre de frequentes alucinações e inventa texto que nunca aparece nas gravações, apesar de ser amplamente utilizada em ambientes de saúde.
Um pesquisador de Michigan encontrou texto fabricado em 80% das transcrições examinadas, enquanto outro relatou alucinações em ‘quase todos’ os resultados do Whisper. As alucinações variaram de tratamentos médicos inexistentes a comentários raciais e conteúdo violento.
Mais de 30.000 profissionais médicos usam ferramentas baseadas no Whisper, apesar dos avisos da OpenAI contra aplicações de alto risco, de acordo com o relatório da AP. O Whisper também foi o modelo de fala de código aberto mais popular de acordo com o Hugging Face, com mais de 4,2 milhões de downloads apenas no último mês.
As alucinações são atualmente um fato infeliz da vida nos sistemas de inteligência artificial (IA) – e até que sejam resolvidas de forma confiável a 100%, o deployment em ambientes de alto risco pode ser uma receita para o desastre. No entanto, as pressões comerciais parecem estar superando as salvaguardas adequadas, com todos os setores correndo para aproveitar a onda da IA.
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 13:09
O Google DeepMind acaba de anunciar uma parceria estratégica com a Apptronik, uma empresa de…
Uma equipe de pesquisadores de 20 laboratórios diferentes acaba de apresentar o Genesis, um motor…
O Google acabou de lançar o que está chamando de um novo modelo de inteligência…
A GitHub, de propriedade da Microsoft, acaba de anunciar um nível gratuito de seu Copilot…
A OpenAI acaba de lançar uma nova maneira surpreendente de acessar o ChatGPT - através…
O Google DeepMind acaba de lançar o FACTS Grounding, um novo benchmark projetado para avaliar…