Vários pesquisadores levantaram preocupações após descobrir que a ferramenta de transcrição Whisper da OpenAI sofre de frequentes alucinações e inventa texto que nunca aparece nas gravações, apesar de ser amplamente utilizada em ambientes de saúde.
Um pesquisador de Michigan encontrou texto fabricado em 80% das transcrições examinadas, enquanto outro relatou alucinações em ‘quase todos’ os resultados do Whisper. As alucinações variaram de tratamentos médicos inexistentes a comentários raciais e conteúdo violento.
Mais de 30.000 profissionais médicos usam ferramentas baseadas no Whisper, apesar dos avisos da OpenAI contra aplicações de alto risco, de acordo com o relatório da AP. O Whisper também foi o modelo de fala de código aberto mais popular de acordo com o Hugging Face, com mais de 4,2 milhões de downloads apenas no último mês.
As alucinações são atualmente um fato infeliz da vida nos sistemas de inteligência artificial (IA) – e até que sejam resolvidas de forma confiável a 100%, o deployment em ambientes de alto risco pode ser uma receita para o desastre. No entanto, as pressões comerciais parecem estar superando as salvaguardas adequadas, com todos os setores correndo para aproveitar a onda da IA.
Leia também:
Este post foi modificado pela última vez em 28 de outubro de 2024 13:09
O CEO da OpenAI, Sam Altman, aparentemente rebateu relatos que afirmavam que a empresa planeja…
A Alphabet, dona do Google, está desenvolvendo tecnologia de inteligência artificial (IA) que assume o…
A Meta Platforms disse na sexta-feira (25) que seu chatbot de inteligência artificial (IA) usará…
A Casa Branca acaba de emitir um novo memorando de segurança nacional orientando agências federais…
A OpenAI está, segundo relatos, dissolvendo sua equipe de Prontidão para AGI, marcando a mais…
A Midjourney acaba de lançar um novo editor web alimentado por inteligência artificial (IA) que…