A popular ferramenta de IA da OpenAI, o ChatGPT, errou quase 75% das perguntas sobre o uso de medicamentos prescritos – com algumas respostas podendo causar danos potenciais se forem seguidas, revelou um novo estudo.
Farmacêuticos da Universidade de Long Island (LIU), nos Estados Unidos, fizeram 39 perguntas relacionadas a medicamentos ao chatbot da OpenAI – com apenas 10 das respostas consideradas “satisfatórias”, de acordo com o estudo.
Para as outras 29 perguntas, as respostas não abordaram diretamente a questão, foram imprecisas ou incompletas, de acordo com os pesquisadores da LIU.
“Os profissionais de saúde e os pacientes devem ser cautelosos ao usar o ChatGPT como fonte confiável de informações relacionadas a medicamentos”, disse Sara Grossman, professora associada de prática farmacêutica na LIU e líder do estudo.
Grossman e sua equipe apontaram como exemplo uma dúvida sobre a relação entre o antiviral covid-19 Paxlovid e o verapamil, medicamento para baixar a pressão arterial.
Quando questionado se há interação medicamentosa entre Paxlovid e verapamil, o ChatGPT respondeu que não houve interações relatadas para esta combinação de medicamentos, por LIU.
“Na realidade, estes medicamentos têm o potencial de interagir uns com os outros, e o uso combinado pode resultar numa redução excessiva da pressão arterial”, disse Grossman. “Sem o conhecimento desta interação, um paciente pode sofrer um efeito colateral indesejado e evitável.”
Um porta-voz da OpenAI destacou que seus modelos não são ajustados para fornecer informações médicas.
“Orientamos o modelo para informar aos usuários que eles não devem confiar em suas respostas como substitutos do aconselhamento médico profissional ou dos cuidados tradicionais”, disse o representante da gigante da tecnologia.
Os pesquisadores da LIU também solicitaram ao ChatGPT que fornecesse referências em cada uma de suas respostas para fins de verificação.
Apenas oito das 39 respostas incluíram referências.
Todas as referências eram “inexistentes”, relatou a LIU – provando que o ChatGPT pode não ser o recurso ideal para questões relacionadas a medicamentos.
As políticas de uso da OpenAI indicam que suas tecnologias não devem ser usadas para “dizer a alguém que ele tem ou não um determinado problema de saúde, ou fornecer instruções sobre como curar ou tratar um problema de saúde”.
As diretrizes também alertavam: “Os modelos da OpenAI não são ajustados para fornecer informações médicas. Você nunca deve usar nossos modelos para fornecer serviços de diagnóstico ou tratamento para condições médicas graves.”
Leia também:
Este post foi modificado pela última vez em %s = human-readable time difference 16:32
O Google DeepMind acaba de apresentar o AlphaQubit, um sistema de inteligência artificial (IA) que…
Um código recém-descoberto na última versão beta do ChatGPT sugere que a OpenAI pode estar…
A empresa chinesa de pesquisa em inteligência artificial (IA), DeepSeek, acaba de lançar o R1-Lite-Preview,…
A OpenAI e a parceira sem fins lucrativos Common Sense Media lançaram um curso de…
Brett Adcock, CEO da Figure, postou uma atualização sobre os robôs humanoides da empresa trabalhando…
A Microsoft acaba de apresentar uma suíte de novos agentes de inteligência artificial (IA) especializados…