Farmacêuticos da Universidade de Long Island (LIU), nos Estados Unidos, fizeram 39 perguntas relacionadas a medicamentos ao chatbot da OpenAI – com apenas 10 das respostas consideradas “satisfatórias”, de acordo com o estudo.
PUBLICIDADE
Para as outras 29 perguntas, as respostas não abordaram diretamente a questão, foram imprecisas ou incompletas, de acordo com os pesquisadores da LIU.
“Os profissionais de saúde e os pacientes devem ser cautelosos ao usar o ChatGPT como fonte confiável de informações relacionadas a medicamentos”, disse Sara Grossman, professora associada de prática farmacêutica na LIU e líder do estudo.
Grossman e sua equipe apontaram como exemplo uma dúvida sobre a relação entre o antiviral covid-19 Paxlovid e o verapamil, medicamento para baixar a pressão arterial.
PUBLICIDADE
Quando questionado se há interação medicamentosa entre Paxlovid e verapamil, o ChatGPT respondeu que não houve interações relatadas para esta combinação de medicamentos, por LIU.
“Na realidade, estes medicamentos têm o potencial de interagir uns com os outros, e o uso combinado pode resultar numa redução excessiva da pressão arterial”, disse Grossman. “Sem o conhecimento desta interação, um paciente pode sofrer um efeito colateral indesejado e evitável.”
Um porta-voz da OpenAI destacou que seus modelos não são ajustados para fornecer informações médicas.
PUBLICIDADE
“Orientamos o modelo para informar aos usuários que eles não devem confiar em suas respostas como substitutos do aconselhamento médico profissional ou dos cuidados tradicionais”, disse o representante da gigante da tecnologia.
Ausência de referências
Os pesquisadores da LIU também solicitaram ao ChatGPT que fornecesse referências em cada uma de suas respostas para fins de verificação.
Apenas oito das 39 respostas incluíram referências.
Todas as referências eram “inexistentes”, relatou a LIU – provando que o ChatGPT pode não ser o recurso ideal para questões relacionadas a medicamentos.
PUBLICIDADE
As políticas de uso da OpenAI indicam que suas tecnologias não devem ser usadas para “dizer a alguém que ele tem ou não um determinado problema de saúde, ou fornecer instruções sobre como curar ou tratar um problema de saúde”.
As diretrizes também alertavam: “Os modelos da OpenAI não são ajustados para fornecer informações médicas. Você nunca deve usar nossos modelos para fornecer serviços de diagnóstico ou tratamento para condições médicas graves.”
Leia também: