Créditos da imagem: Curto News/BingAI

Ferramentas de IA podem gerenciar consultas médicas; entenda

Novas ferramentas de inteligência artificial (IA) estão ajudando os médicos a se comunicarem com seus pacientes, algumas respondendo mensagens e outras fazendo anotações durante exames.

Os entusiastas afirmam que a inteligência artificial economiza tempo para os médicos e evita o esgotamento, mas também modifica a relação médico-paciente, levantando questões de confiança, transparência, privacidade e o futuro da conexão humana.

PUBLICIDADE

Nos últimos anos, dispositivos médicos com aprendizado de máquina vêm fazendo coisas como ler mamografias, diagnosticar doenças oculares e detectar problemas cardíacos. O que é novo é a capacidade da IA generativa de responder a instruções complexas prevendo linguagem.

Seu próximo check-up poderia ser registrado por um aplicativo de smartphone alimentado por IA que ouve, documenta e organiza instantaneamente tudo em uma nota que você pode ler mais tarde. A ferramenta também pode significar mais dinheiro para o empregador do médico, porque não esquecerá detalhes que poderiam ser cobrados do seguro.

Outras ferramentas de IA podem estar ajudando seu médico a redigir uma mensagem, mas você pode nunca saber.

PUBLICIDADE

“Seu médico pode lhe dizer que está usando, ou pode não lhe dizer”, disse Cait DesRoches, diretora do OpenNotes, um grupo de Boston que trabalha pela comunicação transparente entre médicos e pacientes. Alguns sistemas de saúde incentivam a divulgação, outros não.

Médicos ou enfermeiros devem aprovar as mensagens geradas pela IA antes de enviá-las. Em um sistema de saúde do Colorado, tais mensagens contêm uma frase informando que foram geradas automaticamente. Mas os médicos podem excluir essa linha.

“Parecia exatamente com ele. Foi notável”, disse o paciente Tom Detner, 70 anos, de Denver, que recentemente recebeu uma mensagem gerada por IA que começava: “Olá, Tom, estou feliz em saber que sua dor no pescoço está melhorando. É importante ouvir seu corpo.” A mensagem terminava com “Cuide-se” e uma divulgação de que foi gerada automaticamente e editada por seu médico.

PUBLICIDADE

Grandes modelos de linguagem podem interpretar erroneamente entradas ou até mesmo fabricar respostas imprecisas, um efeito chamado de alucinação. As novas ferramentas têm guarda-corpos internos para tentar evitar que imprecisões cheguem aos pacientes – ou sejam registradas nos registros de saúde eletrônicos.

A ferramenta executa a conversa médico-paciente por vários grandes modelos de linguagem e elimina ideias estranhas, disse Erskine. “É uma maneira de eliminar alucinações.”

Em última análise, “o médico é o guarda-corpo mais importante”, disse o CEO da Abridge, Dr. Shiv Rao. Enquanto os médicos revisam as notas geradas pela IA, podem clicar em qualquer palavra e ouvir o segmento específico da visita do paciente para verificar a precisão.

PUBLICIDADE

Em Buffalo, Nova York, uma ferramenta de IA diferente interpretou mal a Dra. Lauren Bruckner quando ela disse a uma paciente adolescente com câncer que era uma coisa boa ela não ter alergia a drogas à base de sulfonamida. A nota gerada pela IA dizia: “Alergias: Sulfonamida”.

A ferramenta “entendeu completamente mal a conversa”, disse Bruckner, diretora médica de informações do Roswell Park Comprehensive Cancer Center. “Isso não acontece com frequência, mas claramente é um problema.”

Leia também:

Rolar para cima