Meses após o lançamento do ChatGPT, usuários das redes sociais começaram a compartilhar suas experiências com a ferramenta na internet. Alguns comentários inusitados chamaram a atenção. Se trata de pessoas que usaram o programa para tentar se curar de traumas psicológicos.
PUBLICIDADE
Após a repercussão, houve um movimento maior de usuários cogitando o uso da IA para auxiliar sua saúde mental:
Conversamos com Juliana Vieira, doutora em Psicologia, para entender esse fenômeno e os problemas que envolvem utilizar uma ferramenta de inteligência artificial como terapeuta.
IA não é terapeuta e fontes consultadas podem não ser confiáveis
Para Juliana, a “inteligência artificial é uma estratégia bem interessante, porém não pode ser considerada um terapeuta”.
A profissional explica que, a grande questão em recorrer a uma máquina para auxiliar na saúde mental é que a IA pode não ser precisa na identificação do problema da pessoa, o que pode gerar ainda mais confusão no usuário.
PUBLICIDADE
“Não vejo problema em buscar (ajuda com a IA). A questão até agora não respondida é se as fontes são confiáveis ou não. É importante a pessoa filtrar as informações e confirmar em outros sites que têm informações científicas”.
Um dos argumentos das pessoas que buscam ajuda psicológica no ChatGPT é a acessibilidade. Por ter acesso gratuito e intuitivo, a pessoa pode apenas abrir o navegador e desabafar. Para a psicóloga Juliana Vieira, um terapeuta não pode ser substituído por uma máquina.
“Uma máquina pode ajudar, mas ainda o indicado é a psicoterapia com um profissional especializado, um psicólogo, no qual tem habilitação, conhecimento, ética e compromisso com o sigilo do seu paciente”.
PUBLICIDADE
Já que ainda não é confiável usar uma IA como terapeuta, qual seria a solução para as pessoas que não se sentem confortáveis em expôr seus problemas para um profissional convencionalmente?
“A solução é vencer as barreiras de chegar a um psicólogo. E há alguns anos já contamos com a psicoterapia on-line válida pelo Conselho Federal de Psicologia”.
@curtonews ChatGPT psicólogo? A ferramenta de inteligência artificial tem sido usada como terapeuta, mas profissional aponta perigo. ⚠️ #NewsversobyCurto ♬ som original – Curto News
A OpenAI, em comunicado oficial de suas políticas de uso, conta que o chatbot não pode “dizer a alguém que tem ou não uma determinada condição de saúde ou fornecer instruções sobre como curar ou tratar uma condição de saúde”. Além disso, a empresa narra que “as plataformas da OpenAI não devem ser usadas para triagem ou gerenciamento de problemas com risco de vida que precisam de atenção imediata”.
Veja também:
Receba notícias e newsletters do Curto News pelo Telegram e WhatsApp.
PUBLICIDADE