Fóruns do Reddit mostram que o ChatGPT também tem sido usado como terapeuta. Tentando se curar de traumas e resolver questões referentes à saúde mental, usuários da internet procuram a inteligência artificial (IA) como alternativa ao tratamento psicológico pelo baixo custo e fácil acesso. Conversamos com uma psicóloga para entender qual a influência da tecnologia na saúde mental humana.
Meses após o lançamento do ChatGPT, usuários das redes sociais começaram a compartilhar suas experiências com a ferramenta na internet. Alguns comentários inusitados chamaram a atenção. Se trata de pessoas que usaram o programa para tentar se curar de traumas psicológicos.
Conversamos com Juliana Vieira, doutora em Psicologia, para entender esse fenômeno e os problemas que envolvem utilizar uma ferramenta de inteligência artificial como terapeuta.
Para Juliana, a “inteligência artificial é uma estratégia bem interessante, porém não pode ser considerada um terapeuta”.
A profissional explica que, a grande questão em recorrer a uma máquina para auxiliar na saúde mental é que a IA pode não ser precisa na identificação do problema da pessoa, o que pode gerar ainda mais confusão no usuário.
“Não vejo problema em buscar (ajuda com a IA). A questão até agora não respondida é se as fontes são confiáveis ou não. É importante a pessoa filtrar as informações e confirmar em outros sites que têm informações científicas”.
Um dos argumentos das pessoas que buscam ajuda psicológica no ChatGPT é a acessibilidade. Por ter acesso gratuito e intuitivo, a pessoa pode apenas abrir o navegador e desabafar. Para a psicóloga Juliana Vieira, um terapeuta não pode ser substituído por uma máquina.
“Uma máquina pode ajudar, mas ainda o indicado é a psicoterapia com um profissional especializado, um psicólogo, no qual tem habilitação, conhecimento, ética e compromisso com o sigilo do seu paciente”.
Já que ainda não é confiável usar uma IA como terapeuta, qual seria a solução para as pessoas que não se sentem confortáveis em expôr seus problemas para um profissional convencionalmente?
@curtonews ChatGPT psicólogo? A ferramenta de inteligência artificial tem sido usada como terapeuta, mas profissional aponta perigo. ⚠️ #NewsversobyCurto ♬ som original – Curto News
A OpenAI, em comunicado oficial de suas políticas de uso, conta que o chatbot não pode “dizer a alguém que tem ou não uma determinada condição de saúde ou fornecer instruções sobre como curar ou tratar uma condição de saúde”. Além disso, a empresa narra que “as plataformas da OpenAI não devem ser usadas para triagem ou gerenciamento de problemas com risco de vida que precisam de atenção imediata”.
Receba notícias e newsletters do Curto News pelo Telegram e WhatsApp.
Este post foi modificado pela última vez em %s = human-readable time difference 15:20
A Perplexity acaba de lançar uma nova experiência de compra para seus usuários Pro nos…
A startup francesa de inteligência artificial (IA), Mistral, acaba de lançar o Pixtral Large, um…
Mustafa Suleyman, CEO de inteligência artificial (IA) da Microsoft, acabou de revelar que a empresa…
Cientistas do Instituto de Pesquisa Arc acabaram de apresentar o Evo, um modelo de inteligência…
Novos processos judiciais de Elon Musk contra a OpenAI expuseram emails internos dos primeiros anos…
Um novo estudo de pesquisadores da Universidade de Pittsburgh acabou de revelar que a inteligência…