Fóruns do Reddit mostram que o ChatGPT também tem sido usado como terapeuta. Tentando se curar de traumas e resolver questões referentes à saúde mental, usuários da internet procuram a inteligência artificial (IA) como alternativa ao tratamento psicológico pelo baixo custo e fácil acesso. Conversamos com uma psicóloga para entender qual a influência da tecnologia na saúde mental humana.
Meses após o lançamento do ChatGPT, usuários das redes sociais começaram a compartilhar suas experiências com a ferramenta na internet. Alguns comentários inusitados chamaram a atenção. Se trata de pessoas que usaram o programa para tentar se curar de traumas psicológicos.
Conversamos com Juliana Vieira, doutora em Psicologia, para entender esse fenômeno e os problemas que envolvem utilizar uma ferramenta de inteligência artificial como terapeuta.
Para Juliana, a “inteligência artificial é uma estratégia bem interessante, porém não pode ser considerada um terapeuta”.
A profissional explica que, a grande questão em recorrer a uma máquina para auxiliar na saúde mental é que a IA pode não ser precisa na identificação do problema da pessoa, o que pode gerar ainda mais confusão no usuário.
“Não vejo problema em buscar (ajuda com a IA). A questão até agora não respondida é se as fontes são confiáveis ou não. É importante a pessoa filtrar as informações e confirmar em outros sites que têm informações científicas”.
Um dos argumentos das pessoas que buscam ajuda psicológica no ChatGPT é a acessibilidade. Por ter acesso gratuito e intuitivo, a pessoa pode apenas abrir o navegador e desabafar. Para a psicóloga Juliana Vieira, um terapeuta não pode ser substituído por uma máquina.
“Uma máquina pode ajudar, mas ainda o indicado é a psicoterapia com um profissional especializado, um psicólogo, no qual tem habilitação, conhecimento, ética e compromisso com o sigilo do seu paciente”.
Já que ainda não é confiável usar uma IA como terapeuta, qual seria a solução para as pessoas que não se sentem confortáveis em expôr seus problemas para um profissional convencionalmente?
@curtonews ChatGPT psicólogo? A ferramenta de inteligência artificial tem sido usada como terapeuta, mas profissional aponta perigo. ⚠️ #NewsversobyCurto ♬ som original – Curto News
A OpenAI, em comunicado oficial de suas políticas de uso, conta que o chatbot não pode “dizer a alguém que tem ou não uma determinada condição de saúde ou fornecer instruções sobre como curar ou tratar uma condição de saúde”. Além disso, a empresa narra que “as plataformas da OpenAI não devem ser usadas para triagem ou gerenciamento de problemas com risco de vida que precisam de atenção imediata”.
Receba notícias e newsletters do Curto News pelo Telegram e WhatsApp.
Este post foi modificado pela última vez em 2 de junho de 2023 15:20
A Amazon Prime Video está recebendo um novo recurso alimentado por IA generativa para ajudá-lo…
A empresa de busca com inteligência artificial (IA) Perplexity está testando a ideia de usar…
A gigante de energia dos Emirados Árabes Unidos, ADNOC, aplicará inteligência artificial (IA) altamente autônoma…
A Anthropic acabou de lançar o suporte a PDF para seu modelo Claude 3.5 Sonnet…
O Google está adicionando uma extensão do Google Home ao aplicativo Gemini, permitindo que você…
A Walt Disney está formando um novo grupo para coordenar o uso da empresa de…