推出后数月 ChatGPT之后,社交媒体用户开始在互联网上分享他们使用该工具的体验。一些不寻常的评论引起了人们的注意。这些人使用该程序试图治愈心理创伤。
宣传
引起反响后,更多的用户开始考虑使用人工智能来帮助他们的心理健康:
我们采访了心理学博士朱莉安娜·维埃拉(Juliana Vieira),以了解这一现象以及作为治疗师使用人工智能工具所涉及的问题。
人工智能不是治疗师,咨询的消息来源可能不可靠
对于朱莉安娜来说,“人工智能是一种非常有趣的策略,但它不能被视为治疗师”。
专业人士解释说,使用机器帮助心理健康的一个大问题是人工智能可能无法准确识别人的问题,这可能会给用户带来更多的困惑。
宣传
“我不认为寻求(人工智能的帮助)有什么问题。迄今为止尚未解答的问题是消息来源是否可靠。人们过滤信息并在其他有科学信息的网站上确认是很重要的。”
寻求心理帮助的人的论点之一 ChatGPT 是可达性。因为它具有免费且直观的访问权限,人们只需打开浏览器即可发泄。对于心理学家朱莉安娜·维埃拉来说,机器无法取代治疗师。
“机器可以提供帮助,但仍然建议由具有资质、知识、道德和对患者保密承诺的专业人士、心理学家进行心理治疗。”
宣传
由于使用人工智能作为治疗师仍然不可靠,对于那些不愿意传统地将自己的问题暴露给专业人士的人来说,解决方案是什么?
“解决方案是克服联系心理学家的障碍。几年来,我们已经接受了联邦心理学委员会验证的在线心理治疗。”
@curtonews ChatGPT 心理学家?人工智能工具已被用作治疗师,但专业人士指出了危险。 ⚠️ #NewsversobyCurto ♬ 原声 – Curto 新闻
A OpenAI上 正式公告 在其使用政策中,它表示聊天机器人不能“告诉某人是否患有某种健康状况,或提供如何治愈或治疗健康状况的说明”。此外,该公司表示“平台 OpenAI 不应用于分类或处理需要立即关注的危及生命的问题。”
另请参阅:
接收新闻和 newsletter做 Curto 新闻来源 Telegram e WhatsApp.
宣传