론칭 한달 후 ChatGPT, 소셜 미디어 사용자는 인터넷에서 도구 사용 경험을 공유하기 시작했습니다. 특이한 댓글이 눈길을 끌었습니다. 이들은 심리적 트라우마를 치유하기 위해 프로그램을 활용한 사람들이다.
널리 알려짐
그 영향 이후 정신 건강에 도움이 되도록 AI를 사용하는 것을 고려하는 사용자의 움직임이 더 커졌습니다.
우리는 이러한 현상과 치료사로서 인공 지능 도구를 사용하는 것과 관련된 문제를 이해하기 위해 심리학 박사인 Juliana Vieira와 이야기를 나눴습니다.
AI는 치료사가 아니며 상담한 출처는 신뢰할 수 없을 수 있습니다.
줄리아나에게 “인공지능은 매우 흥미로운 전략이지만 치료사로 간주될 수는 없다”고 한다.
전문가는 정신 건강에 도움을 주기 위해 기계를 사용할 때 가장 큰 문제는 AI가 사람의 문제를 정확하게 파악하지 못해 사용자에게 더욱 혼란을 줄 수 있다는 점이라고 설명합니다.
널리 알려짐
“(AI에 대한 도움을) 구하는 데에는 문제가 없다고 봅니다. 지금까지 대답되지 않은 질문은 출처가 신뢰할 수 있는지 여부입니다. 사람들이 정보를 필터링하고 과학적인 정보가 있는 다른 웹사이트에서 확인하는 것이 중요합니다.”
심리적 도움을 구하는 사람들의 주장 중 하나 ChatGPT 접근성입니다. 무료이고 직관적인 액세스가 가능하기 때문에 사람들은 브라우저를 열고 환기만 하면 됩니다. 심리학자 Juliana Vieira의 경우 치료사는 기계로 대체될 수 없습니다.
"기계가 도움이 될 수 있지만 자격, 지식, 윤리 및 환자의 기밀 유지에 대한 헌신을 갖춘 전문 전문가, 심리학자의 심리 치료가 여전히 권장됩니다."
널리 알려짐
AI를 치료사로 활용하는 것은 아직 신뢰할 수 없기 때문에, 기존에 자신의 문제를 전문가에게 공개하는 것이 불편했던 사람들을 위한 해결책은 무엇일까요?
“해결책은 심리학자에게 다가가는 장벽을 극복하는 것입니다. 그리고 몇 년 동안 우리는 연방심리위원회(Federal Psychology Council)의 승인을 받은 온라인 심리치료를 받아왔습니다.”
@curtonews ChatGPT 심리학자? 인공지능 도구를 치료 수단으로 사용해왔지만 전문가들은 위험성을 지적하고 있다. ⚠️ #뉴스버소비Curto ♬ 솜 오리지널 – Curto 뉴스
A OpenAI에 공식 성명 사용 정책 중 챗봇은 "특정 건강 상태가 있는지 여부를 누군가에게 알리거나 건강 상태를 치료하는 방법에 대한 지침을 제공"할 수 없다고 명시되어 있습니다. 또한 회사는 “플랫폼은 OpenAI 즉각적인 주의가 필요한 생명을 위협하는 문제를 분류하거나 관리하는 데 사용해서는 안 됩니다.”
참조 :
소식을 받아보고 newsletter할 Curto 작성자의 뉴스 텔레그램 e WhatsApp에.
널리 알려짐