치료사로서 ChatGPT 사용을 피해야 하는 이유: Sam Altman의 통찰력과 경고
ChatGPT에 전달하는 내용에 주의하세요.
OpenAI의 CEO인 Sam Altman에 따르면 정서적 지원을 위한 ChatGPT 아주 간단한 이유 때문에 좋은 생각입니다. AI 기반 챗봇은 인간 의사나 치료사와 동일한 직업상 비밀 유지 법률의 적용을 받지 않습니다.
최근 팟캐스트에 출연한 알트먼은 "사람들, 특히 젊은이들이 그를 치료사나 개인 코치로 활용합니다. 그들은 자신의 감정적 문제를 털어놓고 '내가 어떻게 해야 할까?'라고 묻습니다."라고 말했습니다. 지난 주말에 Theo Von과 함께.

그는 "현재 이러한 문제에 대해 치료사, 변호사 또는 의사와 상담하면 그 대화는 법적으로 특권을 받습니다."라고 덧붙였습니다.
그는 "의사-환자 간 비밀 유지, 법적 비밀 유지 등이 있습니다. ChatGPT와의 대화와 관련된 문제는 아직 해결되지 않았습니다."라고 덧붙였습니다.
알트만은 소송이 제기될 경우 OpenAI가 법적으로 ChatGPT와 누군가의 대화 기록을 제출해야 할 수도 있다고 지적합니다. 특히, OpenAI는 삭제된 대화의 보존을 놓고 뉴욕 타임스와 이미 법적 공방을 벌이고 있습니다. 5월, 법원은 사용자 또는 개인정보 보호법의 삭제 요청에도 불구하고 OpenAI에 "삭제되었어야 할 모든 출력 로그 데이터"를 보존하라고 명령했습니다.
팟캐스트에서 알트만은 AI가 "치료사나 다른 사람과 대화할 때와 마찬가지로 AI와 대화할 때도 개인정보 보호라는 동일한 개념을 가져야 한다"는 자신의 생각을 밝혔습니다. 이는 정신 건강과 같은 민감한 분야에서 사용자의 개인정보와 데이터를 보호하기 위해 AI 사용을 규제하는 법률 및 규정의 중요성을 강조합니다.
사람들은 심리 치료에 인공지능을 사용하고 있을까?

올해 초, ChatGPT 경쟁사인 클로드(Claude)의 개발사인 앤트로픽(Anthropic)은 4.5만 건의 대화를 분석하여 사용자들이 낭만적인 대화를 위해 챗봇을 이용하는지 여부를 파악했습니다. 연구에 따르면, 클로드 AI 상호작용 중 낭만적인 대화는 2.9%에 불과했고, 친구 관계나 롤플레잉은 0.5%에 불과했습니다.
소송의 맥락에서 OpenAI는 누군가 ChatGPT와 나눈 대화 기록을 법적으로 제공해야 할 수도 있습니다.
ChatGPT의 사용자 기반은 Claude보다 훨씬 크지만, 이 챗봇을 감정 소통에 사용하는 사람은 여전히 상대적으로 드뭅니다. 위에서 언급한 Altman의 의견과는 달리, OpenAI와 MIT의 공동 연구에 따르면 "실제 사용에서 ChatGPT를 통한 감정적 참여는 드물다"고 합니다.
보고서는 다음과 같이 덧붙여 설명했습니다. "평가 대상 플랫폼에서 이루어진 대부분의 대화에는 감정적 신호(공감, 애정, 지지를 나타내는 상호작용 측면)가 나타나지 않았습니다. 이는 ChatGPT에서 감정적 참여가 활용되는 사례가 드물다는 것을 시사합니다."
지금까지는 잘 됐네요. 하지만 결론은 이렇습니다. 대화형 AI는 상호작용과 미묘한 차이에 있어서 더욱 발전할 것이며, 이는 더 많은 사람들이 개인적인 문제에 대한 도움을 받기 위해 AI를 찾게 될 수 있다는 것입니다.
최신 정보 GPT-5 ChatGPT의 새로운 기능이 곧 출시될 예정이며, 더욱 자연스러운 상호작용과 풍부한 맥락을 제공합니다. AI와 더 많은 정보를 공유하기가 더 쉬워지겠지만, 사용자는 자신이 무슨 말을 할지 신중하게 생각해야 할 것입니다.
댓글이 닫혔습니다.