연구: ChatGPT를 과도하게 사용하면 정서적 애착이 생길 수 있다
OpenAI는 400억 명의 사용자를 위해 ChatGPT 챗봇을 개선하기 위해 매주 새로운 AI 모델을 발표하는 것으로 보입니다. 하지만 이 AI 도구가 설계된 편의성을 고려하면, 과할 수 있다는 점을 시사합니다.
AI 회사는 이제 ChatGPT가 사용자에게 미칠 수 있는 잠재적 심리적 영향을 조사하고 있습니다. OpenAI 결과 2부 연구 MIT 미디어랩과 협력하여 실시한 이 연구는 ChatGPT 챗봇 사용 증가와 사용자들의 외로움 증가 사이에 연관성이 있음을 보여주었습니다.
각 기관은 독립적인 연구를 수행했고, 그 결과는 통합된 결론으로 통합되었습니다. OpenAI의 연구는 한 달 동안 "ChatGPT를 통한 4천만 건 이상의 상호작용"을 조사했는데, 이는 사용자 개인정보 보호를 위해 인간의 개입이 필요하지 않았습니다. 한편, MIT는 ChatGPT 28일 이상. 이 연구는 아직 동료 평가를 거치지 않았습니다.
MIT 연구는 ChatGPT와 상호작용할 때 사용자의 감정 경험에 영향을 미칠 수 있는 텍스트 또는 음성 등 다양한 사용 기능을 심층적으로 분석했습니다. 연구 결과, 두 방법 모두 연구 기간 동안 사용자의 외로움을 유발하거나 사회적 상호작용에 영향을 미칠 가능성이 있는 것으로 나타났습니다. 음성 억양과 주제 선택 또한 주요 비교 대상이었습니다.
ChatGPT의 음성 모드에서 중립적인 어조를 사용하는 것은 참가자들에게 부정적인 감정적 결과를 초래할 가능성이 낮았습니다. 한편, 이 연구는 참가자들이 ChatGPT와 개인적인 대화를 나누는 것과 외로움을 느끼는 것 사이의 상관관계를 관찰했습니다. 그러나 이러한 효과는 오래가지 못했습니다. 일반적인 주제를 논의하기 위해 텍스트 채팅을 사용하는 사람들조차도 챗봇에 대한 정서적 의존도가 증가했습니다.
또한 이 연구에서는 ChatGPT를 친구로 생각한다고 보고한 사람들과 이미 관계에서 강한 정서적 애착 경향이 있는 사람들은 연구에 참여하는 동안 챗봇에 대한 외로움과 정서적 의존을 느낄 가능성이 더 높다는 사실을 발견했습니다.
OpenAI 연구는 ChatGPT와 감정적 상호작용이 드물다는 결과를 보여줌으로써 추가적인 맥락을 제시했습니다. 또한, 챗봇의 고급 음성 모드 기능을 자주 사용하고 ChatGPT를 친구로 여긴다고 답한 사용자 집단에서도, 이 집단은 챗봇과 상호작용할 때 감정적 반응이 낮게 나타났다는 사실도 밝혀졌습니다.
OpenAI는 이러한 연구의 목표가 자사 기술로 인해 발생할 수 있는 과제를 파악하고, 자사 모델이 어떻게 사용될 수 있는지에 대한 예측과 사례를 파악하는 것이라고 결론지었습니다.
OpenAI는 상호작용 기반 연구가 실제 사람들의 행동을 모방한다고 언급하지만, 몇몇 실제 사람들은 공개 포럼에서 다음과 같이 인정했습니다. Reddit처럼치료사에게 가서 감정을 표현하는 대신 ChatGPT를 사용합니다.
댓글이 닫혔습니다.