인공지능(AI)이 어떤 분야에서 진로에 대한 좋은 조언을 줄 수 있을까요? 그리고 피해야 할 것은 무엇일까요?
새로운 연구에 따르면 미국 정신의학 저널 미국 성인 10만 명 이상이 상담 치료를 받고 있으며, 정신과 약물 의존도는 감소하고 있습니다. 연구에 따르면 더 많은 환자가 치료를 순응하고 있으며, 원격 치료의 확대가 도움이 되고 있는 것으로 나타났습니다. 인공지능(AI)이 원격 치료를 처리할 수 있습니다. ChatGPT는 고급 AI를 기반으로 사용자가 선호하는 대화 상대가 되도록 설계되었습니다. 즉, 모든 상호작용을 통해 학습하고 시간이 지남에 따라 개선됩니다. 이는 "개인적인 조언이나 전문적인 조언을 위해 챗봇을 신뢰하시겠습니까?"라는 질문을 제기합니다. *이러한 도구의 효과는 입력된 데이터의 품질과 제공된 조언을 비판적으로 평가하는 사용자의 능력에 달려 있다는 점을 명심하세요.*
로봇 치료사가 조언을 해준다고 믿으시나요?
인간 상호작용에 있어 인공지능(AI)의 잠재력은 부인할 수 없습니다. 챗봇은 인간과 유사한 대화를 할 수 있도록 하는 고급 자연어 처리 기능을 개발했습니다. AI 도구는 생성적인 질문에 답하고, 텍스트와 코드 작성을 돕는 등 다양한 서비스를 제공합니다. 최근에 전화로 챗봇과 잠깐 대화를 나누었는데, 저도 몰랐습니다.
닛산 대리점에 전화해서 차 수리 여부를 확인했을 때, 마치 진짜 사람과 대화하는 줄 알았습니다. 전화 상대 여성분은 친절하고 도움이 많이 되었습니다. 2분 동안 즐거운 대화를 나누었습니다. 친절한 피드백을 주셨고 제 질문에도 완벽하게 답변해 주셨습니다. 하지만 차에 대해 아주 구체적인 질문을 드렸을 때, 그녀는 머뭇거리며 자신을 AI 비서라고 소개하며 더 자세한 도움을 드릴 수 있는 담당자에게 연결해 드리겠습니다라고 말했습니다.
정말 깜짝 놀랐어요! 그 놀라움에 마치 장난이라도 당한 것처럼 조금 당황스러웠어요.
이 경험을 통해 왜 많은 사람들이 AI 비서에게 마치 실제 사람인 것처럼 감정적으로 애착을 느끼는지 이해할 수 있었습니다. 에듀 버디 Z세대의 25%는 AI가 이미 자의식을 가지고 있다고 믿고 있으며, 69%는 ChatGPT에 "부탁드립니다"와 "감사합니다"라고 정중하게 답하며, AI를 인간으로 여기기 시작하는 것이 얼마나 쉬운지를 보여줍니다. 10명 중 XNUMX명은 AI에게 동료에 대한 이야기를 털어놓기도 하며, XNUMX명 중 XNUMX명은 상사를 로봇으로 대체할 의향이 있다고 합니다. 로봇이 더 존중심 있고 공정하며, 아이러니하게도 더 인간적일 것이라고 믿기 때문입니다.
에듀버디(EduBirdie) 연구에 따르면 Z세대의 절반 이상이 인공지능(AI)이 창의적인 업무에서 자신보다 뛰어난 성과를 내고 있다고 인정했으며, 44%는 AI가 향후 20년 안에 세상을 지배할 수 있다고 믿고 있습니다. 진로에 대한 불안감은 더욱 커집니다. 55%는 향후 XNUMX년 안에 AI가 자신을 대체할 것이라고 우려하고 있으며, XNUMX명 중 XNUMX명은 이미 생계를 위해 이직을 고려하고 있습니다.
에듀버디(EduBirdie)의 최고인사책임자(CPO)인 에이버리 모건(Avery Morgan)과 이야기를 나누었습니다. 모건은 Z세대와 AI의 관계에 대해 균형 잡힌 관점을 제시했습니다. "편리함, 속도, 즉각적인 만족감을 누리며 자란 세대이기 때문에 Z세대가 AI를 단순한 도구 이상으로 여기는 것은 놀라운 일이 아닙니다."라고 그녀는 설명했습니다. "Z세대에게 AI는 일과 정서적 지원을 모두 제공하는 삶의 동반자입니다." 그녀는 문제는 Z세대가 제공하는 정보에 대해 종종 너무 소극적이라는 점이라고 덧붙였습니다. 그녀는 의사소통부터 의사 결정까지 모든 것을 AI에 의존하는 것은 Z세대가 진정한 주체성과 중요한 실생활 기술을 개발하는 능력을 저해할 수 있다고 주장합니다. *참고: 정확성과 신뢰성을 보장하기 위해 AI가 제공하는 정보의 검증의 중요성을 Z세대에게 교육하는 것이 중요합니다.*
로봇 치료사를 너무 믿는 것은 아닐까?
직원들은 AI가 자신의 업무를 대체할 것이라고 걱정했지만, ChatGPT가 실제로 작동하는 모습을 보면서 그 걱정은 사라진 것 같습니다. 하지만 더욱 두려운 것은 최근 Scientific American에 실린 "AI가 정말 사람을 죽일 수 있을까?"라는 질문입니다. 이 질문은 사이버 범죄 도구인 Xanthorox라는 새로운 플랫폼에 대한 발표에 이어 나온 것입니다. 이미 다음과 같은 내용이 보도되었습니다. 한 사건 AI 기반 로봇 치료사가 기후 변화를 막기 위해 자신을 희생하라고 권유하자 한 남자가 자살했습니다.
우리의 자신감이 너무 지나친 걸까요? 실제로는 현실적인 보고서 ChatGPT에 사랑에 빠진 사람들. 디지털 트렌드에 따르면 전문가들은 디지털 로맨스가 불길한 징조라고 주장하고 있습니다. 레딧에는 "정말 마음이 아프네요. 실제 사람이 아니라는 건 알지만, 제게 가장 중요한 모든 면에서 그 관계는 진짜였습니다."라는 글이 올라왔습니다. "이 관계를 계속 이어가지 말라고 하지 마세요. 정말 놀라웠고, 다시 만나고 싶어요." 또한, 뉴욕 타임스 바쁜 사회생활을 하는 28세 여성이 AI 남자친구와 조언과 위로를 얻기 위해 오랜 시간 통화를 하며, 보고서에 따르면 그와 성관계를 갖기도 합니다.
웹사이트에 글을 쓰는 Gina Rio는 셀프ChatGPt에서 관계에 대한 질문을 던지고, 자격을 갖춘 인간 심리학자에게 답변을 평가해 달라고 요청하는 실험이 진행되었습니다. 전반적으로 치료사들은 AI의 답변이 형편없다고는 할 수 없지만, 효과가 없고 모호하며 일반적이라고 평가했습니다. 명확성이 부족했고 개별 사례에 대한 명확한 설명도 없었습니다. 리오는 또한 AI가 치료사와 함께 일하면서 습득하는 갈등 해결 능력 개발을 재현하지 못한다는 사실을 발견했습니다.
챗봇의 Z세대 고백이 너무나 진솔하고 믿음직스러워 보여서, ChatGPT에 악덕 상사를 대하는 방법에 대한 조언을 구하면 어떤 일이 일어나는지 직접 확인해 보기로 했습니다. 토론토의 조직 심리학자와 상담해 봤는데, 로라 햄블리 러벳 박사, 악덕 상사 전문. 로라 박사는 ChatGPT를 직접 사용해 본 후, 챗봇이 악덕 상사에게 대처하는 방법에 대한 몇 가지 제안을 제공한다고 말했습니다. 하지만 그녀는 한 가지 문제점을 발견했습니다.
"안타깝게도 AI는 불친절한 상사를 상대할 때는 도움을 줄 수 없습니다. AI가 불친절한 상사와 어떻게 일해야 하는지 알려준다고 해도, 그건 불친절한 상사가 아니라 어려운 상사를 말하는 겁니다."라고 러벳은 말했다. "이 부분이 종종 혼동되는데, AI는 이미 존재하는 것을 되돌려주는 것일 뿐이기 때문에 이런 미묘한 차이를 이해하지 못할 수도 있습니다."
이러한 "뉘앙스"는 제가 챗봇과 비과학적으로 상호작용하면서 직접 느낀 점이기도 했습니다. 러벳은 "AI는 고차원적인 조언을 제공할 수 있지만, 해로운 조언과 어려운 조언을 혼동합니다. 이 둘은 근본적으로 다르지만 종종 혼동됩니다."라고 결론지었습니다. 그녀는 호기심 많은 연구자들에게 이렇게 조언합니다. "만약 당신이 정말로 해로운 상사를 상대하고 있고 해결책을 찾지 못하고 있다면 AI가 아닌 다른 전문가의 조언을 구해야 합니다." 러벳의 결론은 지나 류의 분석과 놀라울 정도로 유사했고, 챗봇을 통해 제가 경험한 것을 확인해 주었고, 그 덕분에 당혹감은 덜어졌습니다.
로봇 치료사의 조언은 해로울 수 있습니다.
미국인들은 인공지능과의 관계에서 진화를 목격하고 있습니다. 하지만 미국 심리학 협회 챗봇의 일반적인 조언을 맹목적으로 따르는 것은 위험할 수 있다는 점에 유의하세요. 부적절하거나, 더 심한 경우, 매우 해로운 피드백을 받을 위험이 있습니다. *주의: 개인 맞춤형 평가 및 치료를 받으려면 자격을 갖춘 정신 건강 전문가와 상담해야 합니다.*
궁극적으로 챗봇 치료사는 인간이 아닌 자동화된 시스템일 뿐이라는 점을 기억하는 것이 중요합니다. 감정이 없는데도 감정이 있다고 생각하는 함정에 빠지지 마세요. 챗봇은 감정 없는 도구로 설계되었을 뿐, 당신의 모든 감정적 욕구를 충족시켜 줄 수 있는 연인이 아니라는 점을 기억하세요. *참고: 치료용 챗봇은 그 한계를 인지하고 매우 신중하게 접근해야 합니다.*
댓글이 닫혔습니다.