ChatGPT를 사용하면 더 멍청해질까요? MIT 연구에 따르면 AI 도구에 의존하는 사람들은 능력이 저하된다고 합니다.
매사추세츠 공과대학 연구자들이 실시한 최근 연구에 따르면, ChatGPT와 기타 AI 도구를 사용하면 뇌 활동이 감소하고 장기적으로 뇌 위축이 발생할 가능성이 있습니다.
기술의 엄청난 붐과 함께 생성 인공 지능연구자들은 이러한 도구가 사용자에게 미치는 영향을 연구하기 위해 경쟁하고 있습니다. 이전 연구에서는 이러한 도구에 대한 과도한 의존이 ChatGPT 비슷한 도구를 사용하면 다음과 같은 결과가 나올 수 있습니다. 중독성 행동과 정신 건강에 해로움, 비판적 사고의 위축, 외로움과 사회적 고립감.
새로운 연구에서는 ChatGPT와 같은 대규모 언어 모델(LLM) 도구의 잠재적 위험을 강조했습니다. 매사추세츠 공과대학 미디어랩의 연구원들은 ChatGPT 및 유사 도구를 사용하여 기사를 작성하면 뇌 활동이 크게 감소하는 것으로 나타났습니다. “ChatGPT가 뇌에 미치는 영향: 에세이 작성 과제에 AI 보조 도구를 사용할 때 인지 부채가 누적된다”...AI 도구에 의존한 사람들이 ChatGPT나 비슷한 도구의 도움 없이 동일한 작업을 수행하라고 요청했을 때 에세이를 쓰는 능력이 저하되었습니다.

이 연구에는 54세에서 18세 사이의 39명을 대상으로 소규모 표본을 구성했습니다. 참가자들은 세 그룹으로 나뉘었습니다. '두뇌 전용' 그룹(정신 능력에만 의존), 기존 검색 엔진을 사용할 수 있는 그룹, ChatGPT와 같은 대규모 언어 모델(LLM) 도구를 사용할 수 있는 그룹입니다.
연구 결과, 대규모 언어 모델(LLM)을 사용하여 작업을 완료한 사람들은 기존 소프트웨어 인터페이스를 사용한 사람들보다 인지 부하가 32% 더 낮았습니다. 또한 작업 과정에서 좌절감도 덜하다고 보고했습니다.
한 가지 중요한 발견은 연구 기간 동안 대규모 언어 모델(LLM)을 사용한 사람들이 정보 습득에 드는 정신적 노력이 적었다는 것입니다. 이는 놀라운 일은 아니지만, 일부 사람들이 AI 도구를 사용하여 작업을 완료하려는 이유를 설명해 줍니다.
"뇌만" 그룹에 참여한 사람들은 뇌 활동이 더 높았을 뿐만 아니라 윤리적 고려 사항에 대한 만족도도 더 높았습니다.
대규모 언어 모델(LLM)이 기존 검색 엔진에 비해 참가자의 질문에 답변하는 데 드는 노력을 크게 줄인 것은 의심의 여지가 없습니다. 그러나 이러한 편의성은 인지적 비용을 초래하여, 사용자가 LLM(학습 데이터셋을 기반으로 한 확률적 답변)의 출력이나 "의견"을 비판적으로 평가하려는 의지를 약화시켰습니다. 이는 "에코 챔버" 효과의 문제점을 보여줍니다. 에코 챔버 효과는 사라지는 것이 아니라, 알고리즘적으로 큐레이팅된 콘텐츠를 통해 사용자 노출을 형성하는 방향으로 진화했습니다. "최선"으로 여겨지는 것은 궁극적으로 LLM 기여자들의 우선순위에 의해 영향을 받습니다.
언뜻 보기에 이 연구의 결론은 명확해 보입니다. 에세이를 쓰는 데 단순히 도구를 사용하는 것보다 더 많은 정신적 노력이 필요하다는 것은 놀라운 일이 아닙니다. 다른 사람에게 돈을 주고 에세이를 쓰는 것 역시 최소한의 두뇌 능력만 필요할 것이라고 확신합니다.

하지만 과학은 단순한 직관 그 이상입니다. 증거와 가설 검증이 필요합니다. ChatGPT 및 유사 도구의 영향에 따라 정부 정책과 교육 기준이 변경될 수 있는 가능성을 고려할 때, 가능한 한 많은 정보를 수집하는 것이 중요합니다.
MIT 연구진은 연구 결론에서 이를 확인했습니다.
"LLM이 인간에게 긍정적인 영향을 미치는 것으로 인식되기 위해서는 LLM이 인간의 뇌에 미치는 장기적인 영향을 이해하기 위해 종단 연구가 필요하다고 생각합니다."
MIT 연구는 아직 동료 평가를 거치지 않았고 표본 크기도 작았기 때문에 관련 정보를 수집하는 데 있어서는 좋은 진전이지만 후속 조치가 필요합니다.
ChatGPT는 사람들을 더 멍청하게 만들까요?
이 연구에서는 참가자들이 나중에 AI의 도움 없이 동일한 작업을 완료하도록 요청받았을 때, ChatGPT와 같은 대규모 언어 모델(LLM)을 사용하여 성과에 대한 에세이를 작성하는 것이 미치는 영향을 조사했습니다.
연구자들은 이러한 추세가 AI의 "인지적 고갈" 때문일 수 있다고 주장했습니다. 다시 말해, ChatGPT와 같은 도구의 사용은 사고력을 저하시켜 장기적인 인지 능력 저하로 이어질 수 있습니다. 전문가들이 "디지털 뇌 위축"이라고 부르는 이러한 현상은 AI에 대한 과도한 의존이 우리의 기본적인 정신 능력을 저해하고 있음을 시사합니다.
마이크로소프트 연구진이 카네기 멜론 대학교와 협력하여 수행한 연구에서는 생성 AI가 비판적 사고에 미치는 영향을 조사했습니다. 연구진은 생성 AI 사용의 효과를 근위축과 비교하며, 인지 능력을 사용하지 않으면 근육을 사용하지 않는 것과 마찬가지로 약화된다고 설명했습니다.
생성 AI 모델 사용이 뇌 활동과 비판적 사고력의 장기적인 저하로 이어진다는 이론을 뒷받침하는 데이터가 계속된다면, 광범위한 결과가 초래될 수 있습니다. 교육 기관과 기업은 인지 발달을 저해하지 않도록 이러한 도구들을 어떻게 통합할지 재평가해야 합니다.
신문사가 실시한 조사에 따르면 가디언그리고 그것을 출판했다 AI 위원회ChatGPT와 같은 생성 AI 도구는 학생들이 부정행위에 자주 이용됩니다. 이러한 비윤리적인 사용은 학문적 성실성과 AI가 교육적 가치에 미치는 영향에 대한 심각한 우려를 불러일으킵니다.
학생과 직장인이 ChatGPT 및 유사 도구에 과도하게 의존할 경우, 특정 작업을 독립적으로 수행하는 능력이 저하될 수 있습니다. 이러한 의존은 글쓰기, 비판적 사고, 문제 해결 능력과 같은 기본 능력의 저하로 이어져 취업 시장에서 경쟁력을 위협할 수 있습니다.
댓글이 닫혔습니다.