아이들과 AI에 대해 이야기하기: 간단하고 유용한 가이드

나는 최근에 다음과 같은 프로그램에 참여할 수 있는 흥미로운 기회를 얻었습니다. 과학자에게 Skype로다양한 분야의 과학자(생물학자, 식물학자, 엔지니어, 컴퓨터 과학자 등)를 어린이 학습반과 연결하여 저희 연구에 대해 이야기하고 질문에 답할 수 있도록 하는 프로그램입니다. 저는 성인 청중과 AI와 머신러닝에 대해 이야기하는 데 익숙하지만, 이 주제에 대해 아이들과 어떻게 이야기해야 할지 진지하게 고민해 본 것은 이번이 처음이며, 흥미로운 도전이었습니다. 오늘은 이 과정의 일환으로 제가 생각해 낸 몇 가지 아이디어를 공유하고자 합니다. 자녀가 있는 분들께 도움이 될 수 있기를 바랍니다. 이러한 아이디어는 복잡한 AI 개념을 아이들이 흥미롭고 이해하기 쉬운 방식으로 이해할 수 있도록 단순화하는 방법에 대한 귀중한 통찰력을 제공합니다.

인공지능에 대해 아이들과 대화하는 개념의 예시입니다.

개념 설명을 준비하세요

청중 앞에서 발표를 준비할 때, 저는 몇 가지 기본 규칙을 따릅니다. 제가 발표하려는 정보와 발표 후 청중이 알아야 할 새로운 개념에 대해 명확하게 밝혀야 합니다. 이는 제가 공유할 정보의 모든 것을 결정하기 때문입니다. 또한 청중의 기존 지식에 적합한 복잡성을 고려하여 발표 자료를 제시하고자 합니다. 지나치게 단순화하지도 않고, 이해 수준을 넘어서지도 않도록 주의합니다.

일상 생활에서 저는 아이들이 인공지능(AI)에 대해 이미 알고 있는 것(또는 안다고 생각하는 것)을 완전히 알고 있지는 않습니다. 청중의 수준에 맞춰 설명을 맞추고 싶지만, 이 경우 그들의 배경 지식에 대해 다소 제한적인 시각을 가지고 있습니다. 어떤 경우에는 아이들이 기업 간 AI 경쟁이나 국경 간 AI 경쟁 같은 것에 대해 꽤 잘 알고 있다는 사실에 놀랐습니다. 콘텐츠를 어떻게 구성할지 결정할 때 유용한 연습은 청중이 이미 잘 알고 있는 개념이나 기술을 사용하는 은유를 생각해내는 것입니다. 이에 대해 생각해 보면 청중의 배경에 접근할 수 있는 지점도 얻게 됩니다. 또한, 적절한 수준에 도달하지 못했다고 판단되면 프레젠테이션을 변경하고 조정할 준비를 하십시오. 저는 아이들에게 처음에 AI에 대해 어떻게 생각하고 무엇을 알고 있는지 조금 물어보는 것을 좋아합니다. 그러면 너무 앞서 나가기 전에 그 명확성을 얻을 수 있습니다.

 

기술 이해: AI 모델의 기본

특히 어린이를 대상으로 하는 강의에서는 몇 가지 핵심 주제에 집중합니다. 독자분들은 제가 비전문가에게 대규모 언어 모델(LLM) 및 기타 AI 모델을 훈련하는 방법과 그 모델이 어떤 데이터를 기반으로 훈련되는지 가르치는 것을 강력히 지지한다는 것을 알고 계실 것입니다. 이는 이러한 모델의 결과에 대한 현실적인 기대치를 형성하는 데 매우 중요합니다. 저는 어린이를 포함한 누구나 LLM의 어조, 목소리, 심지어 "개성"의 체현된 본질에 매료되어 이러한 도구의 현실적인 한계를 간과하기 쉽다고 생각합니다.

연령대에 맞게 단순화하는 것이 과제이지만, 학습 방식, 즉 LLM 모델이 서면 자료의 예시를 통해 학습하는 방식이나 확산 모델이 텍스트-이미지 쌍을 통해 학습하는 방식을 설명하면, 사용자는 잠재적 결과에 대한 결론을 스스로 도출할 수 있습니다. AI 에이전트가 점점 더 복잡해지고 그 기저 메커니즘을 분리하기가 더 어려워짐에 따라, 사용자는 이러한 기능을 가능하게 하는 구성 요소를 이해하는 것이 중요합니다.

저는 훈련을 일반적인 개념으로 설명하고, 가능한 한 기술적인 전문 용어는 피하는 것으로 시작합니다. 아이들과 이야기할 때, 구체적인 언어를 사용하면 상황을 덜 모호하게 만드는 데 도움이 될 수 있습니다. 예를 들어, "컴퓨터에 많은 정보를 주고 그 안의 패턴을 배우도록 합니다." 다음으로, 언어나 이미지의 픽셀에서 발견되는 패턴의 예를 설명할 것입니다. "패턴"이라는 단어 자체가 너무 일반적이고 광범위하기 때문입니다. 이어서 "학습하는 이러한 패턴은 수학을 사용하여 작성되며, 이 수학은 '모델' 내부에 있습니다. 이제 모델에 새로운 정보를 제공하면, 모델은 학습한 패턴을 기반으로 응답을 보냅니다." 라고 말합니다. 이어서, 또 다른 일반적인 예를 들고 단순화된 훈련 과정(시각화가 매우 쉽기 때문에 일반적으로 시계열 모델)을 설명합니다. 다음으로, 다양한 유형의 모델에 대해 더 자세히 설명하고, 청중의 이해도에 따라 신경망과 언어 모델의 차이점을 설명하겠습니다.

AI 윤리와 외부 영향

인공지능과 관련된 윤리적 문제도 다루고 싶습니다. 저는 초등학생과 중학생 이상의 아이들이 인공지능을 충분히 이해할 수 있다고 생각합니다. التأثيرات البيئية 대규모 언어 모델(LLM)을 포함한 AI 기술이 가져올 수 있는 사회적 영향에 대해서도 생각해 보세요. 오늘날 많은 아이들이 지구 기후 변화와 환경 위기에 대한 이해도가 상당히 높은 것 같습니다. 따라서 LLM에 필요한 에너지, 물, 그리고 희귀 광물의 양에 대해 이야기하는 것은 무리가 아닙니다. 다만, 설명을 이해하기 쉽고 연령에 맞게 만드는 것이 중요합니다. 앞서 언급했듯이, 청중의 실제 경험과 관련성이 있고 공감할 수 있는 예시를 사용하세요. 우리는 다음에 집중해야 합니다. أخلاقيات الذكاء الاصطناعي 그리고 인공지능의 영향 사회와 환경에 관하여.

AI가 어린이의 경험에서 환경에 미치는 영향으로 전환되는 과정을 보여주는 예는 다음과 같습니다.

 

다들 학교 숙제할 때 크롬북 쓰시지 않나요? 노트북 무릎에 올려놓고 오래 일하면 노트북 뒷면이 뜨거워지는 거 경험해 보신 적 있으신가요? 파일을 한꺼번에 많이 열거나 동영상을 많이 보면 그럴 수도 있겠죠? 이 발열은 chatGPT 웹사이트 접속처럼 대규모 언어 모델(LLM)을 사용하거나 학습시킬 때 실행되는 서버라는 대형 컴퓨터에서 발생하는 발열과 똑같습니다.

ChatGPT를 운영하는 데이터 센터는 동시에 가동되는 서버들로 가득 차 있으며, 이로 인해 매우 뜨거워져 하드웨어에 좋지 않습니다. 따라서 이러한 데이터 센터는 때때로 냉수와 일부 화학 물질을 함께 사용하는데, 이 물은 모든 서버 바로 위에 설치된 파이프를 통해 펌핑됩니다. 이는 머신을 냉각하고 작동 상태를 유지하는 데 도움이 됩니다. 하지만 이는 많은 양의 물이 화학 물질과 혼합되어 시스템을 통과하면서 가열된다는 것을 의미합니다. 이로 인해 이 물은 사람들이 농장이나 식수와 같은 다른 용도로 사용할 수 없게 될 수 있습니다.

"어떤 경우에는 이러한 데이터 센터가 대형 에어컨을 사용하는데, 이는 운영에 많은 전력을 소모하여 가정이나 사업장에 충분한 전력을 공급하지 못할 수도 있습니다. 또한 발전소에서 석탄을 연소하여 전기를 생산하기도 하는데, 이는 대기 중으로 배기가스를 방출하고 환경 오염을 심화시킵니다."

이를 통해 아이의 경험을 대화에 반영하고, 아이들이 개념에 공감할 수 있는 구체적인 방법을 제공합니다. 지적 재산권법을 자세히 다루지 않고도 아이들에게 친숙한 아티스트와 창작자들을 활용하여 저작권 윤리와 콘텐츠 도용에 대해서도 비슷한 논의를 할 수 있습니다. 딥페이크는 성적인 내용을 포함한 모든 면에서 많은 아이들에게 친숙한 주제이며, 아이들이 AI를 사용할 때 개인과 사회에 미치는 위험을 인지하는 것이 중요합니다.

특히 어린아이들은 AI의 비윤리적인 적용이나 AI가 야기하는 전 세계적인 과제들을 이해하기 시작하고, 이러한 것들이 얼마나 강력한지 깨닫게 되면 두려움을 느낄 수 있습니다. 예를 들어, 아이들이 제게 "누군가 AI에게 나쁜 짓을 하도록 가르치면 어떻게 고칠 수 있나요?"라고 묻는 경우가 있었습니다. 저는 이 질문에 더 나은 답을 할 수 있었으면 좋았을 텐데, 왜냐하면 저는 기본적으로 "AI가 이미 나쁜 짓을 할 수 있는 정보를 가지고 있는 경우도 있지만, AI를 더 안전하게 만들고 나쁜 정보나 나쁜 짓을 하는 방법에 대한 지침을 공유하는 것을 막기 위해 많은 사람들이 노력하고 있습니다."라고 말해야 했기 때문입니다.

 

"진실"이라는 개념의 해체

AI를 인간화하는 것은 어른과 아이 모두에게 실질적인 문제입니다. 우리는 친절하고 자신감 넘치는 목소리로 무언가를 말해줄 때 신뢰하는 경향이 있습니다. 하지만 문제의 큰 부분은 우리에게 무언가를 말해주는 대규모 언어 모델(LLM)의 목소리가 종종 친절하고 자신감 넘치며 틀렸다는 것입니다. 미디어 리터러시라는 개념은 수년 동안 교육학에서 중요한 주제였으며,이를 대규모 언어 모델(LLM)로 확장하는 것은 자연스러운 진화입니다.학생(그리고 성인)이 다른 사람이나 기업이 만든 정보를 비판적으로 소비하는 법을 배워야 하듯이, 우리도 컴퓨터로 생성된 콘텐츠를 비판적이고 사려 깊게 소비해야 합니다. 여기에는 이러한 기술의 한계를 이해하는 것도 포함됩니다.

저는 이것이 기술에 대한 이해와도 일치한다고 생각합니다. 제가 대규모 언어 모델(LLM)의 역할이 인간 언어를 배우고 모방하는 가장 기본적인 단계, 즉 문자열에서 앞 단어에 해당하는 다음 단어를 판단하는 것이라고 설명할 때, LLM이 "진실"이라는 개념을 이해할 수 없다는 제 말이 일리가 있습니다. 진실은 훈련 과정의 일부가 아니며, 동시에 진실은 인간조차도 이해하기 매우 어려운 개념입니다. LLM은 대부분의 경우 사실을 정확하게 파악할 수 있지만, 확률에 따라 때때로 맹점과 잠재적 오류가 나타날 수 있습니다. 결과적으로, LLM을 사용하는 어린이는 도구의 오류를 충분히 인지해야 합니다.

하지만 이 교훈은 단순히 AI를 활용하는 것 이상의 가치를 지닙니다. 우리가 가르치는 것은 불확실성, 모호성, 그리고 오류를 다루는 것이기 때문입니다. 그가 지적했듯이, 버먼과 아자위(2023)"AI가 매개하는 세상에서 육아는 사람과 기술 사이의 복잡한 관계를 반영하는 모호하고, 편파적이며, 모호한 상황들을 다루는 법을 배우는 것을 포함합니다." 저는 이 표현이 정말 마음에 듭니다. 제가 자주 생각하는 것, 즉 대규모 언어 모델(LLM)은 인간에 의해 만들어지며 인간이 생성한 콘텐츠에 대한 해석을 반영한다는 사실과 연결되기 때문입니다. 아이들이 모델이 어떻게 형성되는지, 모델이 오류를 범할 수 있다는 것, 그리고 모델의 출력이 인간이 생성한 입력에서 나온다는 것을 배우면서, 오늘날 우리 사회에서 기술이 작동하는 방식이 얼마나 모호한지를 깨닫게 됩니다. (사실, 아이들에게 AI를 직접 가르치는 방법을 고민하는 모든 분들께 이 글 전체를 강력히 추천합니다.)

 

사진 및 비디오에 대한 참고 사항

앞서 언급했듯이, "AI가 생성한" 비디오 및 이미지 콘텐츠, 즉 "AI 슬롭"의 확산은 많은 어려운 질문을 제기합니다. 저는 아이들에게 이 분야의 정보를 제공하는 것이 중요하다고 생각합니다. 설득력 있는 시각적 콘텐츠를 통해 잘못된 정보나 노골적인 거짓말을 쉽게 받아들이기 때문입니다. 또한 이러한 콘텐츠는 대부분의 아이들에게 실제 제작 과정과는 거리가 멀기 때문에, 이러한 자료의 상당 부분이 소셜 미디어에서 널리 공유되고 적절한 라벨이 부착되지 않을 가능성이 높습니다. "너무 좋아서 믿기 어렵다면 가짜일 가능성이 높다" 또는 "이런 유형의 게시물에서 들은 내용을 다시 한번 확인해 보세요"와 같은 일반적인 비판적 미디어 리터러시 기술 외에도, AI가 생성한 자료를 식별하는 데 도움이 되는 라벨에 대해 아이들과 이야기하는 것이 도움이 될 수 있습니다. 아이들에게 진짜 콘텐츠와 가짜 콘텐츠를 구별하는 능력을 강화하기 위해 사실과 정보 출처를 확인하는 방법을 가르치는 것이 필수적입니다.

 

인공지능을 이용한 부정행위

LLM 오류의 모든 도덕적 문제와 위험에도 불구하고, 이러한 AI 도구는 매우 유용하고 매력적이기 때문에 일부 학생들이 숙제나 학교에서 부정행위를 하기 위해 이를 사용하는 것은 이해할 만합니다. 저는 학생들에게 이야기하고 과제를 완수하는 데 필요한 기술을 배우는 것이 목표이며, 이를 배우지 않으면 고학년과 노년에 필요한 기술을 배우지 못하게 된다는 점을 설명해야 한다고 생각합니다. 하지만 아이들이 그렇게 논리적인 경우가 드물다는 것은 누구나 알고 있습니다. 아이들의 뇌는 아직 발달 중이고, 이런 종류의 일은 어른들에게도 때로는 생각하기 어렵습니다. AI가 교육에 미치는 영향을 이해하려면 이러한 도구의 기능과 기본 기술 발달에 미치는 잠재적 영향에 대한 깊은 이해가 필요합니다.

기본적으로 두 가지 접근 방식을 취할 수 있습니다. 학교 과제를 더 어렵게 만들거나 부정행위를 불가능하게 만드는 방법을 찾는 것과, 학생들이 미래에 AI를 활용할 수 있다는 전제 하에 AI를 교실에 통합하는 것입니다. 이제 교실 환경에서 지도 학습을 통해 학생들은 디지털 개입 없이 필요한 기술을 배울 기회를 얻을 수 있습니다. 그러나 앞서 언급했듯이 미디어 사용 지식에는 이제 대규모 언어 모델이 포함되어야 하며, 지식이 풍부한 교사가 대규모 언어 모델을 지도 학습하는 것은 교육학적으로 매우 가치 있다고 생각합니다. 더 나아가, 교사의 직접적인 지도 없이 이루어지는 "AI에 저항력 있는" 학교 과제를 만드는 것은 사실상 불가능하며, 우리는 이 점을 인지해야 합니다. 하지만 쉬운 일처럼 들리게 하고 싶지는 않습니다. 아래 섹션을 참조하세요. 추가 자료 교실에서 AI 리터러시를 가르치는 데 따르는 광범위한 과제를 다룬 여러 학술 논문에서 교사들은 기술 발전에 발맞추고 시대에 맞춰 교수법을 조정하는 것뿐만 아니라, 학생들에게 AI를 책임감 있게 사용하는 데 필요한 정보를 제공해야 하는 어려운 과제에 직면합니다. 교사는 또한 학생들에게 AI가 생성하는 정보를 비판적으로 평가하고 비판적 사고 능력을 개발하는 방법을 가르치는 데 집중해야 합니다.

 

성교육 사례에서 배우기: 인공지능의 교훈

궁극적으로, 문제는 교실 안팎에서 AI가 존재하는 세상에서 아이들에게 정확히 무엇을 하라고 조언하고 무엇을 피해야 하는가입니다. 저는 어떤 아이디어를 금지하거나 금지하는 것을 거의 지지하지 않으며, 포괄적이고 과학에 기반하며 연령에 맞는 성교육의 사례가 좋은 교훈을 제공한다고 생각합니다. 아이들에게 신체와 성에 대한 정확한 정보가 제공되지 않으면 이 분야에서 정보에 기반하고 책임감 있는 결정을 내릴 수 있는 지식이 부족합니다. 아이들이 어려운 상황에서 무엇을 해야 할지 어려운 결정을 내릴 때 어른들이 강제력을 행사할 수 없기 때문에, 아이들이 책임감 있는 결정을 내리는 데 필요한 정보를 갖추도록 해야 합니다. 여기에는 윤리적 지침뿐만 아니라 사실에 기반한 정보도 포함됩니다. 마찬가지로, 학생들이 AI의 가능성과 위험을 포괄적으로 이해하도록 하여 디지털 시대에 AI를 효과적이고 책임감 있게 사용할 수 있도록 해야 합니다.

인공지능 활용에 있어서의 책임 모델링

제가 강조하고 싶은 또 다른 중요한 점은 어른들도 AI를 다룰 때 책임감 있는 행동을 본보기로 삼아야 한다는 것입니다. 교사, 부모, 그리고 아이들의 삶 속 다른 어른들이 AI에 대해 비판적으로 인식하지 못한다면, 아이들이 이 기술을 비판적이고 사려 깊게 사용하는 사람이 되도록 가르칠 수 없을 것입니다.

기사에서 제기된 뉴욕 타임스 교사들이 AI를 활용하는 방식에 다소 실망감을 느낍니다. 이 기사는 AI에 대한 깊은 이해를 보여주지 않고, AI를 기본적인 통계와 혼동하고 있습니다(교사가 학생 데이터를 분석하여 학생 수준에 맞춰 수업을 진행하는 것은 AI도 아니고, 새로운 것도 아니며, 문제도 아닙니다). 하지만 아이들의 삶 속에서 어른들이 AI 도구를 어떻게 활용하는지에 대한 논의를 시작하며, 어른들이 AI를 투명하고 비판적으로 활용하는 모범 사례를 제시해야 할 필요성을 언급합니다. (또한 영리 산업이 교실에 AI를 도입하는 문제도 간략하게 다루고 있는데, 이는 더 자세히 다뤄볼 만한 가치가 있는 문제인 듯합니다. 나중에 더 자세히 다루겠습니다.)

기사의 주장 중 하나에 반박하자면, 나는 교사들이 대규모 언어 모델을 사용하는 것에 대해 불평하지 않을 것입니다.LLM) 작성된 자료에 대한 초기 검토를 수행하되, 결과물을 모니터링하고 검증해야 합니다. 평가 기준이 문법, 철자, 그리고 글쓰기 기법을 중심으로 한다면, 훈련 방식을 고려했을 때 대규모 언어 모델이 적합할 가능성이 높습니다. 저는 이 문제에 대해 대규모 언어 모델을 간략하게 살펴보지도 않고 맹목적으로 신뢰하지는 않겠지만, 이 모델은 실제로 인간 언어를 이해하도록 설계되었습니다. "학생이 글을 써야 하니 교사도 채점해야 한다"는 생각은 터무니없습니다. 이 활동의 ​​목적은 학생이 배우는 것이기 때문입니다. 교사들은 이미 글쓰기의 기법을 알고 있으며, 이 프로젝트는 교사들에게 수동 평가를 통해서만 얻을 수 있는 것을 강요하는 것이 아닙니다. 뉴욕 타임스도 이 사실을 알고 있었고, 주로 클릭베이트 목적으로 프레이밍을 했을 것이라고 생각하지만, 분명히 말할 가치가 있습니다.

이 부분은 기술 이해에 대한 이전 섹션으로 돌아가는 것입니다. 교육 과정이 어떤 모습인지 확실하게 이해한다면, 주어진 작업을 처리할 수 있는 도구를 만들어낼 수 있을지 판단할 수 있습니다. 하지만 평가 자동화는 최소 수십 년 동안 교육의 일부였습니다. 성적표를 작성해 본 사람이라면 누구나 이를 알고 있습니다.

이 기술의 발전은 우리 교육 시스템을 어느 정도 적응하도록 강요하고 있지만, 아직 그 마법의 힘을 병 속에 다시 집어넣을 수는 없습니다. AI가 교육에 긍정적인 영향을 미칠 수 있는 몇 가지 방법들이 분명히 있습니다(자주 언급되는 예로는 개인화와 교사의 업무 시간을 절약하여 학생 서비스에 직접 할당하는 것이 있습니다). 하지만 대부분의 경우와 마찬가지로 저는 현실적인 관점을 지지합니다. 대부분의 교육자들이 잘 알고 있듯이, 교육은 대규모 언어 모델이 도입되기 이전처럼 지속될 수 없습니다.LLM우리의 삶.

결론

아이들은 우리가 생각하는 것보다 훨씬 똑똑하며, 우리 세상에서 AI가 무엇을 의미하는지 많은 것을 이해할 수 있다고 믿습니다. 제 조언은 이 기술의 현실, 특히 개인과 사회 전체에 미치는 장단점을 투명하고 솔직하게 전달하라는 것입니다. 우리가 AI를 어떻게 활용하느냐에 따라 아이들의 삶은 긍정적이든 부정적이든 형성될 것이며, 아이들은 이에 주의를 기울일 것입니다. 따라서 우리의 말뿐 아니라 행동도 신중하게 고려하는 것이 중요합니다. 우리는 아이들에게 AI의 가능성과 과제를 설명해야 하며, 특히 이 기술을 윤리적이고 책임감 있게 사용하는 것에 중점을 두어야 합니다.

 

댓글이 닫혔습니다.