두 전문가가 말하는 AI 과대광고를 알아차리고 "AI 사기"를 피하는 방법

AI 비평가 에밀리 바인더와 알렉스 해나는 그들의 신간 'AI 사기'에서 생성 AI의 신비를 풀어 설명합니다.

"솔직히 말해서 인공지능은 사기입니다. 누군가의 주머니를 채우기 위해 판매되는 상품일 뿐입니다."

이것이 언어학이 제시하는 주장의 본질이다. 에밀리 벤더 그리고 사회학자 알렉스 하나 그들의 새로운 책에서 AI 사기이 책은 인공지능으로 판매되는 기술과 삶을 접해 본 사람, 그리고 그 기술의 진정한 효용성에 의문을 품어 본 사람, 즉 우리 대부분에게 유용한 안내서입니다. 벤더는 워싱턴 대학교 교수로, 타임지에서 인공지능 분야에서 가장 영향력 있는 인물 중 한 명으로 선정되었으며, 한나는 비영리 단체의 연구 책임자입니다. 분산 AI 연구소 구글의 윤리적 AI 팀의 전 멤버.

책 표지

2022년 말 ChatGPT의 폭발적인 인기는 AI에 대한 새로운 열풍을 불러일으켰습니다. 저자들이 정의하는 열풍이란 "재미, 금전적 보상, 투자 수익, 또는 시장 점유율을 놓치지 않기 위해" 반드시 구매하거나 투자해야 한다고 확신하는 기술에 대한 "열풍"입니다. 하지만 과학자, 정부 지도자, 그리고 일반 대중이 머신러닝과 AI라는 개념에 관심을 갖고 우려하는 것은 이번이 처음도 아니고, 아마도 마지막도 아닐 것입니다.

바인더와 해나는 머신러닝의 뿌리를 수학자 존 매카시가 '인공지능'이라는 용어를 처음 만든 1950년대로 거슬러 올라갑니다. 당시 미국은 소련에 비해 군사적, 이념적, 기술적 우위를 확보하는 데 도움이 될 프로젝트에 자금을 지원하려던 시기였습니다. 해나는 CNET과의 인터뷰에서 "제우스의 머리에서 갑자기 튀어나온 게 아니었어요. 훨씬 더 오랜 역사가 있죠."라고 말했습니다. "인공지능을 소재로 한 미디어의 과대광고는 이번이 처음이 아닙니다."

오늘날의 하이프 사이클은 OpenAI와 같은 스타트업과 Meta, Google, Microsoft와 같은 기술 대기업에 대한 수십억 달러 규모의 벤처 캐피털 투자가 AI 연구 개발에 수십억 달러를 쏟아붓는 데서 비롯됩니다. 그 결과는 명확합니다. 전화 노트북과 소프트웨어 업데이트는 AI에 대한 과대광고로 가득 차 있습니다. AI 개발에서 중국을 추월하려는 움직임이 거세지고 있는 만큼 AI 연구 개발이 둔화될 조짐은 보이지 않습니다. 이러한 과대광고 주기는 이번이 처음이 아닙니다.

물론, 2025년의 생성적 AI는 XNUMX년대 과학자들을 사로잡았던 심리 치료 챗봇 엘리자보다 훨씬 더 발전했습니다. 오늘날의 기업 리더와 직원들은 미디어의 과장된 광고에 휩싸여 있으며, '놓칠까 봐 두려워하는' 분위기와 복잡해 보이지만 종종 오용되는 용어에 휩싸여 있습니다. 기술 리더와 AI 애호가들의 말을 들으면 AI가 회사 비용을 절감하기 위해 당신의 일자리를 빼앗을 것처럼 들릴 수 있습니다. 하지만 저자들은 두 가지 모두 전적으로 가능성이 높지는 않다고 주장하며, 이것이 바로 과장된 광고를 인지하고 과감하게 뜯어고치는 것이 중요한 이유 중 하나입니다.

그렇다면 AI 열풍을 어떻게 파악할 수 있을까요? 바인더와 해나가 제시하는 몇 가지 징후를 아래에서 소개합니다. 저자들은 저서에서 AI 열풍을 파악하기 위한 여러 가지 질문과 전략을 제시합니다. 지금 이용 가능 في الولايات المتحدة.

AI를 인간화하는 언어에 주의하세요.

인간화, 즉 무생물에 인간과 같은 특성이나 특징을 부여하는 과정은 AI 열풍의 큰 부분을 차지합니다. 이러한 유형의 언어의 한 예로, AI 회사들이 자사의 챗봇이 이제 "볼 수 있고" "생각할 수 있다"고 주장하는 것을 들 수 있습니다.

이러한 비교는 새로운 AI 프로그램이 사물이나 심층 추론 기능을 갖춘 AI 모델을 식별하는 능력을 설명할 때 유용할 수 있지만, 오해의 소지가 있을 수도 있습니다. AI 기반 챗봇은 마음이 없기 때문에 보거나 생각할 수 없습니다. Hannah가 인터뷰와 책에서 지적했듯이, 신경망이라는 개념조차 1950년대부터 인간이 신경 세포에 대해 이해해 온 것에 기반을 두고 있으며, 신경 세포의 실제 작동 방식을 설명하는 것이 아니라, 기계 뒤에 마음이 있다고 생각하게 만들 수 있습니다.

이러한 믿음은 인간으로서 언어를 처리하는 방식 때문에 우리가 선입견을 가지고 있는 것입니다. 우리는 우리가 보는 텍스트 뒤에 마음이 있다고 상상하도록 길들여져 있는데, 그것이 인공지능에 의해 생성되었다는 것을 알면서도 말입니다. 벤더는 "우리는 말하는 사람이 누구인지에 대한 모델을 마음속에 구축함으로써 언어를 해석합니다."라고 덧붙였습니다.

이러한 모델에서 우리는 말하는 사람에 대한 지식을 활용하여 단순히 말하는 단어의 의미만이 아니라 의미를 만들어냅니다. "ChatGPT와 같은 도구로 생성된 합성 텍스트를 접할 때도 우리는 똑같은 행동을 하게 됩니다."라고 벤더는 말했습니다. "그리고 마음은 존재하지 않는다는 사실을 기억하는 것은 매우 어렵습니다. 마음은 단지 우리가 만들어낸 구조물일 뿐입니다."

저자들은 AI 기업들이 자신들의 제품이 인간과 유사하다고 우리를 설득하려는 이유 중 하나는 AI가 직장에서든 창작 활동에서든 인간을 대체할 수 있다는 것을 우리에게 확신시키기 위한 토대를 마련하기 위해서라고 주장합니다. AI가 의료 및 정부 서비스와 같은 핵심 산업에서 복잡한 문제를 해결하는 마법의 해결책이 될 수 있다는 믿음은 우리에게 설득력이 있습니다.

하지만 저자들은 AI가 대부분의 경우 어떤 문제도 해결하는 데 사용되지 않는다고 주장합니다. AI는 효율성을 위해 판매되지만, AI 서비스는 결국 숙련된 근로자를 저임금 계약직이나 프리랜서 근로자의 상당한 관리가 필요한 블랙박스 기계로 대체하게 됩니다. 한나가 인터뷰에서 말했듯이, "AI가 당신의 일자리를 빼앗지는 않겠지만, 당신의 일자리를 더 악화시킬 겁니다."

"초지능"이라는 표현에 주의하세요.

인간이 할 수 없는 일을 AI가 할 수 있다는 주장은 경계해야 합니다. "초지능이라는 용어는 어떤 기술이 인간을 불필요하게 만들 것이라는 암시를 던지기 때문에 매우 위험한 용어입니다."라고 Hannah는 말했습니다. "대규모 패턴 매칭과 같은 특정 분야에서는 컴퓨터가 매우 뛰어납니다. 하지만 만약 초인적인 시나 연구 또는 과학 실천을 위한 초인적인 아이디어가 나올 것이라는 생각은 분명히 과장된 것입니다." Bender는 덧붙였습니다. "비행기가 초인적인 비행기가 되거나 통치자가 초인적인 측정 단위가 된다는 것을 말하는 것이 아닙니다. 그런 주장은 AI 분야에서만 나타나는 것 같습니다."

사람들이 인공 일반 지능(AGI)에 대해 이야기할 때 "초지능" AI라는 개념이 자주 등장합니다. 많은 경영진이 인공 일반 지능(AGI)이 정확히 무엇인지 정의하는 데 어려움을 겪지만, 본질적으로 가장 진보된 형태의 AI로, 의사 결정을 내리고 복잡한 작업을 처리할 수 있는 잠재력을 가지고 있습니다. AGI가 구현된 미래가 멀지 않았다는 증거는 아직 없지만, 이는 인기 있는 유행어입니다.

AI 리더들의 이러한 미래지향적 발언들은 대부분 공상과학 소설의 수사적 표현을 차용하고 있습니다. 낙관론자와 비관론자(바인더와 해나가 AI 지지자들과 그 잠재적 피해를 우려하는 사람들을 묘사하는 방식) 모두 공상과학 소설 속 시나리오를 차용하고 있습니다. 낙관론자들은 AI로 구동되는 미래 사회를 상상합니다. 비관론자들은 AI 로봇이 세상을 장악하고 인류를 멸망시키는 미래를 개탄합니다.

저자들은 AI가 인간보다 똑똑하고 필연적이라는 뿌리 깊은 믿음이 공통적인 맥락이라고 말합니다. 벤더는 "우리가 담론에서 자주 접하는 것 중 하나는 미래는 고정되어 있으며, 얼마나 빨리 그곳에 도달하느냐가 문제라는 생각입니다."라고 말했습니다. "또한 이 특정 기술이 그 길로 나아가는 한 단계라는 주장도 있는데, 이는 모두 마케팅입니다. 그 너머를 볼 수 있다는 것은 도움이 됩니다."

AI가 인기 있는 이유 중 하나는 기능적이고 자율적인 AI 비서가 등장함으로써 AI 기업들이 투자자들에게 세상을 바꿀 혁신을 약속한 것을 실현할 수 있기 때문입니다. 유토피아적이든 디스토피아적이든 이러한 미래를 계획하는 투자자들은 기업들이 수십억 달러를 낭비하고 탄소 배출 목표를 달성하지 못할 것이라는 사실을 인정하는 미래를 내다보게 됩니다. 좋든 나쁘든, 인생은 공상과학 소설과 다릅니다. 누군가 자신의 AI 제품이 영화에서 튀어나온 것 같다고 주장한다면, 회의적인 시각으로 접근하는 것이 좋습니다.

AI 입력에 대해 문의하고 출력을 평가하는 방법을 알아보세요.

가짜 AI 마케팅을 찾아내는 가장 쉬운 방법 중 하나는 회사가 작동 방식을 공개하는지 확인하는 것입니다. 많은 AI 회사는 모델 학습에 사용되는 콘텐츠를 공개하지 않습니다. 하지만 일반적으로 회사가 사용자 데이터를 어떻게 사용하는지 공개하며, 때로는 자사 모델이 경쟁사보다 얼마나 우수한 성능을 보이는지 자랑하기도 합니다. 일반적으로 개인정보 보호정책을 통해 조사를 시작해야 합니다.

창작자들이 가장 큰 불만과 우려 중 하나는 AI 모델의 훈련 방식입니다. 저작권 침해 혐의와 관련된 소송이 수없이 제기되고 있으며, AI 기반 챗봇의 편향성과 그로 인한 피해 가능성에 대한 우려도 제기되고 있습니다. 벤더는 "과거의 불의를 재현하는 대신 미래를 향해 나아가도록 설계된 시스템을 구축하려면 데이터 정리부터 시작해야 합니다."라고 말합니다. 하지만 한나는 AI 기업들이 "온라인에서 아직 입증되지 않은 모든 것을 도용하고 있습니다."라고 말합니다.

AI 제품에 대해 처음 접한다면, 특히 그 효과를 강조하는 통계에 주목해야 합니다. 다른 많은 연구자들과 마찬가지로 벤더와 해나는 인용이 없는 결과는 위험 신호라고 지적합니다. 벤더는 "누군가가 무언가를 판매하면서 그 제품의 평가 방법에 대한 접근 권한을 제공하지 않는다면, 당신은 불안정한 입장에 서 있는 것입니다."라고 말합니다.

AI 기업들이 자사 AI 제품의 작동 방식과 개발 방식에 대한 구체적인 정보를 공개하지 않으면 실망스럽고 답답할 수 있습니다. 하지만 이러한 판매 전략의 허점을 파악하는 것은 불필요한 정보를 차단하는 데 도움이 될 수 있습니다. 물론, 정보를 확보하는 것이 더 바람직하겠지만 말입니다. 더 자세한 내용은 다음을 참조하세요. ChatGPT 용어집 전체 내용과 끄는 방법 애플 인텔리전스.

댓글이 닫혔습니다.