AI 애호가에게 필요한 전화 비밀: Gemini와 ChatGPT를 최대한 활용하기
지난 2년간 스마트폰 업계에서 가장 눈에 띄고, 솔직히 말해 가장 지루한 트렌드 중 하나는 인공지능(AI) 경험에 대한 끊임없는 이야기였습니다. 특히 반도체 회사들은 최신 모바일 프로세서가 동영상 제작과 같은 기기 내 AI 작업을 어떻게 구현할 수 있을지 자주 자랑해 왔습니다.
이미 그 단계에 도달했지만, 완전히 도달한 것은 아닙니다. 스마트폰 사용자들에게는 성공과 실패를 반복하는 AI 기술을 둘러싼 온갖 과대광고 속에서, 논의는 새로운 프로세서와 끊임없이 진화하는 챗봇의 화려한 디스플레이를 넘어서는 경우가 드뭅니다.
구글 픽셀 8에 제미니 나노가 탑재되지 않은 것이 논란을 불러일으킨 후에야 모바일 기기 AI에 RAM 용량이 얼마나 중요한지 대중이 깨닫게 되었습니다. 애플은 또한 Apple Intelligence를 최소 8GB RAM을 탑재한 기기에만 적용하겠다고 신속하게 밝혔습니다. 이러한 결정은 AI 모델을 효율적으로 실행하는 데 RAM이 얼마나 중요한지를 보여줍니다.
하지만 "AI 폰"이라는 이미지는 단순히 메모리 용량만을 의미하지 않습니다. 휴대폰이 AI 기반 작업을 얼마나 잘 수행하는지는 저장 공간뿐 아니라 눈에 보이지 않는 RAM 성능 향상에도 달려 있습니다. 그리고, 단순히 용량만을 말하는 것이 아닙니다.
AI 휴대폰에도 메모리 혁신이 적용되고 있습니다.

Digital Trends는 메모리 및 스토리지 솔루션 분야의 글로벌 리더인 마이크론과 함께 스마트폰 AI에서 랜덤 액세스 메모리(RAM)와 스토리지의 역할을 분석했습니다. 다음에 고급 휴대폰을 구매할 때 마이크론의 발전된 기술을 눈여겨보세요.
아이다호에 본사를 둔 이 회사의 최신 제품으로는 G9 NAND 모바일 UFS 4.1 스토리지와 플래그십 스마트폰용 1γ(1감마) LPDDR5X RAM 모듈이 있습니다. 그렇다면 이러한 메모리 솔루션은 용량 증대 외에도 스마트폰의 AI를 어떻게 발전시킬까요?
먼저 G9의 NAND UFS 4.1 저장 솔루션부터 살펴보겠습니다. 가장 큰 약속은 경제적인 전력 소비, 지연 시간 감소, 높은 대역폭입니다.UFS 4.1 표준은 최대 순차 읽기 및 쓰기 속도가 4100MB/s에 달하며, 이는 UFS 15 세대보다 4.0% 향상된 속도와 동시에 지연 시간도 줄어듭니다.
또 다른 중요한 이점은 마이크론의 차세대 휴대용 저장 장치가 최대 2TB의 용량을 제공한다는 것입니다. 마이크론은 또한 크기를 줄여 차세대 폴더블 및 슬림형 스마트폰에 이상적인 솔루션을 제공합니다. 삼성 갤럭시 에지 S25.

RAM 기술 발전에 대해 마이크론은 1γ LPDDR5X RAM 모듈을 개발했습니다. 이 모듈은 최대 9200MT/s의 속도를 제공하고, 크기 감소로 인해 트랜지스터를 30% 더 많이 탑재할 수 있으며, 전력 소모량은 20% 감소했습니다. 마이크론은 이미 삼성 갤럭시 S1 시리즈 스마트폰에 탑재된 다소 느린 1β(25-베타) RAM 솔루션을 출시했습니다.
스토리지와 인공지능의 상호작용
마이크론 모바일 사업부 제품 마케팅 이사인 벤 리베라는 마이크론이 모바일 기기에서 더 빠른 AI 운영을 보장하기 위해 최신 스토리지 솔루션에 네 가지 주요 개선 사항을 도입했다고 설명했습니다. 여기에는 Zoned UFS, 데이터 조각 모음, Pinned WriteBooster, 그리고 Intelligent Latency Tracker가 포함됩니다.
Rivera는 Pinned WriteBooster 기능에 대해 "이 기능을 사용하면 프로세서나 호스트가 스마트폰에서 가장 자주 사용되는 데이터를 식별하고 격리하거나 '고정'하여 캐시와 유사한 WriteBooster 버퍼라는 저장 장치 영역에 저장하여 빠르고 즉시 액세스할 수 있도록 합니다."라고 설명했습니다.

Google Gemini나 ChatGPT와 같이 기기에서 작업을 수행하려는 각 AI 모델은 모바일 기기에 로컬로 저장된 자체 명령어 파일 세트를 필요로 합니다. 예를 들어, Apple Intelligence 최대 7GB 저장 공간 모든 운영에 있어서.
작업을 수행하기 위해 전체 AI 스택을 RAM에 할당할 수는 없습니다. 통화나 다른 중요 애플리케이션과의 상호작용과 같은 다른 중요한 작업을 처리할 공간이 필요하기 때문입니다. 마이크론 스토리지의 한계를 해결하기 위해, 필요한 AI 가중치만 스토리지에서 RAM으로 로드하는 메모리 맵이 생성됩니다.
리소스가 제한될 때 필요한 것은 더 빠른 데이터 교환 및 읽기입니다. 이를 통해 다른 중요 작업의 속도에 영향을 주지 않고 AI 작업을 실행할 수 있습니다. Pinned WriteBooster 덕분에 이러한 데이터 교환 속도가 30% 빨라져 AI 작업이 지연 없이 처리됩니다.
당신이 필요하다고 가정해 보세요 Gemini, 분석을 위해 PDF 파일 추출빠른 메모리 스와핑을 통해 필요한 AI 가중치가 저장소에서 RAM으로 빠르게 전송됩니다.
다음으로, Data Defrag를 소개합니다. 책상이나 옷장 정리 도구라고 생각하면 됩니다. 물건을 여러 카테고리로 깔끔하게 분류하고 각 캐비닛에 넣어 쉽게 찾을 수 있도록 해 줍니다.

스마트폰의 경우, 데이터는 장기간 사용 시 저장되지만 일반적으로 다소 무작위적인 방식으로 저장됩니다. 결과적으로 온보드 시스템이 특정 유형의 파일에 접근해야 할 때 모든 파일을 찾는 것이 더 어려워지고, 결과적으로 작동 속도가 느려집니다.
리베라에 따르면, 데이터 조각 모음은 체계적인 데이터 저장을 지원할 뿐만 아니라 저장 장치와 장치 컨트롤러 간의 상호 작용도 변경합니다. 따라서 데이터 읽기 속도가 무려 60% 향상됩니다.AI 작업을 포함한 모든 유형의 사용자-기기 상호작용을 자연스럽게 가속화합니다.
마이크론 관계자는 Digital Trends에 "이 기능은 텍스트 프롬프트에서 이미지를 생성하는 데 사용되는 생성 AI 모델과 같은 AI 기능을 저장소에서 메모리로 호출할 때 데이터를 저장소에서 메모리로 더 빠르게 읽을 수 있도록 하는 데 도움이 될 수 있습니다."라고 말했습니다.
인텔리전스 레이턴시 트래커(Intelligence Latency Tracker)는 휴대폰의 정상 속도를 저하시킬 수 있는 지연 이벤트와 요인을 주로 모니터링하는 또 다른 기능입니다. 이를 통해 오류를 수정하고 휴대폰 성능을 개선하여 일반 작업뿐 아니라 AI 작업에서도 속도 저하가 발생하지 않도록 보장합니다.

마지막으로 향상된 저장 기능은 Zoned UFS입니다. 이 시스템은 유사한 입출력 특성을 가진 데이터를 체계적으로 저장합니다. 이는 시스템이 모든 폴더와 디렉터리를 검색하는 데 시간을 낭비하지 않고 필요한 파일을 쉽게 찾을 수 있도록 해주기 때문에 매우 중요합니다.
리베라는 "마이크론의 ZUFS 기능은 시스템이 작업에 필요한 특정 데이터를 찾아야 할 때 데이터를 구성하는 데 도움이 되므로 프로세스가 더 빠르고 원활해집니다."라고 말했습니다.
RAM 오버플로
AI 워크플로우에는 일정량의 RAM이 필요합니다. RAM은 많을수록 좋습니다. Apple은 Apple Intelligence Suite의 기본 RAM 용량을 8GB로 설정했지만, Android 생태계의 다른 업체들은 안전한 기본 RAM 용량으로 12GB를 사용하고 있습니다. 왜 그럴까요?
"AI 경험은 데이터와 에너지를 많이 소모합니다."라고 리베라는 설명합니다. "따라서 AI의 약속을 실현하려면 메모리와 스토리지가 낮은 지연 시간과 높은 성능, 그리고 최대 에너지 효율을 제공해야 합니다."
마이크론은 스마트폰용 차세대 5γ(1감마) LPDDR1X DRAM 솔루션을 통해 메모리 모듈의 작동 전압을 크게 낮출 수 있었습니다. 그리고 가장 중요한 문제는 로컬 성능입니다. 리베라는 새로운 메모리 모듈이 최대 9.6Gbps의 속도로 작동하여 탁월한 AI 성능을 보장한다고 밝혔습니다.

마이크론은 극자외선(EUV) 리소그래피 공정의 개선으로 속도가 더 빨라졌을 뿐만 아니라 에너지 효율성도 20%나 높아졌다고 밝혔습니다.
더욱 개인화된 AI 경험을 향한 길은?
마이크론의 차세대 스마트폰용 RAM 및 스토리지 솔루션은 향상된 AI 성능뿐만 아니라 일상적인 스마트폰 작업의 전반적인 가속화를 목표로 합니다. G9의 향상된 NAND 모바일 UFS 4.1 스토리지와 1γ(1감마) LPDDR5X RAM이 오프라인 AI 프로세서의 성능도 향상시킬 수 있을지 궁금했습니다.
스마트폰 제조업체와 AI 연구소는 점점 더 로컬 AI 처리 방식으로 전환하고 있습니다. 즉, 쿼리를 클라우드 서버로 전송하여 처리 과정을 거친 후 인터넷 연결을 통해 결과를 휴대폰으로 전송하는 대신, 전체 워크플로가 휴대폰에서 로컬로 실행됩니다.

통화 및 음성 메모를 필사하는 것부터 복잡한 연구 자료를 PDF 파일로 처리하는 것까지 모든 작업이 휴대폰에서 이루어지며, 개인 정보는 기기 외부로 유출되지 않습니다. 더 안전하고 빠른 방법이지만, 상당한 시스템 리소스가 필요합니다. 더 빠르고 효율적인 메모리 모듈은 이러한 필수 요건 중 하나입니다.
마이크론의 차세대 솔루션이 로컬 AI 처리에 도움이 될 수 있을까요? 가능합니다. 실제로, 이 솔루션은 클라우드 연결이 필요한 프로세스, 예를 들어 구글의 Veo 모델을 사용한 비디오 제작과 같은 프로세스의 속도를 높여주는데, 이 경우에도 여전히 강력한 컴퓨팅 서버가 필요합니다.
리베라는 "기기에서 직접 실행되는 네이티브 AI 애플리케이션은 저장 장치에서 사용자 데이터를 읽을 뿐만 아니라 기기에서 AI 추론까지 수행하기 때문에 트래픽이 가장 많습니다."라고 말하며, "이 경우 저희 기능은 두 가지 모두의 데이터 흐름을 최적화하는 데 도움이 될 것입니다."라고 덧붙였습니다.
그렇다면 마이크론의 최신 솔루션이 탑재된 휴대폰은 언제쯤 출시될까요? 리베라는 모든 주요 스마트폰 제조업체가 마이크론의 차세대 RAM 및 스토리지 모듈을 채택할 것이라고 말합니다. 시장 출시 측면에서는 "2025년 말이나 2026년 초에 출시되는 주요 모델"을 구매 고려 대상에 포함해야 합니다.
댓글이 닫혔습니다.