HuggingSnap AI 앱: 휴대폰 카메라로 세상을 보세요
하지만 저는 Hugging Snap이 제 인생 전체를 관리해 줄 거라고 믿지는 않습니다.
요약:
- Hugging Face는 iPhone 카메라가 보는 것을 분석하고 설명할 수 있는 iOS 앱인 HuggingSnap을 출시했습니다.
- 이 앱은 오프라인에서 작동하며 클라우드로 데이터를 전송하지 않습니다.
- HuggingSnap은 완벽하지는 않지만 이 기기에서 무엇을 할 수 있는지 보여줍니다.
ChatGPT, Microsoft Copilot, Google Gemini와 같이 AI 기능을 강화하는 도구의 등장으로 AI에게 "보는" 능력을 부여하는 것이 점점 더 보편화되고 있습니다. Hugging Face는 HuggingSnap이라는 자체 iOS 앱을 출시했습니다. 이 앱을 사용하면 인터넷 연결 없이도 iPhone 카메라를 통해 세상을 보고 카메라가 보는 것을 설명할 수 있습니다. 이 앱은 오프라인에서도 작동하므로 인터넷 연결이 불안정한 지역에서 사용하기에 이상적입니다.
침묵을 지키는 개인 투어 가이드가 있다고 상상해 보세요. HuggingSnap은 Hugging Face의 내부 시각 모델인 smolVLM2를 사용하여 완전히 오프라인으로 작동하여, 인터넷이라는 허공에 데이터를 전송하지 않고도 즉각적인 사물 인식, 장면 묘사, 텍스트 판독, 그리고 주변 환경에 대한 전반적인 관찰을 가능하게 합니다.

이 오프라인 기능은 연결 상태가 불안정한 상황에서 HuggingSnap을 특히 유용하게 만들어 줍니다. 야외에서 하이킹을 하거나, 인터넷이 불안정한 해외 여행을 하거나, 마트에서 휴대폰 연결이 갑자기 끊기는 경우, 휴대폰에 이 기능이 있다면 정말 큰 도움이 될 것입니다. 또한, 이 앱은 매우 효율적이라고 주장하며, 클라우드 기반 AI 모델처럼 배터리를 소모하지 않습니다.
HuggingSnap은 내 세상을 바라본다
허깅스냅 앱을 사용해 보기로 했습니다. 먼저 브라우저에 TechRadar 프로필이 열려 있는 상태에서 노트북 화면을 가리켰습니다. 처음에는 앱이 텍스트를 잘 인식하고 내용을 설명했습니다. 하지만 제 프로필의 헤드라인과 다른 세부 정보를 보자마자 엉뚱한 방향으로 갔습니다. 허깅스냅은 헤드라인에 나온 새로운 컴퓨터 칩에 대한 언급이 제 노트북을 구동하는 장치와 관련이 있다고 생각했고, 헤드라인에 나온 몇몇 이름은 제 노트북을 사용하는 다른 사람들을 가리키는 것 같았습니다.

그러고 나서 카메라를 아들의 놀이방으로 향했습니다. 아직 정리하지 않은 장난감들로 가득 차 있었죠. 이번에도 AI는 놀이 공간과 그 안의 장난감들을 전반적으로 잘 묘사해 주었습니다. 봉제 인형과 블록을 구분할 때 색깔은 물론 질감까지 정확하게 구분해 냈습니다. 하지만 몇 가지 세부적인 묘사는 틀렸습니다. 예를 들어, 테디베어를 개로 묘사했고, 쌓기용 링을 공으로 착각한 것 같았습니다. 전반적으로 HuggingSnap은 친구에게 상황을 설명하는 데는 괜찮았지만, 경찰에 신고할 만큼은 아니었다고 생각합니다.

미래를 바라보다
HuggingSnap의 온디바이스 방식은 iPhone의 내장 기능과는 차별화됩니다. 이 기기는 식물 종을 식별하고, 사진의 텍스트를 인식하고, 벽에 있는 거미가 당신을 움직이게 할 거미인지 알려주지만, 항상 일부 정보는 클라우드로 전송됩니다.
허깅스냅은 대부분의 앱이 사용자에 대한 거의 모든 것을 추적하는 세상에서 단연 돋보입니다. 하지만 애플은 향후 iPhone을 위해 온디바이스 AI 기술에 막대한 투자를 하고 있습니다. 하지만 현재로서는 AI 가시성과 함께 개인 정보 보호를 원한다면 허깅스냅이 최적의 선택일 수 있습니다.
댓글이 닫혔습니다.