중국 알리바바, 새로운 Qwen 3 AI 모델로 메타를 앞지르다
요약:
- 중국 기술 대기업 알리바바가 오픈소스 Qwen 3 AI 모델 제품군을 출시했습니다. 이 컬렉션에는 8개의 새로운 모델이 포함되어 있습니다.
- 선두 모델인 Qwen3-235B-A22B MoE는 235억 개의 매개변수로 학습되었으며, 그중 22억 개의 매개변수가 활성화되었습니다.
- 활성화된 매개변수가 3억 개에 불과한 더 작은 모델인 Qwen30-3B-A3B MoE는 GPT-4o보다 훨씬 뛰어난 성능을 보입니다.
중국 거대 기술 기업 알리바바가 Qwen 3 시리즈에 3개의 새로운 오픈소스 인공지능(AI) 모델을 출시했습니다. 새로운 Qwen 3 모델에는 두 가지 MoE(전문가 혼합) 모델인 Qwen235-22B-A3B와 Qwen30-3B-A3B가 포함됩니다. Qwen235-22B-A235B는 가장 크고 선도적인 모델로, 총 22억 개의 매개변수와 XNUMX억 개의 활성화된 매개변수를 제공합니다.

Qwen3-30B-A3B는 총 30억 개의 매개변수와 3억 개의 활성화된 매개변수를 갖춘 소형 MoE 모델입니다. 또한, Qwen3 시리즈에는 Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B, Qwen3-0.6B를 포함한 3개의 고밀도 모델이 포함됩니다. 알리바바의 QwenXNUMX AI가 선보이는 이러한 새로운 모델들은 인공지능 분야에서 알리바바의 입지를 더욱 강화합니다.
Qwen3를 소개합니다!
최신 대규모 언어 모델인 Qwen3를 출시하고 공개합니다. 여기에는 2개의 MoE 모델과 6개의 고밀도 모델이 포함되며, 0.6B에서 235B까지 다양한 용량을 지원합니다. 주력 모델인 Qwen3-235B-A22B는 코딩, 수학, 일반… 등의 벤치마크 평가에서 경쟁력 있는 결과를 달성했습니다. pic.twitter.com/JWZkJeHWhC
— 퀀(@Alibaba_Qwen) 2025 년 4 월 28 일
모든 Qwen 3 모델은 하이브리드 사고 모드를 지원합니다. 즉, 추론형 AI 모델과 기존의 대규모 언어 모델(LLM)을 모두 갖추고 있습니다. 사고 모드에서는 모델이 단계별로 추론할 수 있으며, 비사고 모드에서는 모델이 빠른 응답을 제공합니다. 이 기능은 다양한 애플리케이션에서 모델의 유연성을 향상시킵니다.
게다가, 지원하다 Qwen 3 모델은 전 세계 119개 이상의 언어와 방언을 지원합니다. 이는 가장 다재다능한 다국어 모델 중 하나입니다. 또한, 알리바바는 Qwen 3 모델에 대한 모델 컨텍스트 프로토콜(MCP) 지원을 개선하여 추가적인 에이전트 기능을 제공합니다. 이러한 개선을 통해 모델은 컨텍스트를 더 잘 이해하고 더욱 현명한 결정을 내릴 수 있습니다.
성능 측면에서 더 큰 Qwen3-235B-A22B 모델은 다음과 같은 경쟁력 있는 결과를 제공합니다. 딥시크 R1 그리고 Grok 3 베타와 제미니 2.5 프로 그리고 OpenAI o1. 흥미로운 점은 활성 매개변수가 3억 개에 불과한 더 작은 Qwen30-3B-A3B 모델이 DeepSeek V3와 OpenAI의 GPT-4o 모델보다 성능이 우수하다는 것입니다. 이는 높은 리소스 효율성과 더 작은 모델 크기로도 뛰어난 성능을 달성할 수 있음을 시사합니다.
알리바바는 Qwen 3 모델이 프로그래밍, 수학, 과학, 그리고 일반 기술 분야에서 탁월한 성능을 보인다고 밝혔습니다. 전반적으로 Qwen 3은 중국의 첨단 고성능 AI 모델들을 대표하는 모델입니다. 이제 곧 출시될 DeepSeek R2를 통해 중국은 서구 AI 연구실들과 경쟁할 수 있는 유리한 위치에 서게 되었습니다. 이러한 발전은 중국의 AI 발전이 빠르게 진행되고 있음을 보여줍니다.
댓글이 닫혔습니다.