중국 알리바바, 새로운 Qwen 3 AI 모델로 메타를 앞지르다

요약:

  • 중국 기술 대기업 알리바바가 오픈소스 Qwen 3 AI 모델 제품군을 출시했습니다. 이 컬렉션에는 8개의 새로운 모델이 포함되어 있습니다.
  • 선두 모델인 Qwen3-235B-A22B MoE는 235억 개의 매개변수로 학습되었으며, 그중 22억 개의 매개변수가 활성화되었습니다.
  • 활성화된 매개변수가 3억 개에 불과한 더 작은 모델인 Qwen30-3B-A3B MoE는 GPT-4o보다 훨씬 뛰어난 성능을 보입니다.

중국 거대 기술 기업 알리바바가 Qwen 3 시리즈에 3개의 새로운 오픈소스 인공지능(AI) 모델을 출시했습니다. 새로운 Qwen 3 모델에는 두 가지 MoE(전문가 혼합) 모델인 Qwen235-22B-A3B와 Qwen30-3B-A3B가 포함됩니다. Qwen235-22B-A235B는 가장 크고 선도적인 모델로, 총 22억 개의 매개변수와 XNUMX억 개의 활성화된 매개변수를 제공합니다.

알리바바, qwen 3 AI 모델 출시

Qwen3-30B-A3B는 총 30억 개의 매개변수와 3억 개의 활성화된 매개변수를 갖춘 소형 MoE 모델입니다. 또한, Qwen3 시리즈에는 Qwen3-32B, Qwen3-14B, Qwen3-8B, Qwen3-4B, Qwen3-1.7B, Qwen3-0.6B를 포함한 3개의 고밀도 모델이 포함됩니다. 알리바바의 QwenXNUMX AI가 선보이는 이러한 새로운 모델들은 인공지능 분야에서 알리바바의 입지를 더욱 강화합니다.

모든 Qwen 3 모델은 하이브리드 사고 모드를 지원합니다. 즉, 추론형 AI 모델과 기존의 대규모 언어 모델(LLM)을 모두 갖추고 있습니다. 사고 모드에서는 모델이 단계별로 추론할 수 있으며, 비사고 모드에서는 모델이 빠른 응답을 제공합니다. 이 기능은 다양한 애플리케이션에서 모델의 유연성을 향상시킵니다.

게다가, 지원하다 Qwen 3 모델은 전 세계 119개 이상의 언어와 방언을 지원합니다. 이는 가장 다재다능한 다국어 모델 중 하나입니다. 또한, 알리바바는 Qwen 3 모델에 대한 모델 컨텍스트 프로토콜(MCP) 지원을 개선하여 추가적인 에이전트 기능을 제공합니다. 이러한 개선을 통해 모델은 컨텍스트를 더 잘 이해하고 더욱 현명한 결정을 내릴 수 있습니다.

성능 측면에서 더 큰 Qwen3-235B-A22B 모델은 다음과 같은 경쟁력 있는 결과를 제공합니다. 딥시크 R1 그리고 Grok 3 베타와 제미니 2.5 프로 그리고 OpenAI o1. 흥미로운 점은 활성 매개변수가 3억 개에 불과한 더 작은 Qwen30-3B-A3B 모델이 DeepSeek V3와 OpenAI의 GPT-4o 모델보다 성능이 우수하다는 것입니다. 이는 높은 리소스 효율성과 더 작은 모델 크기로도 뛰어난 성능을 달성할 수 있음을 시사합니다.

알리바바는 Qwen 3 모델이 프로그래밍, 수학, 과학, 그리고 일반 기술 분야에서 탁월한 성능을 보인다고 밝혔습니다. 전반적으로 Qwen 3은 중국의 첨단 고성능 AI 모델들을 대표하는 모델입니다. 이제 곧 출시될 DeepSeek R2를 통해 중국은 서구 AI 연구실들과 경쟁할 수 있는 유리한 위치에 서게 되었습니다. 이러한 발전은 중국의 AI 발전이 빠르게 진행되고 있음을 보여줍니다.

댓글이 닫혔습니다.