Qwenが深夜に更新:RTX 3090で動作可能、3BパラメータでGPT-4oに匹敵

最近、3つのAI大規模モデルを立て続けにリリースした後、Qwenは深夜に再び更新を発表しました。既存のQwen3-30B-A3Bに新バージョン、Qwen3-30B-A3B-Instruct-2507が登場しました。

この新バージョンは「非思考モード」(non-thinking mode)の新しいモデルです。その最大の特長は、わずか30億(3B)のパラメータをアクティベートするだけで、GoogleのGemini 2.5-Flash(非思考モード)やOpenAIのGPT-4oといった業界トップのクローズドソースモデルに匹敵する超強力な性能を発揮できる点です。これは、モデルの効率性と性能最適化における大きなブレークスルーを示しています。

下の図は、このモデルの性能データを示しています。更新前のバージョンと比較して、新バージョンは複数のテストで飛躍的な向上を遂げていることがわかります。例えば、AIME25は以前の21.6から61.3に、Arena-Hard v2のスコアは24.8から69.0に向上しました。

image.png

下の図は、新バージョンとDeepSeek-V3-0324などのモデルとの性能比較結果を示しています。多くのベンチマークテストにおいて、新バージョンモデルはDeepSeek-V3-0324にほぼ追いつくか、それを超えることができることがわかります。

image.png

これは、モデルの計算効率の向上速度に驚かされます。

image.png

具体的に、Qwen3-30B-A3B-Instruct-2507は以下の点で重要な改善を達成しました。

  • 汎用能力の大幅な向上:命令追従、論理的推論、テキスト理解、数学、科学、プログラミング、ツール使用など多岐にわたります。

  • 多言語のロングテール知識カバーにおける顕著な進歩。

  • 主観的およびオープンなタスクにおいて、新モデルはユーザーの嗜好により密接に合致し、より高品質なテキストを生成し、ユーザーに役立つ回答を提供できます。

  • 長文理解能力が256Kに向上。

image.png

現在、モデルはModelScopeコミュニティやHuggingFaceなどのプラットフォームでオープンソース化されています。QwenChatでも直接体験できます。

体験リンク:http://chat.qwen.ai/

このモデルのリリース後、すぐにコミュニティの支持を得て、より多くの利用経路が生まれ、さらには量子化バージョンも登場しました。これがオープンソースの力です。

image.png

image.png

その登場により、コンシューマー向けGPUでAIモデルを実行するための新たな選択肢が提供されました。

cef17d935bd7cfa16696ddda5da5f5d.png

この新バージョンを自身のMacコンピュータ、RTX 3090を搭載したPCなどのデバイスで実行した体験を共有している人もいます。

image.png

image.png

image.png

このモデルを実行したい場合は、以下の設定要件を参照してください。

image.png

特筆すべきは、今回の新バージョンモデルが「非推論モデル」である点です。著名な開発者Simon Willisonは、このモデルを以前テストした「推論」モデル(GLM-4.5 Airなど)と比較しました。彼が導き出した核心的な結論は、「すぐに使える」複雑なコードを生成するようなタスクでは、モデルが「推論」能力を持っているかどうかが極めて重要な要素となり得るということです。

image.png

Qwenチームの今回のアップデートも深夜に行われ、これにより他の競合他社は再びプレッシャーを感じたことでしょう。しかし、毎日目を覚ますたびにAIの能力が新たな段階に進んでいるのを見るのは、それ自体が感動的なことです。

cef17d935bd7cfa16696ddda5da5f5d.png

© THE END

転載をご希望の場合は、この公式アカウントにご連絡ください。

記事の投稿または取材依頼:liyazhou@jiqizhixin.com

メインタグ:大規模言語モデル

サブタグ:QwenGPU計算ディープラーニングオープンソースAI


前の記事:Dualformer:ランダム化された推論軌跡学習による制御可能な高速思考と低速思考

次の記事:AIの安全性と瞑想、心とAGIアライメントの計算モデル 3万語

短いURLをシェア