QwenLong-L1-32Bは、長文コンテキスト推論のためにRLで訓練された初の長文コンテキスト言語推論モデル(LRM)です。
7つの長文コンテキストDocQAベンチマークでの実験結果によると、QwenLong-L1-32BはOpenAI-o3-miniやQwen3-235B-A22Bといった主要なLRMよりも優れており、Claude-3.7-Sonnet-Thinkingに匹敵する性能を示し、現在の最先端LRMの中でトップの性能を誇ります。
オープンソースアドレス:https://huggingface.co/Tongyi-Zhiwen/QwenLong-L1-32B
プロジェクトアドレス:https://github.com/Tongyi-Zhiwen/QwenLong-L1
データセットはこちら:https://huggingface.co/datasets/Tongyi-Zhiwen/DocQA-RL-1.6K
R1の価値はやはり非常に高いです〜
最大長120kをサポート