分類: 推理能力
- 先驗與後驗機制加持,大型模型能否應對推理預測中的現實「溢出」?
- 普林斯頓陳丹琦組新作:RLHF難支撐,RLVR有邊界?RLMT開闢第三條路
- 回顧Qwen3廢棄的混合推理模式
- Dualformer:透過隨機推理軌跡學習實現可控的快速與慢速思考
- 傳統RAG只會翻書卻不會運用?RAG+讓推理能力邁向新高度!
- NVIDIA(ProRL)|強化學習究竟能否提升大型語言模型的推理上限?
- SRO 架構賦予 Qwen-2.5-VL 推理能力,效能飆升 16.8%
- 無需人工標註!AI自生成訓練資料,靠「演繹-歸納-溯因」解鎖推理能力
- 大型語言模型數獨解不好?!Transformer 作者新創公司公布排行榜:o3 Mini High「變異數獨」正確率僅 2.9%
- AI越聰明越不聽話!新研究:最強推理模型指令遵循率僅50%
- 大語言模型的推理能力究竟有多強?一項研究揭示了LLM的局限性與潛力
- 從直覺到「深度思考」:多維進化的大模型推理能力
- NVIDIA讓AI更聰明地使用工具:Nemotron-Research-Tool-N1模型深度解析
- 中興通訊研究:LLM自適應題目難度分級蒸餾,讓小模型也擁有「長鏈思考」能力
- 基於強化學習的多模態大語言模型推理能力研究綜述