分類: 思維鏈
- 想越多,錯越多:CoT「深度思考」反成大型語言模型幻覺催化劑!
- 超越人類標註,Meta 提出 CoT-Self-Instruct:如何用「推理式自進化」重塑大型語言模型訓練
- Bengio親自戳破CoT神話!大型語言模型推論是假象,25%頂尖會議論文遭打臉
- 北京大學校友翁荔最新部落格:Why We Think
- 打破思維鏈推理瓶頸!“軟推理”讓大模型學會人類抽象能力,token使用量還更少了
- AI是否知道什麼時候該"思考"?Thinkless教會大模型何時該動腦筋
- Reasoning 新突破:SoftCoT++ 如何讓 LLM「多想幾條路」?
- 首個AI思維百科全書誕生,模型推理不再是黑箱
- 螞蟻武威:下一代「推理」模型範式大猜想
- DeepSeek精度效率雙提升,華為&信工所提出思維鏈「提前退出」機制
- 強迫模型自我爭論,遞歸思考版CoT熱度飆升!網友:這不就是大多數推理模型的套路嗎?
- 中興通訊無線研究院「大模型深潛團隊」發布 LLM 自適應題目難度蒸餾方法,大幅提升小模型推理能力
- 中興通訊研究:LLM自適應題目難度分級蒸餾,讓小模型也擁有「長鏈思考」能力
- 基於強化學習的多模態大語言模型推理能力研究綜述
- 新書《Reasoning From Scratch》第一章釋出,Sebastian Raschka 談 LLM 推理、模式匹配和基礎訓練