カテゴリー: 思考の連鎖
- 考えれば考えるほど間違える:CoTの「深く熟考する」ことがLLMの幻覚を促進する触媒に!
- 人間によるアノテーションを超えて:MetaがCoT-Self-Instructを発表 – 「推論的自己進化」でLLMトレーニングを再構築する方法
- ベンジオがCoT神話を突き破る!LLMの推論は幻想、トップ会議論文の25%が否定される
- AIはいつ"考える"べきかを知っているか?Thinklessが大規模言語モデルに思考のタイミングを教える
- モデルに自己議論を強制、再帰的思考版CoTが人気急上昇!ネチズン:「これってほとんどの推論モデルの手法じゃない?」
- 強化学習に基づくマルチモーダル大規模言語モデル推論能力に関する研究サーベイ
- 新刊「Reasoning From Scratch」第1章公開:Sebastian Raschka氏が語るLLMの推論、パターンマッチング、基本学習