カテゴリー: AI研究
- Googleが明かす:マルチエージェント推論こそがスケーリングの未来である。
- 速報!清華大学などが UltraRAG 2.0 をオープンソース化!性能が12%向上
- 上海交通大学とスタンフォード大学が提案する「長大コード圧縮の決定版」:性能維持で5.6倍の超圧縮を実現
- プリンストン大学陳丹琦グループの新作:RLHFでは不十分、RLVRには限界?RLMTが第三の道を切り開く
- 考えれば考えるほど間違える:CoTの「深く熟考する」ことがLLMの幻覚を促進する触媒に!
- ルカン氏の論文が今後アレクサンドル・ワン氏の承認を要する!Metaの呆れた動き
- 数学ランキングを席巻するLLM、会話の仕方を忘れる?CMUらがSFTとRLの驚くべき違いを明らかに!
- 思考の連鎖(CoT)推論の「蜃気楼」:大規模言語モデルの汎化能力に関する詳細な考察
- 「量こそ力」は機能不全?ModelSwitchがサンプリングのブラックホールから脱却し、大規模言語モデルの推論パラダイムを刷新
- KVキャッシュ10%で無損失の数学的推論を実現!推論大規模モデルの「メモリ過負荷」問題を解決するこのオープンソース手法
- 徹夜のブログ記事でOpenAIからオファー獲得!Muon開発者が激白:「ほとんどのオプティマイザ論文は“偽物”だ」
- Appleの「思考の錯覚」論文が再び批判に、Claudeと人間の共著論文が3つの主要な欠陥を指摘
- AppleのAI論文が大失敗!テスト方法に大きな問題が指摘され…ネット民「クックは彼らを解雇すべきだ!」
- AIが7ヶ月で数学者の「包囲網」を突破し人類を凌駕!14人の数学者が原始推論トークンを深掘り:丸暗記ではなく直感に頼る
- 大変だ!Appleが証明:DeepSeek、o3、Claudeなどの「推論」モデルには推論能力が全くない
- 世界のトップ数学者が、AIの職務遂行能力に驚愕
- DeepMindの最新研究:エージェントは世界モデルである!
- モデルが賢くなればなるほど「言うことを聞かなくなる」?MathIFベンチマークがAIの服従性における脆弱性を明らかに
- プロセス監視>結果監視!華為港城がRAG推論トレーニングを再構築、5kサンプルで90kモデルの性能を凌駕
- 彼女はいかにして「システム2」を大規模言語モデルにもたらしたか | マイクロソフトリサーチアジアの張麗氏との対話
- 大規模言語モデルの推論能力はどこまで強いのか?ある研究がLLMの限界と可能性を明らかにする
- 推論のブレークスルー:SoftCoT++はいかにLLMに「複数の道を考える」ことを可能にするか?
- Qwenのブレークスルー:「並列計算」で「パラメータの積み重ね」を代替、新手法でメモリ22倍削減、遅延6倍削減
- 直感から「深層思考」へ:多次元的に進化する大規模モデルの推論能力
- たった1つのデータで、大規模言語モデルの数学的推論能力を大幅に向上させられるのか?