カテゴリー: 大規模言語モデル
- 因果推論がLLM戦場に突入!大規模モデルの幻覚終結者?ABCAフレームワーク
- 論文概説 | 条件文を利用して大規模言語モデルの因果推論能力を活性化・向上させる(CL2025)
- え?RLVRは新しい知識を学んでいるのではなく、知識をどのように使って推論するかを学んでいる!
- Karpathyが大規模モデル「議会」を組織、GPT-5.1、Gemini 3 Proなどが最強の智囊団に
- オックスフォード大学がH1「ブートストラッピング」フレームワークを提案、モデルが自己進化し能力が空から生まれる!
- コスト8000ドル以下!Sina Weiboの1.5B小型モデルが数千億パラメータモデルを超える
- RLはより記憶を保持、SFTは忘れやすい?プリンストン陳丹琦チームが後訓練の認知を書き換え
- マイクロソフトがGADフレームワークを提案:オープンソースモデルもブラックボックスGPT-5を直接蒸留可能
- LLMを会社のように働かせる:マイクロソフトが「思考並行」をプロトコル化、精度向上と重要経路遅延28%低減
- 強化学習+大規模モデルの記憶:Mem-α、エージェントが「記憶する方法」を初めて学ぶ
- AIの母、李飛飛氏の論文がシリコンバレーを揺るがす!大規模言語モデルの方向性は間違っており、空間知能こそがAGIへの唯一の道
- Metaの最新エージェント学習論文2編が興味深い!
- イノキュレーション・プロンプティング:大規模言語モデルを訓練時に「悪用」させることで、テスト時のアライメントを向上させる
- Claudeの脳に言葉を注入したところ、『自己正当化』を開始!Anthropicの最新研究がAIの内省能力を示唆
- GPTは保守的になっているのか?スタンフォード大学ManningチームがVerbalizedSamplingを提案、モデルに「もう少し考える」ように促す
- Metaが発見:RAGシステムの遅延は無駄な作業が多すぎることが原因
- 失敗するほど学習が速くなる!軌跡リライティング技術により、エージェントは失敗から完璧な経験を創造する!
- 手動アノテーションを不要に!華人チームがマルチモーダル大規模モデルの自己進化アルゴリズムを提案
- 初のマルチラウンドLLMルーター「Router-R1」が登場、大規模モデルに「思考–ルーティング–集約」を学習させる
- ファインチューニングを放棄:スタンフォードがAgentic Context Engineering(ACE)を共同発表、モデル性能を10%向上させ、トークンコストを83%削減
- Googleが明かす:マルチエージェント推論こそがスケーリングの未来である。
- MambaアーキテクチャがトップカンファレンスICLR 2026に採択。AIの頭脳であるTransformerの王座は安泰か?
- 再帰的推論HRMモデルがさらなる進化!TRMの2層ネットワーク(7Mモデル)がLLMを凌駕!
- GoogleがCUA戦場に参入、Gemini 2.5 Computer Useを発表:AIがブラウザを直接操作可能に
- 極めて重要:ドキュメントインテリジェンスにおけるLLM:概説、進展、および将来のトレンド