カテゴリー: 大規模言語モデル
- AIも「損得勘定」ができるように?DecisionFlowで大規模言語モデルが高リスクな意思決定をより深く理解!
- モデルが賢くなればなるほど「言うことを聞かなくなる」?MathIFベンチマークがAIの服従性における脆弱性を明らかに
- 初のゲノム推論AIが登場!精度97%に急上昇、ゲノム研究を根本的に変革
- プロセス監視>結果監視!華為港城がRAG推論トレーニングを再構築、5kサンプルで90kモデルの性能を凌駕
- RL推論の進捗整理
- OPA-DPO:マルチモーダル大規模モデルにおける幻覚問題の効率的な解決策
- AIが「自信」のみで推論を学習、浙江大学出身者がDeepSeekの長思考連鎖の出現を再現、強化学習は外部報酬信号を必要としない
- マイクロソフトらが新パラダイム「モデルチェーン」を提案、Transformerと同等の性能で拡張性と柔軟性が向上
- LSTMの父が22年前に構想したアイデアは実現するのか?AI「自己進化」に関する論文が1週間で集中公開、新たなトレンドが台頭?
- AIの数学能力が100%急増、自己進化が強化学習の限界に迫る!CMUの新作が認識を覆す
- 【深層学習】Mamba主要著者の新作:DeepSeek採用のアテンションメカニズムを置き換え、推論専用に設計
- LLMがどのように推論し自己反省するかを初解説!ノースウェスタン大学とGoogleの新フレームワーク:ベイズ適応型強化学習を導入し、数学的推論能力を大幅に向上
- AIは「自らの過ち」を認めるのか?マルチエージェント協調の「羅生門」を解き明かし、ICML 2025 Spotlightを獲得
- スタンフォードの中国人チームがまさかの番狂わせ!AIが純粋なCUDA-Cでカーネルを記述し、PyTorchを凌駕?
- 大規模モデルは数独が苦手?!Transformer開発者のスタートアップがランキング発表:o3 Mini Highの「変種数独」正答率はわずか2.9%
- Andrej Karpathy が絶賛!スタンフォード大学チームの新作、Llama-1B でミリ秒級推論を実現
- 清華大学の新しいRAGフレームワーク:DO-RAG、精度が33%向上!
- LLMとRLの組み合わせに疑問符:意図的な誤った報酬でも数学ベンチマークが大幅向上、AI界に衝撃
- Qwenチームが長文コンテキスト推論モデルQwenLong-L1を発表、o3-miniを凌駕
- All-In Podcast 議事録:Geminiが「無限のコンテキスト」を牽引、AIはツールから認知コラボレーターへ昇格
- Llama論文著者「離脱」、14人のチームはわずか3人に、フランスのユニコーン企業Mistralが最大の勝者に
- 長い推論≠高精度!「即答」と「深考」の適応的切り替え:トークン削減と精度向上の二重の利益の哲学
- ICML 2025 | 「人間テスト法」でAIバブルを突き破る:能力指向型適応的評価の新パラダイムを構築する
- Alibaba、Qwen新モデルをオープンソース化:端午の節句の贈り物!
- ICML 2025 | 速くて強力なライガー!わずか20Mトークンでファインチューニング、Transformerが瞬時に線形RNNに切り替わる