カテゴリー: 大規模言語モデル
- GRPO=高度な拒否サンプリング?強化学習の解明の時:負のサンプル「選択と集中」が鍵!
- LLMは数学を理解できるのか?最新の研究が大規模モデルの数学的推論における致命的な欠陥を明らかに
- 彼女はいかにして「システム2」を大規模言語モデルにもたらしたか | マイクロソフトリサーチアジアの張麗氏との対話
- 312の軌跡で性能241%向上!上海交通大学とSIIがオープンソースのコンピューターエージェントを開発、Claude 3.7を超える
- 史上初!o3がLinuxカーネルのゼロデイ脆弱性を発見、12000行のコードを100回見て特定、ツール不要
- 統計的に制御可能なデータ合成!新フレームワークが大規模言語モデルのデータ生成の限界を突破、マギル大学チームがLLMSynthorを発表
- 深層|AIユニコーンCharacter.AI CEOインタビュー:最高のアプリケーションはまだ発明されていない、AI分野は錬金術に似ており、何が成功するか誰も正確には知らない
- AIが賢くなるほど言うことを聞かなくなる!新研究:最強の推論モデルの指示遵守率はわずか50%
- 思考連鎖推論のボトルネックを打破!「ソフトシンキング」で大規模モデルが人間のような抽象能力を習得、トークン使用量も削減
- Claude 4はどのように考えるのか?シニア研究者が回答:RLHFパラダイムは過去のもの、RLVRはプログラミング/数学で実証済み
- Seed1.5-VL技術レポートの解説
- ゼロから完全に構築、わずか8元と9時間でTiny LLMをトレーニング!推論、MoEなどを含む完全チュートリアル
- Gemini Diffusion:1500トークン/秒、稲妻のような速さ!
- Gemini Diffusionよりも万能!初のマルチモーダル拡散型大規模言語モデルMMaDAが発表、強力な推論と高い制御性を両立
- AIはいつ"考える"べきかを知っているか?Thinklessが大規模言語モデルに思考のタイミングを教える
- ICML 2025 | トレーニング不要、大規模モデルの好み即時アラインメント
- Google | RAGシステムのエラーを追跡:選択的生成フレームワークを提案し、RAGの精度を10%向上
- マルチモーダル大規模モデルが軒並み失敗、GPT-4oの安全合格率はわずか50%:SIUOがクロスモーダルな安全盲点を明らかに
- Nature姉妹誌:人間は再びAIに敗れた、特にそれがあなたが誰であるかを知っているとき
- 信頼できるAgentはどのモデルを使うべきか?LLMの多ターン会話における「迷子」現象 | Microsoft最新
- 思考が負担になるとき:大規模言語モデルの「思考の落とし穴」を解き明かす
- 大規模言語モデルの推論能力はどこまで強いのか?ある研究がLLMの限界と可能性を明らかにする
- 推論のブレークスルー:SoftCoT++はいかにLLMに「複数の道を考える」ことを可能にするか?
- Qwenのブレークスルー:「並列計算」で「パラメータの積み重ね」を代替、新手法でメモリ22倍削減、遅延6倍削減
- LLMにまた致命的な欠陥が発覚:時計が全く読めない!博士も驚愕、正解率50%以下