カテゴリー: 大規模言語モデル
- ZeroSearch:「Alibaba Technology」ブラウザ不要、大規模言語モデルが自己報酬学習
- Jeff Dean氏:1年以内にAIがジュニアエンジニアに取って代わるだろう、ネットユーザー:「Altmanは口約束だけ、Jeff氏の言葉こそ致命的だ」
- AM-Thinking-v1:32B規模での推論能力の最前線を推進
- Ant Group 武威:次世代「推論」モデルパラダイム大予想
- プロの医師はAIモデルにはるかに劣る?OpenAIが医療オープンソースベンチマークHealthBenchを発表、o3が最高のパフォーマンスを示す
- 直感から「深層思考」へ:多次元的に進化する大規模モデルの推論能力
- DeepSeekの精度と効率が両方向上、Huawei&信工所が思考連鎖の「早期終了」メカニズムを提案
- GPT-5開発の内部情報初公開!OpenAIチーフリサーチオフィサー「AGIはもうすぐそこだ」
- ZeroSearch:ゼロ検索でLLMの潜在能力を促進、LLM検索能力の新時代を切り拓く
- モデルに自己議論を強制、再帰的思考版CoTが人気急上昇!ネチズン:「これってほとんどの推論モデルの手法じゃない?」
- たった1つのデータで、大規模言語モデルの数学的推論能力を大幅に向上させられるのか?
- スタンフォードの以弱馭強W4S:Meta-Agentでより強力なLLMを操縦、精度が95.4%に向上 | 最新
- 強化学習アルゴリズムの整理:PPOからGRPO、そしてDAPOへ
- 研究:LLMのプレフィル機能が、かえってジェイルブレイクの脆弱性になっていた!
- 北京大学、清華大学、UvA、CMUなどが共同発表:大規模モデルの論理的推論能力に関する最新サーベイ
- NVIDIA Llama Nemotronシリーズ:主要技術解説
- マイクロソフトアジア研究所 SYNTHLLM:言語モデル向け合成データのスケーリング則を検証
- ChatGPTがいかにNLP分野全体を破壊したか:オーラルヒストリー
- LLMエージェントのパフォーマンスが低い理由:Google DeepMindの研究が3つの失敗モードを明らかに、RLファインチューニングで緩和可能
- ZTEワイヤレス研究所「大規模モデル深潜」チーム、LLM適応型質問難易度蒸留法を発表、小規模モデルの推論能力を大幅に向上
- ZTEの研究:LLM適応型問題難易度グレーディング蒸留により、小規模モデルも「長連鎖思考」能力を獲得
- AIの後半戦:アルゴリズムから実用性へ
- 大規模言語モデルは、決して汎用人工知能への終着点ではない!
- AI界の「オリンピック」?OpenAIが新しいベンチマークMRCRを発表、モデルの「干し草の山の中の針」能力が限界に挑む!
- 本日のAI最前線進捗速報