カテゴリー: 大規模言語モデル
- Devin共同創設者:マルチエージェントシステムはやめろ!MicrosoftとOpenAIが提唱するエージェント構築の理念は大間違い!コンテキストエンジニアリングが新標準になる、社員:社長、情報漏洩を止めてください
- 汚いほど安全? ハーバード大学チームの最新研究:10%の毒性訓練で大規模モデルは無敵に
- LLMは既に自己重み更新が可能に、適応能力と知識統合能力が大幅向上、AIは目覚めたか?
- マルチエージェントがトークンを「燃焼」!Anthropicが発見したすべて
- Appleの「思考の錯覚」論文が再び批判に、Claudeと人間の共著論文が3つの主要な欠陥を指摘
- AIが自らネットワーク管理者となり、安全な「アハ体験」を実現し、リスク率を9.6%削減
- 自律型エージェントの方向性は間違っている!華人学者がLLM-HASを提唱:「自律能力」から「協調知能」へ
- バークレーとスタンフォードが共同で「研究の預言者」を開発:研究アイデアの将来性を77%の精度で予測
- OpenAI最強の推論モデルo3-proが誕生!Gemini 2.5 Proを圧倒!
- Mianbi MiniCPM4:推論速度が3倍、同サイズのQwen3を圧倒、アリババも注目!
- スタンフォードNYU共同研究:AIと人間の思考様式における驚くべき発見 —— なぜ大規模モデルは「賢い」が「賢明」ではないのか?
- SFTもRLも不要、サンプルレベルの推論最適化ツール「SLOT」が登場、精度が楽々+10%向上
- LeCunが新たな証拠を提示!大規模モデルの思考と人間の思考には本質的な違いがある
- AIが7ヶ月で数学者の「包囲網」を突破し人類を凌駕!14人の数学者が原始推論トークンを深掘り:丸暗記ではなく直感に頼る
- エッジデバイスでの長文処理時代を切り開く!OpenBMBの新アーキテクチャでMiniCPMが最大220倍高速化
- 大規模モデル強化学習の新たなブレイクスルー — SPO新パラダイムが大モデルの推論能力向上を支援!
- AIヘッドライン:OpenAI Codexがインターネットアクセスを追加、Mistralがコーディングアシスタントをリリース
- SFT+RL二段階学習でLLMの自己教師あり学習を突破!人民大学DeepCriticがAI批評の自律進化を実現
- ZeroSearchに続き、通義の最新作MaskSearchが推論検索事前学習の新しいフレームワークを提案
- 大変だ!Appleが証明:DeepSeek、o3、Claudeなどの「推論」モデルには推論能力が全くない
- 世界のトップ数学者30名がAIを秘密裏に包囲し、その場で打ち破られる!「数学の天才に近い」と驚嘆
- 世界のトップ数学者が、AIの職務遂行能力に驚愕
- 初のマルチモーダル専用スローシンキングフレームワーク!GPT-o1を7ポイント近く上回り、強化学習がVLMに「熟考」を促す
- サム・アルトマン:CodexでAGIを感じた!最新の対談で次世代の「完璧なモデル」を珍しく示唆、エージェントが来年限界を突破すると大胆予測!
- 10行のコードでAIME24/25が15%向上!大規模モデル強化学習におけるエントロピーメカニズムの解明