分類: 大型語言模型
- GPT 越來越保守?史丹佛 Manning 團隊提出 Verbalized Sampling,讓模型重新「多想一點」
- Meta 發現:RAG 系統過慢是因為做了太多無用功
- NTU等聯合提出A-MemGuard:為AI記憶上鎖,毒害攻擊成功率暴降95%
- 首個多輪LLM路由器問世:Router-R1讓大型模型學會「思考–路由–聚合」
- 智能體長程搜尋的兩大痛點被解決了!中科院 DeepMiner 用 32k 跑近百輪,開源領先逼近閉源
- 捨棄微調!史丹佛聯合發表「智能體情境工程」(ACE),模型效能提升 10%、Token 成本降低 83%
- 谷歌揭密:多代理人(Multi-Agent)推論才是擴展的未來。
- 遞迴推理HRM模型再進化!TRM兩層網路(7M參數)擊敗大型語言模型!
- 剛剛!清華等聯手開源 UltraRAG 2.0!效能飆升12%
- 極其重要,文件智能中的LLMs:綜述、進展、和未來趨勢
- 先驗與後驗機制加持,大型模型能否應對推理預測中的現實「溢出」?
- 剛才,GPT-5首次通過「哥德爾測試」!破解三大數學猜想
- 中國團隊訓練出「脈衝大模型」,推理速度提升100倍
- 上交大與史丹佛提出「長程式碼壓縮神器」:暴力瘦身 5.6 倍且效能不減
- 「零和學習」理論橫空出世,揭示大型語言模型縮放定律的真相!
- 普林斯頓陳丹琦組新作:RLHF難支撐,RLVR有邊界?RLMT開闢第三條路
- Agentic Coding表現創新高,全新KAT系列模型強力稱霸SWE-Bench
- 首個程式碼世界模型引爆 AI 圈,賦能智慧體「真推理」,Meta 開源
- 破除大型語言模型強化學習訓練中的「熵」詛咒,讓模型學會穩定成長!
- 想越多,錯越多:CoT「深度思考」反成大型語言模型幻覺催化劑!
- 不微調,讓LLM推理準確率暴增到99%!試下DeepConf,一個輕量級推理框架|Meta最新
- 史丹佛提出新強化學習範式,讓3B模型智能體超越Claude、GPT-4
- 大型語言模型為何會產生幻覺?OpenAI 最新研究揭示了原因
- Anthropic 承認模型「降智」卻仍放任其偷懶?Claude Code 使用者信任正崩塌
- 史丹佛最新研究:最強LLM也搞不定前瞻程式碼!Gemini 2.5 Pro成功率不足40%