分類: 大型語言模型
- 論文淺嘗 | 利用條件陳述激發並提升大型語言模型的因果推理能力(CL2025)
- 成本不到8千美元!新浪微博1.5B小模型超越近萬億參數模型
- 強化學習(RL)記憶更牢固,監督微調(SFT)更容易遺忘?普林斯頓陳丹琦團隊改寫後訓練認知
- 讓LLM像公司一樣幹活:微軟把「思維併發」做成了協議,準確率更高、關鍵路徑時延降28%
- AI教母李飛飛萬字長文引爆矽谷!大型語言模型路線錯了,空間智慧才是走向AGI的唯一路徑
- Meta 這兩篇最新的智能體學習 (Agent Learning) 論文,有些意思!
- 免疫式提示:讓大型語言模型在訓練時「學壞」,測試時更聽話
- GPT 越來越保守?史丹佛 Manning 團隊提出 Verbalized Sampling,讓模型重新「多想一點」
- Meta 發現:RAG 系統過慢是因為做了太多無用功
- NTU等聯合提出A-MemGuard:為AI記憶上鎖,毒害攻擊成功率暴降95%
- 首個多輪LLM路由器問世:Router-R1讓大型模型學會「思考–路由–聚合」
- 智能體長程搜尋的兩大痛點被解決了!中科院 DeepMiner 用 32k 跑近百輪,開源領先逼近閉源
- 捨棄微調!史丹佛聯合發表「智能體情境工程」(ACE),模型效能提升 10%、Token 成本降低 83%
- 谷歌揭密:多代理人(Multi-Agent)推論才是擴展的未來。
- 遞迴推理HRM模型再進化!TRM兩層網路(7M參數)擊敗大型語言模型!
- 剛剛!清華等聯手開源 UltraRAG 2.0!效能飆升12%
- 極其重要,文件智能中的LLMs:綜述、進展、和未來趨勢
- 先驗與後驗機制加持,大型模型能否應對推理預測中的現實「溢出」?
- 剛才,GPT-5首次通過「哥德爾測試」!破解三大數學猜想
- 中國團隊訓練出「脈衝大模型」,推理速度提升100倍
- 上交大與史丹佛提出「長程式碼壓縮神器」:暴力瘦身 5.6 倍且效能不減
- 「零和學習」理論橫空出世,揭示大型語言模型縮放定律的真相!
- 普林斯頓陳丹琦組新作:RLHF難支撐,RLVR有邊界?RLMT開闢第三條路
- Agentic Coding表現創新高,全新KAT系列模型強力稱霸SWE-Bench
- 首個程式碼世界模型引爆 AI 圈,賦能智慧體「真推理」,Meta 開源