分類: 人工智慧
- Meta 發現:RAG 系統過慢是因為做了太多無用功
- 癌症真的快被 AI 突破了嗎?Google 兩天內發布兩項重大進展
- 錯越多學越快!「軌跡重寫」技術讓 AI 智能體從失敗中創造完美經驗!
- NTU等聯合提出A-MemGuard:為AI記憶上鎖,毒害攻擊成功率暴降95%
- OpenAI共同創辦人罕見曝光公司「痛苦與困境」:我們正走向運算稀缺世界!內部GPU分配如玩俄羅斯方塊,Sora 2實為被弱化的原始模型
- 遞迴推理HRM模型再進化!TRM兩層網路(7M參數)擊敗大型語言模型!
- 剛剛!清華等聯手開源 UltraRAG 2.0!效能飆升12%
- 剛才,GPT-5首次通過「哥德爾測試」!破解三大數學猜想
- 中國團隊訓練出「脈衝大模型」,推理速度提升100倍
- 首個程式碼世界模型引爆 AI 圈,賦能智慧體「真推理」,Meta 開源
- 破除大型語言模型強化學習訓練中的「熵」詛咒,讓模型學會穩定成長!
- 大型語言模型為何會產生幻覺?OpenAI 最新研究揭示了原因
- Anthropic 承認模型「降智」卻仍放任其偷懶?Claude Code 使用者信任正崩塌
- DeepSeek、GPT-5都在嘗試的快慢思考切換,有了更智慧版本,還是多模態
- 史丹佛最新研究:最強LLM也搞不定前瞻程式碼!Gemini 2.5 Pro成功率不足40%
- 微軟提出rStar2-Agent:「更聰明地思考」遠比單純地「更長時間地思考」更有效率、更高效
- 【大師之思】Martin Fowler 的 AI 隨筆:我們正處在一個連「問題」都看不清的時代
- MCP堆疊工具是個大坑!開發者大佬:命令列的「脆弱」讓AI慘敗!不如砍掉變成一個程式碼執行器:7輪呼叫秒變1輪!網友:早該放棄黑箱工具了!
- 橫掃數學榜的LLM,卻忘了如何聊天?CMU等揭示SFT與RL的驚人差異!
- 獎勵模型新革命!SWIFT不讀文本讀「心聲」,打造又快又強又省錢的AI裁判
- GPT-5 等於擴展法則失靈?畢樹超:永遠有效,因為它反映的是資料結構,是客觀規律
- 奧特曼驚人預言:GPT-8將於2035年治癒癌症!人類或為算力爆發引發第三次世界大戰
- 史上最大高品質科學推理後訓練資料集開源,快速讓Qwen3等變「科學家」
- 谷歌開源 DeepPolisher,基因組組裝錯誤率減半,Jeff Dean:令人振奮!
- AI 修復錯誤新 SOTA:SWE-Bench Lite 修正率達 60.33%,能像人一樣累積經驗,中科院軟體所出品