分類: 人工智慧
- 最近,《紐約客》有篇文章,標題很嚇人:人工智慧會將你困在「永久底層階級」嗎?
- 成本不到8千美元!新浪微博1.5B小模型超越近萬億參數模型
- 讓LLM像公司一樣幹活:微軟把「思維併發」做成了協議,準確率更高、關鍵路徑時延降28%
- 讓CoT隨環境「演化」,AgileThinker實現「邊想邊做」|清華最新
- AI秒解18世紀「天書」帳本!Google新模型盲測引爆全網
- 強化學習+大模型記憶:Mem-α,讓智能體第一次學會「如何記憶」
- 上海交大博士最新思辨:僅用兩個問題闡明強化學習
- 陳天橋在AIAS會議上提出:發現式AI而非生成式AI才是通用人工智慧(AGI)的標準
- Meta 發現:RAG 系統過慢是因為做了太多無用功
- 癌症真的快被 AI 突破了嗎?Google 兩天內發布兩項重大進展
- 錯越多學越快!「軌跡重寫」技術讓 AI 智能體從失敗中創造完美經驗!
- NTU等聯合提出A-MemGuard:為AI記憶上鎖,毒害攻擊成功率暴降95%
- OpenAI共同創辦人罕見曝光公司「痛苦與困境」:我們正走向運算稀缺世界!內部GPU分配如玩俄羅斯方塊,Sora 2實為被弱化的原始模型
- 遞迴推理HRM模型再進化!TRM兩層網路(7M參數)擊敗大型語言模型!
- 剛剛!清華等聯手開源 UltraRAG 2.0!效能飆升12%
- 剛才,GPT-5首次通過「哥德爾測試」!破解三大數學猜想
- 中國團隊訓練出「脈衝大模型」,推理速度提升100倍
- 首個程式碼世界模型引爆 AI 圈,賦能智慧體「真推理」,Meta 開源
- 破除大型語言模型強化學習訓練中的「熵」詛咒,讓模型學會穩定成長!
- 大型語言模型為何會產生幻覺?OpenAI 最新研究揭示了原因
- Anthropic 承認模型「降智」卻仍放任其偷懶?Claude Code 使用者信任正崩塌
- DeepSeek、GPT-5都在嘗試的快慢思考切換,有了更智慧版本,還是多模態
- 史丹佛最新研究:最強LLM也搞不定前瞻程式碼!Gemini 2.5 Pro成功率不足40%
- 微軟提出rStar2-Agent:「更聰明地思考」遠比單純地「更長時間地思考」更有效率、更高效
- 【大師之思】Martin Fowler 的 AI 隨筆:我們正處在一個連「問題」都看不清的時代