分類: 深度學習
- NAS新視角:圖神經網路驅動的通用架構空間,卷積與Transformer混合架構性能躍升!
- 癌症真的快被 AI 突破了嗎?Google 兩天內發布兩項重大進展
- NTU等聯合提出A-MemGuard:為AI記憶上鎖,毒害攻擊成功率暴降95%
- Mamba 架構登上頂級會議 ICLR 2026,AI 大腦核心 Transformer 的王座還能坐穩嗎?
- 遞迴推理HRM模型再進化!TRM兩層網路(7M參數)擊敗大型語言模型!
- 谷歌加入 CUA 戰場,發布 Gemini 2.5 Computer Use:讓 AI 直接操作瀏覽器
- 不微調,讓LLM推理準確率暴增到99%!試下DeepConf,一個輕量級推理框架|Meta最新
- 強化學習框架的演進與發展趨勢
- 谷歌開源 DeepPolisher,基因組組裝錯誤率減半,Jeff Dean:令人振奮!
- 凌晨時分,Qwen再次更新,RTX 3090 即可運行,30億參數激活可媲美 GPT-4o
- 分層推論模型 Hierarchical Reasoning Model
- 吳恩達推出大型語言模型(LLM)後訓練免費課程,涵蓋三大調優方法:SFT、DPO、RL
- 持續強化學習技術最新綜述
- 阿里巴巴深夜開源「王牌」Agent!硬槓OpenAI,性能全面超越SOTA!
- 本世紀最偉大AI專訪之一:AI安全、代理人、OpenAI等重要議題
- 大力出奇蹟失效了嗎?ModelSwitch 跳出取樣黑洞,改寫大型模型推論範式
- 爆肝一篇部落格就拿到 OpenAI Offer!Muon 作者怒揭:幾乎所有優化器論文都是「假的」
- 何愷明新作:為擴散模型加入正規化,無需預訓練與資料增強,超簡單實現效能提升
- 類R1訓練不再只看結果對錯!港中文推出SophiaVL-R1模型
- 10行程式碼,AIME24/25提升15%!揭密大型模型強化學習的熵機制
- 無需人工標註!AI自生成訓練資料,靠「演繹-歸納-溯因」解鎖推理能力
- 【深度學習】Mamba核心作者新發表:取代DeepSeek現行注意力機制,專為推論打造
- Andrej Karpathy 盛讚!史丹佛團隊新作,讓 Llama-1B 實現毫秒級推論
- All-In Podcast 實錄:Gemini 引領「無限上下文」,AI 正從工具躍升為認知協作者
- 阿里巴巴開源Qwen新模型,端午節禮物來囉!