分類: 大語言模型
- 橫掃數學榜的LLM,卻忘了如何聊天?CMU等揭示SFT與RL的驚人差異!
- 回顧Qwen3廢棄的混合推理模式
- 繼ZeroSearch之後,通義最新力作MaskSearch提出推論搜尋預訓練新框架
- 微軟等提出「模型鏈」新範式,與Transformer效能相當,擴展性與靈活性更佳
- 【深度學習】Mamba核心作者新發表:取代DeepSeek現行注意力機制,專為推論打造
- 長推理≠高精準度!自適應切換「即時回答」與「深度思考」:節省 Token 與提升精準度的雙贏哲學
- 打破思維鏈推理瓶頸!“軟推理”讓大模型學會人類抽象能力,token使用量還更少了
- 比Gemini Diffusion更全能!首個多模態擴散大語言模型MMaDA發布,同時實現強推理與高可控性
- DeepSeek精度效率雙提升,華為&信工所提出思維鏈「提前退出」機制
- 北大、清華、UvA、CMU等聯合發布:大模型邏輯推理能力最新綜述
- 微軟亞洲研究院 SYNTHLLM:為語言模型驗證合成數據的規模法則
- ChatGPT如何顛覆整個自然語言處理領域:一段口述歷史
- LLM 智能體為何表現欠佳?Google DeepMind 研究發現三大失敗模式,RL 微調可緩解
- 中興通訊研究:LLM自適應題目難度分級蒸餾,讓小模型也擁有「長鏈思考」能力