AINews
  • 最新文章
  • 所有文章
  • 繁體中文

    分類: 思維鏈

    • 想越多,錯越多:CoT「深度思考」反成大型語言模型幻覺催化劑!
    • 超越人類標註,Meta 提出 CoT-Self-Instruct:如何用「推理式自進化」重塑大型語言模型訓練
    • Bengio親自戳破CoT神話!大型語言模型推論是假象,25%頂尖會議論文遭打臉
    • 北京大學校友翁荔最新部落格:Why We Think
    • 打破思維鏈推理瓶頸!“軟推理”讓大模型學會人類抽象能力,token使用量還更少了
    • AI是否知道什麼時候該"思考"?Thinkless教會大模型何時該動腦筋
    • Reasoning 新突破:SoftCoT++ 如何讓 LLM「多想幾條路」?
    • 首個AI思維百科全書誕生,模型推理不再是黑箱
    • 螞蟻武威:下一代「推理」模型範式大猜想
    • DeepSeek精度效率雙提升,華為&信工所提出思維鏈「提前退出」機制
    • 強迫模型自我爭論,遞歸思考版CoT熱度飆升!網友:這不就是大多數推理模型的套路嗎?
    • 中興通訊無線研究院「大模型深潛團隊」發布 LLM 自適應題目難度蒸餾方法,大幅提升小模型推理能力
    • 中興通訊研究:LLM自適應題目難度分級蒸餾,讓小模型也擁有「長鏈思考」能力
    • 基於強化學習的多模態大語言模型推理能力研究綜述
    • 新書《Reasoning From Scratch》第一章釋出,Sebastian Raschka 談 LLM 推理、模式匹配和基礎訓練
    • ←
    • 1
    • →
    2025 AINews. All rights reserved.