剛剛!清華等聯手開源 UltraRAG 2.0!效能飆升12%

檢索增強生成系統(RAG)正從早期「檢索+生成」的簡單拼接,朝向融合自適應知識組織、多輪推理等複雜知識系統發展(例如 DeepResearch、Search-o1)。然而,複雜度的提升導致開發人員面臨高昂的工程實作成本。

為此,清華大學THUNLP實驗室、東北大學NEUIR實驗室、OpenBMB與 AI9Stars 聯合推出 UltraRAG 2.0,實現以極少程式碼快速打造多階段推理系統。

RAG 2.0 發展歷程

圖片

RAG 2.0 應用情境

  • 在醫療領域,RAG 2.0可以快速對病患的病歷紀錄、影像資料和自述資訊進行全面分析,並提供個人化的治療建議,從而減輕醫師的工作負擔,提高了診療的準確性與病患滿意度。

  • 在法律領域,透過整合法律法規、案例判例和專家意見,協助律師快速找到相關法律依據。此外,它還能夠生成高品質的法律文書,減少人為錯誤,提高法律服務的品質。

  • 在金融領域,能夠快速識別潛在的風險點,生成風險評估報告,並提供相應的風險管理建議。這既能提升銀行的風險管理水準,還能增強客戶信任度。

RAG 2.0 目前的挑戰

複雜推理任務效能有限

在多跳推理或複雜邏輯任務中,RAG 生成結果的準確性有待提升,例如處理需要綜合多篇文件資訊的問題時,容易出現資訊整合不足。

檢索品質與雜訊問題

依賴向量資料庫可能導致召回率和命中率偏低,無法精準檢索到相關文件;文件中的過時、不準確資訊可能誤導模型,導致生成內容出現偏差,降低可信度。

安全與隱私問題

RAG 需存取外部知識庫,涉及敏感資料時,如何確保資料的安全性和隱私性是重要的挑戰。

RAG 2.0 前沿論文推薦

1. From Local to Global: A GraphRAG Approach to Query-Focused Summarization

圖片

【要點】本文提出了一種基於圖的 RAG 方法,用於針對私人文本語料庫的問題回答,能夠擴展到使用者問題的廣泛性與被索引的資訊量,透過建構一個實體知識圖和生成社群摘要來回答使用者的問題。

【方法】本文使用了 LLM 建構了一個基於圖的文本索引,透過兩個階段:首先透過來源檔案衍生出實體知識圖,然後為所有密切相關的實體組預先生成社群摘要。當一個問題被提出時,每一個社群摘要被用來產生一個部分的回應,然後所有部分回應再被彙總在最終回應中交付給使用者。

【實驗】在 1 百萬個權杖範圍內資料集的某一類全域意義任務中,本文表明 Graph RAG 方法相對於素樸的 RAG 基線來說,在產生的答案的綜合性和多樣性方面都有重大的改善。

2. Deep and Faithful Large Language Model Reasoning with Knowledge-guided Retrieval Augmented Generation

圖片

【要點】本文提出了 Think-on-Graph 2.0,一種改進的檢索增強生成框架,透過與知識圖譜對齊並將其作為導航工具,深化和精煉了資訊收集和整合的 RAG 範式,提高了大型語言模型回應的準確性和可靠性,展示了混合結構化知識系統顯著推進 LLM 推理的潛力。

【方法】Think-on-Graph 2.0 框架透過知識圖譜引導的檢索,對齊問題並利用圖譜作為導航,增強了資訊檢索的深度和範圍,確保了邏輯一致性與語義相似性。

【實驗】作者在四個公共資料集上進行了大量實驗,結果顯示 Think-on-Graph 2.0 方法相較於基線方法具有優勢。

主標籤:檢索增強生成

次標籤:RAG 2.0知識系統人工智慧大型語言模型


上一篇:谷歌加入 CUA 戰場,發布 Gemini 2.5 Computer Use:讓 AI 直接操作瀏覽器

下一篇:遞迴推理HRM模型再進化!TRM兩層網路(7M參數)擊敗大型語言模型!

分享短網址