傳統 RAG 與 Agentic RAG 對比
在人工智能快速發展的當下,大語言模型(LLM)技術取得了顯著進步,但也面臨諸多挑戰。檢索增強生成(RAG)技術應運而生,爲提升語言模型性能提供了新途徑。不過,傳統 RAG 存在一定侷限,而 Agentic RAG 則試圖突破這些瓶頸,帶來更強大的功能體驗。本文將探究二者的差異。
1. 傳統 RAG 的困境
傳統 RAG 的工作流程主要包括:先將文檔進行編碼,通過嵌入模型轉化爲向量形式存儲在數據庫中。當接收到用戶查詢時,對查詢進行編碼,然後在數據庫中進行相似度搜索,找到最相似的文檔,將其作爲上下文信息與查詢一起構建提示(Prompt),最後輸入到 LLM 中生成回答。看似流暢的流程,卻隱藏着不少問題。
-
單次檢索生成的侷限:傳統 RAG 僅進行一次檢索和生成。在實際應用中,如果初始檢索到的上下文信息不足,它無法根據需求動態搜索更多信息。比如,當用戶詢問一個涉及多領域交叉的複雜問題時,一次檢索獲取的內容可能只是問題的冰山一角,難以全面準確地回答問題。
-
推理能力短板:面對複雜查詢,傳統 RAG 在推理方面顯得力不從心。像一些需要邏輯推導、多步分析的問題,它無法像人類一樣進行深入思考和推理,只能簡單地匹配和組合已有信息,導致回答質量不高。
-
缺乏策略調整能力:傳統 RAG 系統缺乏自適應能力,無論面對何種問題,都採用固定的處理方式,無法根據問題的類型、複雜程度等因素靈活調整策略,難以滿足多樣化的用戶需求。
2. Agentic RAG 的創新突破
Agentic RAG 旨在解決傳統 RAG 的上述問題,其核心思想是在 RAG 的各個階段引入智能化(Agentic)行爲,通過智能代理(LLM Agent)來優化整個流程。下面結合其具體步驟來深入瞭解:
-
查詢重寫優化(第 1 - 2 步):當用戶查詢輸入後,智能代理首先對初始查詢進行重寫。這一過程不僅可以糾正拼寫錯誤,還能對模糊、歧義的表述進行澄清,將用戶的意圖轉化爲更精準的查詢語句,爲後續獲取更準確的信息奠定基礎。例如,用戶輸入 “蘋果的最新產品有哪些”,智能代理可能會將其重寫爲 “蘋果公司 2024 年發佈的最新產品有哪些”,明確了時間範圍和主體,提高查詢的準確性。
-
上下文信息智能判斷(第 3 - 8 步):重寫後的查詢進入判斷環節,智能代理會評估是否需要更多上下文信息。若判斷不需要,重寫後的查詢會直接發送給 LLM。如果需要,代理會從多種外部來源(如數據庫向量、工具和 API、互聯網等)中尋找最佳的上下文信息,並傳遞給 LLM。比如,當用戶詢問 “如何製作低糖蛋糕” 時,代理會從專業的美食數據庫、烹飪工具 API 或互聯網上的美食論壇中獲取相關的低糖蛋糕製作配方、技巧等信息,補充豐富的上下文,幫助 LLM 生成更優質的回答。
-
響應生成與檢查(第 9 - 12 步):LLM 根據接收到的查詢和上下文信息生成回答後,智能代理會對答案進行檢查,判斷其是否與問題相關。如果答案相關,就直接返回給用戶;若不相關,則返回第一步重新開始整個流程。這一循環會多次執行,直到得到合適的回答,或者系統判斷無法回答該查詢。通過不斷的反饋和優化,確保回答與用戶問題高度契合,提升回答的準確性和相關性。
3. Agentic RAG 的優勢與應用前景
相比傳統 RAG,Agentic RAG 通過引入智能代理,在處理複雜任務和多樣化需求時表現得更加健壯和靈活。它能夠根據問題動態調整策略,不斷優化回答,爲用戶提供更滿意的服務。
在實際應用中,無論是智能客服領域,幫助客服快速準確地回答用戶複雜問題;還是在智能寫作輔助場景,爲創作者提供豐富的素材和精準的建議;亦或是在教育領域,實現個性化的智能輔導,Agentic RAG 都有着巨大的潛力,有望成爲推動人工智能應用進一步發展的重要力量。
需要注意的是,文中展示的 Agentic RAG 架構只是衆多架構中的一種,在不同的使用場景下,開發者可以根據實際需求對其進行靈活調整和適配,以發揮出最大的效能。
本文由 Readfog 進行 AMP 轉碼,版權歸原作者所有。
來源:https://mp.weixin.qq.com/s/89SDdhygxOG--zRITDW_CA