ai guide 2026年3月15日 LongRAG:用長上下文模型重新思考 RAG 的 Chunking 策略 傳統 RAG 把文件切成小 chunks 再檢索,但這造成資訊碎片化。LongRAG 利用 100K+ token 的長上下文模型,檢索更大的文件區段(整個章節甚至整份文件),減少碎片化同時保持檢索效率。 #rag#longrag#long-context#chunking#retrieval