检索增强生成( RAG )是指对大型语言模型输出进行优化,使其能够在生成响应之前引用训练数据来源之外的权威知识库。大型语言模型( LLM )用海量数据进行训练,使用数十亿个参数为回答问题、翻译语言和完成句子等任务生成原始输出。在 LLM 本就强大的功能基础上,RAG 将其扩展为能访问特定领域或组织的内部知识库,所有这些都无需重新训练模型。这是一种经济高效地改进 LLM 输出的方法,让它在各种情境下都能保持相关性、准确性和实用性。
---来自 AWS
1 mdb 309 天前 前段时间试了下 maxkb ,感觉一般,不能进行全局性的总结,后面又试了下 lightrag ,但是一直没运行成功过,同问 |
![]() | 2 RRRoger 309 天前 ![]() bge-large-zh 做 embedding 模型 配合 bge-reranker-v2-m3 做 reranker 模型 weaviate 作为向量库 基于 dify 平台 目前感觉知识库的质量才是最关键的 |
![]() | 3 luchenwei9266 309 天前 ragflow |
4 Donaldo 309 天前 lightrag ,但本地模型太慢了。 |
![]() | 6 unco020511 309 天前 dify |
![]() | 7 npe 309 天前 dify 吧,比 maxkb 灵活 |
![]() | 8 dongdong12345 309 天前 |
9 pengxiaoyu 309 天前 dify |
![]() | 10 c466934322 309 天前 奇了怪了,大家怎么不推荐 fastgpt 了 |
11 mengyaoren 309 天前 dify |
![]() | 12 lower 309 天前 langchat |
13 GeruzoniAnsasu 309 天前 想问问楼上的推荐哪个能解决这个问题: RAG 只能 embed 知识库「内」的知识,但不能 embed 关于知识库「本身」的知识 嵌入 10 条 A 知识后 LLM 能查询 N(N<10) 条最接近 A 知识向量的内容,但无法回答「关于 A 的知识量有多少」 |
![]() | 14 zqqian 309 天前 RAG 效果还是不太好,AI 只能看见知识库里片面的数据,无法从一个全局的角度理解知识库中的知识 |
![]() | 15 FleetingSound 308 天前 privateGPT Milvus |
16 anyinlover 308 天前 @GeruzoniAnsasu 关于 A 的知识量有多少不是 RAG 要解决的问题,如果是公域知识直接问 LLM ,如果是私域知识就只能扩展知识库本身了。 |
![]() | 17 gitsuck 207 天前 @c466934322 开源知识库上限 30 ,用个 |
![]() | 18 svtter OP 我用 llamaindex ,感觉还不错。 |