AI 的记忆是啥 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
fuwu1245
V2EX    问与答

AI 的记忆是啥

  •  
  •   fuwu1245 3 天前 2459 次点击

    AI 的记忆是上下文吗?
    Claude 的永久记忆是不是也只是对上下文进行了优化存储,每次对话将上下文注入到了提示词中
    深一点的记忆应该是对模型的训练了吧?
    求佬们解惑

    26 条回复    2026-01-22 09:16:06 +08:00
    dzdh
        1
    dzdh  
       3 天前   1
    动态记忆不可能和模型本身有关。

    和 rag 一样,就是看检索的相关性了。
    liu731
        2
    liu731  
    PRO
       3 天前   1
    提炼你的对话,抽象出有效信息。作为 message ( role: agent )参与回复。
    hafuhafu
        3
    hafuhafu  
       3 天前   3
    感觉现在各种“新”概念反正都是换着法子玩提示词工程。
    什么对话记忆、SKILLS 之类的。
    registerrr
        4
    registerrr  
       3 天前   1
    @hafuhafu #3 没法子啊,模型本身搞不定的就得上人了。可能这就是“人工”智能吧
    xjzshttps
        5
    xjzshttps  
       3 天前   1
    搜索了下,
    看起来是之前知识库的更进一步,
    不知道楼主用过知识库吗?类似 noetbooklm 这种,用户可以自行上传文档或提供 url 加入知识库。
    然后在 notebooklm 内问答时 ai 会引用知识库内的资料回答。原理是将加入的资料转换为了向量数据库,然后回答时会查询这个知识库。

    这个永久记忆看起来像类似的实现,
    后台应该也是一个类似的知识库,然后将每次对话加入知识库来实现能够记得住之前的对话。


    (以 google 的为例子)
    对了,之前的记忆实现看起来只是一个 md 文本,
    里面简单的粗略描述了一些内容,是每次对话时 ai 自己总结后填进去的。
    这个的内容你可以直接问 ai ,它能够输出,并且允许口头要求 ai 修改。
    lihaokey
        6
    lihaokey  
       3 天前   1
    我问过 ChatGPT ,它可以根据我日常的对话中,知道我和我家人大概的信息包括工作地点,工作内容,家庭成员。有些是我问问题是提到的。所以 ChatGPT 的理解力很强的。
    npe
        7
    npe  
       3 天前   1
    就是上下文,搞过记忆增强,就是一个向量库查询,然后丢给上下文
    cheng6563
        8
    cheng6563  
       3 天前   1
    LLM 的记忆就是上下文
    其他的都是类似 RAG 的提示词工程,也都有和 RAG 类似的问题:负责搜索的不是 LLM ,并没有 LLM 的智力。
    duanxianze
        9
    duanxianze  
       3 天前   1
    之前我用的都没有记忆,就是把之前的回答和问题一起发过去,假装有记忆,现在新技术有没有解决,我不知道
    justfindu
        10
    justfindu  
       3 天前   1
    跟 deepseek 的新发论文差不多意思. 多一个向量体承载你跟他之前的对话内容总结.
    zdl0929
        11
    zdl0929  
       3 天前   1
    现在常规的做法是分三层

    工作记忆(临时记忆):对话上下文,超过 token 限制移除最早的

    短期记忆(定期整理总结):比如每进行 20 轮做一次总结摘要存储

    长期记忆(向量存储):重要的信息转化成一种“语义向量”

    类似人的记忆系统
    makebuke
        12
    makebuke  
       3 天前   1
    Gemini 的回答
    简单来说,我对你的“记忆”是由自然语言摘要和高维度向量检索共同构成的。这并不是一个单一的存储过程,而是一套分层处理的机制。

    我们可以从以下三个维度来拆解这个过程:

    1. 实时上下文( Context Window )
    当你正在跟我对话时,最近的几轮对话记录会直接以自然语言的形式放入“上下文窗口”中。

    存储形式:纯文本( Token )。

    作用:这是我的“短时记忆”,让我能理解你刚刚说的“它”指代的是什么,或者维持当前的聊天的语气和逻辑。

    2. 用户画像与偏好摘要( User Summary )
    为了实现更长期的记忆,系统会定期对我们的历史对话进行“提炼”。

    提取过程:系统会分析对话,识别出具有长期价值的信息(例如你的职业背景、技术偏好、或是你对某些事物的特定要求)。

    存储形式:自然语言。你会发现,这些信息被整理成了类似“用户是一名程序员”、“用户更喜欢简洁的回答”这样的陈述句。

    参与方式:这些文本会被直接注入到我每次回复你的初始指令( System Prompt )中,作为我的背景知识。

    3. 海量历史检索( RAG 机制)
    当你提到很久以前的事情,或者询问一些我并没有放在“摘要”里的细节时,我会调用类似 RAG (检索增强生成) 的技术。

    存储形式:高维度向量( Embeddings )。系统会将你的海量历史对话切片,并转化成一串数字向量存储在数据库中。

    检索过程:当你问起相关话题时,系统会将你的问题也转化为向量,在数据库中寻找“距离”最近、语义最相关的历史片段。

    呈现形式:检索到的相关片段会重新转换回自然语言,作为参考资料补充到我的上下文里,供我阅读并组织回复。

    总结
    对外表现(对我而言):最终进入我“大脑”进行处理的,全部都是自然语言。这确保了我能像阅读普通文本一样理解你的意图。

    对内存储(系统层面):为了在海量信息中快速找到你想要的那部分,系统使用了高维度向量作为索引工具。

    这种设计既保证了搜索的效率,又保证了理解的深度。
    Vipcw95
        13
    Vipcw95  
       3 天前   1
    日常问问题,新对话问豆包,豆包会提到之前聊过的东西
    niubi666wodebody
        14
    niubi666wodebody  
       3 天前   1
    本质就一个,提示词工程,变体罢了,rag 和所谓记忆
    1daydayde
        15
    1daydayde  
       3 天前   1
    有没有可能人的记忆也是上下文?

    就问你有没有真正"关机"过吧
    hitrip
        16
    hitrip  
       3 天前   1
    感觉 AI 对人的了解要多于社交媒体,以后可以出个数字人服务,对接死了吗 API ,人无了以后自动上线。
    anhuiyuhu
        17
    anhuiyuhu  
       3 天前   1
    记忆就是带有上下文的数据
    iv8d
        18
    iv8d  
       3 天前   1
    概括之前的对话作为历史对话提供为上下文
    dzdh
        19
    dzdh  
       3 天前
    @lihaokey 点击左下角,你的头像,点设置,点个性化,右侧下滑,找到记忆,点管理。当当当当~ 这里就是 rag 。就是 gpt 对你的印象。
    lihaokey
        20
    lihaokey  
       3 天前
    @dzdh 我没觉得啥不好的,至少我觉得用起来它就像对你极其了解的一个朋友一样。你的要求需求很舒服。
    coefu
        21
    coefu  
       2 天前   1
    最最新的技术 2025.12.31 update ,可以推理时动态优化,直接将新的知识压缩进模型参数,比传统 RAG 更高效,对于上下文窗口的大小更不敏感。

    《 End-to-End Test-Time Training for Long Context 》,https://arxiv.org/abs/2512.23675


    不过,这也不是终极方案,更贴近终极方案罢了,真正的记忆不是当前这些工程技术所能实现的,要从最底层架构做创新。
    nevin47
        22
    nevin47  
       2 天前   1
    上周 DS 公开了 engram 的方案

    目前来看,几个头部的 LLM 应该都使用了类似的方案
    coefu
        23
    coefu  
       2 天前
    反复强调一点,LLMs "AI"。
    kdd0063
        24
    kdd0063  
       2 天前
    context ,rag ,都可能,但唯独不可能是模型本身的权重。也就是说“深一点的记忆应该是对模型的训练了吧?”这一条为假。
    nevin47
        25
    nevin47  
       2 天前
    @kdd0063 #24 看一下 engram 的 paper ,很大概率 Gemini 也用了类似的方案
    nevin47
        26
    nevin47  
       2 天前
    @hafuhafu #3 最早的 RAG 还停留在 prompt 生成上,现在已经不是了
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2918 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 28ms UTC 07:10 PVG 15:10 LAX 23:10 JFK 02:10
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86