Fine-tuning 大模型时如何训练思考过程 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
frankyzf
V2EX    OpenAI

Fine-tuning 大模型时如何训练思考过程

  •  
  •   frankyzf 2024-05-09 23:05:16 +08:00 1223 次点击
    这是一个创建于 597 天前的主题,其中的信息可能已经有所发展或是发生改变。

    如果希望训练大模型对特定内容的推理能力,应该如何做?现在用 alpaca 格式的数据集进行训练,看到只有 instruction 、input 和 output 这几个 column ,没有找到合适的字段填写思考过程。希望不吝赐教,先谢谢了。下面是一个例子:

    根据北京汽车限行尾号的规则来查找天限行尾号时多少,需要先根据用户问题中的日期找到相应时间段,再找到时间段内的限行尾号和周几的对应关系,最后根据这个日期时星期几来找到对应的限行尾号。

    4 条回复    2024-05-10 10:42:15 +08:00
    ywkk
        1
    ywkk  
       2024-05-10 10:17:07 +08:00   1
    这个需求更适合用 gpts 吧,写好脚本和 prompt 就好了。以 gpt4 的认知能力,这种任务完全不需要再训练,你就告诉它什么时候去什么网站查什么内容,举例给它里面的内容是什么意思,然后要求输出什么格式的文本,就可以了。
    Volekingsg
        2
    Volekingsg  
       2024-05-10 10:27:49 +08:00   1
    在 output 中给出详细推理过程的文本,or 其实可以先尝试分解问题为子步骤,然后再让 LLM 解决每个子问题
    frankyzf
        3
    frankyzf  
    OP
       2024-05-10 10:38:44 +08:00
    @ywkk 谢谢回答,只能本地部署,不能用 gpt-4 , 现在尝试用的 llama-3 8b ,感觉没足够的能力所以在 fine-tuning (上面只是一个例子,实际上是训练另外一种类似的推理能力)。
    frankyzf
        4
    frankyzf  
    OP
       2024-05-10 10:42:15 +08:00
    @Volekingsg 谢谢, 我尝试下分步骤。因为现在 output 有固定格式 JSON ,估计只能在 JSON 里加个类似`explain`的字段来写出详细的推理过程,不知道能不能学习到。
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     2664 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 27ms UTC 09:20 PVG 17:20 LAX 01:20 JFK 04:20
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86