有无用于输入法联想的本地(小)大模型 - V2EX
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
这是一个专门讨论 idea 的地方。

每个人的时间,资源是有限的,有的时候你或许能够想到很多 idea,但是由于现实的限制,却并不是所有的 idea 都能够成为现实。

那这个时候,不妨可以把那些 idea 分享出来,启发别人。
TrackBack
V2EX    奇思妙想

有无用于输入法联想的本地(小)大模型

  •  
  •   TrackBack 2024-09-25 10:40:36 +08:00 2922 次点击
    这是一个创建于 428 天前的主题,其中的信息可能已经有所发展或是发生改变。
    国内的输入法都是偷隐私大户,尤其是开了云联想输入一个字上传一个字
    现在用的 fcitx ,虽然干净也能导入词库但是没有联想很多时候还是得一个字一个字打
    但是这个根据前面的内容生成最可能的后面的内容的场景简直就是大模型的拿手好活啊,理论上这个场景下只需要很小的上下文输入/输出范围,模型可以裁剪到非常小,不需要多少性能也能跑

    所以有没有开源的项目在做这个方向的?
    20 条回复    2024-10-18 17:34:23 +08:00
    luckykong
        1
    luckykong  
       2024-09-25 11:10:26 +08:00
    难,需要区分不同软件,获取上下文,不容易做。
    要不然容易把 word 里的上文,用来预测微信里和妹子聊天,
    或者把跟女朋友调情的上文,用来预测跟上司的聊天,
    都挺可怕的
    4BVL25L90W260T9U
        2
    4BVL25L90W260T9U  
       2024-09-25 11:12:27 +08:00
    iOS 的就内置了 transformer 啊,去年还是前年的 WWDC 特地说了
    TrackBack
        3
    TrackBack  
    OP
       2024-09-25 11:36:28 +08:00
    @luckykong 这部分应该是输入法处理的,不过上下文倒也不用那么长吧,我只想快速联想一个词或者一句,不用一大段
    TrackBack
        4
    TrackBack  
    OP
       2024-09-25 11:37:25 +08:00
    @ospider ios 的我又没法拿出来自己用...
    4BVL25L90W260T9U
        5
    4BVL25L90W260T9U  
       2024-09-25 11:41:58 +08:00   1
    @TrackBack #4 至少证明了这个方向是可行的,你的想法不是空想
    liangdi
        6
    liangdi  
       2024-09-25 11:50:03 +08:00
    这个想法我也想过,不过用了各种模型的补全功能后,目前阶段可能存在不太好调和的平衡点:
    即速度和效果的平衡。
    小模型效果不好,大模型速度慢,输入是需要非常快速的联想的,对比程序员的代码补全,模型的联想时间稍微长一点还能接受,但是输入就不一定能接受了, 不然产品就变成了另外的形态:输入后等待补全,选择继续...
    rbw
        7
    rbw  
       2024-09-25 12:48:01 +08:00
    可以反向操作,学形码(比如五笔、虎码),打字也还是一个一个字打,但不用去看候选框。这样不会出现隐私和候选不合适的问题。
    1yndonn3u
        8
    1yndonn3u  
       2024-09-25 13:34:56 +08:00
    有相同需求,持续关注
    xfxz
        9
    xfxz  
       2024-09-25 13:41:00 +08:00
    @liangdi 有没有可能先用模型跑出最常用的一些词的词频,形成固定搭配;再内置一个 mini 模型来解决实时联想的问题。
    em998
        10
    em998  
       2024-09-25 13:46:46 +08:00
    手机这么搞会不会比较耗电
    newdongyuwei
        11
    newdongyuwei  
       2024-09-25 13:52:15 +08:00   2
    这个我测试过,最好用的是 berth 模型,响应时间快,资源消耗小。不太长的短句输入足够了。

    开源的可以参考 https://github.com/renatoviolin/next_word_prediction ,下载模型需要可以翻墙,或者设置 HF_ENDPOINT=https://hf-mirror.com 使用国内镜像。

    英文的使用 bert-base-uncased 模型,中文使用 bert-base-chinese 模型比较好。我之前在阿里云上部署测试过,网络延迟 200ms 左右,本地部署的话 50ms 左右延迟(当然我本机是 M3 Max ,计算性能高很多)。
    newdongyuwei
        12
    newdongyuwei  
       2024-09-25 13:53:41 +08:00
    我之前给网友定制 iOS 输入法使用过上面提到的 bert 模型。
    R4rvZ6agNVWr56V0
        13
    R4rvZ6agNVWr56V0  
       2024-09-25 17:12:09 +08:00
    我觉得最简单的就是部署 Phi-3 这类的小模型, 不过如果是跨终端使用的话,还是要自己建立一个推理服务,实现相关的 API 和输入法对接程序
    Coelacanthus
        14
    Coelacanthus  
       2024-09-25 17:43:37 +08:00
    fcitx5 好几年前就有基于 3-gram 的联想了,然后也有人在做基于 LLM 的
    cheetah
        15
    cheetah  
       2024-09-25 19:56:00 +08:00
    试试 Chrome 内置的 Gemini 小模型呢
    stucom
        16
    stucom  
       2024-09-25 20:45:26 +08:00
    想法很好,我目前所在的部门就是做输入法
    TrackBack
        17
    TrackBack  
    OP
       2024-09-26 00:59:55 +08:00
    @Coelacanthus 有没有相关的链接,浅搜了一下没搜到
    TrackBack
        18
    TrackBack  
    OP
       2024-09-26 01:01:15 +08:00
    @newdongyuwei 感谢!这个看着挺靠谱,至少有个实例了
    Coelacanthus
        19
    Coelacanthus  
       2024-09-26 01:10:34 +08:00
    @TrackBack 前者 fcitx5-chinese-addons 装好就有(注意是 fcitx5 不是 4 ),后者的话是在 fcitx5 android 的群里
    kevan
        20
    kevan  
       2024-10-18 17:34:23 +08:00
    用 B 站的 index-B ,4BIT 1GB 版本,很快。
    关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     4480 人在线   最高记录 6679       Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 33ms UTC 01:06 PVG 09:06 LAX 17:06 JFK 20:06
    Do have faith in what you're doing.
    ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86