![]() | 1 litchinn 272 天前 ![]() 我发现之前就 star 过了,是不是上过 trending ,居然是本站大佬的作品,厉害 |
2 guotie 272 天前 ![]() 巨佬 |
![]() | 4 MoGeJiEr 272 天前 ![]() 相当 |
5 zhixiao 272 天前 请教一下,是不是必须配合 server 使用,如果我只想使用 tabby vscode 插件+deepseek api 行不行呢?刚刚配置失败了 |
![]() | 6 ikw OP @zhixiao 必须要配合 Server 使用的,Server 在 LLM API 之外会做很多事情,就像读取文档,代码库,然后根据这些信息,再给你补全和生成代码。 配合 Server 也不复杂,目前 release 里就是两个二进制文件,放到 PATH 下的目录里就好,很容易就能跑起来 |
![]() | 8 ikw OP @zhixiao #7 Copilot 确实是强劲的对手,我们算是互有优势吧,一直在争取有一天能说我们比 Copilot 强 deepseek 的话,主要说的是模型吧?我们本身也是可以用 deepseek 的模型的 |
![]() | 9 cloudzhou 272 天前 我之前甚至考虑过一种实现,就是配合麦克风、当前页面: 当我按某个快捷键,说明开始和 ai 交互,开始语言输入,然后说出指令,就自动提示代码 考虑到编程很多是繁琐的细节,这一块能完成,效率简直 x3 |
![]() | 10 yh7gdiaYW 272 天前 ![]() 话说为啥要取名 tabby ,已经有一个 6 万 star 的 tabby 了,搜索时结果混淆在一起有点蛋疼 |
![]() | 11 |
![]() | 12 cloudzhou 272 天前 @q1102389095 也别这么说,也可以说技术人员更高阶了,hhh |
![]() | 13 4UyQY0ETgHMs77X8 272 天前 @cloudzhou 我说的是有了这个以后技术部从原本敲代码方式转变成叨叨叨了,这样降噪等问题以及说错话还有方言、感冒带鼻音等都要处理,前段时间我感冒了说的很多东西不准确,我的智能家居开始已读乱回 |
![]() | 14 cloudzhou 272 天前 @q1102389095 我自己用了 wx ,感觉准确率可以,对于编程来说,术语、特定语言在一个小范围,理论上更加精准才对,并且,局部的不精准,不影响全局的理解。 如果那一天编程到了这一步,编程的方式都有些变化了 |
![]() | 17 cloudzhou 272 天前 ![]() @tars13344 如果都用语音识别,确实有些傻瓜瓜,但是考虑到语音识别的准确性、快速响应进步,在一些场景确实可以的,我不大使用 AI 一个原因是,有时候打了一大段字描述一个问题,来回的时候(各种微调)我都可以自己写代码了 |
![]() | 18 magzza &nsp; 272 天前 第一眼以为是终端软件 tabby 。 |
![]() | 19 ikw OP @cloudzhou #9 抛开语音识别,并且把当前页面限制到 VSCode ,目前的实现其实就是类似的效果,当然,一些更好的体验其实也受限于当前 LLM 的能力,实际做下来体验不如预期,还得等 LLM 再进化 |
![]() | 21 1016 272 天前 我之前在 vs code 里面使用过 tabby ,我也不知道啥原因感觉不太“聪明”的样子。后来我就没用了。 现在才知道要配置一些东西才好用.... |
![]() | 22 nagisaushio 272 天前 via Android @cloudzhou 什么 tnt |
![]() | 23 SilenceLL 272 天前 同感,看成终端软件了,以为终端里面加了 ai 。 |
![]() | 24 Q81vlT1d47v4fq42 272 天前 能部署到 NAS 么 |
![]() | 25 yh7gdiaYW 272 天前 @zwpaper 但 google 的搜索结果官网是"Tabby - Opensource, self-hosted AI coding assistant",Github 的仓库也是"tabby",如 23 楼所说真的很容易以为是 tabby 加了 ai |
26 hujnnn 272 天前 之前就 Star 了, 好奇的是付费用户多么? 头保命 |
27 QlanQ 272 天前 以前就试过,感觉本地部署还是很占资源的,Mac 用不起 |
![]() | 29 liuliuliuliu PRO 有没有和其他助手的对比? |
30 xfn 272 天前 感觉 continue 比较像,和 continue 相比有什么优势么? |
31 crackidz 272 天前 之前看到了,确实挺不错的 |
![]() | 32 FightPig 272 天前 之前才看过,没想到作者居然在 v2 |
![]() | 34 ikw OP ![]() @FcukYouTony 肯定是可以的,但是 NAS 的话,一般得用远端的 API 了,或者 NAS 本身能力比较强大也是可以的,毕竟还是依赖 LLM 的能力 |
![]() | 36 ikw OP @liuliuliuliu @xfn 我们目前没有对比的文章,但是从个人体验上说,Tabby 会获取更多的上下文,包括编辑器里能获取的,还有 Server Side 保存的,在 Chat 或者补全的时候都会有更高的命中率 |
![]() | 39 xdeng 272 天前 要英伟达的显卡? |
40 Echoleung 272 天前 via Android 本地无显卡,怎么使用现有模型 api 作为远端服务呢?有教程吗,windows 的? |
41 jonsmith 272 天前 star 了,等有显卡了试试 |
![]() | 42 Liftman 272 天前 ![]() 挺好的,适合我们自建。我之前还在烦呢。因为 cursor 跑 ollama 比较麻烦,每个人都配置一下也挺烦,而且 cursor 也不是每个人都首选。 这个就不错。 |
![]() | 43 TimPeake 272 天前 按教程 docker 部署完毕, http://localhost:8080 或者指定其他端口,无法打开 ,什么情况 |
![]() | 44 ikw OP @xdeng @Echoleung @jonsmith 本地有显卡是最好的,可以本地跑模型,尤其对于企业来说,数据还很重要的。 没有显卡的情况下,Tabby 也支持使用远端的模型 API ,针对不同的厂商,我们也都有对应的文档,可以参考一下,例如最近很火的 Deepseek V3 和 Deepseek Coder 都可以通过 Deepseek 的 API 运行: https://tabby.tabbyml.com/docs/references/models-http-api/deepseek/ |
![]() | 45 ikw OP @TimPeake 得看一下具体的日志和报错,之前碰到过的 docker 绑了 IPv6 ,还碰到过 localhost 解析异常,或者 GPU 异常,之类的问题 或者各位有条件的话,可以加一下我们的 Slack ,我们可以更好的当好客服工作,哈哈 https://links.tabbyml.com/join-slack-landing |
46 a174871 272 天前 如果可以先用 Gemini 体验一下就好了,刚刚看了下文档似乎没提到 Gemini |
49 a132811 272 天前 允许将整个本地项目代码加入上下文吗?或者指定本地的几个目录的代码作为上下文 |
![]() | 50 TimPeake 272 天前 @zwpaper #45 可能我电脑性能不太行,200 秒左右启动成功, 刷新可以打开了。安装了 cuda toolkit, 试了下 tab 补全的时候 3050 显卡瞬间飙升到 70%+使用率 |
51 Alias2023 272 天前 能本地部署了,这个怎么还需要订阅 |
![]() | 52 JZen 272 天前 ![]() 牛逼,先点 Star ,等会部署玩玩 |
![]() | 53 looplj 272 天前 很早就看到了,没想到是国内厂商,支持。 |
![]() | 55 ikw OP @Rrrrrr "我们的 API" 就是指的本地运行的这个 Server API ,公司不让上网指的应该是不让上互联网吧,公司内网部署 Tabby ,然后内部都访问这个 API 就行 |
![]() | 58 ikw OP @ZSeptember 哈哈,互联网时代,主要还是看产品 |
60 jlak 272 天前 via iPhone 这种是不是很吃 token |
![]() | 61 abeholder 272 天前 只能使用本地的模型吗 ,能接其他 LLM 的 API 么? |
62 cyhulk 272 天前 膜拜,先 star |
![]() | 64 abbottkhan399 272 天前 厉害,点个 star 部署试试 |
![]() | 65 ScjMitsui 272 天前 ![]() 厉害的!我同学是你们中一员,在朋友圈宣传过几次 |
66 Remember 272 天前 你这跟哪个 ssh 客户端重名了呀,我吓一跳,以为那作者说中文了。 |
67 a174871 271 天前 @zwpaper #47 感谢回复,您提到 Gemini 只有 chat 模型,是因为 tabby 还需要其他模型吗 比如 Embedding ?我印象中 Google 的 AI studio 中提供的 API 和 OpenAI 中提供的都是只有 chat 吧? |
68 lovestudykid 271 天前 有点不太理解,其他一些工具不都是插件+api 就行了么,为什么还需要一个单独的程序 |
69 pigzzz 271 天前 还以为是那个 terminal |
![]() | 72 isSamle 271 天前 怎么没有中文文档 |
73 astkaasa 271 天前 已 star, 今天去试用一下, 有没有和 CodeGPT 跑本地模型的对比? |
![]() | 74 ikw OP @a174871 #67 是的,全能力需要 3 个模型,Chat 、Completion 、Embedding , Google 有 Chat 和 Embedding OpenAI 三个都有,只是 Completion 已经 Deprecated 了 |
![]() | 75 ikw OP @Rrrrrr #59 我个人的经验是 codestral 22b 一个模型对于 Completion 和 Chat 处理得都挺不错的,显卡能跑起来这个模型的话,体验上应该就很不错了 |
![]() | 77 zzzlight 271 天前 star 好久了 看到你发才知道原来是本站佬的作品 |
78 sanquan 271 天前 via iPhone 巨佬你好 |
79 astkaasa 271 天前 vscode 和 intellij 里面的 chat 页面出不来, 代码补全是正常的 |
80 astkaasa 271 天前 @astkaasa 这样启动的 tabby serve --device metal --model Qwen2.5-Coder-7B --chat-model Qwen2.5-Coder-7B-Instruct --port 10000 --no-webserver |
81 a174871 271 天前 @zwpaper #74 感谢回复,那能否像 Dif 一样,可以分别配置 chat 、Completion 、Embedding 所使用的模型,比如我可以把 Embedding 使用本地部署的,而 chat 使用 Gemini 呢? |
![]() | 83 twohappy 271 天前 啊,相当 |
![]() | 84 devzhaoyou 271 天前 牛叉 留名 |
![]() | 85 ikw OP @a174871 #81 可以的,参考这里几个不同的厂商,可以组合使用,也可以本地远端组合使用 https://tabby.tabbyml.com/docs/references/models-http-api/deepseek/ |
![]() | 87 monkeyWie 270 天前 via Android 没懂这个和 cline 插件有啥区别 |
90 weank 270 天前 ![]() 牛的,最近也在企业内部做代码生成工具,看了下 repo ,感觉能学到很多 |
91 weank 270 天前 但是 rust 是一个门槛,无论对开发者还是想要接入服务的企业来说,存在一定的障碍。 |
![]() | 92 ikw OP @weank #91 语言只是实现途径之一,用 Rust 也是考虑生态之后的选项,实际开发体验下来也都挺好的,我也知道 Rust 的花边新闻,不过最终产出才是中最要的。 对于开发者,主要是有一个上手门槛,但是现在像 Tabby 这样的助手出现,也能很大程度的降低这个门槛。 对于企业,主要还是看产品,一般也不会过多关注具体的实现方式 |