V2EX maolon
 maolon 最近的时间轴更新
maolon

maolon

V2EX 第 442547 号会员,加入于 2019-09-22 10:16:39 +08:00
今日活跃度排名 322
maolon 最近回复了
17 小时 36 分钟前
回复了 c9792536451 创建的主题 Apple 没有人讨论苹果 AI 将和 Gemini 合作吗
其实苹果跟 google 合作然后使用 gemini 确实比较稳,
一是 gemini 目前是多模态能力最强的模型,特别是能原生读视频,和苹果的场景配合更好,
二是 gemini 还有个优势就是他的推理速度够快,flash 这个等级的模型能去到 > 200t/s 的速度,0.3s 的 ttft ,lite 这个等级的就更快了,能去到 > 500t/s 的速度,也是 0.3 ttft, 苹果这个相机键长按启动,快问快答的多摸态场景明显是更加合适的,我觉得苹果应该会主力使用 lite 这个级别的模型以取得最佳的 cost efficiency
现在都说是搭配好用,很多人方案都是 opus 4.5 写,gpt5.2 high/xhigh review ,我是喜欢开一堆窗口让他自己搞,搞完跟我报告结果就行了,争取一次性过关所以还是 codex 在我这好用些, 前端搭配 gemini cli 和 gemini 3 pro (只做单文件/单任务修改)
skill 分不分享和你说的事有一毛钱关系?
skill 是你自己的知识和流程沉淀, 你这话说的就像是
“我写代码有套自己独门方法可千万别给我老板知道了,不然传给公司里其他人他们会卷死我”
3 天前
回复了 guotie 创建的主题 程序员 大模型写的代码几乎一摸一样
反正国产这些开源的模型训练的数据一部分是御三家蒸馏来,比如让 sonnet 或者 opus 模拟思维链或者直接交给他一个工程任务然后将他的解决步骤输出作为训练集,那学生像老师不是很正常么
@lkk #24 我记得之前有个不怎么严谨的词法分析 deepseek 是 r1 还是啥的吐词和 gemini 2.5 pro 非常像的,这几家闭源的烧几十上百亿美金,你这边花个几万美金 api 的钱轻轻松松蒸馏,转头说我们训练只用了几千万人民币,换我是谷歌我也恶心
"模型天然存在“快速收敛”的生成倾向" 这个我认为是过快和轻率的得出结论,然后用错误的结论推导剩下的论点。
模型的生成倾向和他后训练的 RL 算法有关,确实我们会奖励以更少的步骤或者更少的 token 生成正确的结果,但是这个步骤本身不一定是“快速“收敛的,相反可能是一个很长的流程。
反面的例子就是 gpt5.2 high/xhigh 这两个 reasoning effort ,会花费大量的时间探索代码结构和任务意图,我不知道文章本身怎么定义”充分探索“,但是至少这两的探索过程会谨慎和小心的多
不过说真的现在这些 llm 它训练的目标都是尽可能帮助用户完成任务,中间要是遇到阻碍就会尝试逃逸限制,甚至逃逸沙箱,所以要是测试中有什么连接错误他真的干得出删 docker container 这些操作,就不是生产库把测试数据删了也很烦
用 gemini app/ai studio 总结,notebook lm 暂时还不支持原生读视频但是 gemini app 支持
openspec 适合改现有大项目以及和别人合作同一个项目,
然后 cc 上下文太短(加上最近疑似 opus 也 quant 了),codex 的 5.2 xhigh/high 会好很多
另外我现在就跟楼上提到一样是将 openspec skill 化,由 codex 自己决定什么时候执行他,效果就挺好
2025 年 12 月 24 日
回复了 Zhipuai 创建的主题 程序员 GLM-4.7 上线并开源:更强的编码
先不说别的了,你们在 V2 的 AMA 一言不发搞了个寂寞?你们之前说的抽奖抽了吗?结果是什么?
就纯搞宣发把 v 友当傻子耍?
关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     959 人在线   最高记录 6679       Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 14ms UTC 20:36 PVG 04:36 LAX 12:36 JFK 15:36
Do have faith in what you're doing.
ubao msn snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86