V2EX trungdieu031 的所有回复 第 1 页 / 共 3 页
V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
V2EX    trungdieu031    全部回复第 1 页 / 共 3 页
回复总数  53
1  2  3  
我认为会。
楼上说的取代小国的法币是短期内可以预见的。
但我认为取代大国的法币也并非不可能。大国固然不想把铸币权拱手让人。但问题在于几乎所有的国家都是无锚铸币,长期看来(也不会很长期),这些国家的法币丧失信用从而退出市场几乎是个不可逆的过程。
这是个逐渐渗透的过程。
差太多了。ascend 勉强能做推理,做训练的话可能连边都摸不着,性能差,功耗高,生态残缺,跑个模型要改一堆算子...
不过上头在强推这点是真的。
57 天前
回复了 nosugar 创建的主题 问与答 大模型的训练是不是到头了?
至少目前还没到头。

不过你可以说现有范式下的 pre training 趋于平缓了,test time training 还远没看到上限,作为例子,本次 GPT5 pro 模式下,数学等逻辑推理能力提很大,幻觉也大大降低了(但大部分人可能都用不到)。这是 o 系列模型进一步提升的效果。而且 OpenAI 最近接连在 IMO 和 IOI 上连续获得金牌也足以说明一些问题。

我看很多人说 GPT5 智力下降了,表现在连个 9.11 和 9.8 的大小都比不出来。这一方面是 OpenAI 路由的问题,本来这些数学问题无论大小都要用 thinking 模式,如果只是路由到直接输出的基模,不管谁家的都有可能大错;另一方面也可能大多数用户也不知道这些常识,什么时候要用什么样的模型里面也是有点门道的~

目前的大模型能力在继续增强是毫无疑问的,但也不是没有缺陷。on-line learning, memory, long term planning 这些还都要进一步突破~
想问下 OP, 去大理后是自己找的房子还是住数字游民社区?怎么认识其他新朋友的?
我最近也打算去那边,纯 i 人担心去了后一个人比较无聊...
德扑应该是有专用 AI , 强化学习训练的,我记着挺强...
为啥要用 LLM...
看上面这些个的回答我一时之间有些恍惚,v 站老哥们看来确实都是中上层人士,对中国底层的高龄农民/工的生活状况一无所知!

有推荐养蜜蜂养鸡的,有疑问为啥不补交的,有让去大城市找工作再就业的,有问一辈子积蓄都去哪儿的, 还有竟然这算家里名下百万房产来说事的 ...

如果你真的了解过农村农工,在北方的农村走过一圈,见过空巢老人和农村的衰败,了解过年轻时透支生命带来的伤痛,知道养蜂所需要的精神和体力,养能产生 2 万 RMB 价值的鸡所需要的投入与风险,对中国当下高龄者的就业状况有轻微的了解,就不会说出这么蠢的话来 ...

为什么不补缴呢,一辈子的积蓄呢?
如果有那些补缴的钱,又怎么会有这样的困境;
一辈子的其他积蓄呢?年轻的时候种粮上缴给老爷,年轻的时候进城盖水泥房子,光是活着就拼尽全力了,哪还有什么积蓄

这个问题只有一个解决方案。
做好医保。
每年打钱。
@coefuqin COT 的确是让思考过程更精确。你这里说的又是另一个问题,LLM 能否做出原创性的思考?
归根到底,看你是不是认为人脑的智能的过程都是可计算的。
智能的表现形式里,COT 是一种,但它只能在既有的知识范围内推理,像数学里的演绎。COT 能被 LLM 学习到,转化为 LLM 隐式空间里的向量。
直觉也是智能的一种形式,如果它是可计算,那它必然也能转化为隐式空间的向量。
所以这个问题就变成,你是不是相信大脑有超越图灵机的能力,如果没有,那它必然是可计算的。
至少目前世界上还没有发现能超越图灵机计算能力的实际模型。
实际上没有什么东西是完全无中生有的创造,都是在既有范围内的创新,但范围本身要不断扩大。
@catazshadow 目前来说功耗确实是问题。但在实现 AGI 这个目标面前,功耗带来的成本增加会显得不值一提!
@coefuqin 他那文章说的是,同样的 671B 的模型,用同样的数据训练,他们模型的能力范围是一样大的,比如数据集里没有法文的数据,那你后训练 RL 再怎么跑,也没法回答法文的问题。
那么为什么 COT 会对模型能力尤其是推理能力有提升呢,因为 COT 的训练其实是在强化思考过程,就像对数学里的加法运算一样,这里的 COT 其实就是加法,只不过作用在在不同的名词/实事上,使模型推理能力提升!
@catazshadow 我们说现在“摩尔定律失效“ 一般都在说晶体管尺寸(制成工艺)快要达到物理极限了,显存读取带宽目前还没有达到物理极限。
目前的超大模型都是在集群/分布式训练的, 单卡很少能容纳一个完整的超大参数模型,单卡的 DRM 读取速度不是主要瓶颈,因为卡与卡之间的通信比这个要久,所以未来比这个更大的模型也会采用同样的思路。而且还有其他手段来解决这些问题!
@coefuqin 我建议你不要听风就是雨!
先仔细看看文章说的是啥再来辩经!
他这篇文章的结论是 RL 无法实现超越基础模型能力的推理。RL 只是激发能力做推理过程,文章讨论的模型能力的边界问题。举个例子,如果一个模型在预训练阶段没有在数学集上做过相应的训练,那么 RL 深度思考也是没法表现出来数学的形式计算能力。

开口之前先过过脑子!
@catazshadow CPU 的摩尔定律已经很慢了,GPU 的摩尔定律显然还没到头,看老黄每年新卡的计算能力就知道了。
现有 LLM 和人类大脑智能的形成机制共性远大于差异。
共性是底层必然都是神经连接的形式,而且需要达到一定的规模才能涌现出智能,差异可能存在与比如是否是 token by token 的预测方式,是否是梯度方向传播这些。但目前的神经学和 LLM 的发展表现出来的能力都指向了一个比较明确的结论:智能是大量神经元信息处理过程中的涌现,不依赖于具体的计算质(人类神经元或是半导体),必要条件是神经连接足够以及计算能力足够。
这种涌现无法用还原论的方法来解释,有点像你没法通过水分子来推测水的层流/湍流/雪花等。

1. 智能和神经元连接数量密切相关。从斑马鱼果蝇到老鼠猴子大象到智人,随着神经元连接的增大,智力有明显的递增关系。
2. 你上面给个那个大模型参数量目前只有人脑参数量的千分之一,数量级是对的。但 1000 倍不是什么遥不可及的数量级,尤其是半导体领域。更不用说人脑中有许多的冗余,负责感知的神经元等。
3. 目前神经科学比较认可的结论是人脑的智力和量子效应没有关系。本质上量子效应相干时间太短,没法维持在大脑这么大的器官上稳定处理信息。
4. 你说的完整记录“一个字之后另一个字”肯定是不对的。大模型的训练是学习模式,或者收条件概率。现在的顶级的大模型能做 10 位以内的加法,你不能说把所有 10 位以内的加法全都背下来了,显然不是。LLM 学习了加法规则,就像学习了人的思维方式一样(COT).
有。
205 天前
回复了 andyL 创建的主题 VXNA 申请收录个人博客: 弓满月
博客文章好像打不开 ~
保持不了。
我知道很多人说要学会使用 AI , 去卷走那些不会 AI 的 人; 还有人说新的技术浪潮会产生新的岗位,总会有坑出来,只要保持学习的态度 ....
我的看法是这样想未免过于乐观了,属于刻舟求剑式的推演,用过去的技术革命来外推现在这轮,实属想当然了。
从我对 AI 进展观察来看,大概还有个两年的窗口期,两年内你或许能比那些不会 AI 的人有略微的比较优势。两年后,生成式 AI 足以替换掉 90 % 的程序员,白领行业大规模的失业潮会在这个时候到来,到时候所有人都会有所感知 ...
说实话我现在也看不出来有什么好的解决方案,也许 UBI 是一种思路,但在国内这样不养懒汉的意识形态下很难推行起来。最终或许会被形势推着前进。
AI 创造的岗位也会被 AI 所取代,这轮技术趋势不会产生新的岗位需求了~
国内受芯片禁运的影响,算力短缺就这个样子。
deepseek 应该是自建机房卖服务的,他们肯定也是处于算力饥饿状态。如果部署模型到其他厂商的云服务器,可能价格就得上去。
云服务厂可能也因算力供给需求不平衡而涨价,想想更不划算了。DeepSeek 从春节后就一直这个鸟样子,短期内没法改变了 ...
@madantech , sol 链上 dex 之间的套利现在还有利可图吗,我听说这块卷的飞起了都?
1  2  3  
关于     帮助文档     自助推广系统     博客     API     FAQ     Solana     1498 人在线   最高记录 6679       Select Language
创意工作者们的社区
World is powered by solitude
VERSION: 3.9.8.5 29ms UTC 16:38 PVG 00:38 LAX 09:38 JFK 12:38
Do have faith in what you're doing.
ubao snddm index pchome yahoo rakuten mypaper meadowduck bidyahoo youbao zxmzxm asda bnvcg cvbfg dfscv mmhjk xxddc yybgb zznbn ccubao uaitu acv GXCV ET GDG YH FG BCVB FJFH CBRE CBC GDG ET54 WRWR RWER WREW WRWER RWER SDG EW SF DSFSF fbbs ubao fhd dfg ewr dg df ewwr ewwr et ruyut utut dfg fgd gdfgt etg dfgt dfgd ert4 gd fgg wr 235 wer3 we vsdf sdf gdf ert xcv sdf rwer hfd dfg cvb rwf afb dfh jgh bmn lgh rty gfds cxv xcv xcs vdas fdf fgd cv sdf tert sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf sdf shasha9178 shasha9178 shasha9178 shasha9178 shasha9178 liflif2 liflif2 liflif2 liflif2 liflif2 liblib3 liblib3 liblib3 liblib3 liblib3 zhazha444 zhazha444 zhazha444 zhazha444 zhazha444 dende5 dende denden denden2 denden21 fenfen9 fenf619 fen619 fenfe9 fe619 sdf sdf sdf sdf sdf zhazh90 zhazh0 zhaa50 zha90 zh590 zho zhoz zhozh zhozho zhozho2 lislis lls95 lili95 lils5 liss9 sdf0ty987 sdft876 sdft9876 sdf09876 sd0t9876 sdf0ty98 sdf0976 sdf0ty986 sdf0ty96 sdf0t76 sdf0876 df0ty98 sf0t876 sd0ty76 sdy76 sdf76 sdf0t76 sdf0ty9 sdf0ty98 sdf0ty987 sdf0ty98 sdf6676 sdf876 sd876 sd876 sdf6 sdf6 sdf9876 sdf0t sdf06 sdf0ty9776 sdf0ty9776 sdf0ty76 sdf8876 sdf0t sd6 sdf06 s688876 sd688 sdf86