
1 linbenyi PRO 根据长尾。人类总要解决很长的。变化多样但是小概率的事件。 其实题主说的对。变相抑制了初级岗位的成长。 |
2 wuxi889 1 天前 可以。看看周末的 Claude Cowork 新闻 |
3 iOCZS 1 天前 人类是一台判决机器 |
4 dog82 1 天前 看闫俊杰的访谈,他提了个:模型即交付 的概念,AI 领域普通程序员能做的很少,而且会越来越少 |
6 KinBob 1 天前 人要是自己不写代码,debugg 能力也会退化的,所以感觉 ai code + 人 debugg 售后的模式不是个好模式,大概率得等到 ai 更深度的应用才行 |
7 iorilu 1 天前 那肯定阿 现在人成了打下手的, 人能发 prompt, 当然可以让 ai 自己发 prompt 指挥另一个 ai 干活 |
8 CH122 1 天前 当人类不再有任何知识、思想产出的时候,ai 还能进步吗,或者说 ai 可以到能思考的程度吗 |
9 enrolls 1 天前 还差一点东西,能立即 fine tune 最新的文档和代码;或者 这个代码组件的包 fine tune 一次入 llm ,让它了解上下文,基本不用干了。 |
10 midraos 1 天前 我认为当前这种形态的 AI 是不行的,如果某天变成:用户提出需求 --> AI --不经过编码、编译--> AI 自身直接模拟出该应用时,才是码农失业的前夕 |
11 strobber16 1 天前 via Android 得特化才行。再训练专门做项目设计的 ai ,和负责写实际代码的 ai 分开 |
12 sentinelK 1 天前 从演进的流程上来讲,确实是这样。一开始的 AI Coding 主要体现在 Tab 提示,然后逐渐演进到 Chat ,然后再演进到 Agent 。 总体上来讲,一定是人的干预越来越远离实现本身。 但讨论这个没什么意义。 首先,因为提出需求的是人,这就导致人必须参与输入。你不输入你的需求无从表达。 其次,相同的需求,表达方式多种多样,总会有人掌握更优秀表达需求的能力。 最后,你要明白为何目前的统计学 AI 的解决方式是 Agent 。因为是基于目前的上下文能力,以及模型向量转换次数所限。最终的终局,AI 产出一定不是 Agent 的。 你看现在还有人讨论“提示词工程”么?还有人因为写提示词更好引以为傲么? 在我看来,Agent 就像是提示词工程一样,只是基于有限能力下的临时性解决方案。仅此而已。 |
13 OliverDD 1 天前 它只是概率模型,你让概率去碰撞概率,就是无限猴子定理:“让一只猴子在打字机上随机地按键,当按键时间达到无穷时,几乎必然能够打出任何给定的文字,比如莎士比亚的全套著作”。 |