
1 momocraft 2 月 25 日 路会很长, 现在的 LLM 连指示和数据都不区分 |
2 sddyzm 2 月 25 日 via iPhone 目测不可能,只能给像人一样的环境上的物理限制 |
3 dobelee 2 月 25 日 看看最近 openai 、claude 、grok 、openclaw 的各种争议和官司,你觉得有可能吗? 现在的 AI 也无法准确判断,比如昨天 openclaw 删库的事件。 另外,即使 AI 最终彻底解决幻觉,也难以做到三定律。 如电车难题和罐中脑。为了执行<不让人类受到"任何"伤害>,而囚禁保护人类,是否合理。 |
4 cmdOptionKana 2 月 25 日 via Android 看了原著,这个设定本身就是自相矛盾的,是很巧妙的小说技巧,可以让故事很有趣,但这个在现实中是没有意义的。 |
5 Zhuzhuchenyan 2 月 25 日 |
6 xFrank OP @cmdOptionKana 我说的是类似,总要有些“底层代码”来防止 AI 不能干某些事 |