1 Donaldo 224 天前 ![]() 他说不会,但你相信吗?你相信就安全,不相信酒不安全。 |
![]() | 2 R4rvZ6agNVWr56V0 224 天前 有可能,没承诺,不可信 总之你的行为很危险 |
![]() | 3 pureGirl 224 天前 ![]() 我不会发给 gpt 。但是 cursor 就没办法了。 |
4 mumbler 224 天前 b 站陈睿的手机号不就被 gpt 训练进去了么,我一般会顺手删几个字符提交大模型,key 是否正确不影响答案 |
5 yulon 224 天前 |
![]() | 6 tomczhen 224 天前 ![]() 既然为了方便直接写代码里了,为啥还要纠结大模型供应商那边会怎么处理这种麻烦事呢? |
![]() | 7 opengps 224 天前 你也写代码,如果是你你怎么做,显然不用问有答案了 |
![]() | 8 coldle 224 天前 我怎么想不出这种问题.jpg |
![]() | 9 guanhui07 224 天前 我不会发给 gpt 。但是 cursor 就没办法了 |
10 azarasi 224 天前 只有 enterprise 用户不会 |
11 TrembleBeforeMe 224 天前 要看会不会拿用户交流的内容作为训练语料 |
![]() | 12 Tony4ee 224 天前 原则问题。这种东西就不应该发出去,无论对方做出什么承诺。 |
13 maojun 224 天前 via iPhone 他们获取这些信息不是能不能的问题,而是想不想的问题,从自己的信息安全出发当然是不发好了,当然如果你相信他们真的不会滥用你的信息就发呗 |
![]() | 14 akira 224 天前 看隐私安全策略 , 上个月看过 谷歌 微软 亚马逊都是说的 用户数据会用于进行训练。gpt 的 估计也大差不大。 |
![]() | 15 815979670 224 天前 不应该把自己的信息安全建立在对别人的信任上,任何数据一旦交出去了,都是不可控的 |
16 Yidiudiu169 224 天前 密码太多了,顾不过来。 |
17 tomclancy 224 天前 我觉得单纯用来训练其实还行,别胡咧咧发给别人就行 |
![]() | 18 TimePPT PRO ![]() 从一开始就不要把涉密信息硬编码到代码里,这跟使用不使用大模型无关,是一种良好的代码安全意识。 |
19 qfchannel 224 天前 反正他说了安全,至于你信不信,我反正信了 |
![]() | 20 LieEar 224 天前 我觉得不安全,用户输入的它肯定会拿去继续训练。 |
![]() | 21 AEnjoyable 224 天前 除了测试中的占位代码用 123456 这些硬编码进去,生产环境的基本都是从环境变量,手工维护的 yaml 中读 |
22 whileFalse 224 天前 代码里有密码就不安全 |
23 lthon 224 天前 难绷,你这算是有安全意识还是没有呢 |
24 c0t 224 天前 测试实例直接编码当然没问题,其他情况,自己做的东西,我用 1password ,代码里没明文 |
25 crackidz 224 天前 ![]() 有可能,有承诺,不可信。 当然,第一个问题是为啥代码里有密码/密钥等机密信息就不对了,你不在 AI 里泄露,也可能在写博客、微信/QQ 聊天中泄露。这些可是现实中实实在在出现过的案例 |
26 julyclyde 224 天前 2014 年携程曾经把信用卡信息记录到日志里 然后日志泄漏了 你觉得 AI 的运行日志会不会泄漏? 我听说前几天好像有人发现他们数据库直接开放给全网了? |
![]() | 27 ShadowPower 224 天前 不安全,我有次无意中发现 ChatGPT 已经掌握我司内部框架的用法了,并没有相关上下文和保存的记忆。 另外这些信息应该保存在环境变量里面,这样切换不同环境做调试还方便。 |
![]() | 28 520discuz 224 天前 用人不疑 疑人不用 谁也不知道你的数据值多少钱 你问这个没有意义 |
![]() | 29 HUZHUANGZHUANG 224 天前 分三种情况: 第一、你有阅读他们的用户协议吗?如果承诺了不使用用户数据,那就勉强相信一下吧 第二、你是付费用户吗?如果不是,免费给你用你还不想付出代价? 第三、你是付费用户的话,每个月 150 左右,能买来数据安全吗?我觉得不行 |
30 adgfr32 224 天前 用户数据肯定会用作训练, 提高模型效果, 模型效果好再生成更高质量的数据, 互相促进. 但是这个模式不是左脚蹬右脚一直提升的, 一段时间之后会陷入瓶颈. 安全方面我觉得还好, 因为大模型的用户产生的是海量数据, 你的密码密钥在里面有种大隐隐于市的感觉, 找到他本身成本就很高, 除非这个公司很没节操, 故意去做这件事. |
31 zxkmm 224 天前 > 为了方便直接写在代码中 你有没有想过硬编码 key 到代码里这个行为本身就不安全 |
32 nkidgm 224 天前 绝对不安全啊,你用的那些大模型的 APP ,没看到那张历史列表吗,敏感信息什么的妥妥的写进厂家云端的数据库,你以为在网页上面点击“删除”就真的删除了嘛?只要厂家动机不纯,它是不会真的删除的,而是全部留作训练 AI 的新语料,它只需在表里做个删除标记就行啦。 百度李彦宏除了最出名那句:“开源大模型都是智商税”,还有一句呢:“中国人愿用隐私换便利”。 |
![]() | 33 james2013 224 天前 via Android 在网上看到有些大模型,会把用户的提问内容,显示给另外的人…… |
![]() | 34 Greatshu 224 天前 不安全,但我无所谓,公司无所谓,甚至客户还推荐过我们用 Claude |
![]() | 35 Felldeadbird 224 天前 没有相对安全,看你对数据的敏感度。 如果项目是高保密,肯定不能。 项目是普通。那随便了。 |
![]() | 36 levelworm 224 天前 via Android 内部信息还是不能进去,要去密。我找他写 sql 也是把表和字段名字改掉。 |
![]() | 37 exploreexe 224 天前 非常不安全 特别是一些国内厂商 慎重使用国内厂商的业务 |
![]() | 38 wupher 223 天前 不安全 密钥与代码隔离算是基本要求了吧 |
39 sakura1988 223 天前 你把银行卡号和密码告诉我吧,我保证不用 你信吗? |
![]() | 40 voya 223 天前 你不能控制他用不用你的数据,但是可以控制把什么数据给他 |
![]() | 41 DigitaIOcean 223 天前 1 先用本地低参数大模型先跑一遍合规性审计 2 再发到网上大模型 |
![]() | 42 UnluckyNinja 223 天前 via Android 敏感信息直接写在代码里就已经出局了 最好还是抽出来放环境变量里,到时改也方便,你粘贴代码时也不用担心了 |
43 fun201108 223 天前 密码放环境变量,开发环境用一套。发布生产用生产的,单独配置的一套 |
![]() | 44 Dreamerwwr 223 天前 肯定不安全,现在 cursor 也支持可以屏蔽特殊文件,你允许的东西全部会被索引到 |
![]() | 45 lyxxxh2 222 天前 |
46 cheny4work 175 天前 果然还是在国内做程序员轻松,环境变量直接写在代码里面,还堂而皇之地说是“为了方便”。 在我们这边,不要说公司里面,就是在学校读书的时候,老师都能骂死你。 |
47 zictos OP @cheny4work 自己测试的时候写的一些代码都是直接写在代码中的,不可能去专门去弄一个配置文件或者弄环境变量。或者自用的一些简单脚本,没必要去专门弄配置文件或环境变量,直接一个文件是最简单的,保护好自己的电脑不要让别人随便访问就行。比如自己写一个自用的 python 脚本,本来可能就只有几十上百行代码,我直接一个文件多方便?而且做迁移也方便,一个文件就直接是独立程序,不会受到外部信息的影响,也不用在外部去存储信息,这样是最简单的,不可能还故意去弄得复杂化。 即便是网上的一些示例代码或者 chatgpt 提供的一些代码,比如读取数据库,他肯定都是直接写在代码里面,让你将数据库的密码替换成自己的。那自己测试的时候肯定也是直接在代码里替换自己的密码进行测试,过程中有什么问题要追问就可能又将代码复制过去追问,只是有可能忘记把真实密码替换掉了。 |
48 cheny4work 175 天前 @zictos 所以你们这些写 python 的被人骂也是有原因的,反正净按自己的野路子来,刚好 python 也支持你们用野路子。反正怎么舒服怎么来。你说你是自己脚本,行。等你做大项目的时候,你说你会按规矩写,我是不信的。 |