1
Donaldo 1 天前 ![]() 他说不会,但你相信吗?你相信就安全,不相信酒不安全。
|
![]() |
2
GeekGao 1 天前
有可能,没承诺,不可信
总之你的行为很危险 |
![]() |
3
pureGirl 1 天前 ![]() 我不会发给 gpt 。但是 cursor 就没办法了。
|
4
mumbler 1 天前
b 站陈睿的手机号不就被 gpt 训练进去了么,我一般会顺手删几个字符提交大模型,key 是否正确不影响答案
|
5
yulon 1 天前
😅
|
![]() |
6
tomczhen 1 天前 ![]() 既然为了方便直接写代码里了,为啥还要纠结大模型供应商那边会怎么处理这种麻烦事呢?
|
![]() |
7
opengps 1 天前
你也写代码,如果是你你怎么做,显然不用问有答案了
|
![]() |
8
coldle 1 天前
我怎么想不出这种问题.jpg
|
![]() |
9
guanhui07 1 天前
我不会发给 gpt 。但是 cursor 就没办法了
|
10
azarasi 1 天前
只有 enterprise 用户不会
|
11
TrembleBeforeMe 1 天前
要看会不会拿用户交流的内容作为训练语料
|
![]() |
12
Tony4ee 1 天前
原则问题。这种东西就不应该发出去,无论对方做出什么承诺。
|
13
maojun 1 天前 via iPhone
他们获取这些信息不是能不能的问题,而是想不想的问题,从自己的信息安全出发当然是不发好了,当然如果你相信他们真的不会滥用你的信息就发呗
|
![]() |
14
akira 1 天前
看隐私安全策略 , 上个月看过 谷歌 微软 亚马逊都是说的 用户数据会用于进行训练。gpt 的 估计也大差不大。
|
![]() |
15
815979670 1 天前
不应该把自己的信息安全建立在对别人的信任上,任何数据一旦交出去了,都是不可控的
|
16
Yidiudiu169 1 天前
密码太多了,顾不过来。
|
17
tomclancy 1 天前
我觉得单纯用来训练其实还行,别胡咧咧发给别人就行
|
![]() |
18
TimePPT 1 天前 via Android ![]() 从一开始就不要把涉密信息硬编码到代码里,这跟使用不使用大模型无关,是一种良好的代码安全意识。
|
19
qfchannel 1 天前
反正他说了安全,至于你信不信,我反正信了
|
![]() |
20
LieEar 1 天前
我觉得不安全,用户输入的它肯定会拿去继续训练。
|
![]() |
21
AEnjoyable 23 小时 53 分钟前
除了测试中的占位代码用 123456 这些硬编码进去,生产环境的基本都是从环境变量,手工维护的 yaml 中读
|
22
whileFalse 23 小时 18 分钟前
代码里有密码就不安全
|
23
lthon 22 小时 49 分钟前
难绷,你这算是有安全意识还是没有呢
|
24
c0t 22 小时 38 分钟前
测试实例直接编码当然没问题,其他情况,自己做的东西,我用 1password ,代码里没明文
|
25
crackidz 21 小时 57 分钟前
有可能,有承诺,不可信。
当然,第一个问题是为啥代码里有密码/密钥等机密信息就不对了,你不在 AI 里泄露,也可能在写博客、微信/QQ 聊天中泄露。这些可是现实中实实在在出现过的案例 |
26
julyclyde 21 小时 51 分钟前
2014 年携程曾经把信用卡信息记录到日志里
然后日志泄漏了 你觉得 AI 的运行日志会不会泄漏? 我听说前几天好像有人发现他们数据库直接开放给全网了? |
![]() |
27
ShadowPower 21 小时 31 分钟前
不安全,我有次无意中发现 ChatGPT 已经掌握我司内部框架的用法了,并没有相关上下文和保存的记忆。
另外这些信息应该保存在环境变量里面,这样切换不同环境做调试还方便。 |
![]() |
28
520discuz 19 小时 40 分钟前
用人不疑 疑人不用
谁也不知道你的数据值多少钱 你问这个没有意义 |
![]() |
29
HUZHUANGZHUANG 18 小时 48 分钟前
分三种情况:
第一、你有阅读他们的用户协议吗?如果承诺了不使用用户数据,那就勉强相信一下吧 第二、你是付费用户吗?如果不是,免费给你用你还不想付出代价? 第三、你是付费用户的话,每个月 150 左右,能买来数据安全吗?我觉得不行 |
30
z1829909 17 小时 49 分钟前
用户数据肯定会用作训练, 提高模型效果, 模型效果好再生成更高质量的数据, 互相促进. 但是这个模式不是左脚蹬右脚一直提升的, 一段时间之后会陷入瓶颈.
安全方面我觉得还好, 因为大模型的用户产生的是海量数据, 你的密码密钥在里面有种大隐隐于市的感觉, 找到他本身成本就很高, 除非这个公司很没节操, 故意去做这件事. |
31
zxkmm 17 小时 22 分钟前
> 为了方便直接写在代码中
你有没有想过硬编码 key 到代码里这个行为本身就不安全 |
32
nkidgm 17 小时 13 分钟前
绝对不安全啊,你用的那些大模型的 APP ,没看到那张历史列表吗,敏感信息什么的妥妥的写进厂家云端的数据库,你以为在网页上面点击“删除”就真的删除了嘛?只要厂家动机不纯,它是不会真的删除的,而是全部留作训练 AI 的新语料,它只需在表里做个删除标记就行啦。
百度李彦宏除了最出名那句:“开源大模型都是智商税”,还有一句呢:“中国人愿用隐私换便利”。 |
![]() |
33
james2013 16 小时 55 分钟前 via Android
在网上看到有些大模型,会把用户的提问内容,显示给另外的人……
|
![]() |
34
Greatshu 16 小时 24 分钟前
不安全,但我无所谓,公司无所谓,甚至客户还推荐过我们用 Claude
|
![]() |
35
Felldeadbird 15 小时 54 分钟前
没有相对安全,看你对数据的敏感度。
如果项目是高保密,肯定不能。 项目是普通。那随便了。 |
![]() |
36
levelworm 15 小时 28 分钟前 via Android
内部信息还是不能进去,要去密。我找他写 sql 也是把表和字段名字改掉。
|
![]() |
37
exploreexe 14 小时 4 分钟前
非常不安全 特别是一些国内厂商 慎重使用国内厂商的业务
|
![]() |
38
wupher 5 小时 37 分钟前
不安全
密钥与代码隔离算是基本要求了吧 |
39
sakura1988 5 小时 22 分钟前
你把银行卡号和密码告诉我吧,我保证不用
你信吗? |
40
voya 5 小时 9 分钟前
你不能控制他用不用你的数据,但是可以控制把什么数据给他
|
![]() |
41
DigitaIOcean 3 小时 21 分钟前
1 先用本地低参数大模型先跑一遍合规性审计
2 再发到网上大模型 |
42
UnluckyNinja 2 小时 1 分钟前 via Android
敏感信息直接写在代码里就已经出局了
最好还是抽出来放环境变量里,到时改也方便,你粘贴代码时也不用担心了 |
43
fun201108 1 分钟前
密码放环境变量,开发环境用一套。发布生产用生产的,单独配置的一套
|