V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
zictos
V2EX  ›  信息安全

将代码中的密码等信息发给 chatgpt 等模型安全吗?

  •  
  •   zictos · 1 天前 · 4746 次点击
    比如一些 ssh 连接信息、数据库连接信息、api 密钥信息,为了方便直接写在代码中,在复制进行询问的时候忘记去掉这些信息。

    chatgpt 中的聊天记录删除后还会保存在服务器并用于训练吗?
    43 条回复    2025-03-03 14:35:40 +08:00
    Donaldo
        1
    Donaldo  
       1 天前   ❤️ 3
    他说不会,但你相信吗?你相信就安全,不相信酒不安全。
    GeekGao
        2
    GeekGao  
       1 天前
    有可能,没承诺,不可信
    总之你的行为很危险
    pureGirl
        3
    pureGirl  
       1 天前   ❤️ 1
    我不会发给 gpt 。但是 cursor 就没办法了。
    mumbler
        4
    mumbler  
       1 天前
    b 站陈睿的手机号不就被 gpt 训练进去了么,我一般会顺手删几个字符提交大模型,key 是否正确不影响答案
    yulon
        5
    yulon  
       1 天前
    😅
    tomczhen
        6
    tomczhen  
       1 天前   ❤️ 7
    既然为了方便直接写代码里了,为啥还要纠结大模型供应商那边会怎么处理这种麻烦事呢?
    opengps
        7
    opengps  
       1 天前
    你也写代码,如果是你你怎么做,显然不用问有答案了
    coldle
        8
    coldle  
       1 天前
    我怎么想不出这种问题.jpg
    guanhui07
        9
    guanhui07  
       1 天前
    我不会发给 gpt 。但是 cursor 就没办法了
    azarasi
        10
    azarasi  
       1 天前
    只有 enterprise 用户不会
    TrembleBeforeMe
        11
    TrembleBeforeMe  
       1 天前
    要看会不会拿用户交流的内容作为训练语料
    Tony4ee
        12
    Tony4ee  
       1 天前
    原则问题。这种东西就不应该发出去,无论对方做出什么承诺。
    maojun
        13
    maojun  
       1 天前 via iPhone
    他们获取这些信息不是能不能的问题,而是想不想的问题,从自己的信息安全出发当然是不发好了,当然如果你相信他们真的不会滥用你的信息就发呗
    akira
        14
    akira  
       1 天前
    看隐私安全策略 , 上个月看过 谷歌 微软 亚马逊都是说的 用户数据会用于进行训练。gpt 的 估计也大差不大。
    815979670
        15
    815979670  
       1 天前
    不应该把自己的信息安全建立在对别人的信任上,任何数据一旦交出去了,都是不可控的
    Yidiudiu169
        16
    Yidiudiu169  
       1 天前
    密码太多了,顾不过来。
    tomclancy
        17
    tomclancy  
       1 天前
    我觉得单纯用来训练其实还行,别胡咧咧发给别人就行
    TimePPT
        18
    TimePPT  
       1 天前 via Android   ❤️ 3
    从一开始就不要把涉密信息硬编码到代码里,这跟使用不使用大模型无关,是一种良好的代码安全意识。
    qfchannel
        19
    qfchannel  
       1 天前
    反正他说了安全,至于你信不信,我反正信了
    LieEar
        20
    LieEar  
       1 天前
    我觉得不安全,用户输入的它肯定会拿去继续训练。
    AEnjoyable
        21
    AEnjoyable  
       23 小时 53 分钟前
    除了测试中的占位代码用 123456 这些硬编码进去,生产环境的基本都是从环境变量,手工维护的 yaml 中读
    whileFalse
        22
    whileFalse  
       23 小时 18 分钟前
    代码里有密码就不安全
    lthon
        23
    lthon  
       22 小时 49 分钟前
    难绷,你这算是有安全意识还是没有呢
    c0t
        24
    c0t  
       22 小时 38 分钟前
    测试实例直接编码当然没问题,其他情况,自己做的东西,我用 1password ,代码里没明文
    crackidz
        25
    crackidz  
       21 小时 57 分钟前
    有可能,有承诺,不可信。

    当然,第一个问题是为啥代码里有密码/密钥等机密信息就不对了,你不在 AI 里泄露,也可能在写博客、微信/QQ 聊天中泄露。这些可是现实中实实在在出现过的案例
    julyclyde
        26
    julyclyde  
       21 小时 51 分钟前
    2014 年携程曾经把信用卡信息记录到日志里
    然后日志泄漏了

    你觉得 AI 的运行日志会不会泄漏?
    我听说前几天好像有人发现他们数据库直接开放给全网了?
    ShadowPower
        27
    ShadowPower  
       21 小时 31 分钟前
    不安全,我有次无意中发现 ChatGPT 已经掌握我司内部框架的用法了,并没有相关上下文和保存的记忆。
    另外这些信息应该保存在环境变量里面,这样切换不同环境做调试还方便。
    520discuz
        28
    520discuz  
       19 小时 40 分钟前
    用人不疑 疑人不用
    谁也不知道你的数据值多少钱 你问这个没有意义
    HUZHUANGZHUANG
        29
    HUZHUANGZHUANG  
       18 小时 48 分钟前
    分三种情况:
    第一、你有阅读他们的用户协议吗?如果承诺了不使用用户数据,那就勉强相信一下吧
    第二、你是付费用户吗?如果不是,免费给你用你还不想付出代价?
    第三、你是付费用户的话,每个月 150 左右,能买来数据安全吗?我觉得不行
    z1829909
        30
    z1829909  
       17 小时 49 分钟前
    用户数据肯定会用作训练, 提高模型效果, 模型效果好再生成更高质量的数据, 互相促进. 但是这个模式不是左脚蹬右脚一直提升的, 一段时间之后会陷入瓶颈.
    安全方面我觉得还好, 因为大模型的用户产生的是海量数据, 你的密码密钥在里面有种大隐隐于市的感觉, 找到他本身成本就很高, 除非这个公司很没节操, 故意去做这件事.
    zxkmm
        31
    zxkmm  
       17 小时 22 分钟前
    > 为了方便直接写在代码中

    你有没有想过硬编码 key 到代码里这个行为本身就不安全
    nkidgm
        32
    nkidgm  
       17 小时 13 分钟前
    绝对不安全啊,你用的那些大模型的 APP ,没看到那张历史列表吗,敏感信息什么的妥妥的写进厂家云端的数据库,你以为在网页上面点击“删除”就真的删除了嘛?只要厂家动机不纯,它是不会真的删除的,而是全部留作训练 AI 的新语料,它只需在表里做个删除标记就行啦。

    百度李彦宏除了最出名那句:“开源大模型都是智商税”,还有一句呢:“中国人愿用隐私换便利”。
    james2013
        33
    james2013  
       16 小时 55 分钟前 via Android
    在网上看到有些大模型,会把用户的提问内容,显示给另外的人……
    Greatshu
        34
    Greatshu  
       16 小时 24 分钟前
    不安全,但我无所谓,公司无所谓,甚至客户还推荐过我们用 Claude
    Felldeadbird
        35
    Felldeadbird  
       15 小时 54 分钟前
    没有相对安全,看你对数据的敏感度。
    如果项目是高保密,肯定不能。
    项目是普通。那随便了。
    levelworm
        36
    levelworm  
       15 小时 28 分钟前 via Android
    内部信息还是不能进去,要去密。我找他写 sql 也是把表和字段名字改掉。
    exploreexe
        37
    exploreexe  
       14 小时 4 分钟前
    非常不安全 特别是一些国内厂商 慎重使用国内厂商的业务
    wupher
        38
    wupher  
       5 小时 37 分钟前
    不安全

    密钥与代码隔离算是基本要求了吧
    sakura1988
        39
    sakura1988  
       5 小时 22 分钟前
    你把银行卡号和密码告诉我吧,我保证不用


    你信吗?
    voya
        40
    voya  
       5 小时 9 分钟前
    你不能控制他用不用你的数据,但是可以控制把什么数据给他
    DigitaIOcean
        41
    DigitaIOcean  
       3 小时 21 分钟前
    1 先用本地低参数大模型先跑一遍合规性审计
    2 再发到网上大模型
    UnluckyNinja
        42
    UnluckyNinja  
       2 小时 1 分钟前 via Android
    敏感信息直接写在代码里就已经出局了
    最好还是抽出来放环境变量里,到时改也方便,你粘贴代码时也不用担心了
    fun201108
        43
    fun201108  
       1 分钟前
    密码放环境变量,开发环境用一套。发布生产用生产的,单独配置的一套
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   5680 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 19ms · UTC 06:37 · PVG 14:37 · LAX 22:37 · JFK 01:37
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.