V2EX = way to explore
V2EX 是一个关于分享和探索的地方
现在注册
已注册用户请  登录
zictos
V2EX  ›  信息安全

将代码中的密码等信息发给 chatgpt 等模型安全吗?

  •  
  •   zictos · 31 天前 · 6023 次点击
    比如一些 ssh 连接信息、数据库连接信息、api 密钥信息,为了方便直接写在代码中,在复制进行询问的时候忘记去掉这些信息。

    chatgpt 中的聊天记录删除后还会保存在服务器并用于训练吗?
    45 条回复    2025-03-04 09:54:32 +08:00
    Donaldo
        1
    Donaldo  
       31 天前   ❤️ 4
    他说不会,但你相信吗?你相信就安全,不相信酒不安全。
    R4rvZ6agNVWr56V0
        2
    R4rvZ6agNVWr56V0  
       31 天前
    有可能,没承诺,不可信
    总之你的行为很危险
    pureGirl
        3
    pureGirl  
       31 天前   ❤️ 1
    我不会发给 gpt 。但是 cursor 就没办法了。
    mumbler
        4
    mumbler  
       31 天前
    b 站陈睿的手机号不就被 gpt 训练进去了么,我一般会顺手删几个字符提交大模型,key 是否正确不影响答案
    yulon
        5
    yulon  
       31 天前
    😅
    tomczhen
        6
    tomczhen  
       31 天前   ❤️ 8
    既然为了方便直接写代码里了,为啥还要纠结大模型供应商那边会怎么处理这种麻烦事呢?
    opengps
        7
    opengps  
       31 天前
    你也写代码,如果是你你怎么做,显然不用问有答案了
    coldle
        8
    coldle  
       31 天前
    我怎么想不出这种问题.jpg
    guanhui07
        9
    guanhui07  
       31 天前
    我不会发给 gpt 。但是 cursor 就没办法了
    azarasi
        10
    azarasi  
       31 天前
    只有 enterprise 用户不会
    TrembleBeforeMe
        11
    TrembleBeforeMe  
       31 天前
    要看会不会拿用户交流的内容作为训练语料
    Tony4ee
        12
    Tony4ee  
       31 天前
    原则问题。这种东西就不应该发出去,无论对方做出什么承诺。
    maojun
        13
    maojun  
       31 天前 via iPhone
    他们获取这些信息不是能不能的问题,而是想不想的问题,从自己的信息安全出发当然是不发好了,当然如果你相信他们真的不会滥用你的信息就发呗
    akira
        14
    akira  
       31 天前
    看隐私安全策略 , 上个月看过 谷歌 微软 亚马逊都是说的 用户数据会用于进行训练。gpt 的 估计也大差不大。
    815979670
        15
    815979670  
       31 天前
    不应该把自己的信息安全建立在对别人的信任上,任何数据一旦交出去了,都是不可控的
    Yidiudiu169
        16
    Yidiudiu169  
       31 天前
    密码太多了,顾不过来。
    tomclancy
        17
    tomclancy  
       31 天前
    我觉得单纯用来训练其实还行,别胡咧咧发给别人就行
    TimePPT
        18
    TimePPT  
       31 天前 via Android   ❤️ 4
    从一开始就不要把涉密信息硬编码到代码里,这跟使用不使用大模型无关,是一种良好的代码安全意识。
    qfchannel
        19
    qfchannel  
       31 天前
    反正他说了安全,至于你信不信,我反正信了
    LieEar
        20
    LieEar  
       31 天前
    我觉得不安全,用户输入的它肯定会拿去继续训练。
    AEnjoyable
        21
    AEnjoyable  
       31 天前
    除了测试中的占位代码用 123456 这些硬编码进去,生产环境的基本都是从环境变量,手工维护的 yaml 中读
    whileFalse
        22
    whileFalse  
       31 天前
    代码里有密码就不安全
    lthon
        23
    lthon  
       31 天前
    难绷,你这算是有安全意识还是没有呢
    c0t
        24
    c0t  
       31 天前
    测试实例直接编码当然没问题,其他情况,自己做的东西,我用 1password ,代码里没明文
    crackidz
        25
    crackidz  
       31 天前   ❤️ 1
    有可能,有承诺,不可信。

    当然,第一个问题是为啥代码里有密码/密钥等机密信息就不对了,你不在 AI 里泄露,也可能在写博客、微信/QQ 聊天中泄露。这些可是现实中实实在在出现过的案例
    julyclyde
        26
    julyclyde  
       31 天前
    2014 年携程曾经把信用卡信息记录到日志里
    然后日志泄漏了

    你觉得 AI 的运行日志会不会泄漏?
    我听说前几天好像有人发现他们数据库直接开放给全网了?
    ShadowPower
        27
    ShadowPower  
       31 天前
    不安全,我有次无意中发现 ChatGPT 已经掌握我司内部框架的用法了,并没有相关上下文和保存的记忆。
    另外这些信息应该保存在环境变量里面,这样切换不同环境做调试还方便。
    520discuz
        28
    520discuz  
       31 天前
    用人不疑 疑人不用
    谁也不知道你的数据值多少钱 你问这个没有意义
    HUZHUANGZHUANG
        29
    HUZHUANGZHUANG  
       31 天前
    分三种情况:
    第一、你有阅读他们的用户协议吗?如果承诺了不使用用户数据,那就勉强相信一下吧
    第二、你是付费用户吗?如果不是,免费给你用你还不想付出代价?
    第三、你是付费用户的话,每个月 150 左右,能买来数据安全吗?我觉得不行
    z1829909
        30
    z1829909  
       31 天前
    用户数据肯定会用作训练, 提高模型效果, 模型效果好再生成更高质量的数据, 互相促进. 但是这个模式不是左脚蹬右脚一直提升的, 一段时间之后会陷入瓶颈.
    安全方面我觉得还好, 因为大模型的用户产生的是海量数据, 你的密码密钥在里面有种大隐隐于市的感觉, 找到他本身成本就很高, 除非这个公司很没节操, 故意去做这件事.
    zxkmm
        31
    zxkmm  
       31 天前
    > 为了方便直接写在代码中

    你有没有想过硬编码 key 到代码里这个行为本身就不安全
    nkidgm
        32
    nkidgm  
       31 天前
    绝对不安全啊,你用的那些大模型的 APP ,没看到那张历史列表吗,敏感信息什么的妥妥的写进厂家云端的数据库,你以为在网页上面点击“删除”就真的删除了嘛?只要厂家动机不纯,它是不会真的删除的,而是全部留作训练 AI 的新语料,它只需在表里做个删除标记就行啦。

    百度李彦宏除了最出名那句:“开源大模型都是智商税”,还有一句呢:“中国人愿用隐私换便利”。
    james2013
        33
    james2013  
       31 天前 via Android
    在网上看到有些大模型,会把用户的提问内容,显示给另外的人……
    Greatshu
        34
    Greatshu  
       31 天前
    不安全,但我无所谓,公司无所谓,甚至客户还推荐过我们用 Claude
    Felldeadbird
        35
    Felldeadbird  
       31 天前
    没有相对安全,看你对数据的敏感度。
    如果项目是高保密,肯定不能。
    项目是普通。那随便了。
    levelworm
        36
    levelworm  
       31 天前 via Android
    内部信息还是不能进去,要去密。我找他写 sql 也是把表和字段名字改掉。
    exploreexe
        37
    exploreexe  
       31 天前
    非常不安全 特别是一些国内厂商 慎重使用国内厂商的业务
    wupher
        38
    wupher  
       30 天前
    不安全

    密钥与代码隔离算是基本要求了吧
    sakura1988
        39
    sakura1988  
       30 天前
    你把银行卡号和密码告诉我吧,我保证不用


    你信吗?
    voya
        40
    voya  
       30 天前
    你不能控制他用不用你的数据,但是可以控制把什么数据给他
    DigitaIOcean
        41
    DigitaIOcean  
       30 天前
    1 先用本地低参数大模型先跑一遍合规性审计
    2 再发到网上大模型
    UnluckyNinja
        42
    UnluckyNinja  
       30 天前 via Android
    敏感信息直接写在代码里就已经出局了
    最好还是抽出来放环境变量里,到时改也方便,你粘贴代码时也不用担心了
    fun201108
        43
    fun201108  
       30 天前
    密码放环境变量,开发环境用一套。发布生产用生产的,单独配置的一套
    Dreamerwwr
        44
    Dreamerwwr  
       30 天前
    肯定不安全,现在 cursor 也支持可以屏蔽特殊文件,你允许的东西全部会被索引到
    lyxxxh2
        45
    lyxxxh2  
       29 天前
    肯定用来训练啊,删除了,但是又不是真删除。
    将密码发送给 ai,本身才是问题。

    cursor:

    我在用 cursor 过程中,我不指定模型文件。
    他都不知道模型里面的变量,导致我都没补全。
    关于   ·   帮助文档   ·   博客   ·   API   ·   FAQ   ·   实用小工具   ·   981 人在线   最高记录 6679   ·     Select Language
    创意工作者们的社区
    World is powered by solitude
    VERSION: 3.9.8.5 · 26ms · UTC 19:52 · PVG 03:52 · LAX 12:52 · JFK 15:52
    Developed with CodeLauncher
    ♥ Do have faith in what you're doing.