虽然很多他们写的隐私告知 代码会参与训练或不训练,那么完整代码泄露风险有多大?有这个被爆出来的案例吗?
1
NxxRngjnbgj 11 小时 58 分钟前 v 站用户向来以隐私强著称,但唯独在 ai 写代码这事情上,好像他们根本不在乎隐私,公司的代码随手就给了,不过也可以理解,又不是自己的东西,泄露了关我屁事,但是自己项目,他们也这样,另外最近有一个词叫 vibe coding ,可以说最近论坛非常 vibe 了,各种流水账产品,短时间内就给你写出来,然后分享到论坛,用他们的说法叫广撒网,看看有没有能火的,火了再考虑后续的运营,至于隐私是什么,那不重要。
============================================= 回到你的问题,你都把代码发人家了,你就剩一件事情可以考虑了,那就是因此带来的后果你能不能承受就行,想那么多干嘛。 ============================================= 另外,curd 的代码,有很大价值吗,什么时候 ai 才能帮我写外挂啊 |
2
kneo 11 小时 43 分钟前 via Android
风险很大,但是被你发现的概率不大。无所谓的。
|
3
cakera1ter 11 小时 39 分钟前
用别怕,怕别用,公司领导都不在乎,你管泄漏不泄漏
|
4
corcre 11 小时 29 分钟前
我一直在想有没有一种可能,公司不提供 AI 工具,但是打工人自己用,等领导想解雇你的时候只要拿到你使用 AI 的证据就能指控你违反了保密协议不需要给赔偿就能解雇员工😟
|
5
M1234 11 小时 23 分钟前 via iPhone
同有疑问,前两天看了 qoder 的隐私协议,免费版本明确写了会使用上下文代码做训练,就有点不敢在公司项目中用了。印象中 trae 也会,估计要隐私就要付费版本。
|
6
Vaspike 11 小时 14 分钟前
大多数项目的代码的价值要结合业务才能体现的, 或者说, 一个项目代码的保密性如果真的已达到断网或审查的程度, 公司 99%会规定项目内 AI 编程的红线或者工作电脑上 IT 管控
总结下我的观点就是,很多项目只拿到代码并没什么关系的 |
7
uNoBrain 11 小时 11 分钟前
安全排名:
1. 自部署 AI 2. AI 大厂的开发工具如 codex 、cc 、antigravity 等 3. 使用量较大的开发工具/AI 大模型,如 cursor ,cc+glm ,cc+deepseek 等 4. 一般大厂的开发工具或者是出名的中转站,如 trae ,kiro ,qoder ,openrouter 5. 野鸡中转站 |
8
zzxCNCZ 11 小时 10 分钟前
cursor 这种默认配置了忽略环境文件,但目前通过调用 cli 工具也可以查看内容
|
9
ssssiiiirren 11 小时 8 分钟前
业务代码真的有什么价值吗?有价值的是业务本身。
|
10
YanSeven 10 小时 55 分钟前
有些朋友还是逻辑跳跃了。
你泄露的代码有没有价值是一回事儿,AI 会不会泄露是另外一回事儿。 我的主观判断就是,所有的 AI 都会泄露你的代码,这里的泄露是指用你的对话做训练。从国外三巨头到国内三巨头,我都如此坚信。 |
11
ggzhyipeng 10 小时 45 分钟前
代码有没有价值是一回事儿,会不会对你进行追责是另一回事
|
12
charles0 10 小时 31 分钟前 via iPhone
你就当作会泄露吧,不想泄露数据的话可以本地部署(注:可以在云服务器上本地部署)
|
13
charles0 10 小时 30 分钟前 via iPhone
@NxxRngjnbgj 因为很多人并不把代码当作隐私,真正的隐私是日常消费记录、购买倾向、照片和文件、输入法词库等等
|
14
hello267015 10 小时 8 分钟前
泄露代码 和 将代码用于模型训练是两回事
ai 收集到的代码都是碎片化的,可能是几行,几个类文件,就算极端情况下要将整个项目库作为 context 发给 ai ,但到了 ai 模型算法内部,这些代码都转成了一些毫无业务意义的 tokens ,从原理上来说 ai 就没有完整泄露代码的机制.... 但是将代码用于模型训练几乎是每个 CodeAgent 都会做的事情吧,你会在意 AI 借鉴、学习你的代码么,在意的话就不建议用 AI , 我是不 care... |
15
sn0wdr1am 9 小时 40 分钟前
会有安全问题。
如果公司有自己规定的,自己部署的 AI ,就用这个。 如果公司有规定不能乱用 AI ,就不要用外面的 AI 。 自己的代码,无所谓用什么 AI 。 公司的代码,你不要任性,要尊重公司规定。 |
16
changwei 9 小时 25 分钟前
我也好奇过这个问题
但是在使用 Copilot 时有看到他们官网说明: https://docs.github.com/en/copilot/reference/ai-models/model-hosting#openai-models 比如 OpenAI 有写:OpenAI makes the following data commitment: We [OpenAI] *do not train models on customer business data*. Data processing follows OpenAI's enterprise privacy comments. 他说不会用客户数据来 [训练模型] ,但是这句话的含义似乎并不代表他们不会收集数据来做其他用途?如果你是大公司的话,可以请教你们公司的律师和法务看看?! |
17
94 9 小时 6 分钟前
@NxxRngjnbgj #1 ,这是数据安全,不是算是隐私问题。主要是使用 AI Coding 造成的合规隐患。
---- 作为回答就是会,自己很早期使用 Github Coiplot 的时候就完整补全出来了一段 juejin.cn 的文章链接出来…… |
19
94 7 小时 50 分钟前
@gongym #18 ,具体就不清楚了,完整 URL 复制出来又从 github 上面搜不到,就很奇怪。
在写具体业务函数的 JSDoc 的时候突然补全出来一大堆文案里面就带了链接,我同事都快笑死了…… |
20
connor123 7 小时 39 分钟前
一帮写业务代码的,为什么觉得业务代码是机密啊?
你做的项目是火箭回收吗? 在我看来,写业务代码的不需要操心是否泄密,把业务实现就行了。 |
23
94 7 小时 1 分钟前
@jjwjiang #22 ,从 LLM 原理的理解来说是这样的。
但是这个生成的注释块很稳定。当时尝试了几次生成的都是同一个内容。按道理上下文变了生成的应该是不一样的。即使高度类似,生成的“假 URL”也不可能完全一样。 |
24
94 6 小时 55 分钟前
@connor123 #20 ,因为企业裁员的时候可能利用 AI 辅助编程来作为“泄密”的理由来进行无赔偿辞退。如果企业没有明确落实到文字形式的允许信息就会有合规问题。
但这个理解是有偏差的。很多像 OP 这样的没有意识到,单纯只觉得代码才是重要的,但关键点并不是在代码上,而是在行为上。 |
28
94 5 小时 10 分钟前 @lixuda #27 ,需要看你使用的 AI 工具的具体隐私条款,但是一般都会有一个开关,我拿 Github Copilot 来举例。
> 如果拿去训练代码,那我一个大项目的完代码是完完整整会被上传?还是使用的单文件代码被上传,还是说部分代码片段被其他使用? 1. 直接的代码仓库形式的泄露。明确不会,除非你是在 Github 中的公开仓库; 2. Coding 中的自动补全和代码块生成以及对话中的上下文和提示词。会,看你怎么提供的上下文,以及是否勾选了允许改进的开关。https://copilot.github.trust.page/faq > 如果大模型使用数据后,是作为模型原数据,会再次加工后使用,还是直接原始代码去匹配模型给其他人调用? 1. 加工后的数据在匿名化之后用于模型训练,但是没有提及如何使用 https://github.com/customer-terms/github-data-protection-agreement 基于历史新闻,直接以原始代码的可能性是有的,但是会有一个 [suggestions matching public code]( https://docs.github.com/en/copilot/how-tos/manage-your-account/manage-policies#enabling-or-disabling-suggestions-matching-public-code) 的场景,所以并不确定是哪一种形式提供的完整代码块。 |
29
wahaha3010 4 小时 17 分钟前
@NxxRngjnbgj 因为这根本就不是问题,现在随便一个中大厂互联网公司都会采购 copilot 或者 cursor 这种外部 ai 工具给员工用的。
|