小说 星座 交友 视频 明星 新闻 NBA 足球 体育 美图 游戏 音乐 摄影 军事 笑话
社区 招聘 地图 美食 汽车 基金 两性 女性 法律 娱乐 时尚 彩票 宠物 股票 手机
购物 健康 银行 房产 儿童 旅游 大学 宗教 公益 考试 教育 外语 留学 科技 爱好
微博 电脑 桌面 招商 聊天 硬件 软件 建站 编程 邮箱 设计 数码 曲艺 棋牌 生活
QQ 二手汽车 生活助手 天气 直播 站长 婚嫁 租厂房 服务器 租赁 互联网 农产品 修理 搬家 UI素材
保洁 面辅料 牧业 出书 代工 物流 电影 电视 综艺 动漫 全知导航-八卦 秀场 减肥 美女 母婴
团购 特卖 家居 杀毒 手机应用 找加盟 找设计 找家政 众筹 找搬家 找代理 热门应用 找代工 找工作 找物流
找回收
三星被曝因ChatGPT泄露芯片机密!韩媒惊呼数据“原封不动”直传美国

关键词:ChatGPT,数据,使用,公司,员工,三星,企业,信息,用户,内部

不少企业员工都正在将公司数据直接传给ChatGPT

明敏 萧箫 发自 凹非寺

三星引入ChatGPT不到20天,就发生3起数据外泄事件?!

其中2次和半导体设备有关,1次和内部会议有关。

消息一经释出马上引发各界热议,尤其是韩国方面。韩版《经济学人》的文章中直接写道:

这导致半导体设备测量资料、产品良率原封不动传输给了美国公司。

韩媒方面甚至表示,因为三星员工直接将企业机密信息以提问的方式输入到ChatGPT中,会导致相关内容进入学习数据库,从而可能泄漏给更多人。

据三星表示,为了避免这种情况再次发生,他们已经告知员工谨慎使用ChatGPT。如果后面仍发生类似事故,将考虑禁止在公司内网上使用ChatGPT。

看起来,三星这次又搞了个大新闻啊。

有网友将此戏称为:xx网盘存公司内部文件(doge)。

不过,也有网友发现了这件事诡异的地方。

他们是怎么知道数据被泄露的?ChatGPT这么快就发布了新版本吗?

而当《经济学人》记者向三星方面确认消息真实性时,相关负责人表示由于是公司内部事故,所以很难给出明确回复。

目前,跟进该消息的主要是韩国媒体,所谓聊天内容是怎么被加入到学习数据库的,细节方面还有待推敲。

所以,真如报道所说,这些数据会被ChatGPT用于训练、给更多人看到?

企业上传到ChatGPT的数据究竟是否安全?

3.1%打工人在给ChatGPT喂企业数据

三星这次引起热议,关键点在于将内部半导体数据上传给了ChatGPT。

3月11日,三星的半导体事业暨装置解决方案事业部(DS)部门允许员工使用ChatGPT,随后20天内就发生了三起将公司内部半导体数据上传到ChatGPT的事件:

其中,员工A用ChatGPT帮自己查一段代码的bug,而这段源代码与半导体设备测量数据有关;员工B想用ChatGPT帮自己优化一段代码,就直接将与产量和良品率记录设备相关的一段代码输入了其中;

员工C则先用AI语音助手Naver Clova将自己的会议录音转成文字,再用ChatGPT帮他总结一下会议内容,做成摘要……

目前,三星内部已经采取了“紧急措施”,限制与ChatGPT沟通的话题每个内容上传量不超过1024 bytes,还透露出要开发公司内部AI的意向。

然而,同样值得注意的是,这些消息大多为韩国方面在跟进,OpenAI尚未回应。

不过,在OpenAI上周更新的数据使用说明中确实有提到,对于非API产品如ChatGPT、DALL-E,平台确实会使用用户数据来进一步提升模型效果。

如果是API类产品,则确定不会使用用户提交的数据。

而让ChatGPT上传企业数据的事儿,并不止三星一家公司员工干过。

据统计,不少企业员工都正在将公司数据直接传给ChatGPT,让它帮忙处理。

Cyberhaven统计了160万名员工使用ChatGPT的情况,发现:

3.1%的打工人都会将企业内部数据直接输入给ChatGPT分析。

Cyberhaven是一家数据分析服务提供商,他们开发了一个保护企业数据的方法,能帮助公司观察和分析数据流向、实时了解数据丢失原因。

他们发现,随着ChatGPT的应用率越来越高,给它上传企业数据的打工人数量也越来越多。

光是一天之内(3月14日),每10万名员工就平均给ChatGPT发送了5267次次企业数据:

那么这其中又有多少敏感数据呢?

数据显示,在员工直接发给ChatGPT的企业数据中,有11%都是敏感数据。

例如在一周内,10万名员工给ChatGPT上传了199份机密文件、173份客户数据和159次源代码。

上传数据是一回事,并不意味着它就会被使用,但数据安全又是另一回事了。

ChatGPT最近爆出的泄漏用户信息bug,让不少企业开始重视这一点。

ChatGPT曾出过数据泄漏bug

实际上,为了规避数据泄露风险,已有不少企业明确禁止员工使用ChatGPT。

如软银、日立、富士通、摩根大通等都发出了相关通知。

同样是芯片大厂的台积电也在几天前表示,员工使用ChatGPT时不准泄露公司专属信息,注意个人隐私。

还有意大利个人数据保护局也宣布,禁止使用聊天机器人ChatGPT,并限制开发这一平台的OpenAI公司处理意大利用户信息。

之所以会引来这些恐慌,一部分原因还得从ChatGPT自身说起。

3月末,ChatGPT被曝出现bug会导致用户对话数据、支付信息丢失泄露

这一度导致了ChatGPT短暂关闭。

OpenAI的回应中表示,这一漏洞可能导致了1.2%ChatGPT Plus用户的支付信息(包含用户姓名、邮件、支付地址、信用卡号最后四位及信用卡过期时间)被暴露了约9个小时。

漏洞还导致了用户的对话主题及记录能被别人看到,如果里面包含隐私信息,则有泄露的风险。

OpenAI CEO山姆·奥特曼随即回应,这个bug来自开源库,他们使用这个库在其服务器中缓存用户信息。

目前具体受到漏洞影响的用户数量还无法明确,OpenAI表示已通知受影响用户其支付信息或被曝光。

但这种回应无法让各方满意。如意大利个人数据保护局就提出,OpenAI没有就收集处理用户信息进行告知,缺乏收集和存储个人信息的法律依据。

由此要求OpenAI公司必须在20天内通过其在欧洲的代表,通报公司执行保护局要求而采取的措施,否则将被处以最高2000万欧元或公司全球年营业额4%的罚款。

如今,随着三星被曝因ChatGPT发生数据泄露,也引发了进一步讨论。

比如不少人在使用ChatGPT时,确实没有很强的隐私保护意识。

以及如今随着越来越多企业使用ChatGPT,相关使用规则也需要进一步明确。内置了ChatGPT的微软产品,会不会也要禁止?

对此,你怎么看呢?

TIP:您正在快照阅读,阅读更多点击

发布日期:2023-04-03 10:51:58

以上由全知导航为您整理呈现.删除请联系: info@404886.com     

网友观点:
马上发表

网友评论仅供其表达个人看法,并不表明全知头条立场。请理想发言,恶性发现将由个人承担全部责任。

已为您加载完全部评论
相关推荐