三星被曝因ChatGPT洩露芯片機密韓媒驚呼數據“原封不動”直傳美國
三星引入ChatGPT不到20天,就發生3起數據外洩事件?!其中2次和半導體設備有關,1次和內部會議有關。消息一經釋出馬上引發各界熱議,尤其是韓國方面。韓版《經濟學人》的文章中直接寫道:這導致半導體設備測量資料、產品良率原封不動傳輸給了美國公司。
訪問購買頁面:
韓媒方面甚至表示,因為三星員工直接將企業機密信息以提問的方式輸入到ChatGPT中,會導致相關內容進入學習數據庫,從而可能洩漏給更多人。
據三星表示,為了避免這種情況再次發生,他們已經告知員工謹慎使用ChatGPT。如果後面仍發生類似事故,將考慮禁止在公司內網上使用ChatGPT。
看起來,三星這次又搞了個大新聞啊。
有網友將此戲稱為:xx網盤存公司內部文件(doge)。
不過,也有網友發現了這件事詭異的地方。
他們是怎麼知道數據被洩露的?ChatGPT這麼快就發布了新版本嗎?
而當《經濟學人》記者向三星方面確認消息真實性時,相關負責人表示由於是公司內部事故,所以很難給出明確回复。
目前,跟進該消息的主要是韓國媒體,所謂聊天內容是怎麼被加入到學習數據庫的,細節方面還有待推敲。
所以,真如報導所說,這些數據會被ChatGPT用於訓練、給更多人看到?
企業上傳到ChatGPT的數據究竟是否安全?
3.1%打工人在給ChatGPT餵企業數據
三星這次引起熱議,關鍵點在於將內部半導體數據上傳給了ChatGPT。
3月11日,三星的半導體事業暨裝置解決方案事業部(DS)部門允許員工使用ChatGPT,隨後20天內就發生了三起將公司內部半導體數據上傳到ChatGPT的事件:
其中,員工A用ChatGPT幫自己查一段代碼的bug,而這段源代碼與半導體設備測量數據有關;員工B想用ChatGPT幫自己優化一段代碼,就直接將與產量和良品率記錄設備相關的一段代碼輸入了其中;
員工C則先用AI語音助手Naver Clova將自己的會議錄音轉成文字,再用ChatGPT幫他總結一下會議內容,做成摘要……
目前,三星內部已經採取了“緊急措施”,限制與ChatGPT溝通的話題每個內容上傳量不超過1024 bytes,還透露出要開發公司內部AI的意向。
然而,同樣值得注意的是,這些消息大多為韓國方面在跟進,OpenAI尚未回應。
不過,在OpenAI上週更新的數據使用說明中確實有提到,對於非API產品如ChatGPT、DALL-E,平台確實會使用用戶數據來進一步提升模型效果。
如果是API類產品,則確定不會使用用戶提交的數據。
而讓ChatGPT上傳企業數據的事兒,並不止三星一家公司員工幹過。
據統計,不少企業員工都正在將公司數據直接傳給ChatGPT,讓它幫忙處理。
Cyberhaven統計了160萬名員工使用ChatGPT的情況,發現:
3.1%的打工人都會將企業內部數據直接輸入給ChatGPT分析。
Cyberhaven是一家數據分析服務提供商,他們開發了一個保護企業數據的方法,能幫助公司觀察和分析數據流向、實時了解數據丟失原因。
他們發現,隨著ChatGPT的應用率越來越高,給它上傳企業數據的打工人數量也越來越多。
光是一天之內(3月14日),每10萬名員工就平均給ChatGPT發送了5267次次企業數據:
那麼這其中又有多少敏感數據呢?
數據顯示,在員工直接發給ChatGPT的企業數據中,有11%都是敏感數據。
例如在一周內,10萬名員工給ChatGPT上傳了199份機密文件、173份客戶數據和159次源代碼。
上傳數據是一回事,並不意味著它就會被使用,但數據安全又是另一回事了。
ChatGPT最近爆出的洩漏用戶信息bug,讓不少企業開始重視這一點。
ChatGPT曾出過數據洩漏bug
實際上,為了規避數據洩露風險,已有不少企業明確禁止員工使用ChatGPT。
如軟銀、日立、富士通、摩根大通等都發出了相關通知。
同樣是芯片大廠的台積電也在幾天前表示,員工使用ChatGPT時不准洩露公司專屬信息,注意個人隱私。
還有意大利個人數據保護局也宣布,禁止使用聊天機器人ChatGPT,並限制開發這一平台的OpenAI公司處理意大利用戶信息。
之所以會引來這些恐慌,一部分原因還得從ChatGPT自身說起。
3月末,ChatGPT被曝出現bug會導致用戶對話數據、支付信息丟失洩露。
這一度導致了ChatGPT短暫關閉。
OpenAI的回應中表示,這一漏洞可能導致了1.2% ChatGPT Plus用戶的支付信息(包含用戶姓名、郵件、支付地址、信用卡號最後四位及信用卡過期時間)被暴露了約9個小時。
漏洞還導致了用戶的對話主題及記錄能被別人看到,如果裡麵包含隱私信息,則有洩露的風險。
OpenAI CEO山姆·奧特曼隨即回應,這個bug來自開源庫,他們使用這個庫在其服務器中緩存用戶信息。
目前具體受到漏洞影響的用戶數量還無法明確,OpenAI表示已通知受影響用戶其支付信息或被曝光。
但這種回應無法讓各方滿意。如意大利個人數據保護局就提出,OpenAI沒有就收集處理用戶信息進行告知,缺乏收集和存儲個人信息的法律依據。
由此要求OpenAI公司必須在20天內通過其在歐洲的代表,通報公司執行保護局要求而採取的措施,否則將被處以最高2000萬歐元或公司全球年營業額4%的罰款。
如今,隨著三星被曝因ChatGPT發生數據洩露,也引發了進一步討論。
比如不少人在使用ChatGPT時,確實沒有很強的隱私保護意識。
以及如今隨著越來越多企業使用ChatGPT,相關使用規則也需要進一步明確。內置了ChatGPT的微軟產品,會不會也要禁止?
對此,你怎麼看呢?
來源:量子位