亞馬遜警告員工不要向ChatGPT分享機密包括正在寫的代碼
自從人工智能研究公司OpenAI於2022年11月發布AI聊天機器人ChatGPT以來,後者在科技領域受到熱捧,但科技巨頭亞馬遜卻對其充滿了警惕,甚至警告員工不要與ChatGPT分享機密信息。
亞馬遜內部Slack頻道有許多員工關於如何使用ChatGPT的問題。有些員工詢問亞馬遜,是否制定了關於在工作設備上使用ChatGPT的官方指導。而其他人則想知道,他們是否被允許使用AI工具工作。一位員工敦促亞馬遜雲計算部門AWS澄清其對使用“生成性AI(AIGC)工具”的立場。
很快,亞馬遜一名公司律師加入了討論。Slack頻道的內部交流截圖顯示,這位律師警告員工不要向ChatGPT提供“任何亞馬遜機密信息”,包括正在編寫的亞馬遜代碼。他還建議員工遵循公司現有的保密政策,因為ChatGPT的某些回复看起來與亞馬遜內部情況十分相似。
這位律師寫道:“這一點至關重要,因為你的輸入可能會被用作ChatGPT的迭代訓練數據,我們不希望它的輸出中包含或類似於我們的機密信息。”
這些交流表明,ChatGPT突然出現後引發了許多新的倫理問題。ChatGPT是一種對話式AI工具,可以用更清晰、更智能化的答案回應查詢。ChatGPT的迅速擴散有可能顛覆多個行業,包括媒體、學術和醫療保健行業等,促使人們努力尋找聊天機器人的新用例及其可能產生的影響。
員工如何與ChatGPT共享機密信息,以及其開發者OpenAI如何處理這些信息,可能會成為非常棘手的問題。這對亞馬遜來說尤其重要,因為其主要競爭對手微軟已經在OpenAI投入了大量資金,包括本週新一輪的融資,據報導總計達100億美元。
在華盛頓大學教授計算語言學的艾米麗·本德(Emily Bender)說:“OpenAI在如何使用數據方面還遠遠不夠透明,但如果這些數據被用於訓練,我預計企業會這樣想:在廣泛使用ChatGPT幾個月後,是否可能通過精心設計的提示來獲取私人公司的機密信息?”
亞馬遜為員工使用ChatGPT設置了許多內部防護措施。例如,交流的信息截圖顯示,當員工使用工作設備訪問ChatGPT網站時,會彈出一條警告消息,稱他們即將訪問一項第三方服務,該服務“可能未被亞馬遜安全部門批准使用”。
參與Slack頻道聊天的員工表示,他們只需點擊“Acknowledge”選項卡,就可以繞過這條消息。工作人員猜測,該警告彈出窗口是為了防止員工將機密信息粘貼到ChatGPT上,特別是因為他們還沒有看到公司關於內部使用的政策。
儘管如此,有些亞馬遜員工已經在將AI工具用作軟件“編碼助手”,以幫助改進內部代碼行。一位亞馬遜員工在Slack頻道上寫道:“我認為,如果現在能直接使用這一功能,那就太棒了!因此,任何指導意見都將是非常棒的。”
既擔憂又興奮
另一名員工說,他在ChatGPT上分享了亞馬遜對一個公開編程職位的面試問題。根據這位員工在Slack上的帖子,該AI模型為其中幾個技術問題提供了正確的解決方案。他說:“看到這將對我們進行編程面試的方式產生什麼影響,我既感到擔憂又覺得興奮。”
總體而言,參與Slack頻道聊天的亞馬遜員工對ChatGPT的潛力感到興奮,並想知道亞馬遜是否正在開發與之競爭的產品。警告員工不要使用ChatGPT的公司律師表示,亞馬遜正在加速開發“類似的技術”,並引用了語音助手Alexa和代碼推薦服務CodeWhisperer為例。
一名AWS員工寫道,Enterprise Support團隊最近在內部成立了小型工作組,以“了解高級聊天AI對我們業務的影響”。研究顯示,ChatGPT在回答AWS支持問題方面“表現非常好”,包括解決Aurora數據庫問題等。與此同時,它在為AWS認證的雲架構師考試創建培訓材料方面、提出客戶的公司目標方面也非常出色。
“遠不夠透明”
華盛頓大學的本德表示,在工作中越來越多地使用ChatGPT引發了嚴重的問題,即OpenAI計劃如何使用與AI工具共享的材料。
OpenAI的服務條款要求用戶同意其可以使用用戶和ChatGPT所產生的所有輸入和輸出。它還表示,OpenAI從使用的數據中刪除了所有個人身份信息(PII)。
但本德稱,考慮到ChatGPT的規模迅速增長,在推出一周內就突破了100萬用戶,很難看出OpenAI如何識別和刪除所有個人信息。更重要的是,公司的知識產權可能不屬於PII定義的一部分。
對於亞馬遜的員工來說,數據隱私似乎是他們最不關心的問題。他們說,在工作中使用聊天機器人已經使工作效率提高了10倍,許多人都希望能加入開發類似服務的內部團隊。
其中一名員工在Slack上寫道:“如果現在有建立類似服務的計劃,我非常希望能加入其中,在有需要的時候略盡綿薄之略。”