微軟副總裁參與起草業內最新報告稱ChatGPT或會暴露企業機密信息
年初以來,圍繞ChatGPT等最新的人工智能聊天工具的投資熱潮,可謂“一浪高過一浪”。不過隨之產生的安全性、透明度和公平性等監管話題,也開始越來越受到人們的高度重視。雖然當前人工智能技術正掀起新一輪技術革命,但也引發了人們對潛在新型攻擊和內容合規等安全風險的疑慮……
本週,以色列網絡安全公司Team8在一份最新報告中就表示,使用ChatGPT等生成式人工智能工具的公司,可能會將客戶信息和商業機密置於危險之中。
該報告指出,新型人工智能聊天機器人和協作工具的廣泛推廣普及,可能會令一些公司面臨數據洩露和法律風險。許多人眼下已擔心,黑客可能會利用人工智能聊天工具,來獲取敏感的企業信息或對企業發動攻擊。此外,目前投餵給聊天機器人的機密信息,未來也有可能會被AI公司所利用。
這份報告的發布方——Team8在全球網絡安全領域享有盛名,這家以色列公司成立於2014年,由前以色列國防軍精英部隊“8200部隊”的成員創立,專注於網絡安全、數據分析和人工智能等領域。巴克萊、微軟、沃爾瑪和思科等多家全球巨頭企業都與Team8有著合作和投資關係。
多類風險不容小覷
目前,包括微軟和谷歌母公司Alphabet在內的大型科技公司,都在爭相通過生成式AI技術改進聊天機器人和搜索引擎。他們利用從互聯網上抓取的數據訓練其AI模型,為用戶的查詢提供一站式服務。
對此,Team8在報告表示,如果企業使用機密或私密數據來投餵這些工具,今後將很難刪除相關信息。
Team8寫道:“使用AI聊天工具的企業,其敏感信息、知識產權、源代碼、商業機密和其他數據,可能會通過用戶直接輸入或API等渠道被其他人獲取。”
Team8目前將這一風險標記為“高風險”。不過他們也表示,如果採取適當的防範措施,該風險將能降為“可控”。
Team8在報告中還強調,目前對聊天機器人的查詢尚不會被輸入大型語言模型中來訓練AI,這與最近關於這些信息有可能被他人看到的報導相悖。不過,該報告也指出,在訓練未來版本的大語言模型時,未必不會採取這種實時接入的方式。
該報告還標記了另外幾項與整合生成式人工智能工具有關的“高風險”問題,並強調了信息正越來越多地面臨通過第三方應用程序共享的威脅。
目前,微軟已在其必應搜索引擎和Office 365工具中,嵌入了一些人工智能聊天機器人的功能。Team8報告表示,“目前在用戶端,第三方應用正利用生成式人工智能的API,倘若他們遭到黑客攻擊,就有可能丟失電子郵件和網絡瀏覽器權限,攻擊者還有可能冒充用戶展開行動。”
報告還羅列了一些AI聊天工具存在的“中風險”問題,例如:使用人工智能有可能加劇歧視、損害公司聲譽或導致企業遭遇侵權訴訟等。
多位權威人士為報告“背書”
根據媒體看到的信息,微軟公司副總裁Ann Johnson參與起草了這份報告。微軟已經向ChatGPT的開發者Open AI投資了數十億美元。
微軟發言人表示,“微軟鼓勵就安全和人工智能領域不斷發展的網絡風險進行透明討論。”
此外,數十名美國公司的首席信息安全官也被列為這份報告的撰稿人。Team8的報告還得到了前美國國家安全局局長兼網絡戰司令部司令邁克爾·羅傑斯(Michael Rogers)的認可。
目前,ChatGPT聊天機器人的火爆已經引發了全球範圍內監管呼聲。不少國家的政府已擔心,在人們試圖利用這項技術提高效率時,這種創新也有可能會被用於不法行為。
美國聯邦貿易委員會領導人周二就表示,ChatGPT等最新的人工智能工具可能導致詐騙行為激增,該機構將追究濫用人工智能技術來進行欺詐的公司。