谷歌正在為數據科學家提供一種保護私人信息的分析工具
谷歌今天宣布,它正在開放其所謂的差異隱私庫(differential privacy library),這是一個內部工具,該公司用來安全地從包含用戶私人和敏感個人信息的數據集中獲取見解。差異隱私是數據科學的加密方法,特別是在分析方面,允許依賴軟件輔助分析的人從大量數據集中獲取見解,同時保護用戶隱私。
它是通過將用戶數據與人工“白噪聲”相結合來實現的,正如Wired的Andy Greenberg所解釋的那樣。這樣,任何分析的結果都不能用來揭開個人的面具,也不能允許惡意的第三方追踪任何一個數據點,使其返回可識別的源。
例如,該技術是Apple的隱私意識機器學習方法的基石。它允許Apple從iPhone用戶那裡提取數據,統計上對這些數據進行匿名處理,並且仍然可以提供有用的見解,這些見解可以幫助它改進其Siri算法。
谷歌對chrome也採取了同樣的做法,使用隨機可聚合隱私保護序數響應(RAPPOR),這是一種差異隱私工具,用於分析和從瀏覽器中提取見解,防止個人瀏覽歷史等敏感信息被追踪。今年早些時候,谷歌還為其Tensorflow人工智能訓練平台開放了一個名為Tensorflow Privacy的工具,讓研究人員在訓練人工智能算法的同時,利用不同的隱私工具,保護用戶數據。
但谷歌指出,還有許多其他領域,如醫療保健和社會學,差異隱私可能是有用的。這種類型的分析可以通過各種方式實現,並用於許多不同的目的,差異隱私是一種高度保證的分析手段,可確保以隱私保護的同時,解決此類用例。谷歌希在GitHub上開源差異隱私庫,可以幫助沒有大型矽谷科技公司資源的組織和個人採用同樣嚴格的隱私方法進行數據分析。