谷歌發布TensorFlow Privacy:大幅提升AI模型中的隱私保護
基於機器學習框架TensorFlow的谷歌最新模塊,可以讓開發者只添加幾行額外代碼就能改善AI模型中的隱私。TensorFlow是目前用於構建機器學習應用程序最流行的工具之一,它被世界各地的開發人員用於創建文本、音頻和圖像識別算法等程序。而伴隨著TensorFlow Privacy的引入,這些開發人員能夠使用“差異隱私”的統計數據來保護用戶的數據。
谷歌產品經理Carey Radebaugh向外媒The Verge透露,發布這款工具是谷歌履行對人工智能的承諾和願景。他說道:“如果我們沒有為TensorFlow引入差異化隱私技術,那麼無論是團隊內部還是Google外部用戶在使用過程中就會發現有些不太簡單。因此對於我們來說將其引入TensorFlow是非常重要的,我們還將會對其進行開源,並開始圍繞著它創建新的社區。”
差異隱私的機制有點複雜,但它本質上是一種數學方法,這意味著用於培訓AI模型的用戶數據並不能編碼個人可識別信息。這是在AI模型中保護個人信息的常用方法:蘋果在iOS 10上引入了自家的AI服務的,而Google在Gmail的Smart Reply等部分AI功能中也使用到了這項技術。
已經在的數據隱私領域工作了20年的谷歌研究科學家ÚlfarErlingsson表示:差異化隱私技術以“數學確定性”消除了編碼個人數據的可能性,他表示這是一種從數據集中刪除可識別的異常值而不改變數據的聚合含義的技術。
谷歌的研究科學家ÚlfarErlingsson說,他已經在數據隱私領域工作了20年。Erlingsson告訴The Verge,這是一種從數據集中刪除可識別的異常值而不改變數據的聚合含義的技術, “你的結果獨立於任何一個人的[數據],但這仍然是一個很好的結果。”