Facebook解釋如何在為使用者提供廣告的同時保護其隱私
今年早些時候,我們解釋了Google計劃如何使用群組聯合學習(Federated Learning of Cohorts,FLoC)技術來防止個人追蹤,同時仍然為你提供關聯性強的廣告。 然而,就在一個多月前,它宣布推遲這一舉措,部分原因是該公司收到了大量的反對聲音。
也就是說,大型科技組織仍在為保護隱私的數據收集方法投入大量精力。 現在,Facebook透露了更多關於它計劃如何使用隱私增強技術(PETs)來推動下一代數位廣告的細節。
Facebook表示,它正在使用基於密碼學和統計學的技術來實現PETs,使其能夠減少數據處理量,同時保留你的隱私、廣告準確性和個人化偏好。 該公司描述了它在PETs工作中正在測試的三種方法。
第一種是安全的多方計算(MPC),它允許多個組織處理部分用戶數據,然後相互分享見解。 這基本上意味著沒有任何一方可以持有完整的用戶數據,因此了解它們的可能性會減少。 這方面的一個例子是,一個組織持有你所看到的廣告資訊,而另一個組織則看到你所購買的資訊。 MPC將確保這兩個利益相關者獲得他們所需要的數據,而不會獲得你的全部數據。 Facebook正在使用一個名為Private Lift Measurement的解決方案,基於其在GitHub上的開源框架進行MPC工作,預計明年將向廣告商提供這一解決方案。
接下來是設備上的機器學習,確保演算法在個人設備範圍內學習,而不把數據發送到任何外部身份、雲或遠端伺服器。 這項技術仍在評估中,如果成功的話,Facebook希望它能隨著時間的推移而改進。
最後,Facebook計劃引入差異化的隱私設定,實際上是對現有PET的一種補充。 該公司將其描述為:
差別化隱私的工作原理是將精心計算的”噪音”加入數據集。 例如,如果有118人在點擊廣告后購買了一個產品,差分隱私系統將從這個數位中增加或減少一個隨機量。 因此,使用該系統的人看到的不是118,而是120或114這樣的數位。
添加這一小段隨機的不正確資訊,就很難知道誰在點擊廣告后真正購買了產品,即使有很多其他數據也無法將跟蹤繼續下去。 因此,這種技術經常被用於為公共研究而發佈的大型數據集。
Facebook強調這些都是長期的努力,它將定期分享更多關於其進展的資訊。