會員價更高?大數據時代平台“殺熟”怎麼破?專家解讀
許多消費者曾質疑,為什麼並不是旅遊旺季,機票價格卻越搜越高;為什麼聊天時隨口提到某款商品,轉眼就會在各大平台上看到相關的廣告推送?為什麼使用一款App,會彈出幾十頁翻不完也讀不懂的隱私政策,而要使用它,你必須點擊“同意”?當有一天你不想再使用它時,卻怎麼也找不到註銷按鈕在哪裡?
大數據時代,我們總能更快地找到自己想要的信息,卻似乎越來越難躲開其中暗藏的算法陷阱。
會員價比非會員價還高?平台運用算法進行“殺熟”
不久前,一篇質疑某外賣平台運用算法進行“殺熟”的文章引發熱議。該平台的一位會員用戶肖先生指出,同樣的訂單,他的配送費定價時常比非會員用戶的更高。
肖先生:
經常點同一家(的外賣),有一天我開了會員之後發現配送費價格一下就較之前漲出了三倍。然後那天我試了幾乎一小時,配送費一直是比平時高出了六元。
肖先生告訴記者,之後的一周,他在點外賣的時候,經常同時用兩部手機,分別登錄會員賬號和非會員賬號,進行對比實驗,發現配送費上的差別總是存在。於是他將這些觀察總結成一篇文章發表了在個人公眾號上。
肖先生:
後來我這篇文章出來之後,很多網友在我後台留言都有這種會員“殺熟”的情況。比如說一個鼠標,非會員購買的時候100元,但是用會員買價格變成了110元。結果我開了會員之後,反而比非會員價格還要高,那我開會員的意義在哪。
文章引發熱議後,相關外賣平台聯繫了肖先生。針對他提出的質疑,平台方給出的回復是:配送費上的價格差異是由於系統緩存而導致的誤差。
肖先生:
我嘗試了很多次,在一周之內都是這種情況。那緩存的說法肯定說不過去。何來的位置緩存呢?在同一個地方,差異就是存在於會員和非會員之間。諮詢了一些技術方面的朋友,造成這麼大的誤差是不可能的。
“殺熟”≠差別定價,相關投訴不斷增多
肖先生的疑惑,最終還是沒能得到一個明確的解答。但是他的經歷,卻讓大數據殺熟這個話題再次走進公眾的視野。圍繞這個問題,記者對中國消費者協會和有關法學專家進行了採訪。
中國消費者協會投訴部主任陳劍:
經常會有消費者抱怨說我是老會員了,可是我的價格卻比普通會員(用戶)的價格要高。比如說在一些網約車的平台、電影訂票平台、訂機票的平台等等,都會出現這類問題。第二種情形就是有一些消費者如果多次瀏覽一個頁面,會出現(商品)價格上漲的情況。消費者可能基於害怕漲價或者是發現比如機票很緊張的情況,就匆忙下單,結果等他下單之後發現,很快地這個價格又回落了。
據專家介紹,大數據殺熟,最關鍵的一步就是要對客戶非常“熟悉”,並由此提供差異化選擇,這在以往的一些商業模式中其實早已存在,而且很少有負面評價。
北京航空航天大學法學院副教授裴煒:
大數據殺熟本身來說,它背後的現像其實是差異化定價。比如說保險,不同的人的保金、保額或者保險的強制期限都會不一樣。所以如果單純用差異化的定價來說的話,它不一定構成一個負面性的東西。我們所反感的是沒有正當性基礎的差別定價。
清華大學人工智能國際治理研究院副院長梁正:
交通保險會根據你的事故狀況、你的駕駛行為,來決定是否給你折扣,還是要加價。這個行為可能還在大家所接受的是客觀的行為,或者是客觀的個人差別上。現在大家更關注的是,我的個人信息被利用去生成我的數據畫像,然後對我進行定價上的這種區分。
據專家介紹,大數據殺熟與常見的差別定價不同,當它無視消費者的知情權和主動權時,也就違背了消費者貢獻數據的初衷。而在我國現行法律體系下,《價格法》《消費者權益保護法》和《反壟斷法》都針對“大數據殺熟”可能涉嫌違法的情形進行了規制。
北京航空航天大學法學院副教授裴煒:
2020年的時候,我們專門針對在線旅遊服務出了一個相應的規範,要求在線旅遊經營服務者,不能夠濫用大數據或者是相應的技術,針對用戶他的個性化的特徵來進行一個差異化的待遇。《消費者保護法》裡面本身就有相應的規定,我們有獲得公平交易的權利,這本身就意味著要有一個價格的合理性。同時這個“殺熟”有可能還會涉及到比如說反壟斷法上的一些相關內容。問題是存在的,但是我們也看到我們國家的立法,確實也是在不斷地去回應這些現實的問題,努力地去保護我們用戶的一些合法權益。
據中消協介紹,消費者對“大數據殺熟”等問題投訴不斷增多,問題的核心是互聯網平台對算法技術的應用問題,集中體現在推薦算法、價格算法、評價算法、排名算法、概率算法和流量算法等方面。
中國消費者協會投訴部主任陳劍:
比如說消費者在買商品或者服務的時候,平台會根據消費者瀏覽過的頁面、消費者一些喜好,包括他的行踪軌跡,來對他形成一些個性化的推薦。其實可能經營者對他進行了一些精準的個人數據畫像。這種畫像相關的商品和服務只推薦給了他,所以他所獲取的知情權就是存在很大的缺陷。
互聯網平台是如何“熟悉”每一位用戶的呢?答案是通過用戶畫像。在精準的用戶畫像背後,是平台所累積的大量個人數據。
清華大學人工智能國際治理研究院副院長梁正:
用我的這些數據,你最後對我作的這樣的一個(刻畫),這個是不是準確?太準確了的話,大家會擔心被操控。稍微深入一點討論就會發現,我在意的到底是本身這個叫做歧視性的定價,還是說背後所反映出來的我的信息被不當地採集和利用?
平台累積大量個人數據“算”制用戶畫像
基於大數據的用戶畫像,能讓商家摸清你更愛吃辣還是酸,並通過算法把更符合你口味的餐廳排序靠前。用戶數據,往往是通過一個個手機App被互聯網平台所採集的。而在我們和這些App打交道的過程中,同樣也有令大家擔憂的問題不斷出現。
App究竟是如何實現高精度地智能推送?普遍被用戶感知的“App偷聽”是否真實存在呢?
App治理工作組由全國信息安全標準化技術委員會、中國消費者協會、中國互聯網協會、中國網絡空間安全協會的一批網絡安全法律、技術專家組成。
技術專家首先通過一款由他們開發的模擬“App偷聽測試程序”。通過測試,證實了當測試程序置於前台運行時,“偷聽”是可以實現的。
此外,經過對比實驗,技術人員告訴我們,在測試程序退至後台,或者在手機處於鎖屏的情況下,錄音依然可以持續進行一段時間,但都會自行終止。只是不同的手機操作系統,鎖屏下持續錄音的時長略有不同。
那麼,在技術上可以實現的“偷聽”手段,是否在市面上的App中被濫用了呢?
App治理工作組技術專家何延哲:
我們在做實際地對偷聽的這種檢測的時候,發現目前還沒有發現真正意義上哪款App有這種,把語音信息上傳之後的偷聽行為。
App治理工作組專家介紹,偷拍、偷錄雖然在技術上可以實現,但是這種方式成本高昂、效率低下,而且存在高昂的法律風險。
App治理工作組專家表示,目前無論是行業標準還是技術層面,都在進一步強化對手機麥克風等敏感權限調用的透明度,以做到讓手機使用者知情。
App治理工作組技術專家何延哲:
現在我們看到有一些手機操作系統,已經實現了對麥克風使用的實時提示。我們叫攝錄指示器,也就是說當你要調用麥克風的時候,有一個狀態欄,有一個紅點或者說有一個提醒。
剛剛和朋友聊起健身計劃,轉眼網購平台都開始向你推薦健身用品;或者在一個平台檢索過火鍋底料,許多平台都開始向你頻繁推薦涮鍋食材甚至是鍋具。如此精準的個性化推薦是如何實現的呢?
App治理工作組技術專家何延哲:
一個App可以把一個用戶做360度的畫像。這個畫像我相信,它是一個常年積累的結果,這是第一; 第二,是多個渠道匯聚的結果。
據專家介紹,畫像的準確性,主要是通過對我們的購買記錄、瀏覽記錄、搜索記錄,甚至是下載過的應用程序清單等信息進行大數據分析,最終得以實現的。
App治理工作組技術專家何延哲:
為什麼說有時候你會感覺被偷聽呢?提供大數據的這個來源,它不是當前的這個App,它可能是其他App。你去做過一些操作,它會把相應的信息匯總到一起,它可能還會關聯你的好友、關聯你同一個區域內的人員。然後他們有的一些動作,也可能會成為它推送廣告的一個方向。
專家提示,用戶可以在手機操作系統的權限設置裡,找到麥克風權限,檢查目前有哪些App被授權使用麥克風。根據自己的需要,用戶是可以隨時關閉對App使用麥克風的授權的。
App違法違規收集個人信息更應被重視
即使是原本不屬於個人信息的數據,在大量匯聚之後,也能挖掘出事物之間不為人知的聯繫。因此在App治理工作組專家看來,更應該被重視的,是App違法違規收集使用個人信息的行為。而在他們近日對市面上的App進行檢測時,發現了隱私政策篇幅長、用戶難以讀懂;賬戶無法註銷等諸多問題。
App治理工作組技術專家何延哲:
治理工作會非常關注收集個人信息最小化的問題。事實上這個問題我們從實際上來看,從這兩年來看的話,其實是解決了一部分問題。但是解決問題的速度包括效果可能還不太理想,包括那個隱私政策,確實有了,但是它寫得好不好?註銷有了,那他註銷的條件合不合理等,這方面有一些問題。
我們舉一個例子。在測試的過程中,我們發現這一款壁紙的App ,它的隱私政策竟然有一萬多字。那我們看它到底寫了什麼。我相信沒有任何一個人,會把這個隱私政策讀完的。即便是像我們這種每天讀隱私政策的人看得都很頭疼。就比如說,這個隱私政策中寫的這個位置信息。App說我要位置信息,它說了一大堆理由,但是我看它這個理由和壁紙都沒有什麼關係。
北京航空航天大學法學院副教授裴煒:
隱私政策究竟有沒有真的服務到用戶,有沒有真的保護到個人,這塊其實是屬於一個斷裂的狀態。所以未來比較擔心的一點,就是這種保護的形式化。
App治理工作組設有“App個人信息舉報”微信公眾號平台和專用舉報郵箱。專家告訴記者,賬號註銷難,是目前用戶投訴量很大的另一個問題。
中國人民大學未來法治研究院副院長丁曉東:
我們從信息法律的研究上來說,經常有一個術語叫做“數字烙印”。在這個網絡社會上,踩的腳印全部都是被永久留痕的。在我們國家的個人信息保護法裡專門作出了規定,這個我們說從法律權益上來說,它是屬於個人的一種刪除權。
北京航空航天大學法學院副教授裴煒:
信息技術安全國標,其中涉及到個人信息安全規範裡面,就專門提到關於這個註銷。就是說用戶你在註銷或者是停止使用某種服務的時候,它的途徑和方式應該盡可能地與你使用這個服務的時候,它的這個途徑和方式是相同的。那麼同時你在註銷的過程中被要求提供的信息,不應該比你在使用App的時候使用的這些信息、提供的身份信息更多。
專家介紹,在數據要素的流通過程中,個人信息的採集,只是其中一個環節。保護個人信息安全,數據的儲存、處理和流通環節,同樣需要關注。
中國人民大學未來法治研究院副院長丁曉東:
如果把前端環節(數據蒐集)就給封閉的話,其實對於人工智能和數據產業的發展,其實會造成很大的影響。那怎麼樣去調和呢?我想一個很重要的方面就在於說個人信息的蒐集之後,一定要對它進行一個非常嚴格的全生命週期的一個管理。我們要有匿名化機制、模糊化機制。處理的時候我們可能要採取一些數據最小化的處理原則,處理必要的數據。在儲存和流通環節以及保護洩露的問題上,尤其要採取一個非常高的標準。
法律還存一定短板,安全邊界該劃定還需探索
現在,技術帶來的便利和個人信息的保護,正處在一個搖擺天平的兩端。在這個天平的“配平”過程中,法律扮演什麼樣的角色?
中國人民大學未來法治研究院副院長丁曉東:
我們傳統上的消費者保護法,還要包括合同法對於格式條款上的應用、侵權法對於侵權問題上的應用,以及行政監管裡面的很多問題。在這些法律裡面都可以在一定程度上去援引。但是另一方面,由於很多問題都是由於個人信息和算法這些新技術所帶來的,所以在一定程度上來說,也還存在著一定的短板,立法機關也在積極跟進當中。我們的民法典生效,可能會對個人信息的保護,會提供很多法律上的支撐。那麼個人信息保護法(草案)、還有數據安全法(草案)的製定,未來的話肯定也會提供很多的額外的保護。
如今,我們每個人都在大量地生產信息。專家表示,在當下這個由算法和大數據驅動的社會生活裡,法律扮演的更多是兜底保障的角色。安全邊界的劃定,需要監管機構、平台和用戶三方在互動中來探尋。
清華大學人工智能國際治理研究院副院長梁正:
我們也不是一味地通過比如說一些禁止的方式,就能解決它。技術的進步你都會看到它會帶來新問題,但是這個問題的解決呢,也是靠這些技術本身去給我們解決的。
業內人士田天:
數據要素作為一項很重要的生產力,去通過數據賦能產業鏈的上下游,促進數據的流通,包括去促進數據的交易等等。由於存在大量的個人隱私信息,或者說一些商業的數據資產等等,就導致數據的分享、流通和利用,其實中間存在很大的困難。現在其實在學術界相應的一些聯邦學習等等,這種技術都是在解決這個問題,推動相關的標準規範等等,就是並不希望大家因為這種數據安全的一些問題,就因噎廢食。
從事人工智能安全研究的技術專家告訴記者,目前,技術手段上,已經能夠做到在數據依然儲存在原始位置的情況下,達到同樣的分析效果。
業內人士田天:
相當於數據明文並不出庫,但是通過加密的一些方式,就可以實現人工智能在加密數據上的運算。能夠感知到的效果就是說,我的數據資產並沒有洩露,也沒給到別人。沒有任何隱私信息的洩露,但同時我得到一個在更加豐富的數據上訓練得出來的模型。
清華大學人工智能國際治理研究院副院長梁正:
從法律法規的層面來講呢,應該是兜底。然後我們劃定一些紅線,不能夠去影響到公共的安全。像數字經濟的甚至有一些商業模式的迭代是很快的,這方面不能完全等到法律制定出來。針對每一個問題都可以有相應的技術解決方案來應對它,不是沒解的。關鍵是我們要把規則制定清楚。