3·15晚會“人臉識別”遭猛捶如何找到“體面的”反人臉識別方法?
昨天吃著炸雞喝著喜茶在電腦前等315晚會,本以為近期事故頻發的特斯拉應該會與今年的315晚會撞個滿懷,沒想到這一次特斯拉躲過了雷神之捶,被人臉識別截了胡。整個晚會,宛如“隱私專場”,人臉識別濫用、簡歷流入黑市,我一個激靈,炸雞不香了。特斯拉我買不起,人臉我有的是!
據報導,只要安裝了具有人臉識別功能的攝像頭,消費者只要進了其中一家店,在不知情的情況下,就會被攝像頭抓取臉部信息並自動生成編號,以後顧客進入去過哪家分店,去過幾次,商家都可以快速得知。
讓我康康,是哪些商戶安裝了人臉識別系統。
寶馬汽車4S 店、Max Mara 專賣店、科勒衛浴,江蘇大劇院、喜茶、老百姓大藥房、良品鋪子、水星家紡、九芝堂、晨光玩具……
此次披露的攝像頭公司包括蘇州萬店掌、悠絡客電子科技、廣州雅量智能、深圳瑞為信息。
看得小編直呼好傢伙,躲過了房子、寶馬的高奢消費,沒躲過喜茶、藥房等日常場景。
百年老品牌科勒衛浴倒是乖巧,麻利地公告道歉,連夜拆除攝像頭,無法連夜拆除攝像頭做斷電下線處理,一系列動作行雲流水,算是稍稍平息了公眾的怒火。
各門店紛紛表示,對於該設備的使用,僅作到店人數統計;對該設備所採集的信息不做保存、分析及轉移。
被曝光的企業陸續發表聲明致歉。但是不少網友並不買賬。
還有什麼場景是沒有人臉識別的?我們只能被“裸奔”嗎?
看著手裡的喜茶,我坐不住了,難道我只能戴頭盔,穿臉基尼嗎?
大家還記得去年一男子戴著頭盔看樓盤的照片吧。
看來為了信息不被洩露,上到各界大佬,下至群眾百姓都使出了渾身解數。
大佬怎麼玩?
不少藝術家和時裝設計師發揮特長,試圖與人臉識別技術一較高下。
藝術家亞當·哈維(Adam Harvey)開發了CV Dazzle 反人臉識別妝容,使用戲劇性的化妝和動態髮型來打斷臉部識別的算法。
計算機視覺炫目:CV Dazzle
甚至,在倫敦,藝術家組織了炫目俱樂部成員,酷炫著裝,按計劃遊行。
有理由懷疑他們只是想開爬梯。
後來,連字符實驗室與亞當•哈維又突發奇想,不如給AI很多人臉呢?
於是就有了超臉HyperFace,與炫目妝容相反,他們在服裝上展示許多虛假的人臉,以此迷惑算法。
很可惜,藝術家的奇思妙想甚至連iPhone都騙不過。
因為很多面部識別技術使用紅外(不可見)光識別,它們通過突出紅外點映射網格,這些算法創建一個人臉的3D模型,像一個雷達地形圖。
它不在乎你用什麼顏色的化妝品,或是穿著印有2D人臉的衣服。
莫斯科國立大學和華為莫斯科研究院的科學家們提出“腦門貼紙”。
他們研發出一種具有特殊紋路的紙符,在紙片上生成了一種對抗攻擊圖像,讓其不再是一張平面的紙了,而是三維立體,能直接干擾和欺騙AI的紙。
人們將該紙貼在腦門上,迷惑AI。
理論上可行,只是感覺貼上會變成不太聰明的亞子。
中國一股曾消失的組織表示so easy,直接上造型。
這場“文藝復興”最終只停留在字面上,畢竟這不符合我們都市麗人的風格,如此花容月貌怎能不見天日。
我覺得不行,有必找到到一個靠譜的、體面的反人臉識別方法。
物理遮擋無效,能否用紅外對抗紅外呢?
腦海裡突然想起《甄嬛傳》中安陵容的經典台詞:“是皇后殺了皇后。”
對,用AI來對付AI,用魔法對抗魔法!
由香港中文大學、復旦大學、印第安納大學組成的一個研究小組想到了這一點。
他們研發出一款能發出紅外線的球帽,採用了“對抗模式”的反人臉識
別設計。據悉,這款球帽曾在阿里出售。
有不少學者從眼鏡上做文章。
2015年,日本國立情報學研究所發明出高科技眼鏡Privacy Visor,利用紅外發射技術,通過在眼鏡框架上安裝11個近紅外發光二極管,使攝像頭無法檢測到人的面部特徵。
攝像頭通過檢測眼睛和鼻子部位的光線對比判斷面部,面部的明暗對比特徵消失,攝像頭也就無法識別到人臉了。
據悉,該款眼鏡當初擬定售價為240美元,約合1490元人民幣。
emmmmmm,效果嘛,大家看圖理解,反正我是不會買這款售價不菲的眼鏡。
2016年,美國卡耐基梅隆大學和北卡羅來納大學的研究人員也開發出一款反人臉識別眼鏡。
該種眼鏡可以讓攝像頭前的人顯示成為另一個人,在對商用級別面不是軟件的測試中,其誤認人臉的成功率為100%。
左邊男性在佩戴後被識別成了女演員米拉· 喬沃維奇,右邊的女性被識別成一個中東男人。
研究人員Mahmood Sharif曾表示,不少面部識別軟件的神經網絡是基於對人臉像素顏色的分析來猜測一個人的身份的,被測者臉上任何輕微的變化都會影響到整個識別系統。
他們通過優化算法找到了可以躲過系統識別的眼鏡顏色,並且保證顏色可以平滑過渡(類似於自然圖像)。這些圖案會擾亂面部識別系統的感知,影響AI讀取它們的準確性。
但是,不法分子或許能通過眼鏡輕而易舉地逃過安全監控或者以別人的身份進入某些區域。考慮到這一點,開發者將研究結果提交給本國的運輸安全管理局(TSA)。
此外,你還可以試試Reflectacles的強力反光眼鏡/墨鏡:IRpair和Phantom。
它們的原理十分簡單,在太陽眼鏡的鏡框上貼上高反光率的材料。這種材料能反射大部分可見光和攝像頭髮射出的紅外線,從而“亮瞎”攝像頭。
另外,這款售價95美元的眼鏡還會有意向不到的效果。
由於光線反射,能夠提高夜晚的可見度,用戶在夜晚戴著它,能夠最大程度的降低被過路車輛誤撞的機率,提升安全性。
與此同時,你需要接受的是,攝像頭里的你會擁有《X-Men》的鐳射眼,自帶聖光,目光炯炯。
眼鏡之外,更多的人還是在算法上下功夫,他們多采用“對抗訓練”的方法,給人臉施加“隱私濾鏡”。
2018年,多倫多大學研究人員設計新算法,動態地破壞人臉識別系統。他們的解決方案利用了一種叫做對抗訓練(adversarial training)的深度學習技術,這種技術讓兩種人工智能算法相互對抗。
簡單來說,該算法通過改變一些人眼幾乎不可識別的微小像素來改變識別器的檢測結果。
儘管算法對於像素的修改十分微小,但對於檢測器來說卻是致命的。
結果表明,他們的系統可以將原本可檢測到的人臉比例從接近100% 降低到0.5% 。
據悉,這個反人臉識別系統具有神經網絡自主學習能力,可以隨著人臉識別系統的進化而不斷改變自己。
2019年,來自挪威科技大學的《DeepPrivacy:A Generative Adversarial Network for Face Anonymization》一篇論文中稱用新的更有挑戰表示的方法欺騙了人臉識別系統。
在不改變原來的數據分佈的前提下把人臉匿名化,更通俗來講,就是輸出一張逼真的人臉,但是不改變原圖人的姿態和背景。
在這種技術的加持下,人臉識別系統依舊能夠正常運行,但是完全無法識別出原來的人臉身份。
根據作者們的測試,經過他們匿名化的人臉仍然保持了接近於原圖的人臉可識別性,普通的人臉識別對於匿名化後的圖像,識別出人臉的平均準確率只下降了0.7% 。而人臉含有的自然信息自然是100% 不重合的。
但這項技術同樣存在風險,比如偽造者冒充他人自由出入具有人臉識別系統的設施。
同年,Facebook 的人工智能實驗室Facebook AI Research(FAIR)開發出一種“去識別”系統,該系統可以欺騙面部識別系統,例如,讓面部識別系統將你識別為一位女明星。
該技術使用機器學習實時地改變視頻中人物的關鍵面部特徵,誘使面部識別系統錯誤地識別對象。
據稱,該技術將一個對抗自編碼器與一個訓練過的面部分類器配對,以使人的面部稍微扭曲,從而在迷惑面部識別系統的同時,又能維持一個人們可以認出來的自然樣貌,它可以用在視頻,甚至是實時視頻中。
Facebook表示,為了控制人臉識別技術的濫用,才推出了對視頻進行去識別的方法,考慮到這項研究可能會對未來的個人隱私保護工具產生影響,Facebook 並不打算在任何商業產品中使用這個反人臉識別技術。
2020年,芝加哥大學Sand Lab團隊創建了“福克斯” Fawkes技術。與上述技術原理相似,主要通過AI技術,神不知鬼不覺地修改你的照片,以欺騙面部識別系統。
福克斯的運行原理比較複雜,簡單來講,它通過代碼對像素進行一些微調,普通人很難看出兩者的區別,但對於人臉識別系統來說,這就是天壤之別。
具體來說,Fawkes將A改造成B,儘管A圖和B圖的差別非常細微,但是當前廠商的人臉識別系統,會認為A圖和B圖不是同一個人,這樣就可以保護用戶隱私。
而且,Fwkes的處理速度很快,單個圖像僅需要幾分鐘。經過Fawks快速處理的圖像,可以在不改變原貌的基礎上,隨意分享在各大社交媒體平台,而不用擔心照片被相關公司隨意抓取或用於非法途徑。
不難發現,技術上,大家的途徑不謀而合,即利用AI系統的神經網絡漏洞,設計算法與之對抗,或進行攻擊,從而起到干擾、誤導和欺騙識別系統的效果。
結語
人臉識別,從移動支付到手機解鎖,從交通出行到旅遊檢票,從門禁打卡到關卡安防,從銀行辦理到政務協助,人們從好奇,到不以為然,到接受,到習以為常。
它給人們帶來了便捷、安全和智能,也會帶來隱私、安全和不安。
但人臉識別技術本身,不是原罪。
“人臉識別技術是無罪的,鋼鐵可以被用來製造槍支,也可以被用於製造嬰兒保育箱。”
對於人臉識別技術落地所遭遇的困境,亞馬遜CTO Werner Vogels如是說。
刀可以傷人,也可以做出溫馨的晚餐。有人用人臉識別技術牟利犯罪,也有上述人士為技術的安全使用殫精竭慮。
決定技術發展的走向,取決於監管部門的選擇。
過去一段時間,以人臉識別為代表的AI技術在部分地區的發展的確遭遇了一些挑戰,但我們也絕不能因此去否定它所有的光環。
畢竟技術的正向革新往往都是伴隨著陣痛匍匐前行的。