DARPA與英特爾、喬治亞理工學院合作開創機器學習“免疫系統”
機器學習系統在面部識別系統到自主車輛等所有領域的普及,伴隨著攻擊者想方設法欺騙算法的風險。簡單的技術已經在測試條件下起了作用,研究人員有興趣找到減輕這些和其他攻擊的方法。國防部高級研究項目局(DARPA)已經找來了英特爾和佐治亞理工學院(Georgia Tech),負責領導旨在防禦機器學習算法對抗欺騙攻擊的研究。
欺騙攻擊在實驗室測試之外很少見,但在實操環境下可能會造成重大問題。例如,McAfee早在2月份就曾報導,研究人員通過在限速標誌上貼上兩英寸的黑色電子膠帶,欺騙了特斯拉Model S中的速度輔助系統,使其超速行駛50英里/小時。還有其他的例子也不勝枚舉,這證明欺騙人工智能並不算困難,幾乎誰都能做到。
DARPA認識到欺騙攻擊可能會對任何使用機器學習的系統構成威脅,並希望主動出擊,減輕這種企圖。因此,大約一年前,該機構制定了一個名為GARD的計劃,即Garanging AI Robustness against Deception的縮寫。英特爾已經同意成為與喬治亞理工學院合作的四年期GARD計劃的主要承包商。
“英特爾和佐治亞理工學院合作,共同推進生態系統對人工智能和ML漏洞的集體理解和能力,”DARPA GARD計劃的首席工程師和研究人員Jason Martin說。”通過對相干技術的創新研究,我們正在合作研究一種方法,以增強對象檢測,提高AI和ML應對對抗性攻擊的能力。”
目前的欺騙緩解的主要問題是基於規則的、靜態的設定。如果規則不被打破,欺騙就能成功。由於欺騙人工智能的方式幾乎有無數種,僅僅受限於攻擊者的想像力,因此需要開發出更好的系統。英特爾公司表示,該計劃的初始階段將著重於利用圖像和視頻中的空間、時間和語義的一致性來改進物體檢測。
DARPA信息創新辦公室的項目經理Hava Siegelmann博士設想的系統與人類的免疫系統並無不同,你可以把它稱為另一個機器學習系統中的機器學習系統。
“我們希望產生的那種基於廣泛場景的防禦,可以在免疫系統中看到,比如說,免疫系統可以識別攻擊,成功攔截後記住本次攻擊的方式,以便在未來的交戰中創造出更有效的反應。”Siegelmann博士說。”我們必須確保機器學習是安全的,不能被欺騙。”