Facebook正在用AI模擬用戶的不良行為
據外媒The Verge報導,Facebook的工程師們開發了一種新方法,幫助他們識別和防止有害行為,比如用戶傳播垃圾郵件、詐騙他人或買賣武器和毒品。他們現在可以使用人工智能驅動的機器人來模擬不良行為者的行為,讓它們在平行版本的Facebook上自由活動。然後,研究人員可以在模擬中研究機器人的行為,並試驗阻止它們的新方法。
這個模擬器被稱為WW,發音為”Dub Dub”,是基於Facebook的真實代碼庫。該公司在今年早些時候發表了一篇關於WW的論文(之所以這麼叫,是因為這個模擬器是WWW(萬維網)的刪減版),但在最近的一次圓桌會議上分享了更多關於這項工作的信息。
這項研究由Facebook工程師Mark Harman和該公司位於倫敦的人工智能部門研究人員領導。Harman對記者說,WW是一個非常靈活的工具,可以用來限製網站上的各種有害行為,他還舉了一個例子,即利用模擬開發新的防禦措施來對付騙子。
在現實生活中,騙子通常會從徘徊在用戶的好友群中尋找潛在的目標開始工作。為了在WW中模擬這種行為,Facebook的工程師們創建了一組”無辜”的機器人作為目標,並訓練了一些”壞”機器人,這些機器人在網絡中探索,試圖找到他們。然後,工程師們嘗試了不同的方法來阻止”壞”機器人,引入了各種限制條件,比如限制機器人每分鐘可以發送的私信和帖子數量,看看這對它們的行為有什麼影響。
Harman將這項工作與城市規劃者試圖減少繁忙道路上超速行駛的工作進行了比較。在這種情況下,工程師在模擬器中模擬交通流量,然後試驗在某些街道上引入減速帶等東西,看看它們有什麼效果。WW模擬讓Facebook可以做同樣的事情,但對像是Facebook用戶。
“我們將’減速帶’應用於我們的機器人所能執行的動作和觀察,並如此快速地探索我們可能對產品做出的改變,以抑制有害行為,而不傷害正常行為,”Harman說。“我們可以將這個規模擴大到數万或數十萬個機器人,因此,並行地搜索許多許多不同的可能…約束向量。”
模擬想要研究的行為是機器學習中足夠常見的做法,但WW項目之所以引人注目,是因為該模擬是基於真實版本的Facebook。Facebook將其方法稱為“基於網絡的模擬”。“與傳統的模擬中所有的東西都是模擬出來的不同,在基於網絡的模擬中,行動和觀察實際上是通過真實的基礎設施發生的,因此它們更加真實。”Harman說。
不過他強調,儘管使用了這種真實的基礎設施,但機器人無法與用戶進行任何方式的互動。他說:“它們實際上無法通過結構,與其他機器人以外的任何東西進行互動。”
值得注意的是,這個模擬並不是Facebook的視覺拷貝。不要想像科學家們研究機器人的行為,就像你在Facebook群裡看人與人之間的互動一樣。WW並沒有通過Facebook的GUI產生結果,而是將所有的互動記錄為數字數據。
現在,WWW還處於研究階段,該公司用機器人進行的模擬試驗都沒有給Facebook帶來現實生活中的變化。Harman表示,他的小組仍在進行測試,以檢查模擬與現實生活中的行為是否有足夠高的保真度來證明現實生活中的變化。但他認為這項工作將在今年年底前對Facebook的代碼進行修改。
當然,模擬器也有局限性。例如,WW無法模擬用戶意圖,也無法模擬複雜的行為。Facebook表示,機器人會搜索、提出好友請求、留下評論、發帖和發送信息,但這些行為的實際內容(比如,對話內容)並沒有被模擬出來。
不過Harman表示,WW的強大之處在於它能夠進行大規模的操作。它可以讓Facebook運行數千次模擬來檢查網站的各種細微變化,而不影響用戶,並從中發現新的行為模式。他表示:“我認為,大數據帶來的統計能力仍未被充分認識。”
這項工作比較激動人心的一個方面是,WW有可能通過機器人的行動發現Facebook架構中的新弱點。機器人可以通過各種方式進行訓練。有時會給它們明確的指令,告訴它們如何行動;有時會要求它們模仿現實生活中的行為;有時只是給它們一定的目標,讓它們自己決定行動。正是在後一種情況下(一種被稱為無監督機器學習的方法),可能會出現意想不到的行為,因為機器人找到了工程師沒有預測到的達到目標的方法。
“目前,主要關注的是訓練機器人模仿我們知道的平台上發生的事情。但無論在理論上還是在實踐中,機器人都可以做一些我們以前沒有見過的事情。”Harman說。“這其實是我們想要的東西,因為我們最終是想走在不良行為的前面,而不是不斷地追趕。”
哈曼表示,該團隊已經看到了機器人的一些意想不到的行為,但拒絕分享任何細節。他表示,他不想給詐騙者提供任何線索。