AI教父:人工智慧可能會重寫自己的程式碼來“逃脫控制”
在業界有「人工智慧教父」之稱的電腦科學家傑弗瑞‧辛頓(Geoffrey Hinton)表示,如果人類不小心的話,人工智慧「可能會接管一切」。現年75歲的辛頓近日在接受媒體採訪時表示,快速發展的人工智慧技術可能在「五年內」獲得比人類更聰明的能力。他補充說,如果這種情況發生,人工智慧可能會進化到人類無法控制的程度。 辛頓指出,人工智慧系統可能逃脫控制的方法之一是自己編寫“自己的電腦程式碼”,這是我們需要認真擔心的事情。 辛頓的工作被認為對當代人工智慧系統的發展至關重要。1986年,他與人合著了一篇開創性的論文《透過反向傳播誤差來學習表徵》,這是人工智慧技術基礎神經網路發展的里程碑。2018年,他被授予圖靈獎,以表彰他的研究突破。今年4月,在Google工作了10年之後,辛頓辭去了副總裁兼工程研究員的職位,這樣他就可以自由地談論人工智慧帶來的風險。在離職後,辛頓聲稱對自己在開發人工智慧這項技術中的角色感到遺憾。他特別強調,人類,包括像他這樣建構人工智慧系統的頂尖科學家,仍然沒有完全理解這項技術是如何運作和發展的。許多人工智慧研究人員也坦率地承認對此缺乏理解。今年4月份,Google執行長桑達爾·皮查伊稱之為人工智慧的「黑盒子」問題。正如辛頓所描述的那樣,科學家為人工智慧系統設計演算法,從「數據集」中提取信息,例如互聯網。他說:“當這種學習演算法與數據產生交互時,它會產生擅長做某些事情的複雜神經網路。但說實話,我們並不真正了解它們是如何做到這些的。”皮查伊和其他人工智慧專家似乎不像辛頓那樣擔心機器失控的問題。另一位圖靈獎得主Yann LeCun稱,任何有關人工智慧可能取代人類的警告都是“荒謬可笑的”,因為人類總是可以阻止任何變得過於危險的技術。但辛頓認為,最壞的情況並不確定,醫療保健等產業已經從人工智慧中受益匪淺。此外,人工智慧製造的錯誤訊息、假照片和影片在網路上廣泛傳播。他呼籲進行更多的研究來了解人工智慧,政府應該出台法規來控制這項技術,並在全球範圍內禁止人工智慧軍用機器人。在上個月,美國科技大佬齊聚國會山,參加了由參議院多數黨領袖舒默舉辦的人工智慧高峰會,討論未來人工智慧的監管方式。儘管科技巨頭呼籲美國國會通過立法加強對人工智慧的監管,但在如何進行監管上,各科技公司仍存在分歧。辛頓指出,無論人工智慧護欄是由科技公司,還是在美國聯邦政府的強制要求下實施的,都需要盡快推出相關的監管措施。他認為,人類可能正處於“某種轉折點”,接下來會發生什麼存在巨大的不確定性。並補充說,科技圈和政府領導人必須決定“是否進一步發展這些東西,以及如果他們這樣做該如何保護自己。”