研究人員警告:人工智慧需要更好地理解和管理
蘭卡斯特大學(Lancaster University)的一位學者表示,人工智慧(AI)和演算法有能力並且正在被用來加劇激進化、加强两極分化、傳播種族主義和政治不穩定。國際安全學教授喬-伯頓(Joe Burton)認為,人工智慧和演算法不僅僅是國家安全機構用來挫敗惡意網路活動的工具。他認為,人工智慧和演算法也可能助長兩極化、激進主義和政治暴力,對國家安全本身構成威脅。
此外,他還說,安全化進程(將技術視為一種生存威脅)在人工智慧的設計、使用及其產生的有害結果方面起到了重要作用。
伯頓教授的論文最近發表在愛思唯爾影響力較大的《社會中的科技》雜誌。
他說:”人工智慧通常被認為是用來打擊暴力極端主義的工具,而這是辯論的另一面。”
這篇論文探討了人工智慧在歷史上以及在媒體和大眾文化的描述中是如何被安全化的,並透過探討人工智慧在現代產生極化、激進化效應,從而助長政治暴力的例子。
文章引用了經典電影系列《終結者》,該片描述了一個”複雜而惡毒”的人工智慧所實施的大屠殺,這比任何其他電影都更能引起大眾對人工智慧的認識,以及對機器意識可能導致人類毀滅性後果的恐懼–在這種情況下,就是核戰和蓄意滅絕一個物種的企圖。
伯頓教授寫道:”對機器的不信任、與機器相關的恐懼以及機器與人類面臨的生物、核和基因威脅的聯繫,促使各國政府和國家安全機構希望影響技術的發展,以降低風險,並(在某些情況下)利用其積極的潛力。”
伯頓教授說,先進的無人機,如烏克蘭戰爭中使用的無人機,現在能夠完全自主,包括目標識別和辨識等功能。雖然包括聯合國在內的各國都在進行廣泛而有影響力的辯論,要求禁止”殺手機器人”,並讓人類參與生死決策,但武裝無人機的加速和整合仍在繼續。
在網路安全–電腦和電腦網路的安全性方面,人工智慧正被廣泛應用,其中最普遍的領域是資訊和網路心理戰。
普丁政府在2016 年針對美國選舉進程採取的行動以及隨之而來的劍橋分析公司醜聞表明,人工智慧有可能與大數據(包括社群媒體)相結合,產生以分化、鼓勵激進信仰和操縱身分群體為核心的政治效應,它展示了人工智慧分裂社會的力量和潛力。
在病毒大流行期間,人工智慧被視為追蹤病毒的積極手段,但也引發了對隱私和人權的擔憂。
文章對人工智慧技術本身進行了研究,認為人工智慧的設計、所依賴的數據、如何使用以及其結果和影響都存在問題,文末向從事網路安全和國際關係研究的人員發出了強有力的信息。
伯頓教授是網路衝突和新興技術方面的專家,同時也是該大學安全與防護科學計劃的成員,他寫道:”人工智慧無疑能夠以積極的方式改變社會,但同時也帶來了風險,我們需要更好地理解和管理這些風險。了解該技術在其開發和使用的各個階段所產生的分裂性影響顯然至關重要。從事網路安全和國際關係研究的學者有機會將這些因素納入新興的人工智慧研究議程,避免將人工智慧視為政治中立的技術。換句話說,人工智慧系統的安全性,以及如何將其用於國際地緣政治鬥爭,不應凌駕於對其社會影響的擔憂之上。”
編譯來源:ScitechDaily