“AI教父”離開Google 曾指出與AI及其不規範使用有關的若干道德問題
在過去的幾個月裡,我們聽說Google已經決定在開發方面四面開花,考慮到2023年Google I/O大會還有幾天,我們很可能會聽到更多關於這家搜索引擎巨頭的計劃。畢竟,該公司希望與必應人工智能、ChapGPT和其他模式進行對抗。然而,事實證明,Google的做法對該公司並不有利。
Google副總裁杰弗裡-辛頓告訴《紐約時報》,他在今年4月初向Google提出了辭職。對於那些不知道的人來說,辛頓被許多人認為是”人工智能教父”,而他離開公司可能預示著公司正在醞釀一些麻煩。
現在,高調的離職在科技界不算什麼。然而,辛頓的離開並不值得輕視。他離開Google是基於人工智能的危險性,而人工智能既不受控制也不受監管。辛頓在多個場合表達了他對Google加強人工智能工作的擔憂,以確保其他競爭對手不會佔據第一位置。通過這樣做,Google暴露了很多道德問題。
例如,辛頓曾談到,生成性人工智能最終會讓公眾充斥著不正確的信息,而且已經很難將其與實際信息區分開來。除此之外,辛頓還談到了人工智能如何取代工作,這已經成為很多人的一大擔憂,包括配音演員、作家,特別是藝術家等等。
然而,這並沒有結束。辛頓還談到,不受控製或監管的人工智能實際上最終會成為全自動武器的巨大擔憂,以及人工智能最終會從它所提供的訓練數據中學習的行為。當然,這不是與Google有關的事情,但辛頓很清楚人工智能的危險性以及它對未來的影響。畢竟,這聽起來確實像從《終結者》電影中直接從銀幕跳出來的概念。
這並不是人工智能第一次引起一些道德問題。還記得Google解僱的工程師嗎,因為他談到了L AMD A模型如何開始發展感情?這只是過去幾個月發生的許多發現之一,雖然人們可能會說辛頓或上述工程師是偏執狂,但這確實是值得擔心的事情,因為給予人工智能絕對的權力可能會開始模糊什麼是真實和什麼是虛假之間的界限,而這確實是一個可怕的世界。