科學家稱應制定計劃為AI變得有意識做好準備
人工智慧(AI)的快速發展將曾經局限於科幻小說領域的倫理問題帶到了前台。例如,如果人工智慧系統有一天能夠像人類一樣“思考”,它們是否也會擁有主觀體驗?它們會感受到痛苦嗎?如果會,人類是否有能力妥善照顧這些系統?

一群哲學家和電腦科學家認為,應嚴肅看待人工智慧的福利問題。上個月,他們在預印本伺服器arXiv1上發布了一份報告,呼籲人工智慧公司不僅要評估系統是否具備意識和自主決策能力,還需制定政策,說明如果這些情景成為現實,該如何對待這些系統。
報告指出,如果未能認識到人工智慧系統可能已經具有意識,可能會導致忽視、傷害或使其遭受痛苦的情況發生。
然而,並非所有人都認為人工智慧意識應是當前的優先事項。今年9月,聯合國人工智慧高階諮詢機構發布了一份關於全球應如何管理人工智慧技術的報告。儘管有科學家呼籲該機構支持評估機器意識的研究,但這份文件並未涉及人工智慧意識相關主題。
報告的作者表示,儘管目前尚不清楚人工智慧系統是否會實現意識(這種狀態即使在人類和動物身上也難以評估),但這種不確定性不應阻礙建立評估協議的努力。作為初步嘗試,一群科學家去年公佈了一份標準清單,可用於識別可能具有意識的系統。作者指出:“即使是不完美的初始框架,也優於當前的空白狀態。”
不過,報告作者同時強調,關於人工智慧福利的討論不應以犧牲其他重要議題為代價,例如確保人工智慧的發展對人類的安全性。