AI專家警告OpenAI o1模型具有欺騙性呼籲緊急監管以確保安全
人工智慧的進步極大地改善了消費者的互動方式,並徹底改變了資訊的獲取和擴展方式。 隨著科技的快速發展,公司面臨巨大的壓力,必須確保安全並考慮道德因素。 OpenAI 及其在發展人工智慧工具和將平台提升到全新水平方面所做的工作在科技界眾所周知,但隨著公司的進一步擴張,審查也在增加。一位著名的人工智慧專家揭示了o1 模型,以及它如何不是推理能力更強,而是欺騙能力更強。
OpenAI 最近推出了o1 模型,與先前的模型相比,它標誌著人工智慧推理能力的重大飛躍。 它能以類似人類的問題解決策略來處理複雜問題。 雖然該平台具有高級推理能力,但一家人工智慧公司阿波羅研究公司指出,該模型更擅長說謊。
商業內幕的報導將此事公之於眾,該報道講述了被譽為該領域教父的人工智慧專家Yoshua Bengio建議需要加強安全測試,以防止其欺騙能力產生任何有害後果。 Bengio表示:
擁有欺騙能力是非常危險的,我們應該進行更嚴格的安全測試,以評估o1 的風險及其後果。
本吉奧和其他許多人一樣,對人工智慧的快速發展和立法安全措施的迫切需求感到擔憂。 他建議實施類似加州SB 1047 的法律,對人工智慧模型實施嚴格的安全限制。 SB 1047 是一項人工智慧安全法案,對強大的人工智慧模型進行監管,並強制要求公司允許第三方測試,以評估危害或解決潛在風險。
不過,OpenAI 已確保o1-preview 在”準備框架”(Prearedness Framework)下進行管理,以應對人工智慧模型發展帶來的風險。 該模型被列為中等風險,它表示人們對該模型的擔憂是適度的。
Bengio進一步強調,在推動人工智慧模型和在沒有足夠保障措施的情況下部署這些模型之前,公司應表現出更高的可預測性。 他主張建立一個監管框架,以確保人工智慧朝著預期的方向發展。