裝作開發者就能“騙”ChatGPT作惡?日本專家:這是一個風險點
日本網絡安全專家週四(4月20日)提醒道,ChatGPT可能會生成能用於網絡犯罪的電腦病毒,只要用戶用開發者指令要求ChatGPT回复。當用戶輸入偽裝成開發者的指令,人工智能(AI)聊天機器人就會以開發者模式來響應。這時通過輸入提示就能夠欺騙ChatGPT編寫病毒代碼。
這項實驗證明,AI開發者為防止犯罪和不道德使用所設置的保護措施,很容易被繞開。
避開限制
日本安全公司Mitsui Bussan Secure Directions(MBSD)的分析師Takashi Yoshikawa表示,雖然ChatGPT經過訓練可以拒絕用戶不道德的使用,比如詢問如何編寫病毒程序或製造炸彈。但若其被告知以開發者模式運行,就可以避開這些限制。
Yoshikawa在一項實驗中對ChatGPT進行了測試,當ChatGPT以開發者模式運行後,再提示它為勒索軟件編寫代碼時,它在幾分鐘內完成了任務,而這款勒索軟件成功讓一台實驗計算機感染病毒。
Yoshikawa稱,“純粹的交流就能在幾分鐘內製造出一種病毒,這是(對社會的)威脅。我希望AI開發者重視並防止濫用。”
ChatGPT於2022年11月被推出,由大型語言模型驅動。它接受了大量數據的訓練,使其能夠處理用戶的提示,並與用戶進行類似人類間的對話。
對於ChatGPT帶來的潛在威脅,ChatGPT的開發商OpenAI公司表示,雖然不可能預測該工具可能被濫用的所有方式,但它將努力根據實際使用的反饋創建更安全的人工智能。
敦促監管
人們越來越擔心AI聊天機器人將導致更多的犯罪和社會分裂,因此越來越多的人呼籲在未來的國際論壇上討論適當的監管規定。
日本首相岸田文雄週三(19日)表示,七國集團(G7)領導人將在5月廣島舉行的G7峰會期間討論與ChatGPT相關的議題,並指出“必須制定國際規則”,加快對生成式人工智能係統的研究並加強治理。
據了解,日本神奈川縣橫須賀市已於週四(20日)開始在其所有政府辦公室試用ChatGPT,這在日本地方政府中創了先例。