幾乎沒有人認為阿西莫夫的’機器人三定律’可以真正起到作用
多產的科幻小說作家阿西莫夫(Isaac Asimov)制定了《機器人三定律》,以期防範潛在的危險人工智能。它們首先出現在他1942年的短篇小說《逃生》中:第一定律:機器人不得傷害人類個體,或者目睹人類個體將遭受危險而袖手不管。第二定律:機器人必須服從人給予它的命令,當該命令與第一定律衝突時例外。第三定律:機器人在不違反第一、第二定律的情況下要盡可能保護自己的生存。
1985年,在《機器人與帝國》一書中,阿西莫夫將三大法則擴張為四大法則(也稱第零法則):機器人不得傷害人類整體,或坐視人類整體受到傷害。
中國武漢大學的哲學家Chris Stokes說:“許多計算機工程師使用這三個定律作為思考編程的工具。” 但是麻煩是,它們不起作用。
他在開放式論文中解釋說:
第一定律之所以失敗,是因為語言模棱兩可,而且由於復雜的道德問題太複雜,而無法簡單地回答是或否。
第二定律之所以失敗,是因為一部法律要求有情眾生作為奴隸,這是不道德的。
第三定律之所以失敗,是因為它導致了一個永久性的社會分層,大量潛在的剝削被構建在這個法律體系中。“第零定律”和第一個定律一樣,因為意識形態模糊而失效。所有的法律都失敗了,因為它很容易規避法律的精神,但仍然受到法律條文的約束。