《連線》專訪AI專家:很多人開始對機器人心生厭惡
恐怖谷是我們熟悉的:如果一個人形機器人造型逼真,但又達不到足夠真實,它會讓人感到怪異。到目前為止,這種說法幾乎完全適用於機器人的面容和身形,但人們往往忽略了機器人語音中的恐怖谷現象。
Kozminski大學的機器人專家Aleksandra Przegalinska是個例外,他同時也是麻省理工學院的研究員,關注於聊天機器人和語音助手的蓬勃發展。本週WIRED在SXSW與其共同討論“機器人復制人類語音中所面臨的巨大挑戰”,為什麼人形機器人的未來可能不會特別明朗?當你讓學生教聊天機器人如何說話時,會發生什麼?
WIRED:為什麼將研究的關注點放在機器人語音方面呢?
Przegalinska:恐怖谷現像不僅存在於機器人的仿真形像上,也存在於語音方面,如其說話的方式。音調本身在這裡非常重要。這就是為什麼我們對聊天機器人感興趣,所以我們建立了自己的聊天機器人。
我的學生與聊天機器人交流了整整一年,主要是為了使機器從中學習,然而,最終收集到一些人類羞辱機器的言語,這可能就是恐怖谷的一部分。為什麼學生會對聊天機器人心生厭惡?可能是因為聊天機器人只是一個聊天機器人,或者學生因為心中的不安全感而討厭機器人。
WIRED:這種現像也會發生在物理機器人身上。日本曾進行一項研究,將一個機器人放置於商場中,看看孩子們會對它做什麼,最終孩子們踢了它並直呼其名。
Przegalinska:對於孩子來說,他們處在一個受自然本性影響遠大於文化的階段。
WIRED:也許這對他們來說是宣洩,也許就像治療一樣。
Przegalinska:也許這種反應與人們試圖處理由恐怖谷現象所產生的情感有關。你會感到厭惡,因為你不確定自己與之互動的對像是什麼。我能感受到人與聊天機器人助理的奇怪關係——聊天機器人非常有禮貌,而人們只是向他們扔垃圾,這是是一種怪異的情況,好像他們是一些較低級別的人。
WIRED:聊天機器人可以採取不同的形式,對嗎?基於文本或帶有虛擬化身。
Przegalinska:我們發現擁有虛擬化身的聊天機器人會使人們感到厭煩。在大多數情況下,它給出了與文本相同的響應,但反應的差異是巨大的。在基於文本與聊天機器人互動的情況下,參與者發現機器人非常有能力談論各種主題。與之對比的是,當聊天機器人帶有虛擬化身時,就情感反應而言,人會感到有壓力。人們與基於文本的聊天機器人的對話通常是兩倍長。
WIRED:你的聊天機器人表現如何?它如何以一個交談者的角色而存在?
Przegalinska:無論何時進行對話,聊天機器人都會嘗試反映對方的說法。例如,如果你說你討厭體育,而且談話時間足夠長,聊天機器人會說“我也討厭體育。”
WIRED:所以它可能騙你。
Przegalinska:當然,這經常出現。它也會經常轉變。
WIRED:或者更糟糕的是,它會變得種族主義。
Przegalinska:實際上,這發生了。我認為我們的聊天機器人在很多方面仍然非常可控,我們很驚訝地看到它的轉變頻率。我們確實策劃了它所呈現的一些內容,但隨後機器人通過與其他人的互動輕鬆地與之分道揚鑣。
WIRED:除了語義之外,當談到當前的機器人語音時,究竟是什麼讓人們失望?
Przegalinska:即使是一個簡短的句子,機器人也會以長句的方式來處理。這在某種程度上是如此具有決定性,聽起來你期待一個冗長的陳述然後句子結束。因此,理解你所說的語調和語境會存在問題。因此,將語義與語調聯繫起來,這就是出錯的部分。
WIRED:當這種智能體現在索菲亞這樣的機器人身上時,複雜程度會更高,大多數人都從她的脫口秀節目中了解到這一點?
Przegalinska:也許問題是如何將語義與語調整合在一起。我們知道像這樣的系統是非常模塊化的,因為有一個系統負責移動頭部而另一個系統負責微笑。所有這些模塊有時很難整合。我認為這是恐怖谷,一種響應的延遲。它需要非常大的計算能力。但我毫不懷疑這就是未來。除非人形機器人被徹底拋棄。這也是一種選擇。我認為這是可能的。
(選自:wired 作者:MATT SIMON 編譯:網易智能參與:nariiy)