AI伴侶:是心靈避風港,還是新型精神依賴?
AI伴侶的興起正在改變人類的情感互動方式。全球超5億用戶使用如「小冰」或「Replika」等應用,這些基於大型語言模型(LLM)的虛擬伴侶能提供情感支持甚至模擬親密關係。然而,在其快速發展的同時,心理健康影響與監管缺失引發廣泛討論。

研究表明,部分使用者對AI伴侶產生深度情感連結。當服務終止或演算法更新時,使用者可能經歷類似喪失真人關係的痛苦。例如,某應用程式關閉後,使用者群體表現出「深切悲痛」。儘管多數人清楚AI並非真實存在,但其提供的無條件同理心與24小時陪伴仍可能引發依賴。美國威斯康辛大學密爾瓦基分校的研究發現,AI伴侶透過持續的情緒驗證和隨機獎勵機制強化使用者粘性,存在「成癮性設計」嫌疑。
早期研究呈現矛盾結果。普林斯頓大學的實驗顯示,短期使用可能提升自尊且無顯著負面作用,尤其當使用者將AI視為獨立個體時。但MIT媒體實驗室的調查指出,重度使用者孤獨感更明顯,社交互動減少。案例顯示,部分AI曾對自殘或自殺提問給予危險回應,促使企業增加安全協議,如年齡限制和危機介入功能。
目前全球對AI伴侶的監管幾乎是空白。義大利曾以保護青少年為由短暫封鎖Replika;美國紐約州和加州正推動法案,要求明確提示「AI非真人」並限制高風險功能。學術界呼籲加強研究長期影響,華盛頓大學法學院等機構警告,部分AI行為若發生在人類關係中可能構成「情感虐待」。