訴訟指控Character.AI 導致14 歲男孩死亡
佛羅裡達州一名14 歲男孩自殺後,Character.AI 遭到起訴,他的母親說他迷上了平台上的一個聊天機器人。根據《紐約時報》報道,來自奧蘭多的九年級學生Sewell Setzer III 花了數月時間與Character.AI 的人工智慧角色扮演應用程式上的聊天機器人交談。
塞澤爾尤其對一個叫”丹妮”的機器人產生了感情,他不停地給這個機器人發短信,以至於他開始遠離現實世界。
塞澤在死前不久向機器人坦白了自殺的念頭,並給它發了訊息。
今天上午,Character.AI表示它將推出一系列新的安全功能,包括對違反服務條款的聊天進行”改進的檢測、響應和乾預”,以及在用戶聊天時間達到一小時時發出通知。
正如《泰晤士報》所寫的那樣,現在有一個蓬勃發展的人工智慧陪伴應用程式產業——其對心理健康的影響在很大程度上還沒有得到研究。