Google表示只要有人工監督客戶就可以在”高風險”領域使用其AI
Google修改了其服務條款,以明確客戶可以部署其生成式人工智慧工具,在醫療保健等”高風險”領域做出”自動決策”,只要有人類參與其中即可。根據該公司週二發布的更新的《生成式人工智慧禁止使用政策》,客戶可以使用Google的生成式人工智慧做出可能對”個人權利產生重大不利影響”的”自動決策”。只要有人類以某種身分進行監督,客戶就可以使用Google的生成式人工智慧做出就業、住房、保險、社會福利和其他”高風險”領域的決定。
在人工智慧領域,自動決策是指人工智慧系統根據事實數據和推論數據所做的決策。 例如,系統可能會自動做出發放貸款或篩選求職者的決定。
Google先前曾暗示,在涉及公司的生成式人工智慧的情況下,將全面禁止高風險的自動決策。 但現在Google表示,只要有人類進行監督,客戶始終可以使用其生成式人工智慧進行自動決策,即使是高風險應用也不例外。
Google發言人在透過電子郵件接受採訪時表示:「對於所有高風險領域,我們的政策中一直都有人工監管的要求。[我們]正在對[我們條款中的]一些項目進行重新分類,並更明確指出一些例子,以便讓使用者更清楚地了解。
Google的AI競爭對手OpenAI 和Anthropic 曾對使用其人工智慧進行高風險的自動決策有著更嚴格的規定。 例如,OpenAI 禁止將其服務用於與信貸、就業、住房、教育、社會評分和保險有關的自動決策。 Anthropic 允許將其人工智慧用於法律、保險、醫療保健和其他高風險領域的自動決策,但必須在”合格專業人員”的監督下進行,而且要求客戶披露他們為此目的使用人工智慧。
自動做出影響個人決策的人工智慧引起了監管機構的密切關注,他們對該技術可能造成的結果偏差表示擔憂。研究表明,例如用於做出信貸和抵押貸款申請審批等決定的人工智慧可能會延續歷史上的歧視。
非營利組織”人權觀察”(Human Rights Watch)特別呼籲禁止”社會評分”系統,該組織稱,該系統可能會破壞人們獲得社會保障支持的機會,損害他們的隱私,並以偏見的方式對他們進行描述。
根據歐盟的《人工智慧法》,高風險的人工智慧系統,包括那些做出個人信貸和就業決定的系統,面臨最多的監督。 除其他要求外,這些系統的提供者必須在資料庫中註冊,執行品質和風險管理,僱用人工監管人員,並向相關機構報告事故。
在美國,科羅拉多州最近通過了一項法律,規定人工智慧開發商必須披露有關”高風險”人工智慧系統的信息,並發布聲明概述系統的能力和局限性。 同時,紐約市禁止雇主使用自動化工具篩選求職者,除非該工具在前一年內接受過偏見審計。