微軟和谷歌警告投資者:糟糕的AI 會損害他們的品牌
對於像谷歌和微軟這樣的公司,AI (人工智能)是他們未來的重要組成部分,能夠增強現有產品和擴展收入來源。但是,正如最近的財務報告所揭示的那樣,兩家公司也承認AI,尤其是做出錯誤決策的有偏見的AI,可能會損害他們的品牌和業務。
圖片來自於Pixabay
據外媒新聞,兩份披露均以公司的10-K 表格形式提供。這些是法律要求公司每年提交的標準化文件,使投資者能夠全面了解其業務和最近的財務狀況。在標題為“風險因素”的部分中,谷歌的母公司Alphabet 和微軟首次提到了AI。
來自Alphabet 上週提交的10-K:
“新產品和服務,包括那些包含或利用AI 和機器學習的產品和服務,可能會引發新的或加劇現有的道德,技術,法律和其他挑戰,這些挑戰可能會對我們的品牌和對我們的產品和服務的需求產生負面影響並對我們的收入和經營業績產生不利影響。“
來自微軟去年8 月提交的10-K :
“AI 算法可能存在缺陷。數據集可能不足或包含有偏見的信息。微軟或其他人的不當或有爭議的數據實踐可能會影響AI 解決方案的接受程度。這些缺陷可能會破壞AI應用程序產生的決策,預測或分析,使我們面臨競爭傷害,法律責任以及品牌或聲譽損害。一些AI 場景存在道德問題。如果我們啟用或提供由於其對人權,隱私,就業或其他社會問題的影響而引起爭議的AI 解決方案,我們可能會遭受品牌或聲譽損害。“
總的來說,這些披露並非令人驚訝。“風險因素”部分的想法是讓投資者了解情況,同時減輕未來可能指責管理層隱藏潛在問題的訴訟。因此,它們的範圍往往非常廣泛,甚至涵蓋了企業可能出錯的明顯方式。
但這些公司只是指出AI作為一個潛在的因素現在。畢竟,兩家公司多年來一直在AI產品,從2009年開始的谷歌自動駕駛汽車計劃到微軟與Cortana等對話平台的長期合作。這項技術有足夠多的機會造成品牌損害,並且在某些情況下已經存在。還記得當微軟的Tay聊天機器人在推特上發布並在不到一天的時間內開始大肆宣傳種族主義廢話嗎?多年以後,它仍然經常被引用作為AI出錯的一個例子。
然而,你也可以說,公眾對AI 的認識及其潛在的不利影響在過去一年中已經大大增加。谷歌與五角大樓在Maven 項目下的秘密工作,亞馬遜有偏見的面部識別軟件,以及Facebook 對劍橋分析公司醜聞的算法無能等醜聞都將嚴重執行的AI 問題帶入了聚光燈下。
微軟和谷歌已經增加了對風險的防範:例如,微軟正在討論面部識別軟件需要加以監管,以防止潛在的危害,而谷歌已經開始與政策制定者和學者就AI 治理進行交流。