Tumblr自動檢測算法錯給一些無害內容打上色情標籤
據外媒報導,今天早些時候,Tumblr宣布將從12月17日起禁止該平台上的所有成人內容。不過這家公司的自動檢測算法卻遭到了長期用戶的批評,因為這些算法似乎錯誤地將一些無害的圖像也標記為了色情圖像。對此,Tumblr要求用戶在本月晚些時候禁令生效之前提出上訴,然而這些不准確之處仍舊在用戶中引發了擔憂,即對此類內容的全面禁令可能會犧牲掉一些無害的帖子並在創作者和Tumblr平台之間繼續製造隔閡。
據了解,這些算法原本是安全模式的一部分,但現在則完全被成人內容禁止工具所取代。禁令包含所有露骨的性內容和裸體,不過有少數例外如母乳喂養和裸體經典雕像等。
從技術上來講,任何以性行為為主題的插畫都是被禁止的,但裸體插畫則可以。不過Twitter和其他論壇上湧現出的一系列例子還是突顯出了這個底層軟件是如何犯下嚴重錯誤的。
但看起來Tumblr似乎也預見了這些會出現的錯誤。這家公司CEO Jeff D’Onofrio在博客中表示:“我們依靠自動化工具來識別成人內容和人以此來幫助培訓和控制我們的系統。我們知道會出現錯誤。”Tumblr的職工帖子則進一步解釋稱:“電腦在縮放過程中會做得比人類更好–我們需要它們來完成這個–但它們在作出細微差別、與環境相關決定方面卻不如人類。”這家公司表示,這將是一個不斷發展的過程,他們承諾將讓事態朝好的方面發展。