Stability AI最新的SD3模型存在嚴重問題為規避裸體結果導致身體部分錯亂
人工智慧Stability AI 最新的SD3 Medium 模型存在嚴重問題,只要生成人物就會出現軀體錯亂,這似乎是該公司刻意規避生成裸體圖片的結果。目前猜測他們可能在訓練過程中就剔除了NSFW 內容,同時在訓練時規避裸體內容進而導致模型也會刻意將人體結果去除。
昨天人工智慧新創公司Stability AI 推出Stable Diffusion 3 Medium 版,該模型是個精簡版可以在普通的筆記型電腦和桌上型電腦上使用,Stability AI 還強調在雖然模型規模較小但精度依然很高。
然而在生成某些特定內容時SD3 Medium 版存在嚴重的問題,例如當生成的內容是人物時渲染人體部分就會錯亂,包括手、腳和軀幹部分等。
在這種錯亂情況下生成的照片看著令人不適,為了避免亮瞎各位這裡就不直接放圖片了,如果覺得這都是小意思你可以點擊這裡查看圖片。
為什麼如此先進的模型還會在手指等部分出現低階錯誤?這種錯誤在文字生成圖像模型剛問世的時候很常見,現在這種問題照理說早就該解決了。
在Reddit 論壇的討論中,網友傾向於這是Stability AI 在模型訓練過程中產生的問題,Stability AI 可能在訓練的資料中就過濾了NSFW 圖片,同時在模型訓練時盡可能避免出現裸體內容,這導致模型在生成影像時可能會刻意將人體結構去除。
測試也發現只要使用模型產生的圖片中不包含人,那就可以產生比較完美的圖片,只有存在人物時才會出現各種軀體錯亂的問題,這似乎也可以說明Stability AI 刻意處理了某些內容。
對Stability AI 以及所有AI 公司來說,模型都需要規避產生可能存在冒犯性的內容,其中裸體內容也在審查範圍內,這些問題可能都會阻礙AI 技術的發展。
尤其是最近一年Stability AI 出現比較糟糕的財務問題,在3 月份其創始人兼首席執行官已經離開公司,之前也有3 名關鍵工程師離職,現在模型效果比較糟糕可能會對Stability AI 的財務問題造成更大的影響。