GPT-4o的多模態生圖,讓整個設計圈都開始emo了
GPT4o的多模態生圖前天上線之後。經過兩天的發酵,含金量還在不斷提升。在我的群組裡,已經能看到越來越多的,進入到實際生產環節的例子。例如@銀海的直接做商品圖的翻譯和合成,這是原來的演算法,很難做的效果,但是現在,有手就行。

非常複雜的電商流程,一張原始圖,換產品換臉換衣服。

例如@歸藏的直接把UI圖放樣機裡面的例子,如果做過UI或者產品設計的朋友肯定都知道,以前我們在做做展示,或者做匯報的時候,經常做樣機做的挺痛苦的。

例如給他頭像,畫的兩套表情包,是可以直接上架到微信表情商店的那種。


來自設計大佬@付遙,用GPT-4o來直接做之前非常流行的3D品牌海報。

例如我一個很喜歡的小紅書AI部落客@Rico有三貓,用GPT-4o為她做小紅書封面。

也用GPT-4o直接做商品圖翻譯出海。
群友@默月僉在用GPT-4o出蜜蜂的解剖科普圖。

一個很專業的公眾號AI部落客@阿真lrene,不只用GPT-4o生成複雜的漫畫,還能摳圖,一鍵直出透明通道的PNG圖。

幹死各種摳圖軟體的不是更屌的摳圖軟體,而是大模型…
還有朋友@不知名網友虎子哥,用GPT-4o為他自己家的房子裝潢…

還有一些我確實不知道源頭的但是被傳播的蠻廣的例子(如有作者,歡迎評論區認領)。
為幾個家具做一個展示圖,這個場景在電商領域無敵。

之前寫可靈的AI模特兒的時候,很多人問,能不能讓模特兒帶首飾?現在,可以了。

還用它,直接P圖,消除人物。

老照片一鍵修復+上色。

甚至,還可以模仿字體做自體設計。

在GPT-4o的衝擊下,N多的設計師和創業者,都有點emo了。
例如就有大佬在X上感嘆:

朋友圈裡還看到了一張圖,是glif的老闆,在X上發的。

紀念ComfyUI,紀念一切的AI圖像工作流程。
OpenAI的一次更新,又屠殺了一堆公司。
又一次深刻的闡明了那句《三體》中的經典台詞:
我消滅你,與你無關。
GPT-4o的衝擊當然是有,但是,他的上限在哪?能做到什麼地步?真的能徹底取代ComfyUI的AI影像工作流程嗎?
我想弄清楚這個答案。
首先我覺得我還是要跟大家很簡單的用一兩句話解釋一下ComfyUI,讓大家知道這玩意是個啥,我們才好繼續往下聊。
ComfyUI是一個非常專業的工作流程工具,不限於AI繪圖,AI視訊啥的也都可以往裡面接。他的介面大概是這樣的,很像電路板。

這個就是在Liblib搭的ComfyUI工作流程。
它是以節點方式,把各個工具、各個模型給串起來,形成一整套的工作流,比如一張圖進去,經過各種節點和插件,輸出一個完全風格不同的AI視頻,這都是OK的。
坦率的講,我不是ComfyUI的專家的,做過的工作流也不多,我覺得在這個領域,我並沒有那麼強的發言權,所以。
我去請教了一下我的1個好朋友,AI繪圖大神@煉丹師忠忠。
我想聽聽,他的看法。
首先是,GPT-4o對電商設計的衝擊到底有多大?
我跟忠忠聊了很久。
最後得到的結論,跟我自己在設計界感受到的水溫差不多。
對於普通水準的電商設計師,肯定是有打擊的,他們原有的技能水準也就只能產出跟gpt4o差不多的圖,相對來說意義不大了。
上游的營運專員可以自己操作工具來生產一樣品質的圖。跟被衝擊的插畫家類似,可能會變成幫忙修補gpt4o產出的圖的bug,還有疊加原圖部分細節上去加強細節還原(類似高低頻修復流程)。
生產成本降低後,需求量會變大,原本用不起各種華麗背景圖包裝的商家,現在也用的起了。
從效果上極簡操作就能生圖的工具有美圖設計室等一堆工具,GPT4o只是在某些效果方面更進一步而已,對於專業級的實際商業生產的影響可能沒有那麼大。
而從視覺設計角度,對現有的整個開源生態,反而是利好作用。
忠忠舉了自己設計的公司IP的例子。
現在,可以一句話把IP的3D模型,直出到品牌海報上,不需要走以前的3D建模+渲染了,大大節省了時間。


同時,更有趣的一點是,GPT-4o可以根據一張IP草圖,來產生這個IP的各角度視圖。

而這些圖,會進一步推動flux等開源模型的微調版本的效果。
你可能會問,都有GPT-4o了,為什麼還要去微調flux,在ComfyUI搭工作流程呢?這不是脫褲子放屁多此一舉呢?
其實有兩個原因。
資料隱私性和精準性。
資料隱私很好解釋,就是GPT-4o是一個閉源的模型,後面最多最多也就是開放一個API,讓大家接到ComfyUI裡面去用,但是,就OpenAI這個尿性,我們給過去的東西,大概率就成他後續的訓練素材了。
舉個例子,《流浪地球3》2027年上映,如果現在美術組把核心概念圖或設定圖直接灌給GPT-4o做一些處理,到時候,《流浪地球3》電影還沒上映,設定圖你可以直接在GPT-5o裡面讓它畫出來,這特麼就炸了…
所以,資料隱私性至關重要,在真正的生產環境裡,特別是一些大廠裡,必須只能用本地的ComfyUI搭,真正的輸出,必須是本地環境,用開源的模型。
所以,這時候,我們就可以用一些不敏感的信息,丟給GPT-4o,來輔助生成資料集,反過來微調自己的flux模型,這個點,真的很有用。
精準其實也很簡單,我們回過頭來看忠實用GPT-4o輸出的自己家IP的海報。

先不說其他的細節了,這幾處,你是能發現一些明顯的BUG的。
這其實在生產環境裡,這種BUG是品牌方覺得不可能接受的,就想你給一個手機產品做廣告,你把人手機弄變形了,你跟人說不行AI出得就是這樣的,你看對面會不會把你掛在電風扇上轉著打。
而這個時候,用Flux專門微調的Lora,是可以完美的解決這種精準性和一致性的問題的。
這其實就是一般設計場景和專業設計場景的差別。
GPT-4o當然可以取代大部分的普通工作流程,會讓ComfyUI裡一大批的工作流程失去價值,但這就不代表,ComfyUI失去價值了。
很簡單的一點是,在專業的設計工作裡,純對話式的簡單介面滿足不了複雜專業的需求的。
就像你問一個專業設計師,為什麼設計是用PS做設計,不用美圖秀來做設計,對方只會把你當傻子。
在真正的專業的AI設計工作裡,可控性,很多時候非常的重要。
需要精確的規定重繪區域,需要精確的調節風格效果,出圖尺寸比例等,所以在專業生產中需要精確調節的細節,不能指望OpenAI全做成功能。

還有前後處理流程,比如說前置的裁剪,摳圖,語義識別,後置的比如對圖片的放大,貼回原圖細節(高低頻修復),再接入其他工作流程繼續處理等。
自動化一鍵完成的效率比多輪對話高很多。
包括在一些精準度要求高的產品和場景上,GPT-4o目前還達不到專業級的水準。
看個例子。
例如我們要把問界M9這款車,換到另一個場景。車這種產品,跟筆、戒指、香水等等要求的精細度,完全不一樣。

這是GPT-4o出的圖。

而如果我們用大佬的牛逼工作流呢?

產生出來的效果在整體比例和質感上,是更好的。

對比應該非常直覺了。
這裡我要給自己疊個甲,我並不是在這裡鼓吹,GPT-4o不行,ComfyUI的效果可以吊打GPT-4o。
如果是這樣的話,我也不會連更兩篇,來給大家看一看,GPT-4o,有多酷,有多強。
我想說的是,GPT-4o,跟當年的SD、Midjorney、Runway、可靈等等AI工具是一樣的。
會無差別取代所有這個行業裡面的初級執行職位。
屠殺所有曾經在工程層面對大模型進行的一些最佳化。
然後,一點一點侵蝕更上層的建築。
它更像是一層層洶湧上漲的潮水,將整個AI影像領域原有的邊界打得支離破碎。
都說做AI產品,要看到大模型的邊界,在邊界之外的安全地帶做。
但是現在,你根本不知道邊界在何方。
那些看似高聳的技術壁壘與工作流程,如果只是基於簡單組裝或初級執行的邏輯,正在被GPT-4o以近乎暴力的方式消解。
絕大多數機械式的製作工作,一旦被強大的多模態理解與生成替代,就會像那些轟然倒塌的圍牆一樣,被歷史的風塵輕易覆蓋。
有沒有一種第一次工業革命時候,機器取代手工勞動的即視感?

歷史總是在不斷的重複。
但一如上文所言,這絕不代表ComfyUI之流就會被完全淘汰。
在工業級、專業級的深度工作流程裡,人們對資料安全、設計精度、可控度的需求不可能憑空消失。
那種影像與影片的多次處理、分層輸出、版本管理、腳本化批次運作、自動化節點銜接,只要是大型企業或核心團隊,都會很在意。
GPT-4o會在C端和中小B端市場摧枯拉朽,取代了大量低端或重複性工作。
而ComfyUI、Flux、ControlNet等開源生態則在更專業的領域繼續進化,利用它們精細、可控、可離線部署的特性,為高階客戶或機密專案提供服務。
這氣勢就像雲端辦公與本地辦公室的關係一樣,前者無限便捷,後者安全可控。
也如同家用轎車與頂級跑車的分別,各自目標用戶並不衝突。
GPT-4o也一定會不斷進化,去擴大自己的邊界蠶食更多的場景。
開源生態也會有各種可以復刻效果的模型、產品出來,以便進行私有化。
沒什麼能夠阻止浪潮向前。
要嘛成為浪潮的追隨者,要嘛成為浪潮的推手。
這二者,都肯定比做一塊沉在海底的礁石,精彩許多。
你說是嗎。
來源:數位生命卡茲克