英偉達終止Lepton AI營運禁新用戶註冊、註銷官推
近日,網路曝出Lepton AI 已通知用戶,Lepton 將於2025 年5 月20 日正式停止運營,此後用戶將無法再存取Lepton AI 平台上的服務或提交的數據,建議用戶在該日期之前盡快下載或備份所需數據。服務終止時,若用戶帳戶仍有未使用的積分,官方將會在關停後予以退款處理。

不僅如此,官方網站已經禁止新帳戶註冊,顯示正在維護。

Lepton AI 的官方Twitter顯示也已經註銷。

就在大約兩週前,The Information 報道,英偉達已完成對Lepton AI 的收購,交易價值數億美元,知情人士透露稱創始人賈揚清及聯合創始人白俊傑都已加入英偉達,目前還不清楚具體擔任職位。
值得注意的是,黃仁勳也一直稱英偉達是一家軟體公司, Lepton Al 創始團隊都是軟體方面的頂尖人才,或許這也是雙方契合的一點。
收購消息剛曝光時,許多人猜測英偉達收購後會只保留機器學習人才、大砍業務,還是會繼續經營Lepton AI 的雲端平台。目前看來,英偉達似乎更關心的人才,而非其相關具體業務,畢竟如今已經選擇了關閉服務。
交易完成時Lepton AI 約有20 名員工,目前還未有消息指出這些員工的去留。英偉達此番價值可能達數億美元的收購,實現了讓LeptonAI 投資方紅杉中國、CRV 和Fusion Fund 較為可觀的退出,大約在兩年前他們參與了該公司1100 萬美元的種子輪融資。
起於“百模大戰”
Lepton AI 成立還不到兩年的時間。兩位創辦人在業界都頗有名氣:賈揚清在博士期間創立並開源了深度學習框架Caffe,白俊傑是開放式神經網路交換標準ONNX 的共同創辦人以及Caffe2 的核心開發者。賈揚清先後在Google、Meta 任職多年,2019 年3 月起在阿里擔任技術副總裁。白俊傑也曾分別在Meta、阿里雲任職。兩人擔任AI 研究員時,共同開發了PyTorch 框架。
2023 年3 月,賈揚清離開阿里雲,四個月後宣布共同創立了Lepton AI。他們創業時,正值國內“百模大戰”,賈揚清等人沒有直接入局大模型,而是選擇成為大模型的基礎設施提供者。不過,他們自己並沒有購買GPU,而是用租用的方式,然後對外提供算力租賃等服務。這種模式被稱為是典型的“人工智慧即服務(AIaaS) ”,即透過雲端運算平台預配人工智慧(AI) 服務和工具。
Lepton AI 整個團隊主要在海外,所以目標客戶主要為海外企業和國內想要拓展海外市場的企業。官網顯示,Lepton 的服務主要包括:
全託管的AI 雲端平台Lepton:支援模型的開發、訓練和部署,包括開箱即用的Serverless 接口,相容於OpenAI API;完全自訂的專屬推理接口;支援執行分散式訓練或批次作業等。
企業版Lepton:管理節點群組,同時允許使用者使用自有伺服器建立自託管的節點群組。
Python SDK,幫助使用者建立AI 應用。
與Lepton AI 同名的雲端平台專為AI 工作負載優化,使用者可以在平台上進行模型訓練和推理。該公司提供了一個視覺化介面,幫助用戶在其雲端平台上配置訓練集群,並支援多款NVIDIA 顯示卡選擇。對於需要並行訓練多個模型的團隊,平台還提供了一個集中管理每個專案分配硬體資源的工具。
在模型訓練過程中,有時會出現降低輸出品質的錯誤,Lepton AI 的平台具備偵測此類錯誤的功能,同時還能發現更隱密的技術問題,例如神經網路在訓練過程中使用了超出預期的記憶體等。
模型開發完成後,Lepton AI 使用者可以將模型部署在平台提供的推理最佳化實例上。該平台承諾,在推理過程中能夠實現超過每秒600 個token 的處理速度,同時將延遲控制在10 毫秒以內。平台也具備自動擴展功能,當推理需求增加時,可自動為客戶增加運算資源。
Lepton AI 也採用開源工具vLLM 來加速推理。此技術能夠將相似的大模型提示合併成一次請求,從而減少模型所需處理的計算量。開發者也可藉助vLLM 降低模型的記憶體佔用。

先前,賈揚清在接受InfoQ 《大模型領航者》專欄採訪時表示,團隊在技術實現上沒用什麼“黑科技”,而是將很多耳熟能詳的單點技術結合起來,以實現成本的顯著降低,如大模型處理服務收到大量請求時的動態批處理(Dynamic Batch)、用小模型預測數個預測數個預測數字等。具體如何實現單點科技的有機結合,就是他們工作的重點與困難。
期間,團隊也基於Lepton 做了一些產品demo。例如,賈揚清曾在其社群平台分享了他基於Lepton Al 實現的AI 搜尋引擎(類似Perplexity),而且只用了不到500 行程式碼。這個計畫當時引起了大家熱議,目前也已經開源,並且斬獲8.1k 顆星。
Lepton Al 開源了旨在透過主動監控GPU 和有效管理AI/ML 工作負載來確保GPU 效率和可靠性的GPUd。據悉,GPUd 是基於團隊多年來在Meta、阿里雲、Uber 和Lepton AI 運營大規模GPU 集群的經驗而構建,能與Docker、containerd、Kubernetes 和NVIDIA 生態系統等無縫集成。
「透過這些產品,我們可以展示自己在開源模型上能做的事情,以及Lepton 平台幫助用戶建立應用的能力。」賈揚清曾表示。團隊希望透過這些產品或demo 可以在使用者中形成好的口碑,當有人需要部署大模型時就會想到Lepton AI。

賈揚清也積極對外分享最新的大模型進展思考。例如DeepSeek 爆火後,賈揚清分析稱,它的成功更體現了純粹的智慧與務實:在計算資源和人力有限的前提下,透過聰明的研究方法,產出最好的成果。這與當年Alex Krizhevsky 在只有兩塊GPU 的情況下造出AlexNet 模型一樣,靠的不是超大規模集群,而是紮實的能力。
目前,賈揚清的x 分享停留在了3 月中旬。
止步於算力巨頭的野望
AI 爆發後面臨的主要問題就是缺算力。為了減少投入,不少企業“由買轉租”,這催生了算力租賃的誕生,算力租賃價格一年就可實現翻倍。
北美和歐洲地區仍是算力租賃市場的主導者。像CoreWeave 是挖礦起家,英偉達透過投資支援、供貨保障等方式扶持CoreWeave。 CoreWeave 採用「GPU 即服務」(GAAS)模式,擁有32 個資料中心,運作超25 萬+ GPU,主要服務微軟、英偉達、OpenAI、Meta、Google 等北美大客戶。而歐洲本地雲端服務商Nebius,在芬蘭擁有一個部署了約2 萬個GPU 的資料中心。受惠於歐洲扶持政策,Nebius 以短期租賃性價比取勝。值得注意的是,Nebius 也獲得了英偉達的投資。
值得注意的是, Lepton AI 與英偉達若干主要客戶的服務存在競爭關係,其中包括AI 雲端服務商CoreWeave。賈揚清去年6 月時曾透露,Lepton AI 的客戶數量和整體營收都處於非常健康的成長狀態,他對此也比較滿意,驗證了團隊先前的想法和產品在用戶中的接受度。
對於英偉達此次收購Lepton Al 的目的,業內猜測是其欲試圖完全掌控供應鏈,而不僅僅是負責製造部分。與其只出售顯示卡或AI 晶片,英偉達選擇提供完整的解決方案:自行開發晶片、組裝伺服器、再提供租賃服務。這正是人們常說的「垂直整合」——一家公司掌控從上游到下游的整個流程。
這種垂直整合策略讓英偉達能夠從晶片設計到算力租賃的全產業鏈中獲利,同時還能更好地控制其GPU 晶片的使用方式和價格策略,進一步增強其在AI 運算領域的主導地位。
透過這個策略,英偉達也成功規避了一個產業中常見的問題:庫存積壓。當市場降溫、銷售下滑時,許多公司往往會被大量滯銷的設備所拖累。但如果英偉達可以自己出租伺服器,就能讓設備始終保持運作狀態,同時還能繼續從中獲利。
SemiAnalysis 指出,透過收購Lepton,英偉達不僅獲得了額外的收入來源,還可能擠壓其他雲端服務供應商的生存空間。透過打造這套自有體系,英偉達也更有能力與亞馬遜、Google和微軟等巨頭競爭,它們同樣在AI 領域佈局,並採用定制晶片(也就是常說的ASIC)提供服務。
這也對應了黃仁勳的想法。他在今年3 月的GTC 大會上表示,英偉達不再是一家晶片公司,也不再是一家AI 公司,而是一家演算法和基礎設施公司。
目前,英偉達正在投入建造AI 基礎設施,規劃週期必須在上游和下游都延伸多年。黃仁勳想要把英偉達打造成AI 工廠,直接成為客戶的收入來源。 “每個行業、每個國家、每家公司都來到這裡,因為我們已經成為一個基礎平台,其他公司可以在此基礎上建立自己的業務。”