英偉達為其專有的CUDA架構帶來原生的Python支援幫助開發者加速AI開發進程
CUDA 是英偉達專有的GPU 平行計算機構,專有意味著並非開源因此在軟體開發和支援方面都由英偉達自己做主,在沒有開源社區參與所以CUDA 也存在諸多限制,例如並沒有原生支持Python。

不過在最近舉辦的GPU 技術大會上,英偉達宣布CUDA 軟體工具包原生支持Python 支持,而此前CUDA 主要依賴C 語言和C++ 語言,而Python 則是目前非常流行的程式開發語言。
根據GitHub 2024 年開源資料調查,Python 在2024 年已經超過JavaScript 成為全球最受歡迎的程式語言,Python 在資料科學、機器學習和高效能運算領域佔據著主導地位,但長期依賴CUDA 對Python 的支援僅停留在工具層面,開發者需要掌握C++ 或Fortran 等語言才能直接開發作業系統。
英偉達CUDA 架構師在GPU 技術大會上表示:
我們一直在努力將加速Python 計算引入CUDA 技術棧,讓Python 支援成為一流支持,新的CUDA Python 支援並非簡單地將C 語言翻譯為Python,而是為Python 開發者量身打造的Pythonic 體驗,確保能夠自然融入Python 開發流程。
CUDA Python 核心特性包括:
CUDA Core:對CUDA Runtime 的Pythonic 重新構想,CUDA Core 完全採用Python 的執行流程,深度整合了JIT Compilation,開發者不需要呼叫外部命令列編譯器即可完成GPU 計算,這種設計顯著減少了依賴項並提升了開發效率。
cuPyNumeric 庫:這是一個與NumPy 相容的庫,開發者只需要更改一行導入指令,即可將原本運行在CPU 上的NumPy 程式碼遷移到GPU 上運行,該庫為資料科學和機器學習開發者提供無縫的過渡體驗。
統一的API 介面:CUDA Python 提供了一套標準的低階接口,覆蓋CUDA 主機API 的全部功能,這種統一程式碼不僅可以提高程式碼的可移植性,還增強了不同加速程式庫之間的互通性。
對開發者來說這是個非常好的消息,尤其是對AI 和機器學習開發者來說是重大利好,許多ML 開發者使用Python,現在這些開發者不需要再學習C/C++ 即可充分利用GPU 硬件,當然英偉達支持Python 也會鞏固英偉達在數據中心GPU 市場的領先地位。
另外英偉達也計劃在未來支援更多程式語言,早在2024 年GPU 技術大會上英偉達工程師就表示英偉達還在探索諸如Rust 和Julia 等程式開發語言,吸引更廣泛的開發者群體。