紅帽開發Ramalama 簡潔易用”讓人工智慧不再無聊”
紅帽公司的工程師們正在開發一個新的開源專案Ramalama,希望透過這個力求簡單的推理工具”讓人工智慧不再枯燥乏味”,從而讓使用者能夠快速、輕鬆地部署人工智慧工作負載,而無需大費周章。
Ramalama 利用OCI 容器,可以跨GPU 供應商輕鬆運行人工智慧推理工作負載,如果沒有GPU 支持,還可以無縫回退到基於CPU 的推理,並與Podman 和Llama.cpp 接口,在從Hugging Face 和Ollama Registry 等取得模型的同時完成繁重的工作。目標是為英特爾、英偉達、Arm 和蘋果硬體提供原生GPU 支援。 CPU 支援包括AMD、Intel、RISC-V 和Arm。
Ramalama 最近在Fedora 的Flock 會議上被譽為“無聊的人工智慧伴侶”,並被進一步描述為
在一個由尖端創新和複雜解決方案所主導的領域,Ramalama 專案以其令人耳目一新的簡單使命脫穎而出:”讓人工智慧不再無聊”。本講座將深入探討ramalama 的理念和功能,這是一款旨在為更多受眾簡化人工智慧和機器學習的工具。透過將”枯燥”作為一種美德,ramalama 致力於創建可靠、用戶友好和易於使用的工具,這些工具無需大張旗鼓地宣傳即可正常工作。
我們將探索ramalama 的核心功能,從其簡單明了的安裝過程到管理和部署人工智慧模型的直覺命令。
作為一個早期項目,ramalama 一直在不斷發展,並非常重視社區參與和回饋。讓我們一起揭開ramalama 是如何讓所有人都能使用高級人工智慧的,如何去除複雜性和炒作,提供一個既強大又實用的工具。讓我們以最好的方式迎接讓人工智慧變得”無趣”的旅程,並從簡單和可靠中發現樂趣。
Ramalama 的早期程式碼託管在GitHub上。要想在不同的硬體和軟體平台上更容易運行/部署不同的人工智慧模型,這無疑是一項值得付出的巨大努力。 Mozilla 的Llamafile是另一個值得努力的工作,它可以讓人們透過一個檔案輕鬆運行GPU 或CPU 加速的人工智慧模型,而無需使用容器。
想了解更多有關Ramalama 的信息,請觀看下面的Flock 2024 演講,演講者是紅帽公司的Eric Curtin 和Dan Walsh。