2 月 18 日消息,近年來,本地運行大語言模型(LLM)的趨勢愈發(fā)明顯,越來越多的人開始在個人電腦或系統(tǒng)上部署這些模型。


IT之家注意到,越南開發(fā)者 Binh Pham 最近嘗試使用樹莓派 Zero(Raspberry Pi Zero)進行了一項創(chuàng)新實驗。他成功地將這款設(shè)備改造為一個小型 USB 驅(qū)動器,使其能夠在本地運行 LLM,無需任何額外設(shè)備。這一項目主要得益于 llama.cpp 和 llamafile 的支持,這兩者結(jié)合了指令集和一系列輕量級軟件包,旨在提供一種離線的輕量級聊天機器人體驗。
然而,由于樹莓派 Zero 已經(jīng)問世八年,其硬件性能有限,因此將 llama.cpp 移植到該設(shè)備并非易事。首先,Pham 將設(shè)備連接到 USB 接口,并為其 3D 打印了一個外殼。
在解決了硬件問題后,項目又因樹莓派 Zero W 的 512MB 內(nèi)存限制而變得更加復(fù)雜。在嘗試將 llama.cpp 編譯到該設(shè)備時,Pham 遇到了失敗,此前也無人嘗試在樹莓派 Zero 或 One 上編譯該軟件。
問題的根源在于樹莓派 Zero 的 CPU 采用的是 ARMv6 架構(gòu)。為了克服這一障礙,Pham 不得不對 llama.cpp 的 ARMv8 指令集進行轉(zhuǎn)換,并移除所有基于現(xiàn)代硬件的優(yōu)化或注釋。
在成功修改 llama.cpp 源代碼后,Pham 將注意力轉(zhuǎn)向軟件的運行和用戶體驗的優(yōu)化。他構(gòu)建了一個基于文本文件輸入的 LLM 實現(xiàn),這些文本文件作為主要的提示,而 LLM 則會根據(jù)這些提示生成故事,并以完整的輸出文件形式返回。
為了測試性能,Pham 設(shè)置了 64 個 token 的限制,并對 15M 到 136M 不等的多個模型進行了基準測試。其中,Tiny15M 模型的每個 token 處理速度為 223 毫秒,而較大的 Lamini-T5-Flan-77M 模型的每個 token 處理速度為 2.5 秒,SmolLM2-136M 模型的每個 token 處理速度為 2.2 秒。
這些 token 處理速度表明,該設(shè)備在許多實際應(yīng)用場景中可能會顯得過慢。盡管這一項目具有創(chuàng)新性,但在實際應(yīng)用中,使用老舊的輕量級硬件運行本地 LLM 并不具備太多實用價值。相比之下,使用更復(fù)雜的模型,例如在樹莓派 5 上運行 Deepseek,可能會是更好的選擇。