在天翼云GPU云主機上使用 Ollama 運行 DeepSeek R1 7B 模(mo)型(xing)是(shi)(shi)一個高(gao)效且便捷的(de)方式。Ollama 是(shi)(shi)一個專為本地運行大語言模(mo)型(xing)(LLMs)而設計(ji)的(de)工具,支持多種模(mo)型(xing)格式,并(bing)提供了簡單(dan)易用的(de)命令行接口。以(yi)下是(shi)(shi)詳細的(de)步驟指南,幫助你在(zai)天翼云GPU云主機上成功運行 DeepSeek R1 7B 模(mo)型(xing)。
準備工作
-
天翼云GPU云主機
確保你已經創建了一臺天翼云GPU云主機(推薦使用GPU型云主機規格,本文中使用了GPU計算加速性pi7規格pi7.4xlarge.4 規格),并在云鏡像市場中選擇預置了DeepSeek R1模型的DeepSeek-Ubuntu22.04鏡像,如下圖所示:
Ollama 支持(chi)多GPU 加(jia)速,但通常建(jian)議使用單個 strong-scaling GPU(即單卡)進行推(tui)理。
-
檢查NVIDIA驅動和CUDA
Ollama 依(yi)賴(lai)于GPU加速,因此需要啟(qi)用并配置(zhi) CUDA,GPU型云主(zhu)機通常會默認安(an)裝驅動及CUDA:# 查看 CUDA 版本 nvcc --version # 檢查 GPU 是否可用 nvidia-smi

與 DeepSeek R1 7B 交互
由于我們使用了預置了DeepSeek R1 7B模型的DeepSeek-Ubuntu22.04鏡像,所以安裝ollama和(he)運行(xing)(xing)DeepSeek R1 7B模(mo)型的過程(cheng)可以省略(lve),預裝DeepSeek-R1大模(mo)型和(he)模(mo)型運行(xing)(xing)環境,通(tong)過如(ru)下命令(ling)一(yi)鍵進入交(jiao)互(hu)模(mo)式:ollama run deepseek-r1:7b 直接(jie)就可以在(zai)開通(tong)的GPU云主機內部玩轉(zhuan)DeepSeek R1模(mo)型,后面的安裝和(he)運行(xing)(xing)過程(cheng)僅供(gong)參考:
ollama run deepseek-r1:7b

確保 Ollama 使用 GPU 進(jin)行推(tui)理。可(ke)以通過以下命令檢查 GPU 是(shi)否被正(zheng)確調用:
nvidia-smi
如果 GPU 未被使用,檢查 CUDA 和 Ollama 的配置。

可以看(kan)到ollama運(yun)行大概(gai)消耗(hao)GPU內存5366MiB。
安裝 Ollama
-
下載 Ollama
訪問 Ollama 的官方 GitHub 倉庫(//github.com/ollama/ollama),下載適用于 Linux 的(de)二進制(zhi)文(wen)件(jian):
wget //github.com/ollama/ollama/releases/download/v0.1.0/ollama-linux-amd64 chmod +x ollama-linux-amd64 sudo mv ollama-linux-amd64 /usr/local/bin/ollama -
啟動 Ollama 服務
運行以下(xia)命(ming)令啟動 Ollama 服務:ollama serve
下載并運行 DeepSeek R1 7B 模型
-
下載 DeepSeek R1 7B 模型
Ollama 支持多種模型(xing)格(ge)式。你可以通過以下步驟下載(zai) DeepSeek R1 7B 模型(xing):- 如果 DeepSeek R1 7B 已經支持 Ollama 格式,可以直接使用以下命令下載:
ollama pull deepseek-r1-7b - 如果模型尚未支持 Ollama 格式,可以將模型轉換為 Ollama 支持的格式(如 GGML 或 GGUF),然后加載。
- 如果 DeepSeek R1 7B 已經支持 Ollama 格式,可以直接使用以下命令下載:
-
運行模型
下載完成后,使用(yong)以(yi)下命令運行(xing) DeepSeek R1 7B 模型:ollama run deepseek-r1-7b此(ci)時(shi),你可(ke)以通過命令行與模(mo)型交(jiao)互,輸入文本并獲(huo)取模(mo)型的生成結果。
優化與部署
-
微調模型(可選)
如(ru)果需要針對特定任(ren)務微(wei)調(diao) DeepSeek R1 7B 模型,可以使(shi)用 Hugging Face 或 PyTorch 進行(xing)微(wei)調(diao),然(ran)后將微(wei)調(diao)后的模型轉換為 Ollama 支持的格式。 -
部署為服務
你可(ke)以將 Ollama 部署為后(hou)臺服務,以便(bian)通過 API 調用(yong)模型:ollama serve &然后通過 HTTP 請求(qiu)與模型交互:
curl -X POST //localhost:11434/api/generate -d '{ "model": "deepseek-r1-7b", "prompt": "Hi" }'

總結
通過 Ollama,你可以(yi)輕松在(zai)天翼(yi)云GPU云主機上運行 DeepSeek R1 7B 模型(xing),并(bing)享受高效的推理(li)體驗。無論是(shi)用于開發、測試還是(shi)生產部署,Ollama 都(dou)提(ti)供了(le)一個簡單(dan)而(er)強大的工具鏈,還可以(yi)非常方(fang)便的加載其他大模型(xing),快來嘗試吧!
