什么是DeepSeek?
DeepSeek 是一個基于 Transformer 架構的大型語言模型(LLM),由深度求索(DeepSeek)公司開發。它能夠處理自然語言理解、生成、翻譯、問答等多種任務。在目前大模型主流榜單中,DeepSeek-V3 在開源模型中位列榜首,與世界上最先進的閉源模型不分伯仲。
當前 DeepSeek 模型有多個版本,參數量從 1.5B、70B到671B不等,適用于不同的應用場景和計算資源。參數量越多,資源消耗越多,推理結果越有效。使用者可以根據自己實際需求選擇不同模型版本。
注意
為維護良好的網絡環境和公共秩序,禁止任何用戶或機構利用天翼云平臺從事違法活動、傳播不良信息或實施違反社會公序良俗的行為。若發生此類行為,天翼云將依法采取必要措施,停止相關服務功能,并依法追究責任。
模型由DeepSeek公司提供,模型的結果僅供參考,并可能因不同的環境、數據或操作條件而有所不同,我們不對模型的任何結果負責。
什么是Ollama?
Ollama是一個開源的LLM(大型語言模型)服務工具,用于簡化在本地運行大語言模型,降低大語言模型的使用門檻,使得不同水平的使用者均能在本地環境快速實驗、管理和部署模型。它不僅僅提供了現成的模型和工具集,還提供了方便的界面和 API,使得從文本生成、對話系統到語義分析等任務都能快速實現。
快速體驗DeepSeek
本節以DeepSeek-r1-7b模型為例,講解如何基于OceanFS天翼云使用Ollama運行 DeepSeek模型,讀者可以根據自己實際需求選用模型和云主機配置。
步驟一:創建GPU云主機
點擊天翼云門戶首頁的“控制中心”,輸入登錄的用戶名和密碼,進入控制中心頁面。
單擊“彈性云主機”,進入主機列表頁。
右上角單擊“創建云主機”,進入彈性云主機創建頁。
進行基礎配置。
根據業務需求配置“計費模式”、“地域”、“企業項目”、“虛擬私有云”、“實例名稱”、“主機名稱”等。
選擇規格。此處選擇"CPU架構"為"X86"、"分類"為"GPU型"、"規格族"為"GPU計算加速型pi7"、"規格"為"pi7.4xlarge.4"。
選擇鏡像。“鏡像類型”選擇“鏡像市場”,在云鏡像市場中選擇預置了DeepSeek R1模型的DeepSeek-R1-7B-Ubuntu22.04鏡像。
注意
本鏡像推薦配置:內存≥8G、顯存≥16G。
目前也提供了預裝DeepSeek-R1-70B模型的鏡像,如您有需求,也可在云鏡像市場中進行選擇。
設置云盤類型和大小。選擇基礎配置即可。
網絡高級配置。設置網絡,包括"網卡"、"安全組",同時配備 "彈性IP" 用于下載和訪問模型;設置高級配置,包括"登錄方式"、"云主機組"、"用戶數據"。
確認并支付。返回云主機控制臺等待云主機創建,一般需要1~3分鐘。
步驟二:創建OceanFS文件系統并掛載至GPU云主機
返回“控制中心”,在“存儲”下單擊“海量文件服務(OceanFS)”,進入文件系統列表頁面。
右上角單擊“創建OceanFS實例”,進入創建文件系統頁面。
進行基礎配置,各參數含義參考創建文件系統-海量文件服務 OceanFS。
注意
文件系統和云主機應選擇同一VPC,否則無法掛載。
點擊“下一步”確認配置。確認無誤后點擊“立即購買”,確認訂單并支付。
返回OceanFS控制臺,等待文件系統創建完成。
參考掛載NFS文件系統到彈性云主機 (Linux)將文件系統掛載至GPU云主機的“/mnt/test”目錄下。
說明
“/mnt/test”可以根據實際需求替換為實際的掛載目錄。
步驟三:部署DeepSeek模型
修改模型下載路徑,將模型保存在OceanFS的掛載目錄下。
在“/mnt/test”目錄下創建模型下載新目錄“/mnt/test/models”,并配置訪問權限777。依次執行以下兩條命令:
mkdir /mnt/test/models chmod 777 /mnt/test/models執行以下命令修改ollama.service配置,添加
Environment="0LLAMA_MODELS=/mnt/test/models語句來更改模型保存位置。vim /etc/systemd/system/ollama.service依次執行以下命令,重啟Ollama服務。
systemctl daemon-reload systemctl restart ollama.service
加載DeepSeek模型。
以deepseek-r1:7b為例,執行以下命令:
ollama run deepseek-r1:7b檢查下載的模型保存在OceanFS的目錄下。執行
ll命令:
使用DeepSeek模型。
在命令行界面使用模型。
通過Web頁面進行模型交互。
注意
鏡像自帶的 ollama 工具監聽 127.0.0.1:11434、webui 監聽 0.0.0.0:3000 端口,云主機默認不對外開放任何端口訪問,請按需開放端口訪問規則,避免數據泄露。
使用此方式需要開通彈性IP,彈性IP是計費服務,詳見計費概述-彈性IP-計費說明 - 天翼云。
放行云主機安全組的 3000 端口。具體操作請參考添加安全組規則-彈性云主機-用戶指南-安全-安全組-配置安全組規則 - 天翼云。
訪問DeepSeek模型的可視化界面。登錄地址為://{公網ip地址}:3000。
注意
云主機全自動安裝DeepSeek模型和可視化界面,請等待云主機啟動 5 分鐘后,再訪問登錄界面。
首次登錄頁面如下:
注冊管理員賬號。
使用設置。刷新進入首頁,在模型下拉列表中,選擇剛部署的DeepSeek:7b 模型。
點擊左下角進入設置頁面,如果您不想開放其他用戶注冊使用,則需要關閉 “允許用戶注冊” 功能。
如果您允許用戶注冊,還可以設置用戶注冊之后的行為,例如選擇新用戶注冊后默認用戶角色為“用戶”/“待激活” 等,需要管理員手動激活。
設置模型可見性。多用戶模式下,建議把模型設置為"Public"。
使用DeepSeek模型進行模型推理。
自定義部署DeepSeek
天翼云也為常見鏡像提供了加速能力,包括1.5B\7B\14B\70B\671B 等相關模型,可以通過自定義部署體驗其他模型。
步驟一:規格選型
不同版本的模型參數量不同,參數量越多,資源消耗越多。不同規模的企業、客戶有不同訴求,客戶可根據自己的實際需求,選擇所需鏡像和模型版本。參數較少的DeepSeek模型可以在CPU上正常運行、如1.5B、7B模型,更大的模型需要GPU才能獲得良好的體驗。天翼云提供了不同模型的硬件配置建議,如下:
| 模型 | 推薦顯卡數 | ||||
| T4 | V100 | V100S | A10 | A100 | |
| DeepSeek-R1-1.5B | 1卡16G(1*16G) | 1卡32G(1*32G) | 1卡32G(1*32G) | 1卡24G(1*24G) | 1卡40G(1*40G) |
| DeepSeek-R1-7B | 2卡32G(2*16G) | 1卡32G(1*32G) | 1卡32G(1*32G) | 1卡24G(1*24G) | 1卡40G(1*40G) |
| DeepSeek-R1-8B | 2卡32G(2*16G) | 1卡32G(1*32G) | 1卡32G(1*32G) | 1卡24G(1*24G) | 1卡40G(1*40G) |
| DeepSeek-R1-14B | 4卡64G(4*16G) | 2卡64G(2*32G) | 2卡64G(2*32G) | 2卡48G(2*24G) | 2卡80G(2*40G) |
| DeepSeek-R1-32B | - | 4卡128G(4*32G) | 4卡128G(4*32G) | 4卡96G(4*24G) | 4卡160G(4*40G) |
| DeepSeek-R1-70B | - | - | - | - | 4卡160G(4*40G) |
對應的GPU云主機規格請參見NVIDIA GPU云主機-GPU云主機-產品簡介-產品規格 - 天翼云。
步驟二:云主機開通
創建配備GPU驅動的GPU云主機(Linux)-GPU云主機-用戶指南-創建GPU云主機 - 天翼云。
步驟三:創建OceanFS文件系統并掛載至GPU云主機
步驟三:手動部署DeepSeek
安裝Ollama。
參考在天翼云使用Ollama運行DeepSeek的最佳實踐-7B等版本-彈性云主機-自定義部署DeepSeek-步驟三。
在模型下載之后修改模型保存位置。
運行DeepSeek模型。