說明
目前天翼云息壤的新老用戶均可免費體驗2500萬Tokens,限時兩周。模型廣場支持DeepSeek-R1、DeepSeek-V3等多個版本模型的調用。
支持在對話工具(比如、等)以OpenAI-API-compatible的方式快速添加使用。
天翼云官網獲取模型調用APP key等信息
模型API終端請求地址
請求地址
API終端請求地址://wishub-x1.daliqc.cn/v1/chat/completions
通信協議
接口通過 HTTPS 進行通信,保護用戶數據的機密性和完整性,確保網絡通信的安全性。
請求方法
支持的 HTTP 請求方法:POST。
POST 請求支持的 Content-Type 類型:application/json。
獲取模型調用APP key
訪問天翼云息壤deepseek活動頁地址://www.daliqc.cn/act/xirang/deepseek,選擇“立即體驗”。
登錄天翼云賬戶,進入“體驗中心”后切換到“服務接入”。
在“服務接入”下面,創建建服務組。選擇默認勾選的模型即可。
創建服務組后,從服務組上面獲取APP KEY。
獲取調用的模型名稱
左側導航欄切換到”模型廣場“,選擇對應想要調用的模型。
獲取模型ID作為模型名稱。
例如下圖中模型ID為 : 4bd107bff85941239e27b1509eccfe98
DeepSeek模型版本選擇參考:
DeepSeek-R1:適合需要高級推理能力和高精度的復雜任務,如科研、金融建模等。響應時間相對長。
DeepSeek-V3:適合需要快速響應和高性價比的通用自然語言處理任務,如智能客服、內容生成等。響應時間相對短。
手動驗證key的可用性
下列請求為DeepSeek-R1-昇騰版請求樣例,如果正常返回deepseek回答,代表沒有問題。
注意
以下curl請求中替換成自己的APP KEY后類似“--header 'Authorization: Bearer abcdefghxxsssss' \ ”
curl --location '//wishub-x1.daliqc.cn/v1/chat/completions' \
--header 'Content-Type: application/json' \
--header 'Authorization: Bearer 替換成自己的APP KEY' \
--data '{
"messages": [
{
"role": "system",
"content": "You are a test assistant."
},
{
"role": "user",
"content": "Testing. Just say hi and nothing else."
}
],
"model": "4bd107bff85941239e27b1509eccfe98"
}'說明
- 部分第三方工具調用可能存在接口不適配問題,建議優先使用以下幾款工具。
配置下列工具時,API key等同于上述內容中創建的服務組APP key。
Chatbox
訪問鏈接:
點擊Setting,然后配置Api Host、API path、API key和Model,就可以使用了。
注意
chatbox web如果api setting配置錯誤,更改后,仍然會報錯。報錯如下:
如遇上述報錯,建議重新開啟一個對話,再次嘗試即可。
CherryStudio
訪問鏈接:
按照下圖配置即可。
一旦出現以下報錯,重新開啟一個對話,再次嘗試,則可以看到正確的對話。
Langchain
參考langchain的通過OpenAI協議調用即可。
from langchain.chat_models import ChatOpenAI
from langchain.schema import HumanMessage
def main():
# 初始化LangChain模型,配置自定義API端點
llm = ChatOpenAI(
model_name="9dc913a037774fc0b248376905c85da5", # 自定義模型名稱
# 從環境變量獲取API密鑰,如果沒有設置,也可以直接終端執行export TYY_API_KEY="xxx"
openai_api_key=os.getenv("XIRANG_API_KEY")
openai_api_base="//wishub-x1.daliqc.cn/v1", # API基礎URL
temperature=0.7
)
# 創建一個聊天消息
message = HumanMessage(content="你是誰")
# 使用LangChain進行對話
response = llm([message])
print(response.content)
if __name__ == "__main__":
main()Dify
說明
- 前置條件:本地下載并安裝Docker。
訪問 ,點擊“Download Docker Desktop”按鈕,選擇合適的 Windows、macOS 或 Linux版本下載并安裝。
拉取dify鏡像到本地
# 如果本地已安裝dify可以忽略
# 假設當前最新版本為 0.15.3
git clone //github.com/langgenius/dify.git --branch 0.15.3修改配置參數
cd docker
mv .env.example .env啟動并驗證
#執行:
docker compose up -d
# 等服務啟動訪問
//localhost/apps配置天翼云息壤模型
配置方式一:直接配置方式(所有版本均可使用)
通過直接配置OpenAI-API-compatible支持,配置方式如下:
配置方式二:使用息壤鏡像配置方式(僅支持0.15.3版本)
修改env配置
cd docker
#在.env文件添加
CUSTOM_MODEL_ENABLED=true
OLLAMA_API_BASE_URL=host.docker.internal:11434修改下api和work的鏡像地址,改為增加了xirang模型供應商的dify 0.15.3版本。
修改后需要重啟dify。
services:
# API service with Xirang model provider
api:
image: telecom-eci-huadong1-crs-registry-huadong1.crs.daliqc.cn/xirang/dify-with-xirang:0.15.3 # 原來為langgenius/dify-api:0.15.3
# worker service
# The Celery worker for processing the queue.
worker:
image: telecom-eci-huadong1-crs-registry-huadong1.crs.daliqc.cn/xirang/dify-with-xirang:0.15.3 # 原來為langgenius/dify-api:0.15.3在個人設置里面點擊模型供應商,選擇天翼云模型。
點擊保存后,可以看到模型的配置。
其他非預置模型:
配置對話助手
常見問題(0.15.3版本)
如遇到無法展示問題,可能是因為您的dify版本為最新版,我們目前還不支持,可執行以下操作切換到0.15.3版本并重啟服務。
dify插件需要切換版本重新啟動服務才可以達成兼容
git clone //gitcode.com/gh_mirrors/di/dify.git
cd dify
git checkout 7796984444191c639bd3c541a44e832b17ad1cae如遇到息壤鏡像失敗問題,可切換到dify原始鏡像,通過配置直接配置OpenAI-API-compatible支持,配置方式如下:
Obsidian copilot
打開 Obsidian,進入設置面板,選擇“社區插件”。
關閉“安全模式”,點擊“瀏覽”按鈕搜索“Copilot for Obsidian”并安裝。
安裝完成后,啟用插件。
Ragflow
注意
目前息壤model不支持embedding model能力,因此只能作為chat model提供能力。
下載鏡像git clone
通過docker安裝并啟動。
cd ragflow/docker
docker compose -f docker-compose-CN.yml up -d檢查 RAGFlow 服務是否正常啟動。
docker logs -f ragflow-server如果看到類似以下輸出,則表示啟動成功:
* Running on all addresses (0.0.0.0)
* Running on //127.0.0.1:9380
* Running on //x.x.x.x:9380打開瀏覽器配置模型Xinference服務提供商。
在瀏覽器中輸入服務器的 IP 地址訪問 RAGFlow。默認情況下,RAGFlow 使用 HTTP 端口 80,因此無需輸入端口號。
選擇“Xinference”模型服務商( Xinference是工廠配置,支持自定義模型名稱)。
配置chatmodel的界面如下:
回到對話界面,配置聊天助手:
開啟對話:
Cline
按照下圖配置即可。注意baseUrl配置://wishub-x1.daliqc.cn/v1
配置完成后即可開啟對話:
Maxkb
通過docker命令拉取部署
docker run -d --name=maxkb --restart=always -p 8080:8080 -v ~/.maxkb:/var/lib/postgresql/data -v ~/.python-packages:/opt/maxkb/app/sandbox/python-packages registry.fit2cloud.com/maxkb/maxkb啟動后,瀏覽器訪問
初始用戶名:admin
初始密碼:見
按照下圖配置即可。注意baseUrl配置://wishub-x1.daliqc.cn/v1
AnythingLLM
按照下圖配置即可。注意baseUrl配置://wishub-x1.daliqc.cn/v1
配置完成后即可開啟對話:
常見報錯
role參數錯誤,user后應為assistant
問題原因:模型setting首次配置錯誤,更改配置后,因本次對話包含歷史錯誤信息,仍然會報錯。
解決方案:開啟一個新的對話即可。
400 role參數錯誤,不能以assistant開頭
問題原因:模型setting首次配置錯誤,更改配置后,因為本次對話包含歷史錯誤信息,導致仍然會報錯。
解決方案:開啟一個新的對話即可。
API statuscode429:DEEP_SEEK_MODEL_CONCURRENCY_LIMIT
報錯信息為:[openai_api_compatible]Error:APIrequestfailedwithstatuscode429:{"code":700007,"detail":"Deepseek模型并發已達上限","message":"DEEP_SEEK_MODEL_CONCURRENCY_LIMIT","error":{"code":"700007","message":"Deepseek模型并發已達上限","type":"DEEP_SEEK_MODEL_CONCURRENCY_LIMIT"}} 問題原因:大模型并發是大模型的并發能力,和用戶、tokens是否用完都無關,只和機器負載能力有關。目前單個模型有固定的并發度,這是所有ds模型共享的并發度,只能支持固定個請求同時訪問。
解決方案:等一段時間再調用,或增加重試機制。
API 直連調用耗時長
問題原因:大模型API同步耗時長是因為其推理過程復雜,需要逐個生成token并拼接結果,且在處理長文本或復雜問題時,等待完整結果返回的時間過長。而流式API可以在推理過程中逐步返回結果,用戶無需等待全部結果生成,從而提升交互效率。
解決方案:改為流式調用。