應用場景
使用CherryStudio加載DeepSeek大模型的應用場景如下:
- 學習研究 :學生用其整理復習資料、輔助學術研究、助力論文寫作;研究人員用于文獻綜述、分析問題等。
- 工作辦公 :項目管理中生成報告、分析風險;內容創作時構思創意、撰寫文案;代碼開發里獲取代碼示例、解決問題。
- 生活娛樂 :作為智能聊天伙伴解悶陪伴,為創意活動如繪畫等提供靈感啟發。
- 知識管理 :個人可構建知識體系,團隊能實現知識共享。
注意建議使用天翼云提供的DeepSeek鏡像創建云主機,減少安裝過程中可能遇到的問題。鏡像選擇請參考在天翼云使用Ollama運行DeepSeek的最佳實踐-7B等版本-彈性云主機-最佳實踐-AIGC實踐 - 天翼云。
操作步驟
一、 云主機端口配置更新
首先,您需要登錄天翼云控制中心,對部署DeepSeek大模型的云主機添加新的端口開放操作。通過天翼云控制臺進入部署了DeepSeek大模型的云主機詳情頁,選擇安全組,添加新的開放端口,建議選擇新加114343端口,該端口是 Ollama 服務默認監聽的端口。添加完成后,可在安全組規則列表中查看新添加的11434 端口規則,確認其狀態為正常生效。
隨后進入控制臺,遠程登陸即將安裝AnythingLLM的云主機。
二、Cherry Studio桌面軟件安裝
1、下載Cherry Studio桌面軟件
訪問,選擇合適的軟件版本并下載,本案例中以Cherry-Studio-0.9.27-setup.exe (88.1 MB) - Windows標準安裝包為例。
2、安裝Cherry Studio軟件
找到您下載的Cherry Studio安裝包,按照提示進行安裝。
三、Cherry Studio實現自部署DeepSeek大模型對話
1、云主機ollama服務配置更新
對云主機上的ollama服務配置文件進行更新,添加第一部分中開放的端口。
如果您想同時在OpenWebUI以及其它服務上面啟用,建議您使用11434端口,這樣不用重啟OpenWebUI服務。
1 # 編輯 ollama.service 服務參數,添加監聽所有 ip 設置
2 vim /etc/systemd/system/ollama.service
添加內容如下:
1 Environment="OLLAMA_HOST=0.0.0.0"
2 Environment="OLLAMA_ORIGINS=*"
隨后按照以下操作,重啟ollama服務。
1 # 重新加載系統管理器的配置文件,使得ollama.service文件修改生效
2 sudo systemctl daemon-reload
3 # 重啟 ollama 服務
4 sudo systemctl restart ollama.service
5 # 查看 ollama 服務監聽端口
6 sudo netstat -tulnp | grep 11434
2、Cherry Studio中加載云主機上的ollama服務
首先,打開安裝好的Cherry Studio桌面程序,找到設置按鈕,請參考下圖步驟進行設置,第5步中的ip 是您云主機公網的訪問ip。
隨后點擊下方的添加按鈕,輸入預裝的deepseek-r1:7b ,點擊添加模型。
最后,按照下圖提示進行對話吧。
FAQ
1、如何基于Ollama使用其它大模型?
請參考支持的大模型,在云主機上面下載您想要下載的大模型。
1 ollama pull $mode-name
隨后在Cherry Studio上面選擇啟用對應的大模型,相關操作參考下圖。
2、如何配置外部大模型?
參考下圖步驟,填入您獲取的其它大模型調用的API密鑰,啟用相應大模型服務。
隨后,在對話框中選擇對應的大模型,即可使用對應大模型服務。
3、如何啟用聯網搜索功能?
Cherry Studio目前已經支持的聯網模型服務商有:
● Google Gemini
● 騰訊混元
● 智譜AI
注意如果您想了解更多的Cherry?Studio功能,請訪問。
返回DeepSeek專題導航。