盤不夠了,我應該怎么辦?
如果您在模型部署過程中發現云盤的容量不夠,可以采取如下措施:
根據云硬盤擴容概述-云硬盤-用戶指南-擴容云硬盤 - 天翼云對已有云盤進行擴容。
新建一塊數據盤并掛載,相關操作見掛載云硬盤-云硬盤-快速入門 - 天翼云、初始化數據盤-彈性云主機-快速入門 - 天翼云。
如何修改ollama模型的存儲位置?
在linux環境下,ollama默認模型存儲目錄是 /usr/share/ollama/.ollama/models/,我們建議您使用云硬盤獨立掛載數據盤,將模型存儲到數據盤中。模型存儲位置是由環境變量控制的,我們需要修改ollama的環境變量重啟服務才能修改存儲目錄,我們以 /data/ollama/models 目錄為例:
打開
ollama.service文件vi /etc/systemd/system/ollama.service注意
請確保 ollama 用戶組中的 ollama 用戶具備訪問該目錄的讀寫權限。
新增相關環境變量
重啟服務
systemctl daemon-reload systemctl restart ollama
使用Ollama+Open WebUI部署的鏡像,登錄后頁面白屏等待很長時間才能進入對話頁面,該怎么辦?
問題描述
使用Ollama+openWebUI部署的DeepSeek公共鏡像,默認會關閉OpenAI API訪問,但是如果開啟OpenAI API如下圖所示,會導致公網訪問WebUI界面加載、登錄都很慢,甚至頁面顯示空白
當通過Open WebUI登錄后,會去訪問默認配置的OpenAI境外API鏈接,最終超時連接失敗。
解決方法
使用Ollama部署的情況下,您可以在“管理員面板-設置-外部鏈接”中,關閉OpenAI API即可。如果您有需要使用的外部API連接,也可以按需配置API連接,并配置API密鑰
如何修改 vLLM 的api-key?
服務的配置文件目錄在
/var/vllm_service.env我們將API_KEY 設置為想要的值然后重啟服務
systemctl restart vllm
如何調整模型支持的最大上下文數量?
當前vLLM服務使用systemd部署,需修改service啟動命令以實現上下文等服務參數調整。配置文件位于 /etc/systemd/system/vllm.service,我們編輯該文件的 --max-model-len 參數,然后重啟服務即可實現參數調
重新啟動服務
systemctl daemon-reload systemctl restart vllm