什么是DeepSeek
DeepSeek 是一個基于 Transformer 架構的大型語言模型(LLM),由深度求索(DeepSeek)公司開發。它能夠處理自然語言理解、生成、翻譯、問答等多種任務。在目前大模型主流榜單中,DeepSeek-V3 在開源模型中位列榜首,與世界上最先進的閉源模型不分伯仲。在對話模型典型任務方面的評測效果如下:
當前 DeepSeek 模型有多個版本,參數量從 1.5B、70B到671B不等,適用于不同的應用場景和計算資源。參數量越多,資源消耗越多,使用者可以根據自己實際需求選擇不同模型版本。
注意
為維護良好的網絡環境和公共秩序,禁止任何用戶或機構利用天翼云平臺從事違法活動、傳播不良信息或實施違反社會公序良俗的行為。若發生此類行為,天翼云將依法采取必要措施,停止相關服務功能,并依法追究責任。
模型由DeepSeek公司提供,模型的結果僅供參考,并可能因不同的環境、數據或操作條件而有所不同,我們不對模型的任何結果負責。
快速體驗DeepSeek
Ollama 是一個專為本地運行大語言模型(LLMs)而設計的工具,支持多種模型格式,并提供了簡單易用的命令行接口。這里,我們以DeepSeek-r1-7b模型為例,講解如何在天翼云使用Ollama運行 DeepSeek模型,讀者可以根據自己實際需求修改云主機模型和云主機配置。
步驟一:創建GPU云主機
1. 進入創建云主機頁面
a.點擊天翼云門戶首頁的“控制中心”,輸入登錄的用戶名和密碼,進入控制中心頁面。
b.單擊“產品服務列表>彈性云主機”,進入主機列表頁。
c.單擊“創建云主機”,進入彈性云主機創建頁。
2. 進行基礎配置
a.根據業務需求配置“計費模式”、“地域”、“企業項目”、“虛擬私有云”、“實例名稱”、“主機名稱”等。
b.選擇規格。此處選擇"CPU架構"為"X86"、"分類"為"GPU加速/AI加速型"、"規格族"為"GPU計算加速型pi7"、"規格"為"pi7.4xlarge.4"。
c.選擇鏡像。“鏡像類型”選擇“鏡像市場”,在云鏡像市場中選擇預置了DeepSeek R1模型的DeepSeek-R1-7B-Ubuntu22.04鏡像。
注意本鏡像推薦配置:內存≥8G、顯存≥16G。
注意目前提供了預裝多種量化精度、多種參數量的模型,如您有需求,也可在云鏡像市場中進行選擇。
d.設置云盤類型和大小。
3. 網絡及高級配置
設置網絡,包括"網卡"、"安全組",同時配備 "彈性IP" 用于下載和訪問模型;設置高級配置,包括"登錄方式"、"云主機組"、"用戶數據"。
4. 確認并支付
步驟二:使用DeepSeek模型
1. 通過web界面進行模型交互
注意鏡像自帶的 ollama 工具監聽 127.0.0.1:11434、webui 監聽 0.0.0.0:3000 端口,云主機默認不對外開放任何端口訪問,請按需開放端口訪問規則,避免數據泄露。
a. 放行云主機安全組的 3000 端口。具體操作請參考添加安全組規則-彈性云主機-用戶指南-安全-安全組-配置安全組規則 - 天翼云。
b. 訪問DeepSeek模型的可視化界面。登錄地址為://{公網ip地址}:3000。
注意云主機全自動安裝DeepSeek模型和可視化界面,請等待云主機啟動 5 分鐘后,再訪問登錄界面。
首次登錄頁面如下:
c.注冊管理員賬號。
d.使用設置。
刷新進入首頁,在模型下拉列表中,選擇剛部署的DeepSeek:7b 模型。
點擊左下角進入設置頁面,如果您不想開放其他用戶注冊使用,則需要關閉 “允許用戶注冊” 功能。
如果您允許用戶注冊,還可以設置用戶注冊之后的行為,例如選擇新用戶注冊后默認用戶角色為“用戶”/“待激活” 等,需要管理員手動激活。
設置模型可見性。多用戶模式下,建議把模型設置為"Public"。
e.使用DeepSeek模型進行模型推理。
自定義部署DeepSeek
步驟一:規格選型
不同版本的模型參數量不同,參數量越多,資源消耗越多。不同規模的企業、客戶有不同訴求,客戶可根據自己的實際需求,選擇所需鏡像和模型版本。參數較少的DeepSeek模型可以在CPU上正常運行、如1.5B、7B模型,更大的模型需要GPU才能獲得良好的體驗。天翼云提供了不同模型的硬件配置建議,如下:
模型 推薦規格 通用云主機 T4 V100 V100S A10 A100 DeepSeek-R1-1.5B c7.2xlarge.2
(8C16G)pi2.2xlarge.4
(顯存:1*16G)p2v.2xlarge.4
(顯存:1*32G)p2vs.2xlarge.4
(顯存:1*32G)pi7.4xlarge.4
(顯存:1*24G)p8a.6xlarge.4
(顯存:1*40G)DeepSeek-R1-7B c7.4xlarge.2
(16C32G)pi2.4xlarge.4
(顯存:2*16G)p2v.2xlarge.4
(顯存:1*32G)p2vs.2xlarge.4
(顯存:1*32G)pi7.4xlarge.4
(顯存:1*24G)p8a.6xlarge.4
(顯存:1*40G)DeepSeek-R1-8B - pi2.4xlarge.4
(顯存:2*16G)p2v.2xlarge.4
(顯存:1*32G)p2vs.2xlarge.4
(顯存:1*32G)pi7.4xlarge.4
(顯存:1*24G)p8a.6xlarge.4
(顯存:1*40G)DeepSeek-R1-14B - pi2.8xlarge.4
(顯存:4*16G)p2v.4xlarge.4
(顯存:2*32G)p2vs.4xlarge.4
(顯存:2*32G)pi7.8xlarge.4
(顯存:2*24G)p8a.12xlarge.4
(顯存:2*40G)DeepSeek-R1-32B - - p2v.8xlarge.4
(顯存:4*32G)p2vs.8xlarge.4
(顯存:4*32G)pi7.16xlarge.4
(顯存:4*24G)p8a.24xlarge.4
(顯存:4*40G)DeepSeek-R1-70B - - - - - p8a.24xlarge.4
(顯存:4*40G)
對應的GPU云主機規格請參見NVIDIA GPU云主機-GPU云主機-產品簡介-產品規格 - 天翼云。
步驟二:云主機開通
創建配備GPU驅動的GPU云主機(Linux)-GPU云主機-用戶指南-創建GPU云主機 - 天翼云
步驟三:手動部署DeepSeek
1. 安裝ollama
a. 下載安裝腳本
使用非天翼云DeepSeek鏡像時,需要手動安裝ollama,這里以 amd64 為例,將如下腳本保存到本地,命名為 install_ollama.sh。
#!/bin/sh
# This script installs Ollama on Linux.
# It detects the current operating system architecture and installs the appropriate version of Ollama.
set -eu
red="$( (/usr/bin/tput bold || :; /usr/bin/tput setaf 1 || :) 2>&-)"
plain="$( (/usr/bin/tput sgr0 || :) 2>&-)"
status() { echo ">>> $*" >&2; }
error() { echo "${red}ERROR:${plain} $*"; exit 1; }
warning() { echo "${red}WARNING:${plain} $*"; }
TEMP_DIR=$(mktemp -d)
cleanup() { rm -rf $TEMP_DIR; }
trap cleanup EXIT
available() { command -v $1 >/dev/null; }
require() {
local MISSING=''
for TOOL in $*; do
if ! available $TOOL; then
MISSING="$MISSING $TOOL"
fi
done
echo $MISSING
}
[ "$(uname -s)" = "Linux" ] || error 'This script is intended to run on Linux only.'
ARCH=$(uname -m)
case "$ARCH" in
x86_64) ARCH="amd64" ;;
aarch64|arm64) ARCH="arm64" ;;
*) error "Unsupported architecture: $ARCH" ;;
esac
IS_WSL2=false
KERN=$(uname -r)
case "$KERN" in
*icrosoft*WSL2 | *icrosoft*wsl2) IS_WSL2=true;;
*icrosoft) error "Microsoft WSL1 is not currently supported. Please use WSL2 with 'wsl --set-version <distro> 2'" ;;
*) ;;
esac
VER_PARAM="${OLLAMA_VERSION:+?version=$OLLAMA_VERSION}"
SUDO=
if [ "$(id -u)" -ne 0 ]; then
# Running as root, no need for sudo
if ! available sudo; then
error "This script requires superuser permissions. Please re-run as root."
fi
SUDO="sudo"
fi
NEEDS=$(require curl awk grep sed tee xargs)
if [ -n "$NEEDS" ]; then
status "ERROR: The following tools are required but missing:"
for NEED in $NEEDS; do
echo " - $NEED"
done
exit 1
fi
for BINDIR in /usr/local/bin /usr/bin /bin; do
echo $PATH | grep -q $BINDIR && break || continue
done
OLLAMA_INSTALL_DIR=$(dirname ${BINDIR})
if [ -d "$OLLAMA_INSTALL_DIR/lib/ollama" ] ; then
status "Cleaning up old version at $OLLAMA_INSTALL_DIR/lib/ollama"
$SUDO rm -rf "$OLLAMA_INSTALL_DIR/lib/ollama"
fi
status "Installing ollama to $OLLAMA_INSTALL_DIR"
$SUDO install -o0 -g0 -m755 -d $BINDIR
$SUDO install -o0 -g0 -m755 -d "$OLLAMA_INSTALL_DIR"
status "Downloading Linux ${ARCH} bundle"
curl --fail --show-error --location --progress-bar \
"//mirrors.daliqc.cn/ollama/v0.5.7/ollama-linux-${ARCH}.tgz${VER_PARAM}" | \
$SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"
if [ "$OLLAMA_INSTALL_DIR/bin/ollama" != "$BINDIR/ollama" ] ; then
status "Making ollama accessible in the PATH in $BINDIR"
$SUDO ln -sf "$OLLAMA_INSTALL_DIR/ollama" "$BINDIR/ollama"
fi
# Check for NVIDIA JetPack systems with additional downloads
if [ -f /etc/nv_tegra_release ] ; then
if grep R36 /etc/nv_tegra_release > /dev/null ; then
status "Downloading JetPack 6 components"
curl --fail --show-error --location --progress-bar \
"//mirrors.daliqc.cn/ollama/v0.5.7/ollama-linux-${ARCH}-jetpack6.tgz${VER_PARAM}" | \
$SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"
elif grep R35 /etc/nv_tegra_release > /dev/null ; then
status "Downloading JetPack 5 components"
curl --fail --show-error --location --progress-bar \
"//mirrors.daliqc.cn/ollama/v0.5.7/ollama-linux-${ARCH}-jetpack5.tgz${VER_PARAM}" | \
$SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"
else
warning "Unsupported JetPack version detected. GPU may not be supported"
fi
fi
install_success() {
status 'The Ollama API is now available at 127.0.0.1:11434.'
status 'Install complete. Run "ollama" from the command line.'
}
trap install_success EXIT
# Everything from this point onwards is optional.
configure_systemd() {
if ! id ollama >/dev/null 2>&1; then
status "Creating ollama user..."
$SUDO useradd -r -s /bin/false -U -m -d /usr/share/ollama ollama
fi
if getent group render >/dev/null 2>&1; then
status "Adding ollama user to render group..."
$SUDO usermod -a -G render ollama
fi
if getent group video >/dev/null 2>&1; then
status "Adding ollama user to video group..."
$SUDO usermod -a -G video ollama
fi
status "Adding current user to ollama group..."
$SUDO usermod -a -G ollama $(whoami)
status "Creating ollama systemd service..."
cat <<EOF | $SUDO tee /etc/systemd/system/ollama.service >/dev/null
[Unit]
Description=Ollama Service
After=network-online.target
[Service]
ExecStart=$BINDIR/ollama serve
User=ollama
Group=ollama
Restart=always
RestartSec=3
Environment="PATH=$PATH"
[Install]
WantedBy=default.target
EOF
SYSTEMCTL_RUNNING="$(systemctl is-system-running || true)"
case $SYSTEMCTL_RUNNING in
running|degraded)
status "Enabling and starting ollama service..."
$SUDO systemctl daemon-reload
$SUDO systemctl enable ollama
start_service() { $SUDO systemctl restart ollama; }
trap start_service EXIT
;;
*)
warning "systemd is not running"
if [ "$IS_WSL2" = true ]; then
warning "see //learn.microsoft.com/en-us/windows/wsl/systemd#how-to-enable-systemd to enable it"
fi
;;
esac
}
if available systemctl; then
configure_systemd
fi
# WSL2 only supports GPUs via nvidia passthrough
# so check for nvidia-smi to determine if GPU is available
if [ "$IS_WSL2" = true ]; then
if available nvidia-smi && [ -n "$(nvidia-smi | grep -o "CUDA Version: [0-9]*\.[0-9]*")" ]; then
status "Nvidia GPU detected."
fi
install_success
exit 0
fi
# Don't attempt to install drivers on Jetson systems
if [ -f /etc/nv_tegra_release ] ; then
status "NVIDIA JetPack ready."
install_success
exit 0
fi
# Install GPU dependencies on Linux
if ! available lspci && ! available lshw; then
warning "Unable to detect NVIDIA/AMD GPU. Install lspci or lshw to automatically detect and install GPU dependencies."
exit 0
fi
check_gpu() {
# Look for devices based on vendor ID for NVIDIA and AMD
case $1 in
lspci)
case $2 in
nvidia) available lspci && lspci -d '10de:' | grep -q 'NVIDIA' || return 1 ;;
amdgpu) available lspci && lspci -d '1002:' | grep -q 'AMD' || return 1 ;;
esac ;;
lshw)
case $2 in
nvidia) available lshw && $SUDO lshw -c display -numeric -disable network | grep -q 'vendor: .* \[10DE\]' || return 1 ;;
amdgpu) available lshw && $SUDO lshw -c display -numeric -disable network | grep -q 'vendor: .* \[1002\]' || return 1 ;;
esac ;;
nvidia-smi) available nvidia-smi || return 1 ;;
esac
}
if check_gpu nvidia-smi; then
status "NVIDIA GPU installed."
exit 0
fi
if ! check_gpu lspci nvidia && ! check_gpu lshw nvidia && ! check_gpu lspci amdgpu && ! check_gpu lshw amdgpu; then
install_success
warning "No NVIDIA/AMD GPU detected. Ollama will run in CPU-only mode."
exit 0
fi
if check_gpu lspci amdgpu || check_gpu lshw amdgpu; then
status "Downloading Linux ROCm ${ARCH} bundle"
curl --fail --show-error --location --progress-bar \
"//mirrors.daliqc.cn/ollama/v0.5.7/ollama-linux-${ARCH}-rocm.tgz${VER_PARAM}" | \
$SUDO tar -xzf - -C "$OLLAMA_INSTALL_DIR"
install_success
status "AMD GPU ready."
exit 0
fi
CUDA_REPO_ERR_MSG="NVIDIA GPU detected, but your OS and Architecture are not supported by NVIDIA. Please install the CUDA driver manually //docs.nvidia.com/cuda/cuda-installation-guide-linux/"
# ref: //docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#rhel-7-centos-7
# ref: //docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#rhel-8-rocky-8
# ref: //docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#rhel-9-rocky-9
# ref: //docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#fedora
install_cuda_driver_yum() {
status 'Installing NVIDIA repository...'
case $PACKAGE_MANAGER in
yum)
$SUDO $PACKAGE_MANAGER -y install yum-utils
if curl -I --silent --fail --location "//developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-$1$2.repo" >/dev/null ; then
$SUDO $PACKAGE_MANAGER-config-manager --add-repo //developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-$1$2.repo
else
error $CUDA_REPO_ERR_MSG
fi
;;
dnf)
if curl -I --silent --fail --location "//developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-$1$2.repo" >/dev/null ; then
$SUDO $PACKAGE_MANAGER config-manager --add-repo //developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-$1$2.repo
else
error $CUDA_REPO_ERR_MSG
fi
;;
esac
case $1 in
rhel)
status 'Installing EPEL repository...'
# EPEL is required for third-party dependencies such as dkms and libvdpau
$SUDO $PACKAGE_MANAGER -y install //dl.fedoraproject.org/pub/epel/epel-release-latest-$2.noarch.rpm || true
;;
esac
status 'Installing CUDA driver...'
if [ "$1" = 'centos' ] || [ "$1$2" = 'rhel7' ]; then
$SUDO $PACKAGE_MANAGER -y install nvidia-driver-latest-dkms
fi
$SUDO $PACKAGE_MANAGER -y install cuda-drivers
}
# ref: //docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#ubuntu
# ref: //docs.nvidia.com/cuda/cuda-installation-guide-linux/index.html#debian
install_cuda_driver_apt() {
status 'Installing NVIDIA repository...'
if curl -I --silent --fail --location "//developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-keyring_1.1-1_all.deb" >/dev/null ; then
curl -fsSL -o $TEMP_DIR/cuda-keyring.deb //developer.download.nvidia.com/compute/cuda/repos/$1$2/$(uname -m | sed -e 's/aarch64/sbsa/')/cuda-keyring_1.1-1_all.deb
else
error $CUDA_REPO_ERR_MSG
fi
case $1 in
debian)
status 'Enabling contrib sources...'
$SUDO sed 's/main/contrib/' < /etc/apt/sources.list | $SUDO tee /etc/apt/sources.list.d/contrib.list > /dev/null
if [ -f "/etc/apt/sources.list.d/debian.sources" ]; then
$SUDO sed 's/main/contrib/' < /etc/apt/sources.list.d/debian.sources | $SUDO tee /etc/apt/sources.list.d/contrib.sources > /dev/null
fi
;;
esac
status 'Installing CUDA driver...'
$SUDO dpkg -i $TEMP_DIR/cuda-keyring.deb
$SUDO apt-get update
[ -n "$SUDO" ] && SUDO_E="$SUDO -E" || SUDO_E=
DEBIAN_FRONTEND=noninteractive $SUDO_E apt-get -y install cuda-drivers -q
}
if [ ! -f "/etc/os-release" ]; then
error "Unknown distribution. Skipping CUDA installation."
fi
. /etc/os-release
OS_NAME=$ID
OS_VERSION=$VERSION_ID
PACKAGE_MANAGER=
for PACKAGE_MANAGER in dnf yum apt-get; do
if available $PACKAGE_MANAGER; then
break
fi
done
if [ -z "$PACKAGE_MANAGER" ]; then
error "Unknown package manager. Skipping CUDA installation."
fi
if ! check_gpu nvidia-smi || [ -z "$(nvidia-smi | grep -o "CUDA Version: [0-9]*\.[0-9]*")" ]; then
case $OS_NAME in
centos|rhel) install_cuda_driver_yum 'rhel' $(echo $OS_VERSION | cut -d '.' -f 1) ;;
rocky) install_cuda_driver_yum 'rhel' $(echo $OS_VERSION | cut -c1) ;;
fedora) [ $OS_VERSION -lt '39' ] && install_cuda_driver_yum $OS_NAME $OS_VERSION || install_cuda_driver_yum $OS_NAME '39';;
amzn) install_cuda_driver_yum 'fedora' '37' ;;
debian) install_cuda_driver_apt $OS_NAME $OS_VERSION ;;
ubuntu) install_cuda_driver_apt $OS_NAME $(echo $OS_VERSION | sed 's/\.//') ;;
*) exit ;;
esac
fi
if ! lsmod | grep -q nvidia || ! lsmod | grep -q nvidia_uvm; then
KERNEL_RELEASE="$(uname -r)"
case $OS_NAME in
rocky) $SUDO $PACKAGE_MANAGER -y install kernel-devel kernel-headers ;;
centos|rhel|amzn) $SUDO $PACKAGE_MANAGER -y install kernel-devel-$KERNEL_RELEASE kernel-headers-$KERNEL_RELEASE ;;
fedora) $SUDO $PACKAGE_MANAGER -y install kernel-devel-$KERNEL_RELEASE ;;
debian|ubuntu) $SUDO apt-get -y install linux-headers-$KERNEL_RELEASE ;;
*) exit ;;
esac
NVIDIA_CUDA_VERSION=$($SUDO dkms status | awk -F: '/added/ { print $1 }')
if [ -n "$NVIDIA_CUDA_VERSION" ]; then
$SUDO dkms install $NVIDIA_CUDA_VERSION
fi
if lsmod | grep -q nouveau; then
status 'Reboot to complete NVIDIA CUDA driver install.'
exit 0
fi
$SUDO modprobe nvidia
$SUDO modprobe nvidia_uvm
fi
# make sure the NVIDIA modules are loaded on boot with nvidia-persistenced
if available nvidia-persistenced; then
$SUDO touch /etc/modules-load.d/nvidia.conf
MODULES="nvidia nvidia-uvm"
for MODULE in $MODULES; do
if ! grep -qxF "$MODULE" /etc/modules-load.d/nvidia.conf; then
echo "$MODULE" | $SUDO tee -a /etc/modules-load.d/nvidia.conf > /dev/null
fi
done
fi
status "NVIDIA GPU ready."
install_success
b. 執行安裝
bash install_ollama.sh
如下顯示則為安裝成功。
c.測試ollama服務安裝情況
ollama ps
2. 下載模型
天翼云也為常見鏡像提供了加速能力,包括1.5B\7B\14B\70B\671B 等相關模型,可以通過如下手段體驗其他模型,以14B 模型為例:
mkdir deepseek-r1-14b
cd deepseek-r1-14b
wget //mirrors.daliqc.cn/ollama/models/deepseek-r1-14b/deepseek-r1-14b.gguf
wget //mirrors.daliqc.cn/ollama/models/deepseek-r1-14b/ModelFile
ollama create deepseek-r1:14b -f ModelFile
如果你想體驗其他模型,也可以直接通過ollama下載。
ollama pull deepseek-r1:14b
3. 使用ollama運行模型
ollama run deepseek-r1:14b
4.通過web界面進行交互
a.安裝open-webui
docker pull ghcr.io/open-webui/open-webui:main
b.啟動容器
docker run -d --net=host -e PORT=3000 -e
OLLAMA_BASE_URL=//127.0.0.1:11434 -e
ENABLE_SIGNUP=true -e ENABLE_OPENAI_API=False -v open-webui:/app/backend/data --name
open-webui --restart always ghcr.io/open-webui/open-webui:main
后續請參考上文“快速體驗DeepSeek——步驟二:使用deepseek模型”。
FAQ
盤不夠了,我應該怎么辦?
如果您在模型部署過程中發現云盤的容量不夠,可以采取如下措施:
1.根據云硬盤擴容概述-云硬盤-用戶指南-擴容云硬盤 - 天翼云對已有云盤進行擴容。
2.新建一塊數據盤并掛載,相關操作見掛載云硬盤-云硬盤-快速入門 - 天翼云、初始化數據盤-彈性云主機-快速入門 - 天翼云。
如何修改ollama模型的存儲位置?
在linux環境下,ollama默認模型存儲目錄是 /usr/share/ollama/.ollama/models/,我們建議您使用云硬盤獨立掛載數據盤,將模型存儲到數據盤中。模型存儲位置是由環境變量控制的,我們需要修改ollama的環境變量重啟服務才能修改存儲目錄,我們以 /data/ollama/models 目錄為例:
1.打開 ollama.service 文件
vi /etc/systemd/system/ollama.service
注意請確保 ollama 用戶組中的 ollama 用戶具備訪問該目錄的讀寫權限。
2.新增相關環境變量
3.重啟服務
systemctl daemon-reload
systemctl restart ollama
使用Ollama+Open WebUI部署的鏡像,登錄后頁面白屏等待很長時間才能進入對話頁面,該怎么辦?
問題描述
1.使用Ollama+openWebUI部署的DeepSeek公共鏡像,默認會關閉OpenAI API訪問,但是如果開啟OpenAI API如下圖所示,會導致公網訪問WebUI界面加載、登錄都很慢,甚至頁面顯示空白。
2.當通過Open WebUI登錄后,會去訪問默認配置的OpenAI境外API鏈接,最終超時連接失敗。
解決方法
使用Ollama部署的情況下,您可以在“管理員面板-設置-外部鏈接”中,關閉OpenAI API即可。如果您有需要使用的外部API連接,也可以按需配置API連接,并配置API密鑰。