亚欧色一区w666天堂,色情一区二区三区免费看,少妇特黄A片一区二区三区,亚洲人成网站999久久久综合,国产av熟女一区二区三区

  • 發布文章
  • 消息中心
點贊
收藏
評論
分享
原創

從0到1,使用清華大學模型,帶你部署本地AI聊天

2023-12-07 08:46:05
178
0

當你使用AI聊天服務時,是否有以下煩惱:

1、國外服務禁止中國IP訪問

2、賬號很容易被刪賬號

3、生成質量參差不齊

4、排隊時間長,識別內容有限,需要月費才可以使用高級服務

5、使用第三方服務,容易暴露隱私信息,對個人信息安全產生威脅

6、模型都是別人預訓練好的,不能根據自己需要做微調

....

 

假如可以將一個AI聊天服務部署到本地,而且只需要桌面級的電腦。這樣不再需要再擔心網絡問題,不再需要申請賬號,不再需要擔心生成質量低,不再需要等待別人排隊的煩惱,不再需要繳納高昂的月費,不再需要購買第三方各種增值服務,不再需要擔心個人隱私被暴露,不再需要擔心模型不能被修改。

 

現在保姆式手把手教你怎么在一臺家用桌面級電腦上部署本地的AI聊天服務。在開始之前,先介紹一下使用配置。

硬件環境:

CPU:AMD和INTEL都可以,不使用CPU推理運算,則CPU至少4線程。需要用CPU推理運算,則推薦16線程以上。文章例子沒使用CPU進行推理,使用設備是i7-11700(8核16線程)

內存:需要至少16G以上,文章使用設備是32G內存

顯卡:使用CPU運算可以忽略顯卡配置。文章例子使用的是顯卡推理,由于Pytorch支持的原因,這里不能使用AMD的顯卡,需要使用NVIDIA顯存至少6G以上的顯卡,推薦使用16G顯存。文章使用設備是NVIDIA 4080

硬盤:需要預留14G以上的硬盤空間存放模型

 

軟件環境:

1、系統環境

 

2、顯卡驅動

1)CUDA Toolkit驅動。由于Pytorch支持的原因,這里使用CUDA Toolkit驅動版本為12.1,下載:developer.nvidia.com/cuda-12-1-0-download-archive。下載好后雙擊安裝,一直點擊默認配置直到安裝完成。

2)顯卡驅動,由于CUDA Toolkit驅動版本為12.1,所以CUDA版本需要是12.1以上,文章使用的是12.3,下載:cn.download.nvidia.cn/Windows/546.29/546.29-notebook-win10-win11-64bit-international-dch-whql.exe。下載好后雙擊安裝,一直點擊默認配置直到安裝完成。

安裝后通過nvidia-smi和nvcc --version查看CUDA和CUDA Toolkit版本,查詢結果如下:

 

3、python環境

需要使用python3,文章使用的是3.10.11版本。為了不影響原來安裝好的環境和方便管理,這里使用pyenv去安裝python,這樣切換不同版本的python而不會影響系統變量。具體安裝方法如下:

1)下載:github.com/pyenv-win/pyenv-win/tree/master/pyenv-win。 install-pyenv-win.ps1至電腦某目錄(如D:\pyenv),下載完成后,到保存的目錄調起PowerShell(不是cmd),運行./install-pyenv-win.ps1。執行完成后自動注入系統環境變量。新起PowerShell,使用pyenv --version看是否安裝成功。

2)使用pyenv install --list查詢可安裝的版本,文章使用的是3.10.11。使用pyenv install 3.10.11安裝。安裝完成后通過pyenv global 3.10.11設置全局的Python版本。使用pyenv versions可以查詢安裝的Python版本。

 

4、設置git代理(可選)

后續操作需要從git上下載依賴文件,如果網絡不好可以通過設置git代理來提速,具體操作如下:

打開git bash

輸入 git config --global http.proxy 代理地址:端口號,如:

git config --global http.proxy 127.0.0.1:8888

輸入 git config --global https.proxy 代理地址:端口號,如:

git config --global https.proxy 127.0.0.1:8888

取消代理可以這樣操作:

git config --global --unset http.proxy

git config --global --unset https.proxy

 

5、安裝Pytorch

使用python3的pip3進行安裝

如果版本pytorch與CUDA不一致,可能會導致運行程序的時候出現類似下面的報錯:

raise AssertionError("Torch not compiled with CUDA enabled")
AssertionError: Torch not compiled with CUDA enabled

如果不確定自己CUDA是否安裝、可以這樣檢查,新建一個pytorch.py文件,內容如下:

import torch

print(torch.__version__)
print(torch.version.cuda)

使用cmd執行以下命令,即可看到輸入結果

python3 pytorch.py

 

6、下載開源模型

這里使用的是ChatGLM3-6B,是智譜AI和清華大學 KEG 實驗室聯合發布的新一代對話預訓練模型。擁有10B以下最強的基礎模型,支持工具調用(Function Call)、代碼執行(Code Interpreter)、Agent 任務等功能。

首先下載項目到本地:

進入項目:

cd ChatGLM3

安裝依賴,安裝過程可能比較久,需要下載大概12G的訓練模型。請保持網絡順暢,并且關閉360等管家和殺毒軟件

pip3 install -r requirements.txt

如果中途斷了,沒有啟動成功,則可能在下次啟動時,會出現多個模型文件夾,如果占用了空間,請按需刪除即可。

 

7、啟動前準備

安裝以下組件:

pip install streamlit
pip install streamlit-chat

進入ChatGLM3/basic_demo目錄,使用下面命令啟動:

streamlit run web_demo2.py --server.port 8080

成功運行后,會在瀏覽器自動打開一個網頁,這樣就可以愉快的AI聊天互動!!

0條評論
作者已關閉評論
陳****偉
15文章數
2粉絲數
陳****偉
15 文章 | 2 粉絲
原創

從0到1,使用清華大學模型,帶你部署本地AI聊天

2023-12-07 08:46:05
178
0

當你使用AI聊天服務時,是否有以下煩惱:

1、國外服務禁止中國IP訪問

2、賬號很容易被刪賬號

3、生成質量參差不齊

4、排隊時間長,識別內容有限,需要月費才可以使用高級服務

5、使用第三方服務,容易暴露隱私信息,對個人信息安全產生威脅

6、模型都是別人預訓練好的,不能根據自己需要做微調

....

 

假如可以將一個AI聊天服務部署到本地,而且只需要桌面級的電腦。這樣不再需要再擔心網絡問題,不再需要申請賬號,不再需要擔心生成質量低,不再需要等待別人排隊的煩惱,不再需要繳納高昂的月費,不再需要購買第三方各種增值服務,不再需要擔心個人隱私被暴露,不再需要擔心模型不能被修改。

 

現在保姆式手把手教你怎么在一臺家用桌面級電腦上部署本地的AI聊天服務。在開始之前,先介紹一下使用配置。

硬件環境:

CPU:AMD和INTEL都可以,不使用CPU推理運算,則CPU至少4線程。需要用CPU推理運算,則推薦16線程以上。文章例子沒使用CPU進行推理,使用設備是i7-11700(8核16線程)

內存:需要至少16G以上,文章使用設備是32G內存

顯卡:使用CPU運算可以忽略顯卡配置。文章例子使用的是顯卡推理,由于Pytorch支持的原因,這里不能使用AMD的顯卡,需要使用NVIDIA顯存至少6G以上的顯卡,推薦使用16G顯存。文章使用設備是NVIDIA 4080

硬盤:需要預留14G以上的硬盤空間存放模型

 

軟件環境:

1、系統環境

 

2、顯卡驅動

1)CUDA Toolkit驅動。由于Pytorch支持的原因,這里使用CUDA Toolkit驅動版本為12.1,下載:developer.nvidia.com/cuda-12-1-0-download-archive。下載好后雙擊安裝,一直點擊默認配置直到安裝完成。

2)顯卡驅動,由于CUDA Toolkit驅動版本為12.1,所以CUDA版本需要是12.1以上,文章使用的是12.3,下載:cn.download.nvidia.cn/Windows/546.29/546.29-notebook-win10-win11-64bit-international-dch-whql.exe。下載好后雙擊安裝,一直點擊默認配置直到安裝完成。

安裝后通過nvidia-smi和nvcc --version查看CUDA和CUDA Toolkit版本,查詢結果如下:

 

3、python環境

需要使用python3,文章使用的是3.10.11版本。為了不影響原來安裝好的環境和方便管理,這里使用pyenv去安裝python,這樣切換不同版本的python而不會影響系統變量。具體安裝方法如下:

1)下載:github.com/pyenv-win/pyenv-win/tree/master/pyenv-win。 install-pyenv-win.ps1至電腦某目錄(如D:\pyenv),下載完成后,到保存的目錄調起PowerShell(不是cmd),運行./install-pyenv-win.ps1。執行完成后自動注入系統環境變量。新起PowerShell,使用pyenv --version看是否安裝成功。

2)使用pyenv install --list查詢可安裝的版本,文章使用的是3.10.11。使用pyenv install 3.10.11安裝。安裝完成后通過pyenv global 3.10.11設置全局的Python版本。使用pyenv versions可以查詢安裝的Python版本。

 

4、設置git代理(可選)

后續操作需要從git上下載依賴文件,如果網絡不好可以通過設置git代理來提速,具體操作如下:

打開git bash

輸入 git config --global http.proxy 代理地址:端口號,如:

git config --global http.proxy 127.0.0.1:8888

輸入 git config --global https.proxy 代理地址:端口號,如:

git config --global https.proxy 127.0.0.1:8888

取消代理可以這樣操作:

git config --global --unset http.proxy

git config --global --unset https.proxy

 

5、安裝Pytorch

使用python3的pip3進行安裝

如果版本pytorch與CUDA不一致,可能會導致運行程序的時候出現類似下面的報錯:

raise AssertionError("Torch not compiled with CUDA enabled")
AssertionError: Torch not compiled with CUDA enabled

如果不確定自己CUDA是否安裝、可以這樣檢查,新建一個pytorch.py文件,內容如下:

import torch

print(torch.__version__)
print(torch.version.cuda)

使用cmd執行以下命令,即可看到輸入結果

python3 pytorch.py

 

6、下載開源模型

這里使用的是ChatGLM3-6B,是智譜AI和清華大學 KEG 實驗室聯合發布的新一代對話預訓練模型。擁有10B以下最強的基礎模型,支持工具調用(Function Call)、代碼執行(Code Interpreter)、Agent 任務等功能。

首先下載項目到本地:

進入項目:

cd ChatGLM3

安裝依賴,安裝過程可能比較久,需要下載大概12G的訓練模型。請保持網絡順暢,并且關閉360等管家和殺毒軟件

pip3 install -r requirements.txt

如果中途斷了,沒有啟動成功,則可能在下次啟動時,會出現多個模型文件夾,如果占用了空間,請按需刪除即可。

 

7、啟動前準備

安裝以下組件:

pip install streamlit
pip install streamlit-chat

進入ChatGLM3/basic_demo目錄,使用下面命令啟動:

streamlit run web_demo2.py --server.port 8080

成功運行后,會在瀏覽器自動打開一個網頁,這樣就可以愉快的AI聊天互動!!

文章來自個人專欄
文章 | 訂閱
0條評論
作者已關閉評論
作者已關閉評論
2
2