概述:
LLAMA FACTORY是一個旨在普及LLMs微調的框架。它通過可擴展的模塊統一了多種高效微調方法,使得數百種語言模型能夠在資源有限的情況下進行高吞吐量的微調。該框架簡化了常用的訓練方法,如生成式預訓練、監督式微調、基于人類反饋的強化學習以及直接偏好優化等。用戶可以通過命令行或Web界面,以最小或無需編碼的方式自定義和微調他們的語言模型。該演示文檔就是基于Web界面進行微調和對話。
準備環境及模型微調:
1.【開發機】創建開發機
-
填入【名稱】“llama-factory”選擇【隊列】及【可用區】。
-
【資源配置】- 【GPU加速型】下拉選擇規格“CPU:20核|內存:108GB|GPU:NVIDIA-H800-80G*1” (規格根據實際情況修改 GPU類型可選擇A100 H800)
-
【選擇框架版本】中點擊【社區鏡像】,選擇LLaMa Factory框架。
2.點擊【確認】按鈕創建開發機。
3.進入開發機:
-
【開發機】刷新狀態,等“llama-factory”狀態進入運行中后點擊右側操作欄【打開】。
-
點擊【打開】跳轉到Jupyte開發機
-
在Jupyter啟動頁【AI Community】下點擊"AI Task:LLaMA"跳轉到LLaMA Factory頁面
3.設置微調參數:
-
進入WebUI后,切換到中文(zh)。首先配置模型,選擇“LLaMA3-8B-Chat”模型,微調方法則保持默認值lora
-
數據集使用預置演示的Train,用戶可以根據自己的需要修改。
-
設置學習率為1e-4,梯度累積為2,有利于模型擬合。可以更改計算類型為bf16
-
點擊LoRA參數設置展開參數列表,設置LoRA+學習率比例為16。在LoRA作用模塊中填寫all,即將LoRA層掛載到模型的所有線性層上,提高擬合效果
4.啟動微調:
-
將輸出目錄修改為train_llama3_8b,訓練后的LoRA權重將會保存在此目錄中。點擊「預覽命令」可展示所有已配置的參數,您如果想通過代碼運行微調,可以復制這段命令,在終端命令行運行。
點擊「開始」啟動模型微調。 -
在Jupyter啟動頁【其他】下點擊"終端"跳轉到終端頁面
-
終端輸入命令 tail -f /var/log/llama-factroy.log 查看微調進度
-
可以看到下載LLaMA3-8B-Chat大約需要20分鐘;完成微調大約需要20分鐘;顯示“訓練完畢”代表微調成功,可以在界面觀察損失曲線。
5.模型評估:
-
微調完成后,點擊【刷新適配器】,然后點擊【適配器路徑】,點擊選擇下拉列表中的"train_llama3_8b"選項。
-
選擇【Evaluate&Predict】,在數據集下拉列表中選擇"eval"評估模型。點擊【開始】啟動模型評估。
-
大約5分鐘后,評估完成后會在界面上顯示分數。ROUGE分數越高代表模型學習越好。
6.模型對話:
-
點擊【chat】欄,確保適配器路徑是train_llama3_8b,點擊【加載模型】。
-
在話框輸入對話內容,點擊【提交】發送消息。大模型會生成相應人物的回答。