模型簡介
Chinese-Alpaca-2-13B模型是基于 Meta 開源的 LLaMA 模型系列進行訓練和優化的中文大模型。它在原版 LLaMA 模型的基礎上擴充了中文詞表,并使用大規模中文數據進行增量預訓練,進一步提高了中文的基本語義理解。與第一代模型相比,性能有了顯著提高。此外,該模型支持處理長達4K的文本上下文,并且可以通過先進的NTK或其他技術手段進一步擴展到處理超過18K的文本上下文。
使用場景
Chinese-Alpaca-2-13B特別針對中文問答和對話任務進行了深度優化,旨在更好地適應中文使用者的語言習慣、偏好及需求。因此,它廣泛適用于多種指令理解應用場景,包括但不限于:問答系統、寫作輔助、聊天機器人、交互式應用。
評測效果
客觀效果評測:C-Eval
| LLaMA Models | Valid | Test | Alpaca Models | Valid | Test |
|---|---|---|---|---|---|
| Chinese-LLaMA-2-13B | 40.6 / 42.7 | 38.0 / 41.6 | Chinese-Alpaca-2-13B | 44.3 / 45.9 | 42.6 / 44.0 |
| Chinese-LLaMA-2-7B | 28.2 / 36.0 | 30.3 / 34.2 | Chinese-Alpaca-2-7B | 41.3 / 42.9 | 40.3 / 39.5 |
| Chinese-LLaMA-Plus-33B | 37.4 / 40.0 | 35.7 / 38.3 | Chinese-Alpaca-Plus-33B | 46.5 / 46.3 | 44.9 / 43.5 |
| Chinese-LLaMA-Plus-13B | 27.3 / 34.0 | 27.8 / 33.3 | Chinese-Alpaca-Plus-13B | 43.3 / 42.4 | 41.5 / 39.9 |
| Chinese-LLaMA-Plus-7B | 27.3 / 28.3 | 26.9 / 28.4 | Chinese-Alpaca-Plus-7B | 36.7 / 32.9 | 36.4 / 32.3 |
客觀效果評測:CMMLU
| LLaMA Models | Test (0/few-shot) | Alpaca Models | Test (0/few-shot) |
|---|---|---|---|
| Chinese-LLaMA-2-13B | 38.9 / 42.5 | Chinese-Alpaca-2-13B | 43.2 / 45.5 |
| Chinese-LLaMA-2-7B | 27.9 / 34.1 | Chinese-Alpaca-2-7B | 40.0 / 41.8 |
| Chinese-LLaMA-Plus-33B | 35.2 / 38.8 | Chinese-Alpaca-Plus-33B | 46.6 / 45.3 |
| Chinese-LLaMA-Plus-13B | 29.6 / 34.0 | Chinese-Alpaca-Plus-13B | 40.6 / 39.9 |
| Chinese-LLaMA-Plus-7B | 25.4 / 26.3 | Chinese-Alpaca-Plus-7B | 36.8 / 32.6 |
長上下文版模型評測
| Models | 單文檔QA | 多文檔QA | 摘要 | Few-shot學習 | 代碼補全 | 合成任務 | Avg |
|---|---|---|---|---|---|---|---|
| Chinese-Alpaca-2-7B-64K | 44.7 | 28.1 | 14.4 | 39.0 | 44.6 | 5.0 | 29.3 |
| Chinese-LLaMA-2-7B-64K | 27.2 | 16.4 | 6.5 | 33.0 | 7.8 | 5.0 | 16.0 |
| Chinese-Alpaca-2-13B-16K | 47.9 | 26.7 | 13.0 | 22.3 | 46.6 | 21.5 | 29.7 |
| Chinese-Alpaca-2-13B | 38.4 | 20.0 | 11.9 | 17.3 | 46.5 | 8.0 | 23.7 |
| Chinese-Alpaca-2-7B-16K | 46.4 | 23.3 | 14.3 | 29.0 | 49.6 | 9.0 | 28.6 |
| Chinese-Alpaca-2-7B | 34.0 | 17.4 | 11.8 | 21.3 | 50.3 | 4.5 | 23.2 |
| Chinese-LLaMA-2-13B-16K | 36.7 | 17.7 | 3.1 | 29.8 | 13.8 | 3.0 | 17.3 |
| Chinese-LLaMA-2-13B | 28.3 | 14.4 | 4.6 | 16.3 | 10.4 | 5.4 | 13.2 |
| Chinese-LLaMA-2-7B-16K | 33.2 | 15.9 | 6.5 | 23.5 | 10.3 | 5.3 | 15.8 |
| Chinese-LLaMA-2-7B | 19.0 | 13.9 | 6.4 | 11.0 | 11.0 | 4.7 | 11.0 |
投機采樣加速效果評測
| 草稿模型 | 草稿模型速度 | 目標模型 | 目標模型速度 | 投機采樣速度(加速比) |
|---|---|---|---|---|
| Chinese-LLaMA-2-1.3B | 7.6 | Chinese-LLaMA-2-7B | 49.3 | 36.0(1.37x) |
| Chinese-LLaMA-2-1.3B | 7.6 | Chinese-LLaMA-2-13B | 66.0 | 47.1(1.40x) |
| Chinese-Alpaca-2-1.3B | 8.1 | Chinese-Alpaca-2-7B | 50.2 | 34.9(1.44x) |
| Chinese-Alpaca-2-1.3B | 8.2 | Chinese-Alpaca-2-13B | 67.0 | 41.6(1.61x) |
技術亮點
在 LLaMA-2 的基礎上擴展了新的中文詞匯,并開源了支持中文的 LLaMA-2 模型以及基于此優化的 Alpaca-2 LLM
開源了預訓練和指令微調(SFT)的腳本,這些腳本允許用戶進一步利用自己的數據對模型進行調整和優化
提供了在個人電腦的CPU/GPU上快速部署和體驗量化LLM(大型語言模型)的解決方案
支持廣泛的LLaMA生態系統工具,如transformers庫、llama.cpp、text-generation-webui、LangChain、vLLM等,使得用戶能夠輕松地將這些模型集成到現有的工作流程或項目中
模型采用了簡化的中英雙語系統提示語設計,并遵循了類似Llama-2-Chat的指令模板,這樣的設計旨在更好地適配相關的LLaMA生態系統工具和應用場景
相關引用
如對您有幫助,歡迎引用.
@article{Chinese-LLaMA-Alpaca,
title={Efficient and Effective Text Encoding for Chinese LLaMA and Alpaca},
author={Cui, Yiming and Yang, Ziqing and Yao, Xin},
journal={arXiv preprint arXiv:2304.08177},
url={//arxiv.org/abs/2304.08177},
year={2023}
}免責聲明
Chinese-Alpaca-2-13B模型來源于第三方,本平臺不保證其合規性,請您在使用前慎重考慮,確保合法合規使用并遵守第三方的要求。