模型簡介
InternLM2-Chat-7B是書生·浦語大模型系列中開源的 70 億參數庫模型和針對實際場景量身定制的聊天模型。InternLM2相比于初代InternLM,在推理、數學、代碼等方面的能力提升尤為顯著,綜合能力領先于同量級開源模型。
使用場景
基于第三代數據清洗過濾技術,InternLM2語言建模能力顯著增強。此外,長語境輸入及理解能力增強顯著拓展了大模型的應用場景,比如支持大型文檔的處理、復雜的推理演算和實際場景的工具調用等,還可以為用戶提供優秀的對話和交互體驗。
評測效果
使用開源評估工具 OpenCompass 對 InternLM 進行了全面評估。評估涵蓋了能力的五個維度:學科能力、語言能力、知識能力、推理能力和理解能力。評估結果如下:
| Dataset\Models | InternLM2-7B | InternLM2-Chat-7B | InternLM2-20B | InternLM2-Chat-20B | ChatGPT | GPT-4 |
|---|---|---|---|---|---|---|
| MMLU | 65.8 | 63.7 | 67.7 | 66.5 | 69.1 | 83.0 |
| AGIEval | 49.9 | 47.2 | 53.0 | 50.3 | 39.9 | 55.1 |
| BBH | 65.0 | 61.2 | 72.1 | 68.3 | 70.1 | 86.7 |
| GSM8K | 70.8 | 70.7 | 76.1 | 79.6 | 78.2 | 91.4 |
| MATH | 20.2 | 23.0 | 25.5 | 31.9 | 28.0 | 45.8 |
| HumanEval | 43.3 | 59.8 | 48.8 | 67.1 | 73.2 | 74.4 |
| MBPP(Sanitized) | 51.8 | 51.4 | 63.0 | 65.8 | 78.9 | 79.0 |
評估結果來自OpenCompass(部分數據標有*,表示來自原始論文),評估配置可在OpenCompass提供的配置文件中找到。
由于OpenCompass的版本迭代,評估數據可能會有數值差異,因此請以OpenCompass的最新評估結果為準。
技術亮點
200K 上下文窗口:在 200K 長的上下文中幾乎完美地在大海撈針方面處于領先地位,在 LongBench 和 L-Eval 等長上下文任務上具有領先的性能。嘗試使用 LMDeploy 進行 200K 上下文推理。
綜合性能突出:在推理、數學、代碼、聊天體驗、指令跟隨、創意寫作等各個維度均明顯優于上一代,在同類規模的開源模型中表現領先。
代碼解釋器和數據分析:使用代碼解釋器, InternLM2-Chat 還提供數據分析功能。
更強的工具使用能力:基于在指令跟蹤、工具選擇和反射方面更好的工具利用率相關能力,InternLM2 可以支持更多種類的代理和多步驟工具調用,以完成復雜任務。請參閱示例。
版本列表
| 版本列表 | 版本說明 |
|---|---|
| InternLM2-Chat-7B | InternLM2-Chat-7B模型是InternLM2開源的具有70 億個參數的為實際場景量身定制的聊天模型。相比于初代InternLM,在推理、數學、代碼等方面的能力提升尤為顯著,綜合能力領先于同量級開源模型。 |
相關資源及引用
相關資源
關于模型評估,可以訪問排行榜以獲取更多評估結果。
該模型代碼在下獲得許可,而模型權重對學術研究完全開放,也允許免費商業使用。要申請商業許可證,需填寫/。
相關引用
@misc{cai2024internlm2,
title={InternLM2 Technical Report},
author={Zheng Cai and Maosong Cao and Haojiong Chen and Kai Chen and Keyu Chen and Xin Chen and Xun Chen and Zehui Chen and Zhi Chen and Pei Chu and Xiaoyi Dong and Haodong Duan and Qi Fan and Zhaoye Fei and Yang Gao and Jiaye Ge and Chenya Gu and Yuzhe Gu and Tao Gui and Aijia Guo and Qipeng Guo and Conghui He and Yingfan Hu and Ting Huang and Tao Jiang and Penglong Jiao and Zhenjiang Jin and Zhikai Lei and Jiaxing Li and Jingwen Li and Linyang Li and Shuaibin Li and Wei Li and Yining Li and Hongwei Liu and Jiangning Liu and Jiawei Hong and Kaiwen Liu and Kuikun Liu and Xiaoran Liu and Chengqi Lv and Haijun Lv and Kai Lv and Li Ma and Runyuan Ma and Zerun Ma and Wenchang Ning and Linke Ouyang and Jiantao Qiu and Yuan Qu and Fukai Shang and Yunfan Shao and Demin Song and Zifan Song and Zhihao Sui and Peng Sun and Yu Sun and Huanze Tang and Bin Wang and Guoteng Wang and Jiaqi Wang and Jiayu Wang and Rui Wang and Yudong Wang and Ziyi Wang and Xingjian Wei and Qizhen Weng and Fan Wu and Yingtong Xiong and Chao Xu and Ruiliang Xu and Hang Yan and Yirong Yan and Xiaogui Yang and Haochen Ye and Huaiyuan Ying and Jia Yu and Jing Yu and Yuhang Zang and Chuyu Zhang and Li Zhang and Pan Zhang and Peng Zhang and Ruijie Zhang and Shuo Zhang and Songyang Zhang and Wenjian Zhang and Wenwei Zhang and Xingcheng Zhang and Xinyue Zhang and Hui Zhao and Qian Zhao and Xiaomeng Zhao and Fengzhe Zhou and Zaida Zhou and Jingming Zhuo and Yicheng Zou and Xipeng Qiu and Yu Qiao and Dahua Lin},
year={2024},
eprint={2403.17297},
archivePrefix={arXiv},
primaryClass={cs.CL}
}免責聲明
InternLM2-Chat-7B模型來源于第三方,本平臺不保證其合規性,請您在使用前慎重考慮,確保合法合規使用并遵守第三方的要求。