API列表
更新時間 2025-09-10 15:52:14
最近更新時間: 2025-09-10 15:52:14
分享文章
平臺提供了以下大模型API能力。
| 模型名稱 | 模型簡介 | 模型ID |
|---|---|---|
| DeepSeek-R1-昇騰版 | DeepSeek-R1是一款具有671B參數大小的創新性大語言模型,由杭州深度求索人工智能基礎技術研究有限公司開發。該模型基于 transformer 架構,通過對海量語料數據進行預訓練,結合注意力機制,能夠理解和生成自然語言。它經過監督微調、人類反饋的強化學習等技術進行對齊,具備語義分析、計算推理、問答對話、篇章生成、代碼編寫等多種能力。R1 模型在多個 NLP 基準測試中表現出色,具備較強的泛化能力和適應性。 | 4bd107bff85941239e27b1509eccfe98 |
| DeepSeek-R1-昇騰版2 | DeepSeek-R1是一款具有671B參數大小的創新性大語言模型,該模型基于 transformer 架構,通過對海量語料數據進行預訓練,結合注意力機制,經過監督微調、人類反饋的強化學習等技術進行對齊,具備語義分析、計算推理、問答對話、篇章生成、代碼編寫等多種能力。R1 模型在多個 NLP 基準測試中表現出色,具備較強的泛化能力和適應性。 | 7ba7726dad4c4ea4ab7f39c7741aea68 |
| DeepSeek-V3-昇騰版 | DeepSeek-V3是DeepSeek團隊開發的新一代專家混合(MoE)語言模型,共有671B參數,在14.8萬億個Tokens上進行預訓練。該模型采用多頭潛在注意力(MLA)和DeepSeekMoE架構,繼承了DeepSeek-V2模型的優勢,并在性能、效率和功能上進行了顯著提升。 | 9dc913a037774fc0b248376905c85da5 |
| DeepSeek-R1-Distill-Llama-70B | DeepSeek-R1-Distill-Llama-70B是基于Llama架構并經過強化學習和蒸餾優化開發的高性能語言模型。該模型融合了DeepSeek-R1的先進知識蒸餾技術與Llama-70B模型的架構優勢。通過知識蒸餾,在保持較小參數規模的同時,具備強大的語言理解和生成能力。 | 515fdba33cc84aa799bbd44b6e00660d |
| DeepSeek-R1-Distill-Qwen-32B | DeepSeek-R1-Distill-Qwen-32B是通過知識蒸餾技術從DeepSeek-R1模型中提煉出來的小型語言模型。它繼承了DeepSeek-R1的推理能力,專注于數學和邏輯推理任務,但體積更小,適合資源受限的環境。 | b383c1eecf2c4b30b4bcca7f019cf90d |
| Baichuan2-Turbo | Baichuan-Turbo系列模型是百川智能推出的大語言模型,采用搜索增強技術實現大模型與領域知識、全網知識的全面鏈接。 | 43ac83747cb34730a00b7cfe590c89ac |
| Llama2-13B-Chat | Llama2是預先訓練和微調的生成文本模型的集合,其規模從70億到700億個參數不等。這是13B微調模型的存儲庫,針對對話用例進行了優化。 | 96dc8f33609d4ce6af3ff55ea377831a |
| Qwen-7B-Chat | 通義千問-7B(Qwen-7B)是阿里云研發的通義千問大模型系列的70億參數規模的模型。Qwen-7B是基于Transformer的大語言模型, 在超大規模的預訓練數據上進行訓練得到。預訓練數據類型多樣,覆蓋廣泛,包括大量網絡文本、專業書籍、代碼等。同時,在Qwen-7B的基礎上,使用對齊機制打造了基于大語言模型的AI助手Qwen-7B-Chat。 | fc23987da1344a8f8bdf1274e832f193 |
| Llama2-7B-Chat | Llama2-7B-Chat是Meta AI開發的大型語言模型Llama2家族中最小的聊天模型。該模型有70億個參數,并在來自公開來源的2萬億token數據上進行了預訓練。它已經在超過一百萬個人工注釋的指令數據集上進行了微調。 | e30f90ca899a4b1a9c25c0949edd64fc |
| Llama2-70B-Chat | Llama 2 是預訓練和微調的生成文本模型的集合,規模從 70 億到 700 億個參數不等。這是 70B 微調模型的存儲庫,針對對話用例進行了優化。 | bafbc7785d50466c89819da43964332b |
| Qwen1.5-7B-Chat | 通義千問1.5(Qwen1.5)是阿里云研發的通義千問系列開源模型,是一種基于 Transformer 的純解碼器語言模型,已在大量數據上進行了預訓練。該系列包括Base和Chat等多版本、多規模,滿足不同的計算需求,這是Qwen1.5-7B-Chat版本。 | bfc0bdbf8b394c139a734235b1e6f887 |
| Qwen2-72B-Instruct | Qwen2 是 Qwen 大型語言模型的新系列。Qwen2發布了5個尺寸的預訓練和指令微調模型,包括Qwen2-0.5B、Qwen2-1.5B、Qwen2-7B、Qwen2-57B-A14B以及Qwen2-72B。這是指令調整的 72B Qwen2 模型,使用了大量數據對模型進行了預訓練,并使用監督微調和直接偏好優化對模型進行了后訓練。 | 2f05789705a64606a552fc2b30326bba |
| ChatGLM3-6B | ChatGLM3-6B 是 ChatGLM 系列最新一代的開源模型,在保留了前兩代模型對話流暢、部署門檻低等眾多優秀特性的基礎上,ChatGLM3-6B 引入了更強大的基礎模型、更完整的功能支持、更全面的開源序列幾大特性。 | 7450fa195778420393542c7fa13c6640 |
| TeleChat-12B | 星辰語義大模型TeleChat是由中電信人工智能科技有限公司研發訓練的大語言模型,TeleChat-12B模型基座采用3萬億 Tokens中英文高質量語料進行訓練。TeleChat-12B-bot在模型結構、訓練數據、訓練方法等方面進行了改進,在通用問答和知識類、代碼類、數學類榜單上相比TeleChat-7B-bot均有大幅提升。 | fdc31b36028043c48b15131885b148ce |
| Qwen1.5-14B-Chat | 通義千問1.5(Qwen1.5)是阿里云研發的通義千問系列開源模型,是一種基于 Transformer 的純解碼器語言模型,已在大量數據上進行了預訓練。該系列包括Base和Chat等多版本、多規模,滿足不同的計算需求,這是Qwen1.5-14B-Chat版本。 | acfe01f00b0c4ff49c29c6c77b771b60 |
| Llama3-8B-Instruct | Meta 開發并發布了 Meta Llama 3 系列大型語言模型 (LLM),包含 8B 和 70B 兩種參數大小,Llama3-8B-Instruct 是經過指令微調的版本,針對對話用例進行了優化,在常見的行業基準測試中優于許多可用的開源聊天模型。 | bda59c34e4424598bbd5930eba713fbf |
| Llama3-70B-Instruct | Meta 開發并發布了 Meta Llama 3 系列大型語言模型 (LLM),包含 8B 和 70B 兩種參數大小,Llama3-70B-Instruct 是經過指令微調的版本,針對對話用例進行了優化,在常見的行業基準測試中優于許多可用的開源聊天模型。 | 6192ed0cb6334302a2c32735dbbb6ce3 |
| Qwen1.5-72B-Chat | 通義千問1.5(Qwen1.5)是阿里云研發的通義千問系列開源模型,是一種基于 Transformer 的純解碼器語言模型,已在大量數據上進行了預訓練。該系列包括Base和Chat等多版本、多規模,滿足不同的計算需求,這是Qwen1.5-72B-Chat版本。 | 9d140d415f11414aa05c8888e267a896 |
| Qwen1.5-32B-Chat | Qwen1.5-32B 是 Qwen1.5 語言模型系列的最新成員,除了模型大小外,其在模型架構上除了GQA幾乎無其他差異。GQA能讓該模型在模型服務時具有更高的推理效率潛力。這是Qwen1.5-32B-Chat版本。 | 12d5a37bf1ed4bf9b1cb8e446cfa60b3 |
| InternLM2-Chat-7B | InternLM2-Chat-7B 是書生·浦語大模型系列中開源的 70 億參數庫模型和針對實際場景量身定制的聊天模型。InternLM2相比于初代InternLM,在推理、數學、代碼等方面的能力提升尤為顯著,綜合能力領先于同量級開源模型。 | 50beebff68b34803bd71d380e49078f5 |
| Qwen2-7B-Instruct | Qwen2-7B-Instruct是 Qwen2大型語言模型系列中覆蓋70億參數的指令調優語言模型,支持高達 131,072 個令牌的上下文長度,能夠處理大量輸入。 | 0e97efbf3aa042ebbaf0b2d358403b94 |
| Qwen-VL-Chat | Qwen-VL-Chat模型是在阿里云研發的大規模視覺語言模型 Qwen-VL 系列的基礎上,使用對齊機制打造的視覺AI助手,該模型有更優秀的中文指令跟隨,支持更靈活的交互方式,包括多圖、多輪問答、創作等能力。 | e8c39004ff804ca699d47b9254039db8 |
| StableDiffusion-V2.1 | StableDiffusion-V2.1是由 Stability AI 公司推出的基于深度學習的文生圖模型,它能夠根據文本描述生成詳細的圖像,同時也可以應用于其他任務,例如圖生圖,生成簡短視頻等。 | 40f9ae16e840417289ad2951f5b2c88f |
| Deepseek-V2-Lite-Chat | Deepseek-V2-Lite-Chat是一款強大的開源專家混合(MoE)語言聊天模型,具有16B參數,2.4B活動參數,使用5.7T令牌從頭開始訓練,其特點是同時具備經濟的訓練和高效的推理。 | 0855b510473e4ec3a029569853f64974 |
| Qwen2.5-72B-Instruct | Qwen2.5系列發布了許多基本語言模型和指令調整語言模型,參數范圍從0.5到720億個參數不等。Qwen2.5-72B-Instruct模型是Qwen2.5系列大型語言模型指令調整版本。 | d9df728b30a346afb74d2099b6c209aa |
| Gemma2-9B-IT | Gemma2-9B-IT是Google最新發布的具有90億參數的開源大型語言模型的指令調優版本。模型在大量文本數據上進行預訓練,并且在性能上相較于前一代有了顯著提升。該版本的性能在同類產品中也處于領先地位,超過了Llama3-8B和其他同規模的開源模型。 | 4dae2b9727db46b7b86e84e8ae6530a9 |
| Llama3.2-3B-Instruct | Meta Llama3.2多語言大型語言模型(LLMs)系列是一系列預訓練及指令微調的生成模型,包含1B和3B參數規模。Llama3.2指令微調的純文本模型專門針對多語言對話應用場景進行了優化,包括代理檢索和摘要任務。它們在通用行業基準測試中超越了許多可用的開源和閉源聊天模型。這是Llama3.2-3B-Instruct版本。 | f7d0baa95fd2480280214bfe505b0e2e |
| ChatGLM3-6B-32K | ChatGLM3-6B-32K模型在ChatGLM3-6B的基礎上進一步強化了對于長文本的理解能力,能夠更好的處理最多32K長度的上下文。具體對位置編碼進行了更新,并設計了更有針對性的長文本訓練方法,在對話階段使用 32K 的上下文長度訓練。 | 98b6d84f6b15421886d64350f2832782 |
| CodeGemma-7B-IT | CodeGemma是構建在Gemma之上的輕量級開放代碼模型的集合。CodeGemma-7B-IT模型是CodeGemma系列模型之一,是一種文本到文本和文本到代碼的解碼器模型的指令調整變體,具有70億參數,可用于代碼聊天和指令跟隨。 | fa8b78d2db034b6798c894e30fba1173 |
| Qwen2.5-Math-7B-Instruct | Qwen2.5-Math系列是數學專項大語言模型Qwen2-Math的升級版。系列包括1.5B、7B、72B三種參數的基礎模型和指令微調模型以及數學獎勵模型Qwen2.5-Math-RM-72B,Qwen2.5-Math-7B-Instruct的性能與Qwen2-Math-72B-Instruct相當。 | ea056b1eedfc479198b49e2ef156e2aa |
| DeepSeek-Coder-V2-Lite-Instruct | DeepSeek-Coder-V2-Lite-Instruct是一款強大的開源專家混合(MoE)語言聊天模型,具有16B參數,2.4B活動參數。該模型基于DeepSeek-V2進一步預訓練,增加了6T Tokens,可在特定的代碼任務中實現與GPT4-Turbo相當的性能。 | f23651e4a8904ea589a6372e0e860b10 |