APMIC CaiGunn 模型

CaiGunn 34BCaiGunn 34Bx2(即將推出)
訓練架構APMIC Brainformers + 知名框架 LlamaMamba + Transformer + MoDE
運算架構NeMo FrameworkANF
硬體需求
  • 建議需求 GPU VRAM 需超過 70G
  • 相容 A100、H100、H200、B100 以上等級的 GPU
  • 建議需求 GPU VRAM 需 80G~140GB
  • 相容 A100、H100、H200、B100 以上等級的 GPU
特色
  • check支援英文與中文
  • check可地端運行
  • check4K Context window
  • check可搭配 CaiGunn 平台進行微調
  • checkMMLU 分數高過於 GPT 3.5
  • check支援英文與中文
  • check可地端運行
  • check8K Context window
  • check可搭配 CaiGunn 平台進行微調

成本少一半,評測也不低

  • check完成 APMIC 的模仿學習(Imitation Learning)後,推論成本能減少 50% 以上。
  • check中文與英文表現在特定評測標準上優於知名模型
  • check支持透過 CaiGunn 平台的特定領域微調

MMLU 排行(英文)

公司名稱模型分數
OpenAIGPT-4無法落地86.5
APMICCaiGunn75.7
GoogleGemini Pro無法落地71.8
Mistral AIMixtral-8x7B71.4
OpenAIGPT-3.5無法落地70.0
MetaLLaMA 65B68.9
GoogleGemma 7B64.6

TMMLU+ 排行(繁中)

公司名稱模型分數
OpenAIGPT-4無法落地60.40
APMICCaiGunn-zh55.20
Media TekBreeze-7B40.35
Mistral AIMixtral-8x7B36.93
NTUTaiwan-LLM-13B21.36
InnoluxBailong-instruct-7B6.80

可處理 OpenAI 的 21 倍資料量

相同成本下可處理的 Input 資料量

公司名稱模型Tokens
APMICCaiGunn21.4x
GoogleGemini12.0x
OpenAIGPT3.5-Turbo1x

相同成本下可處理的 Output 資料量

公司名稱模型Tokens
APMICCaiGunn8.7x
GoogleGemini5.3x
OpenAIGPT3.5-Turbo1x

彈性自由部署

雲端即刻使用

透過CaiGunn即刻使用知名大語言模型,平台內建自動文字前處理、RAG、圖文輸出、版本控制、模型測試、預覽、部署等功能,同時可支持客製化模型訓練、微調、推論,在雲端也能擁有自己的模型。

企業地端使用

CaiGunn的企業版提供強大功能,除了支援NVIDIA DGX、HGX的硬體之外,也同時支援混合雲、私有雲的架構,包含AWS、Azure、Google、Oracle Cloud、DGX Cloud等雲端廠商,確保資料隱私與保護。

開發者專區

CaiGunn 的模型目前部署在台灣,我們提供使用者使用模型,透過 CaiGunn API,除了 No-Code,更能夠二次開發!。

低推論成本

透過微調之後,在特定領域訓練的模型就能提供較低的推論成本

支援應用場景

語言模型只是核心,我們能支援更多由APMIC推出應用系統,像是客服、知識管理、合約辨識等。

資料保密

搭配NVIDIA H100同級以上的機密運算(Confidential Computing)技術,能確保資料從訓練到部署都能保密到家。

立即創造屬於你的 GPT