DeepSeek/Qwen通義千問-AI大模型國產顯卡信創GPU一體機集服務器、AI管理系統、高效能基礎模型、全流程AI工具鏈于一體的開箱即用的AI解決方案。適用于科研院所、教育、政府、企業等用戶,有一定私域專有知識,希望快速構建AI能力賦能文字處理、數據分析、科學研究等繁重業務,專為云端AI訓練和推理設計,主要面向AI大規模深度學習場景。
通過持續的架構創新和工藝迭代,已覆蓋從訓練到推理、從邊緣到云端的產品矩陣,其國產化率的提升和生態體系的完善,為AI算力自主可控提供重要支撐。
適用于智慧城市、智慧醫療、天文探索、石油勘探、預測天氣、自動駕駛等需要大AI算力的領域,有一定私域專有知識應用于深度學習模型開發和訓練,可以更快的進行視頻、圖像、語音、文字的AI模型訓練和科學研究。
DeepSeek/Qwen-AI大模型國產顯卡信創GPU服務器產品優勢:
適配DeepSeek、Qwen通義千問、Llama等主流開源大模型;能夠支持國內外主流軟硬件生態和各種深度學習框架、算法模型和加速庫。
兼容CUDA生態,支持市場主流生態,生態應用遷移迅速;支持FP32、FP16、INT8等多精度推理混合計算。
私有數據不出域,在保障數據安全的同時構建業務智能體,解決敏感數據無法上云的痛點;
支持DeepSeek全系列滿血版模型的訓練推理,顯著提升性能并降低部署成本。
DeepSeek/Qwen-AI大模型國產顯卡信創GPU服務器配置:
旗艦版:DeepSeek- 671B 滿血版/Qwen、Llama等
處理器:2*海光7390/7490
國產GPU顯卡:64G*8
內存:64GB*16
硬盤:480G SSD *4+3.84T NVMe*4
網絡:配置RDMA網卡或IB網卡
•支持滿血版671B模型及蒸餾模型(需部署兩臺)
•大并發、性能強
•可靈活擴展,支持大型企業規模化應用
高配版:DeepSeek- 70B/Qwen、Llama等
處理器:2*海光7380/7480
國產GPU顯卡:32G*8
內存:64GB*16
硬盤:480G SSD *2+3.84T NVMe*2
網絡:以太網/RDMA網卡
•支持精度FP16的70B模型及蒸餾模型
•低成本、私有化部署
•滿足客戶體驗、小規模使用需求
標準版:DeepSeek- 32B/Qwen、Llama等
處理器:2*海光7380/7480
國產GPU顯卡:32G*4
內存:32GB*8
硬盤:480G SSD*2+3.84T NVMe*2
網絡:以太網
邊緣版:DeepSeek-14B/Qwen、Llama等
處理器:X86處理器
國產GPU顯卡:32G*2
內存:32GB*4 DDR4
硬盤:按需
網絡:以太網
• 支持中小參數蒸餾模型
• 低門檻上車,輕量化應用
低噪音、可在政務、教育等辦公環境部署
軟件環境:
• 推理框架:VLLm
• 操作系統:Ubuntu、國產系統




























