深信服AI創新平臺全新升級,不斷降低端到端AI應用建設TCO
AI進入普惠階段,但AI的全周期建設未必“普惠”。顯卡資源、模型資源、運維管理等,每個環節都存在巨大的成本挑戰。
深信服AI創新平臺全新升級,為用戶向上承載各類大小模型,向下開放兼容,廣泛適配各種硬件設施,并最終實現【為用戶不斷降低端到端AI應用建設TCO】。
一、全模型全場景,低成本起步
對用戶來說,一旦決定進行AI建設,快速起步非常重要。但其實, 低成本起步也同樣重要。 AI建設起步階段,涉及大小模型部署、模型試用選擇、多種顯卡適配消耗等環節,想要快速起步,必須找到低門檻啟動的方式。
深信服AI創新平臺率先發布 商業 化 4090D起步運行含671B的端到端AI應用場景。 也就是說, 用戶只需要用8卡的4090D即可運行滿血版671B的端到端AI應用場景 ,滿足大參數、小參數模型在更低硬件和顯卡上的部署,讓用戶在AI建設起步階段,能以更低成本體驗各類模型的效果,選擇出最適合自身的模型。
二、全模型承載,實現快速部署
在快速部署這件事上,AI創新平臺也為用戶提供足夠的資源。AI創新平臺可 承載DeepSeek、Qwen、LLAMA等各類最新大模型及豐富的小模型,支持統一運維管理的同時,也支持從外部上傳自定義大小模型服務, 不僅滿足用戶快速部署、隨時嘗鮮大模型的需求,也能為用戶的個性化選擇提供支撐。
三、顯卡利用率數倍提升,大幅降低顯卡資源成本
RAG、智能客服、Copilot智能體等應用落地伴隨 大量大小模型的混合部署使用 ,尤其小模型的使用更為廣泛。小模型一多,為防止顯卡資源爭搶,不得不按卡進行資源模型算力隔離,帶來嚴重顯卡資源消耗。
AI創新平臺的最新版本通過 vGPU支持1%級別的顯卡切分, 大幅提升顯卡資源利用率。在這種情況下, 用戶顯卡越高端、模型使用越多,反而更節省成本。 用戶在落地AI的過程中,不必操心用卡成本。
四、多卡兼容,擺脫鎖定,用卡更靈活
而為了滿足用戶在AI擴建過程中,越來越多樣的用卡需求,AI創新平臺不斷 兼容適配國內外顯卡廠商,同時擺脫單一硬件供應商鎖定, 讓用戶用卡更靈活,持續用上性價比最高的顯卡。
五、起步→生產→規模化,平滑演進
AI創新平臺為用戶提供 從異構統一管理的低門檻AI平臺,平滑演進到未來AI算力中心 的完整路徑。
從AI起步階段開始,以低門檻方案落地輕型一體化AI算力平臺;隨著業務發展,更多AI應用需要落地,進入AI生產階段,搭建中型AI算力平臺;再到AI規模化應用階段,落地中大型AI智算中心。
在逐步演進的過程中,深信服AI創新平臺可以 對算力資源實現多集群、多品牌、多型號的異構管理,同時不斷豐富更多成本優化、穩定可靠、簡單安全的能力, 讓用戶充分利用持續積累的AI能力,平滑擴展自身AI平臺。
AI大爆炸時代,各行業用戶遇到的挑戰不盡相同,但如何克服繁雜需求與多樣嘗試帶來的成本,卻是大多數用戶的痛處。新智算時代,深信服希望為用戶提供這樣一個AI基礎設施,讓用戶在AI建設的每一個階段,都能以更輕松、更高效、更安全的方式落地AI。