Content:
隨需應變、彈性高效的按需服務實現企業快速導入NVDIA GPUs極速算力
深耕於台灣的GMI Cloud,利用其供應鏈優勢,為企業提供即時且價格合理的 NVIDIA GPU 算力,協助企業用戶在人工智慧競爭中保持領先地位。
加州聖塔克拉拉--(BUSINESS WIRE)--(美國商業資訊)--專為⼈⼯智慧和機器學習⼯作負載設計的新興GPU雲端平台GMI Cloud,正在加快NVDIA GPU的應用步伐。今日正式推出全新的即時雲端運算服務,專為致力於應用人工智慧的企業量身打造,協助其實現從原型設計到產品化的全新可能性。用戶可透過彈性高效的按需服務實現企業快速導入NVDIA GPUs極速算力。
AI運算需求急速激增
目前,隨著市場對人工智慧運算能力的需求急速激增,迫使企業須採取更具策略性的應對措施。在快速變化的環境中,企業通常需支付 25-50% 的預付款,並簽訂為期三年的合約,以獲得 6-12 個月後部署 GPU 運算基礎架構的承諾。然而,人工智慧的迅速變革要求企業具備更靈活的運算能力,以適應不斷變化的需求。
即時GPU,無限AI
憑藉與瑞昱半導體(Realtek Semiconductors, TPE: 2379)和弘憶國際(GMI Technologies, TPE: 3312)的合作關係,以及台灣強⼤的供應鏈⽣態系統,GMI Cloud能夠確保更快速的部署和更⾼的營運效率。相較於其他地區的GPU供應商,GMI Cloud在台灣的實體運營將GPU交付時間從數⽉縮短⾄數天,大幅提升市場競爭力。GMI Cloud正迅速成為市場最具競爭⼒的新成員。
GMI Cloud創辦⼈兼執⾏⻑Alex Yeh表示:「我們的使命是透過即時、⾼效的GPU雲服務,為⼈類的⼈⼯智慧雄⼼壯志賦能。我們不僅僅是在建構雲,我們更是在打造⼈⼯智慧時代的根基。GMI Cloud致⼒於改變開發⼈員和資料科學家利⽤NVIDIA GPU的⽅式,以及全⼈類從⼈⼯智慧中獲益的途徑。」
為何重要
技術領導者們正積極抓住人工智慧浪潮帶來的商機,而各種規模的企業在獲取運算能力方面卻面臨重重障礙。
例如,中小型企業往往沒有足夠的預算或長期規劃來支付安裝大型 GPU 的前期費用。他們需要根據自身發展情況靈活地擴大或縮小規模,這意味著將 GPU 的費用作為運營支出而非固定資本支出,從而將資金投入於招聘有競爭力的人工智慧人才。按需存取 GPU 運算為這些團隊提供一個即時、具成本效益且可擴展的選擇,無需具備特殊技能即可建立基礎架構。
⼤型企業也同樣⾯臨挑戰。例如,企業技術團隊需靈活地對⼈⼯智慧應⽤進⾏實驗、 原型設計和評估,以便在⼈⼯智慧浪潮席捲⽽來之前領先於競爭對⼿。然⽽,並非所有企業都願意簽署⻑期合約,也不一定願意投入大量資本到未經證實的運算儲備中。透過即時存取GPU的靈活性,這些技術研發團隊,可輕鬆運⾏多組⼤型資料集的處理或微調模型的原型專案,⽽無需承擔重⼤投資⾵險。
即刻開始
GMI Cloud是⼀個由NVIDIA提供⽀援的GPU雲端平台,擁有豐富的Kubernetes管理預載軟體堆疊,專為⼈⼯智慧和機器學習⼯作負載設計,該平台包括使⽤NVIDIA TensorRT的預建構影像,並即將⽀援NVIDIA Triton等推理伺服器在內的所有 NVIDIA預建構容器。相比於業界大型企業為了將使用者鎖定在更大儲備包中而收取高達四倍的按需存取費用,NVIDIA H100 Tensor Core GPU的價格極具競爭⼒,僅有4.39美元/⼩時,這使得 GMI Cloud 能夠提供經濟實惠的按需存取服務。GMI Cloud 的執⾏個體類型和⼤⼩的設計⽬的是為了有效地部署、微調和推理各種模型,這些模型的⼤⼩涵蓋Llama3 8b、 70b、Mixtral 8x7b、Google Gemma、以及 Stable Diffusion等。
關於GMI Cloud
GMI Cloud是一家由創投支持的AI雲端基礎建設公司,結合即時GPU可用性和無限的人工智慧潛力。該公司也是Realtek Semiconductor和GMI Technology共同策略支持的新創公司。作為領先的人工智慧原生GPU雲平台,我們提供對最新GPU的快速存取,並專注於針對人工智慧和機器學習工作負載進行優化。我們的平台確保順暢的可擴充性和頂尖的效能,以滿足初創企業、研究人員和企業的多變需求。透過GMI Cloud體驗按需GPU的強⼤功能,釋放無限的⼈⼯智慧潛能,讓您能夠更快、更智慧、更具成本效益地進⾏創新。
想了解更多資訊,請造訪gmicloud.ai
Contacts 媒體連絡人
Carly Bourne
[email protected]