MoneyDJ新聞 2024-04-10 12:25:20 記者 新聞中心 報導
NVIDIA和Google Cloud宣布開展新合作,幫助世界各地的新創公司加速建立生成式人工智慧(AI)應用程式和服務。
此合作於今日在美國拉斯維加斯舉行的Google Cloud Next 24大會上宣布,將結合針對新創公司的NVIDIA Inception計畫和Google for Startups Cloud計畫,以擴大獲得雲端積分(cloud credit)、市場推廣支援和技術專業知識,協助新創公司更快地為客戶提供價值。
NVIDIA指出,NVIDIA Inception是一項支援超過18,000家新創公司的全球計劃,其合格會員將能夠加速使用Google Cloud基礎設施,並獲得Google Cloud積分,專注於AI的企業最高可獲得350,000美元的積分,並可用於NVIDIA DGX Cloud。
Google for Startups Cloud計畫成員可以加入NVIDIA Inception計畫,並獲得技術專業知識、NVIDIA深度學習機構課程學分、NVIDIA硬體和軟體等。Google for Startups Cloud計畫的合格成員還可以參與NVIDIA Inception Capital Connect,讓新創公司能夠接觸到對該領域感興趣的創投公司。
參與這兩個計畫的高成長新興軟體製造商也可以獲得加快入駐Google Cloud Marketplace、共同行銷和產品加速支援。
此次合作是兩家公司為幫助降低各種規模企業開發生成式AI應用相關成本和障礙而發布的一系列公告中的最新一項,新創公司尤其受到AI投資相關高成本的限制。
此外,今年2月,Google DeepMind推出了Gemma,這是一系列最先進的開放式模型。 NVIDIA與Google合作,近期為Gemma在所有NVIDIA AI平台上進行了最佳化,有助於降低客戶成本,並加快針對特定領域用例的創新工作。
兩家公司的團隊緊密合作,利用NVIDIA TensorRT-LLM這個用於最佳化大型語言模型推論的開源庫來加速Gemma在NVIDIA GPU上運行時的效能,Gemma採用與建立Google DeepMind迄今為止功能最強大的模型Gemini相同的研究和技術。
NVIDIA NIM微服務是NVIDIA AI Enterprise軟體平台的一部分,它與Google Kubernetes Engine(GKE)一起為開發AI驅動應用程式以及將最佳化的AI模型部署到生產環境提供了簡化路徑。NIM基於NVIDIA Triton推論伺服器和TensorRT-LLM等推論引擎構建,支援各種領先的AI模型,並提供無縫、可擴展的AI推論,以加速企業中的生成式AI部署。
包括Gemma 7B、RecurrentGemma和CodeGemma在內的Gemma系列模型可從NVIDIA API 目錄中獲得使用者可以透過瀏覽器進行試用,使用API端點進行原型開發,並使用NIM進行自主託管。
透過GKE和Google Cloud HPC工具套件,Google Cloud讓使用者可以更輕鬆地在其平台上部署NVIDIA NeMo框架,這使得開發人員能夠自動化和擴展生成式AI模型的訓練和服務,使他們能夠透過可客製化的藍圖快速部署完整的環境,加速開發流程。
為了進一步擴大NVIDIA加速的生成式AI運算的可用性,Google Cloud也宣布A3 Mega將於下個月全面上市。這些執行個體是其A3虛擬機器系列的擴展,由 NVIDIA H100 Tensor核心GPU驅動,新執行個體將使A3虛擬機器的GPU到GPU之間網路頻寬增加一倍。
NVIDIA表示,以NVIDIA Blackwell平台為基礎的NVIDIA最新GPU將於明年初導入Google Cloud,共有NVIDIA HGX B200和NVIDIA GB200 NVL72兩種版本,前者專為最嚴苛的AI、資料分析和高效能運算工作負載而設計,後者是專為下一前沿、大規模、兆級參數的模型訓練和即時推論而設計,也是一款多節點機架規模系統,將與Google Cloud第四代先進液冷系統結合。
NVIDIA上個月宣布,提供企業開發人員使用、針對生成式AI需求進行最佳化的AI平台NVIDIA DGX Cloud目前已可在由H100 GPU驅動的A3虛擬機器上使用;另外,搭載GB200 NVL72的DGX Cloud也將於2025年在Google Cloud上提供。
(圖片來源:NVIDIA)