近日,OpenAI 宣布與亞馬遜 AWS 達成了一項價值380億美元的長期合作協議,這標志著 OpenAI 在 AI 云基礎設施方面的重大進展。此前,OpenAI 主要依賴微軟 Azure 提供的云服務,但隨著其對算力需求的不斷增長,OpenAI 選擇了與 AWS 合作。
根據新協議,OpenAI 將在未來七年內使用 AWS 的基礎設施,尤其是其 Amazon EC2UltraServers,這將為 OpenAI 提供數千塊高性能的 NVIDIA GB200及 GB300GPU。這些強大的計算資源將支持 OpenAI 進行更大規模的 AI 模型訓練和推理,預計到2026年底,OpenAI 將消耗完這些計算能力,并在2027年繼續擴容。
AWS 首席執行官 Matt Garman 表示,AWS 的基礎設施將成為 OpenAI 推動 AI 技術發展的重要支撐。Garman 強調,AWS 提供的廣泛且即時可用的算力將為 OpenAI 的大規模 AI 工作負載提供獨特的支持。此次合作不僅將助力 ChatGPT 等應用的推理,還將支持下一代模型的訓練。
在達成新協議之前,微軟對與 OpenAI 的合作條款進行了調整,允許 OpenAI 將非 API 產品(如 ChatGPT 和 Sora)托管在任何云服務平臺上。這一變化為 OpenAI 提供了更多的靈活性,使其能夠更好地滿足自身對算力的需求。
亞馬遜也指出,OpenAI 的 gpt-oss 系列模型在其 Amazon Bedrock 平臺上已成為最受歡迎的公有模型之一,吸引了包括 Comscore、Peloton 和 Thomson Reuters 等多家客戶的使用。這一合作關系的建立,預示著 OpenAI 和 AWS 在人工智能領域的進一步深耕與發展。


產品與服務
聯系站長
關于我們