亚马逊与OpenAI达成380亿美元AI合作,加速算力部署
AI导读:
11月3日,亚马逊宣布与OpenAI建立多年战略合作伙伴关系,OpenAI将在AWS上运行AI工作负载,合作金额达380亿美元。亚马逊将提供强大算力支持,助力OpenAI构建AI数据中心。双方合作将加速AI算力部署,引发市场对AI泡沫的讨论。
11月3日美股盘前,亚马逊宣布与OpenAI建立多年战略合作伙伴关系(AI合作),OpenAI将在亚马逊AWS上运行AI工作负载。双方合作涉及金额达380亿美元,此举标志着科技巨头在AI算力领域的深度整合。受消息影响,亚马逊开盘涨超4%。
根据合作内容,OpenAI将使用的服务器是Amazon EC2 UltraServers,经由该服务器,OpenAI将访问包含数十万个英伟达GPU,服务器计算能力还能扩展至数千万个CPU。AWS的集群芯片超过50万个,目前AWS正在为OpenAI构建基础设施,相关部署采用复杂的架构设计,可提高AI处理效率。亚马逊表示,双方的协议价值380亿美元,且该协议的价值还将在未来7年内持续增长,凸显AI基础设施投资的长期价值。
就算力部署进度,亚马逊表示,OpenAI将立即开始使用AWS计算服务,所有计算能力预计在2026年底前部署到位,且计算能力还有望在2027年及之后进一步扩大规模。不过,亚马逊并未提及OpenAI将使用亚马逊自研的AI芯片。此前亚马逊所投资的大模型公司Anthropic使用了亚马逊自研的Amazon Trainium和Amazon Inferentia芯片来构建和部署模型。在亚马逊之外,近期Anthropic宣布与谷歌合作,计划使用谷歌自研的TPU(张量处理单元)来部署自家模型。
包括OpenAI和Anthropic在内,硅谷大模型厂商近期正在扩大与算力提供商的合作(算力合作),以保障自身算力使用。而从OpenAI近期一系列算力供应合作看,与Anthropic相比,OpenAI更青睐使用GPU。9月,英伟达宣布向OpenAI投资最多1000亿美元,英伟达将助力OpenAI构建和部署至少10吉瓦的AI数据中心,涉及数百万块英伟达GPU。10月,另一家GPU厂商AMD与OpenAI达成合作,OpenAI将根据多年、多代协议部署6吉瓦容量的AMD GPU。OpenAI也在探索使用ASIC(专用集成电路)芯片,但不是通过使用云厂商自研的ASIC芯片,而是尝试使用自研的ASIC。10月,OpenAI宣布与定制ASIC厂商博通达成合作,计划开发10吉瓦的定制AI加速器。
近日在一档播客节目中,OpenAI CEO奥尔特曼(Sam Altman)表示,公司目前的收入远不止130亿美元。对于一家收入130亿美元的公司如何能签下上万亿美元的算力支出承诺,奥尔特曼表示,这些基建投资是在前瞻性押注,公司将会成为重要的AI云服务提供方,消费设备业务也将成为一个重要板块,“那些在网络上对我们算力支出大惊小怪、担忧不已的人,要是能买到OpenAI的股份,肯定会抢着入场。”
亚马逊则于近日公布了2025年第三季度财报(财报数据),该季度亚马逊净销售额增长12%至1802亿美元,净利润为212亿美元,同比增长了38.6%。亚马逊首席执行官安迪·贾西(Andy Jassy)表示,AWS增长速度达到了自2022年以来的最高水平,人工智能和核心基础设施的需求强劲。不过,在硅谷科技公司对AI基础设施的巨额投资下,近期市场上关于AI是否存在泡沫有激烈讨论。ING私人银行、财富管理和投资全球主管安妮卡·特雷昂(Anneka Treon)近日称,人工智能巨额支出是否真的会产生预期的资本回报,至少要一年后才清楚。
(文章来源:第一财经)
郑重声明:以上内容与本站立场无关。本站发布此内容的目的在于传播更多信息,本站对其观点、判断保持中立,不保证该内容(包括但不限于文字、数据及图表)全部或者部分内容的准确性、真实性、完整性、有效性、及时性、原创性等。相关内容不对各位读者构成任何投资建议,据此操作,风险自担。股市有风险,投资需谨慎。如对该内容存在异议,或发现违法及不良信息,请发送邮件至yxiu_cn@foxmail.com,我们将安排核实处理。

