微软发布两款自研芯片,面向 AI 和云计算
当地时间 11 月 15 日,微软在西雅图召开的 Ignite 大会上发布了两款芯片,一款面向 AI,一款面向云计算。
微软发布的这款名为 Maia 100 的人工智能芯片,旨在与英伟达备受追捧的 AI 图形处理单元展开竞争。第二款则是 Cobalt 100 Arm 芯片,面向通用计算任务并将与英特尔处理器争夺市场。
微软公司表示,Maia 100 是 Maia AI 加速器系列中的首款产品。它采用的是台积电 5 纳米制程工艺,拥有 1050 亿个晶体管微软5月发布会,比 AMD 挑战英伟达的 AI 芯片 MI300X 的 1530 亿个晶体管少约 30%。
此外,Maia 支持微软首次实现低于 8 位数据类型(MX 数据类型),“这样可以让微软与其他合作伙伴共同设计硬件和软件,”微软公司副总裁 Rani Borkar 说道。“这有助于我们支持更快的模型训练和推理时间。”
微软是包括 AMD、Arm、Intel、meta、Nvidia 和 等在内的一个联盟的成员,该联盟正在标准化人工智能模型的下一代数据格式。
在本场发布会上,微软发布的另一款芯片产品同样备受瞩目。Cobalt 100 是一款 64 位处理器,也同样采用的是台积电 5 纳米工艺,芯片上有 128 个计算核心,与 Azure 一直使用的其他基于 Arm 架构的芯片相比,它的功耗降低了 40%。微软表示,一部分 Cobalt 芯片已经为 Teams 和 Azure SQL 等程序提供支持。
值得注意的是,Maia 100 和 Cobalt 100 这两款芯片由每秒 200 GB 的网络供电,可提供每秒 12.5 GB 的数据吞吐量。
“我们和其他芯片厂商是互补,而非竞争”
微软正处于部署的早期阶段,因此微软目前暂时不愿意向外界发布确切的两款芯片的规范或性能基准。也就是说,外界很难准确地去解读 Maia 与英伟达流行的 H100 GPU、最近发布的 H200、甚至 AMD 最新的 MI300X 相比如何。
Borkar 表示,微软不想讨论谁的芯片更好,而是强调了与英伟达和 AMD 的合作关系对于 Azure 人工智能云的未来仍然非常关键。“在云运行的规模上,优化和集成堆栈的每一层、最大限度地提高性能、实现供应链多样化以及坦白地为我们的客户提供基础设施选择非常重要,”Borkar 如是说。
供应链的多元化对微软来说非常重要微软发布两款自研 5nm 芯片,AI 和云计算两大市场都想要!网友:科技巨头从来不做选择题,特别是当英伟达目前是人工智能服务器芯片的主要供应商并且各公司一直在竞相购买这些芯片时。据估计,OpenAI 需要超过 3 万个英伟达旧版 A100 GPU 才能实现 ChatGPT 的商业化,因此微软自己的芯片可以帮助其客户降低 AI 成本。微软还为自己的 Azure 云工作负载开发了这些芯片,而不是像英伟达、AMD、英特尔和高通那样出售给其他公司。
“我认为我们和其他芯片厂商更多的是互补,而不是与他们竞争,”Borkar 坚持说。“今天,我们的云计算中既有英特尔也有 AMD,同样,在人工智能方面,我们今天已经有了英伟达,我们也将宣布采用 AMD。这些合作伙伴对我们的基础设施非常重要,我们真的希望为我们的客户提供选择。”
科技巨头,全都拥有“造芯梦”
资金充实的各大科技企业都在为客户提供愈发丰富的云基础设施选项,帮助受众更灵活地运行应用程序。阿里巴巴、亚马逊和谷歌多年以来一直秉持这项战略。根据一项估算,截至今年 10 月底,微软手中共掌握约 1440 亿美元现金,且过去一年其云市场份额已经达到 21.5%,仅次于亚马逊。
微软公司副总裁 Rani Borkar 在接受外媒采访时表示,运行在 Cobalt 芯片之上的虚拟机实例将在 2024 年通过微软 Azure 云实现商业化,但她没有提供 Maia 100 芯片的具体上市时间表。
作为全球头部云供应商之一114信息网MIP移动站,微软是最后一家为云和人工智能提供定制芯片的公司。2016 年,谷歌公布了其初代 AI 张量处理单元(TPU);亚马逊云科技则先是在 2018 年发布了其 Arm 芯片与 AI 处理器,随后于 2020 年推出了用于模型训练的 。
面对 GPU 资源的严重短缺,云服务商的特殊 AI 芯片有望满足客户需求。但与英伟达或者 AMD 不同,微软及其云计算同行的盈利模式,并不是向客户出售搭载其芯片的服务器硬件。
Borkar 解释称,微软方面在 AI 计算芯片的设计过程中充分听取了客户反馈。
Borkar 还提到,微软目前正在测试 Maia 100 如何满足自家 Bing 搜索引擎上的 AI 聊天机器人(原名 Bing Chat,现已更名为 Copilot)、GitHub Copilot 编码助手以及 GPT-3.5-Turbo(由微软支持的 OpenAI 大语言模型)等需求。凭借海量互联网信息作为训练素材,OpenAI 的语言模型已经可以生成电子邮件、总结文档并根据人类询问快速生成答案。
其中 GPT-3.5-Turbo 模型正是 智能助手的底层技术,这款产品自去年推出之后迅速蹿红。短时间内,各家公司纷纷行动起来,在自家软件中引入类似的聊天功能,这也大大增加了市场对于 GPU 资源的整体需求。
英伟达公司首席财务官 Colette Kress 在今年 9 月于纽约召开的 大会上表示,“我们一直在与各家供应商开展全面合作,希望改善我们的供应能力并支持更多客户、满足市场需求。”
此前,OpenAI 就一直借助 Azure 上的英伟达 GPU 进行模型训练。
除了设计 Maia 芯片之外,微软还公布了名为 的定制化液冷硬件,可安装在与 Maia 服务器相邻的机架中为其降温,其工作原理就像汽车或高档游戏 PC 中的散热器一样,用于冷却 Maia 芯片的表面。一位发言人表示,微软无需任何改造即可将 Maia 服务器机架与 液冷机架安放到位。
相比之下,GPU 往往无法充分利用本就有限的数据中心物理空间。服务器初创公司 Oxide 联合创始人兼 CEO Steve Tuck 坦言,由于无法像普通服务器那样从上到下填满机架,该公司有时会将一些装有 GPU 的服务器像“孤儿”般安放在机架底部以防止过热。Tuck 还强调,有时甚至需要单独添加冷却系统来降低运行温度。
根据之前亚马逊应用自研芯片的经验,微软的 Cobalt 处理器普及速度可能会比 Maia AI 芯片更快。微软目前正在 Cobalt 上测试其 Teams 应用程序及 Azure SQL 数据库服务的运行情况。微软表示,到目前为止其性能表现比 Azure 原先的 Arm 芯片(由初创公司 Ampere 提供)高出 40%。
过去一年半以来,随着 GPU 价格与存款利率的持续走高,许多企业都在寻求改善云支出的可行方法。对于 AWS 客户来说, 就是理想的选项之一。AWS 副总裁 Dave Brown 表示,AWS 的前百大客户目前都在使用基于 Arm 架构的芯片微软5月发布会,此举能够将性价比提升 40%。
但必须承认,从 GPU 迁移至 AWS AI 芯片的难度,恐怕要比从英特尔至强转向 更为复杂。每种 AI 模型都有自己的特性和需求,技术人员已经成功让各类工具在 Arm 架构上顺利运行,但定制化 AI 芯片仍是一片有待探索的新世界。不过 Brown 相信随着时间推移,越来越多的组织都会意识到 芯片相较于传统 GPU 的显著性价比优势。
Borkar 指出,“我们已经与生态系统中的众多合作伙伴共享了技术规范,相信新的芯片将为全体 Azure 客户带来收益。”
参考链接:
【本文来源于互联网转载,如侵犯您的权益或不适传播,请邮件通知我们删除】