网络公司正在竞相开发能够处理人工智能和机器学习任务的芯片。例如,思科的 Silicon One G200 和 G202 ASIC 挑战了 Broadcom、NVIDIA 和 Marvell 的产品。对人工智能技术的需求正在迅速增长:预计 2023 年全球人工智能支出将达到 1540 亿美元,到 2026 年将至少达到 3000 亿美元。此外,根据 650 Group 的一份报告,到 2027 年,数据中心购买的近五分之一的以太网交换机端口将用于 AI/ML 和加速计算。
思科网络芯片如何缩短工作负载时间
思科的 Silicon One G200 和 G202 ASIC 可以以 51.2 Tbps 的速度处理 AI 和 ML 任务,交换机数量减少了 40%。它们在两层网络中实现了 32K 400G GPU AI/ML 集群,光学组件减少了 50%,网络层减少了 33%。这些芯片提供统一的路由和交换,为路由、交换和AI/ML网络提供融合架构。先进的负载平衡和超低延迟使其成为处理 AI/ML 工作负载的理想选择。改进的以太网功能进一步提高了性能并将订单处理时间缩短了 1.57 倍。据思科称,G200 和 G202 还提供负载平衡、更好的故障隔离和完全共享的缓冲区,以支持 AI/ML 工作负载的光学性能。
芯片厂商面临AI挑战
Chopra 表示,网络制造商正在推出更高带宽的网络芯片和 劳伦斯利弗莫尔国家实验室已开始建造一台名为 El Capitan 的新型超级计算机,这是一个配备 HPE Cray 硬件和最新一代 AMD 处理器的 2 exaflop 系统,将于 2024 年完工后成为最强大的超级计算机。
这台新型超级计算机的速度将超过 2 exaflops/sec,是美国第三台这种规模的计算机。
劳伦斯利弗莫尔国家实验室的一些图像显示了正在收集和组装 肯尼亚电话号码列表
的新计算机的组件,这些图像已经发布在社交媒体上。
El Capitan 的主要目的是支持能源部国家核安全管理局 (NNSA) 通过预测建模和模拟确保国家核储存设施的安全性和可靠性。它还将为核不扩散和反恐等次要任务做出贡献。
新型 AMD 处理器(称为 APU 加速器)将显着提高性能并实现更快的模拟和更高分辨率的 3D 模型。 El Capitan 预计比 LLNL 目前最快的超级计算机 Sierra 快至少十倍。以前需要一周的模拟将在一天内完成。
LLNL 还将建造一台较小的超级计算机,大约是 El Capitan 大小的 10%,以支持能源安全、气候变化和药物发现等各个公共利益领域的非保密研究。
为了准备 El Capitan,LLNL 建造了三台跻身世界前 200 名的测试超级计算机。这些系统帮助管理员熟悉硬件,并确保系统软件和应用程序为新基础设施做好准备。Radix,使他们能够通过连接更多设备来处理人工智能任务。它们还促进 GPU 之间的无缝通信,消除瓶颈并提高 AI/ML 工作负载的性能。Broadcom 以 610 亿美元收购虚拟化技术领先开发商 VMware 的交易已获得欧盟监管机构的批准。此次收购是IT行业第三大收购,仅次于戴尔/EMC和微软/动视暴雪。欧盟委员会进行了一项反垄断调查,得出的结论是,博通的主导地位提供了有限的滥用机会,因为它还不足以让博通完全接管市场。然而,为了确保良性竞争,已经施加了某些条件。
尽管VMware 和Broadcom Software 不太可能合并,但取代Broadcom 主要竞争对手之一Marvell 似乎更为现实,这可以通过限制其光纤通道适配器与VMware 的兼容性来实现。为了消除这种可能性,博通需要向其他公司提供用于创建兼容光纤通道适配器的驱动程序和工具的源代码。
博通的芯片广泛应用于智能手机和其他设备,此次收购预计将显着加强该公司的软件业务,重点是企业软件和云计算。此次收购仍需美国联邦贸易委员会和英国竞争与市场管理局的审查。