微软 Azure宣布与英伟达合作,将加速计算技术集成到其平台中,为生成式 AI 应用的训练和部署带来了革新。该合作通过将Azure ND H100v5虚拟机(VM)与英伟达H100 Tensor Core GPU和Quantum-2 InfiniBand网络集成,使用户能够轻松扩展其生成式 AI 和高性能计算应用。
在当前开发者和研究人员探索大型语言模型(LLMs)和加速计算技术在多种消费者和商业场景中的潜力的关键时刻,微软 Azure 和英伟达的合作尤为重要。
英伟达的H100 GPU提供了超级计算级别的性能,配备了强大的 Tensor Cores、用于加速 LLMs 的Transformer Engine,以及支持快速GPU之间通信的NVLink技术。同时,英伟达Quantum-2 InfiniBand的集成具有令人瞩目的跨节点带宽(3,200Gbps),确保了GPU之间的卓越性能,使其能够与先进的超级计算机相媲美。
引入ND H100v5 VMs为训练和推断复杂的LLMs和计算机视觉模型提供了全新的可能性,这些神经网络驱动了问答、代码生成、音频、视频、图像合成和语音识别等各种应用。
特别值得注意的是,ND H100v5 VMs可在LLM推断方面提供高达2倍的加速,在BLOOM175B模型上得到了验证。这样的性能提升优化了AI应用程序,并推动了创新在各个行业中的涌现。
通过英伟达和微软Azure的合作,企业获得了无与伦比的AI训练和推断能力。英伟达的AI Enterprise软件套件与Azure Machine Learning for MLOps的集成简化了生产级AI应用的开发和部署过程。
此外,该合作还通过将英伟达的Omniverse平台与Azure集成,为用户提供了用于工业数字化和AI超级计算的全新工具。
微软 Azure 和英伟达的加速计算技术集成开启了AI应用的新可能性,使企业能够充分利用生成式AI的潜力,满足他们特定的需求。