英伟达周一宣布,推出新一代顶级AI芯片HGX H200,该芯片在广受欢迎的前代产品H100的基础上,实现了1.4倍的内存带宽提升和1.8倍的内存容量增加,为处理密集型生成AI工作提供了更强大的能力。
H200是首个使用新型、更快的HBM3e内存规格的GPU,将其内存带宽提高至每秒4.8TB,相较于H100的3.35TB有显著提升,总内存容量也从80GB增至141GB。这种内存的改进意味着H200是一次有意义的升级,可以加速包括生成AI模型和高性能计算应用在内的计算密集型任务的性能,同时优化GPU的利用率和效率。
英伟达表示,H200芯片还设计为与已支持H100的系统兼容,云服务提供商在加入H200时无需进行任何改动。亚马逊、谷歌、微软和甲骨文的云服务部门将是明年首批提供新GPU的公司之一。
虽然英伟达没有公布H200的价格,但据CNBC报道,上一代H100的估计售价在每颗25000至40000美元之间。随着AI公司仍然迫切寻找H100芯片,英伟达的这一公告具有重要意义。英伟达的芯片被视为高效处理生成图像工具和大型语言模型所需巨量数据的最佳选择。这些芯片足够珍贵,以至于有公司使用它们作为贷款的抵押。
展望明年,对于GPU买家来说或许是更加吉利的时期。英国《金融时报》今年8月报道称,英伟达计划在2024年将H100的产量增加三倍。目标是明年生产多达200万颗,相比之下2023年约为50万颗。但随着生成式AI的需求如今仍与年初一样旺盛,需求可能只会更大——这还不包括英伟达推出的更热门新芯片。
暂无评论...