谷歌大模型Gemini的训练规模达GPT-4的5倍,使用TPUv5芯片
据知名的SemiAnalysis最近爆料的消息,谷歌的大模型Gemini的训练规模已经达到了GPT-4的5倍。Gemini的初代版本可能在TPUv4上训练,使用了14个pod,训练的FLOPS达到了1e26,而GPT-4的FLOPS只有2e25左右。更令人震惊的是,Gemini的下一代版本已经开始在TPUv5上训练,算力高达1e26FLOPS,是GPT-4的5倍。
谷歌拥有大量自主研发的TPU芯片,其中TPUv5的数量已经超过了OpenAI、Meta、CoreWeave等公司总GPU数量。相比GPU,单片TPUv5性能略弱,但谷歌可以利用庞大基础设施发挥规模效应。
此外,Gemini在模型架构上也较GPT-4优秀,如拥有增强的多模态能力。Gemini一直在TPU上快速迭代,先是TPUv4,现在已经升级到TPUv5,性能表现也优于GPT-4。
总的来说,谷歌已经正式介入大模型竞赛,凭借雄厚算力优势全面碾压OpenAI。这场竞争才刚刚开始,未来几个月将见证谷歌的胜利。
暂无评论...