GPT等大型语言模型带动的芯片需求飙升趋势依然没有平息的迹象。英伟达的最新版旗舰AI芯片H100近日在网上的售价已经被炒到4万多美金,反映了科技行业对训练和部署人工智能软件的需求仍未被满足。
受AI芯片需求的提振,英伟达今年以来股价累计涨幅超过83%,近一个月的涨幅就接近60%,成为美股科技巨头企业中表现最好的公司。
近日,第一财经记者搜索eBay时发现,代表着目前英伟达最尖端技术的AI旗舰芯片H100的售价在多个商铺超过了4万美金。截至上周五,eBay上至少有8个店铺挂牌销售了H100芯片。
业内人士向第一财经表示:“H100系列较上一代的A100系列芯片的售价确实要高出不少,但4万美金的价格是有明显的炒作成分了。”
A100的价格大约为1万美金,是目前AI应用的“主力芯片”;另据了解,此前一些零售商对H100的报价大约在3.6万元美金,近期的价格又有了显著上涨。一位内部人士称:“英伟达提供的H100用作人工智能训练的话,一般是8个GPU搭在一个NVLink板上一起卖。”
在算力需求激增的背景下,英伟达的GPU几乎成为了唯一的“硬通货”。马斯克近期也表示:“看起来身边所有的人都在买GPU。”马斯克自己也被曝向英伟达购买了数千个为人工智能提供算力支撑的GPU芯片,这一消息也推动英伟达股价上涨。
开发人员正在使用H100芯片构建更强大的大型语言模型(LLM)。训练AI模型,尤其是像GPT这样的大型模型,通常需要数百个高端的英伟达AI芯片协同工作。例如,为了打造ChatGPT,微软斥资数亿美元购买了数万颗英伟达A100芯片。
今年早些时候,英伟达还宣布推出新服务,允许一些企业以每月37000美元的价格租用搭载其人工智能芯片A100的超级计算机DGX。
英伟达表示,H100是第一款针对特定AI架构进行优化的芯片,该架构支撑着AI的众多最新进展(transformers)。 行业专家表示,要构建比目前可用的模型更大、数据需求量更大的模型,将需要更强大的芯片。
H100芯片于去年年初发布,在去年9月量产。与上一代A100芯片相比,H100包括了大量的技术更新和升级,所有设计均达到新的性能和效率水平。Hopper包含800亿个晶体管,它是使用定制的台积电N4(4纳米)工艺制造而成的。此前,A100的晶体管数量为540亿个。
目前,H100芯片未向中国市场供应,而是使用替代产品A800和H800,这也是目前大部分中国开发者在开发大型语言模型时使用的芯片。
上个月的英伟达GTC技术峰会上,黄仁勋接受第一财经记者采访时表示:“在中国,我们有特别定制的Ampere和Hopper芯片。但是,这些会通过中国云提供商,比如阿里巴巴、腾讯百度这些来提供落地的能力,我完全相信他们有能力去提供顶级的系统服务,对于中国初创公司一定会有机会来开发自己的大语言模型。”
为打破英伟达芯片的“算力垄断”,谷歌公司正在加速寻求新的自研方案。谷歌研究人员本月早些时候在一篇论文中公布了用于训练人工智能模型的超级计算机的技术细节,并宣称该系统比英伟达的超算系统更快且功耗更低。
谷歌还介绍了如何将4000多个自研的第四代TPU芯片连接成一台超级计算机,这些芯片通过协同来训练模型。谷歌还称,对于同等大小的系统,其TPU芯片比基于英伟达A100芯片的系统快1.7倍,能效高1.9倍。
谷歌没有将其TPU芯片与英伟达的H100进行比较,但暗示该公司正在开发下一代的TPU,将与H100竞争。
网站建设开发|APP设计开发|小程序建设开发