参考动静网4月7日报导据美国消费者新闻与贸易频道网站4月5日报导,于高能耗的呆板进修模子继承成为科技行业的最热点范畴之际,google公司周三宣布了一款人工智能(AI)超等计较机的具体信息,称其比竞争敌手英伟达的体系更快、更高效。 虽然英伟达依附90%以上的据有率主导着人工智能模子练习及运用市场,但google自2016年以来一直于设计及运用名为张量处置惩罚器(TPU)的人工智能芯片。 google是人工智能范畴的一年夜领军者,其员工于已往10年里取患了该范畴的一些最庞大进展。但一些人认为,它于技能发现贸易化方面已经经掉队。 人工智能模子及产物——好比google的巴德(Bard)或者开放人工智能研究中央(OpenAI)的由英伟达A100芯片驱动的谈天天生预练习转换器(ChatGPT),需要年夜量的计较机及数以万计的芯片配合练习模子,而这些计较机要日夜不断地运行数周以致数月。 google公司周二说,它已经经打造了一套体系,此中包罗4000多个TPU,并插手了设计用在运行及练习人工智能模子的定制组件。该体系从2020年最先运行,并被用在练习google的PaLM模子——与OpenAI的GPT竞争的模子——跨越50天。 google的研究职员写道,google基在TPU的超等计较机名为TPU v4,其“到达英伟达A100芯片速率的1.2至1.7倍,能耗也更低”。 研究职员接着说:“机能、可扩大性及可用性使TPU v4超等计较机成为年夜型语言模子的主力。” 不外,google研究职员说,google的TPU并无被拿来与英伟达最新款人工智能芯片H100举行比力,后者采用了更进步前辈的制造技能。 一项名为MLPerf的全行业人工智能芯片测试成果及排名在周三宣布。英伟达首席履行官黄仁勋说,英伟达最新款H100芯片的测试成果较着优在上一代。 黄仁勋于一篇博客文章中写道:“今天宣布的MLPerf 3.0成果凸显出H100的机能是A100的4倍。”他说:“下一阶段的天生式人工智能需要新的人工智能基础举措措施,以高能效的方式练习年夜型语言模子。” 人工智能所需的年夜量计较性能耗相称昂贵,是以业内很多企业正专注在研发新的芯片、光学毗连组件或者软件技能,以降低所需的计较性能耗。 对于google、微软及亚马逊等云办事提供商来讲,降低人工智能的能耗需求也将令它们受益。它们可以按小时出租计较机处置惩罚办事,向草创企业提供信贷或者计较时间来成立瓜葛(google云也出售采用英伟达芯片的办事时间)。