逐浪AIGC⑫|制造“iPhone时刻”,英伟达再塑AI算力上限

信息来源:21世纪经济报道 发布日期:2023-03-22 主题标签:AIGCAIGPU英伟达逐浪

南方财经全媒体记者江月 上海报道

以一只绿色眼睛为标志的GPU芯片设计商英伟达,在2023年等来了“iPhone时刻”,AI产业正要在它的芯片支持下爆发。1993年创立的英伟达发明了全球第一块GPU,人们当时想不到,它在2016年之后促使人工智能(AI)发生了飞跃性的变化。

2023年3月21日北京时间深夜,英伟达在其总部加州圣克拉拉市召开新产品发布会。会上,公司用大幅篇章介绍了对AI的持续支持,将以速度提升9倍的GPU芯片和超级计算机系统支持大模型加速训练。此外,英伟达也秀出在软件上的超强实力,将支持芯片设计向2纳米及更高精度进发。

“iPhone时刻制造者”

由于ChatGPT显示出超强的人机对话能力,人工智能在2023年初飞入寻常百姓家。随着OpenAI微软谷歌百度等明星公司接连晒出自家拳头产品,英伟达在人工智能发展中的角色也被更多人所了解。

如果说苹果是近一次科技狂潮的“关键硬件”,那么GPU芯片则在人工智能狂潮中扮演了同样角色,英伟达也成为那个“iPhone时刻制造者”。

四年前在英伟达加州总部圣克拉拉举行的新品发布会上,只有约8000名专业芯片工程师出席。然而在今年3月21日,共25万人通过线上方式围观英伟达的产品发布,仿佛苹果新品发布会一般热闹。这透露的信号是,人工智能已经在芯片基础上滋长为一个更庞大的产业链。

观众们等待着英伟达的硬件更新,下一代训练AI大模型的超级计算机算力会有多强?数据中心的数据传输速度会有多快?这一切都取决于英伟达是否提供更强大的GPU芯片。

3月21日的GTC主旨演讲上,英伟达创始人兼CEO黄仁勋(Jensen Huang)亲自进行产品发布和解说。他公布称,英伟达将以搭载8个H100芯片的DGX超级计算机,来支持“全球客户构建AI基础设施的蓝图”。

DGX是什么?这正是ChatGPT的诞生关键,是“现代AI工厂”。黄仁勋透露,在2016年,正是他本人向OpenAI亲手交付了第一台DGX,而此后这成了ChatGPT背后大型语言模型的引擎

通俗来说,由OpenAI公司开发并风靡全球的对话机器人ChatGPT,其背后所依赖的GPT-3.5模型是在搭载英伟达A100芯片的计算系统上训练而来的。据英伟达官方介绍,用8000片A100芯片训练具有3950亿个参数的多专家模型(MoE)需要7天,但使用8000片H100芯片可以将训练时间缩短到20小时,速度提升9倍。

换言之,H100将大语言模型的处理成本降低了一个量级。英伟达官方称,如果企业希望构建规模大几个数量级的AI数据库,那么使用H100芯片是最理想的引擎。

“我们正处于AI的iPhone时刻。”黄仁勋宣称,而很多人已经将他视为和乔布斯同样重要的科技革命者。在ChatGPT大火期间,黄仁勋表现出特别的兴奋。“我们上一次看到这样解决问题、带来惊奇的产品是什么时候?”黄仁勋在近期一次公开讲话中表示,ChatGPT让人们向AI呼喊“我看见了、我看见了”,这意味着AI迎来了“iPhone时刻”。

改变AI工作方式

在北京时间3月22日上午举行的亚太区记者会上,英伟达进一步向包括南方财经全媒体记者在内的媒体介绍了其AI工作。一项重要的创新,将促使AI开发从大公司进一步向创业公司转移,将提升这个行业的创新力。记者也进一步了解了AI算力对全球开发者的公平性,而英伟达称其将持续为此努力。

最令业界惊喜的一个发布,是DGX超级计算机的上云版本。此前,这种价格高昂的超级计算机一般只有大型企业才会购买。不过,英伟达表示初创企业和其他各类企业均有机会使用DGX来制定AI战略。

据了解,目前云上DGX主要由全球几家主要的云基建(IaaS)服务商提供,包括微软Azure、谷歌云等将在不久的将来上线这个服务。上云的意思是,可以直接从浏览器上使用DGX计算系统。

近期的AI市场需求大增,也促使英伟达A100、H100芯片价格大增。在电子产品交易网上,一块80GB容量、PCIe4.0的A100价格已经高达1.48万美元,而80GB容量的H100芯片则喊出2.89万美元高价,可见想要用超过100块A100或H100构建AI计算系统是多么昂贵。

此外,中国AI开发商是否能及时用上最新配置的DGX或云上DGX呢?南方财经全媒体记者从接近英伟达的人士处了解到,英伟达仍然只能向中国售卖符合美国出口管制的A100和H100芯片,而DGX这样的计算系统则将依靠阿里巴巴、腾讯、百度等云服务合作伙伴提供类似产品。“中国云服务商完全有能力提供顶级的AI算力服务系统。”上述人士向南方财经全媒体记者表示。

推动光刻机高速运转

除了AI依赖的超级计算机,本次英伟达还给芯片产业带来了又一重磅产品,也就是“光刻软件库”,将助力先进的晶圆制造厂生产2纳米精细度的芯片。英伟达长期以来被视为“硬件设计商”,但它在AI上的转型其实显示了在软件方面的强大。

所谓计算光刻,是在光刻前制作光掩膜的技术。光掩膜上有芯片加工所需的图案,在曝光下将图案转移到光刻胶层上。不过,难点在于每个芯片都需要多次曝光,所以需要多张掩膜,例如英伟达H100芯片需要高达89张掩膜。

这个过程相当花时间,也是芯片设计和制造领域里计算量最大的环节。黄仁勋指出:“大型数据中心24x7全天候运行,以便创建用于光刻系统的掩膜板。这些数据中心是芯片制造商每年投资近2000亿美元的资本支出的一部分。”

光刻机一向用CPU集群进行驱动,但GPU似乎是更好的驱动。英伟达称,500套人工智能计算系统(包含4000颗GPU)相当于用4万颗CPU驱动的服务器,能将本来花费两星期的工作在8小时完成。

这项技术已经得到了芯片制造龙头的认可,包括光刻机龙头阿斯麦、晶圆制造龙头台积电和EDA软件龙头新思科技。“将昂贵的操作转移到GPU上,加速了计算光刻的进展。”台积电总裁魏哲家如是评价。