来源: 网易科技报道
当地时间周二,AMD发布会展示了即将推出的人工智能处理器系列产品。各家媒体均认为,AMD此举是为了挑战英伟达在人工智能芯片市场的主导地位。但是,由于缺乏大客户的支持,加上新款芯片MI300X与英伟达的H100等产品相比优势不大,因此不要指望AMD能够抢走太多的市场份额。
(相关资料图)
资本市场也给出了类似的反应,自今年年初以来,AMD股价已经翻了一番,并在周二早些时候触及16个月来的高点。但是在活动后,AMD的股价周二收盘下跌了3.6%。当日英伟达股价收盘上涨3.9%至410.22美元,成为首家市值超过1万亿美元的芯片制造商。
彭博:投资者对AI期望已经很高AMD没能让他们趋之若鹜
AMD展示了即将推出的人工智能处理器系列产品,旨在帮助数据中心处理大量人工智能数据,并挑战英伟达在这一新兴市场的主导地位。
像芯片行业的其他公司一样,AMD正在努力满足人工智能领域日益增长的算力需求。依赖于大语言模型的主流服务正在将数据中心推向极限。然而,到目前为止,英伟达在处理这些工作负载方面具备技术优势。
AMD首席执行官苏姿丰在发布会上表示:“我们仍处于人工智能生命周期的起步阶段。”
她说,到2027年,数据中心人工智能加速器的潜在市场总额将增长五倍,达到1500亿美元以上,“会有很大体量。”
尽管如此,这场演讲并没有让投资者趋之若鹜,他们已经对人工智能的增长早有极高期望。在周二的发布会期间,AMD股价下跌了3%以上。
路透:少了大客户支持AMD想竞争英伟达很难
AMD周二公布了新款人工智能系列芯片,意欲挑战市场领头羊英伟达。但公司没有透露投资者最关注的事情,那就是谁计划使用这款芯片。
AMD首席执行官苏姿丰表示,新款人工智能芯片可能有助于科技公司控制ChatGPT等服务不断上升的成本。但会上AMD没有透露谁将使用MI300X或MI300A。公司没有详细说明芯片的成本是多少,也没有说明将如何提振销售业绩。
TIRIAS Research首席分析师凯文·克雷韦尔(Kevin Krewell)表示:“我认为,没有(大客户)表示将使用MI300X或MI300A,这可能会让华尔街感到失望。他们希望AMD宣布已经在某些设计方面取代了英伟达。”
投资者更为关注有关人工智能的信息。英伟达在人工智能领域所建立的领先地位不仅来自芯片产品,还来自十多年来为人工智能研究人员提供的软件工具,从中预测他们关于芯片的具体需求。
AMD用Rocm软件对标英伟达的Cuda软件平台,周二也发布了相关更新信息。
Meta副总裁索米斯·钦塔拉(Soumith Chintala)曾帮助开发人工智能开源软件。他表示,与AMD的密切合作能让人工智能开发人员更容易使用免费工具,从人工智能芯片领域的“单一主导供应商”转向AMD芯片等其他产品。
钦塔拉说:“从一个平台切换到另一个平台,你实际上不需要做那么多工作,在很多情况下甚至不需要做任何工作。”
但分析师表示,仅仅因为Meta等技术成熟公司可以通过AMD芯片受益,并不能保证AMD产品能在技术不那么成熟的买家当中获得更多青睐。
Moor Insights & Strategy分析师Anshel Sag表示:“尽管AMD在硬件性能方面具有竞争力,但人们仍然不相信AMD的软件解决方案能与英伟达竞争。”
CNBC:AMD新品是对英伟达的最大挑战
AMD周二表示,公司最好的人工智能芯片MI300X将于今年晚些时候开始向部分客户发货。这是对英伟达最大的挑战,因为目前英伟达拥有超过80%的市场份额,占据人工智能芯片市场的主导地位。
如果AMD的人工智能芯片能够被开发人员和服务器制造商接受,成为英伟达芯片的替代品,那么AMD可能会开辟出一个巨大的市场。
AMD首席执行官苏姿丰表示,人工智能是公司“最大、最具战略意义的长期增长机会”。
尽管AMD没有透露新款芯片的价格,但这可能会给英伟达的H100等产品带来价格方面的压力。较低的芯片价格可能有助于降低生成式人工智能应用的高昂成本。
福布斯:不要指望AMD的新款产品能抢走英伟达多少市场份额
当前,每个人都在问英伟达A100和H100芯片是否是为数不多能够满足大语言模型算力和内存需求的平台。答案是肯定的,至少目前是这样。AMD打算在今年晚些时候通过发布新款产品MI300X来改变这种局面。
但与英伟达H100相比,MI300X还有一些问题。
首先,英伟达H100今天就开始全面出货。事实上,英伟达拥有人工智能行业最大的软件和研究人员生态系统,而且旗下所有芯片都不愁卖。
其次,虽然这款新的高性能HBM芯片提供了人工智能应用非常需要的192GB内存,但英伟达芯片产品可能会在同样时间内提供相同的内存,甚至可能更早。所以这不是AMD的优势。Semianalysis分析师迪伦·帕特尔(Dylan Patel)表示,与英伟达H100相比,AMD产品不会有明显的成本优势。
第三,MI300X并没有像H100那样的变压器引擎,能让主流的大语言模型性能提升两倍。如果每年人工智能行业都需要几千个GPU来训练一个新模型,可能没有人会说再等2到3年时间将模型推向市场,或者投入3倍数量的GPU来解决问题。
最后,AMD尚未披露任何基准测试的信息。但训练和运行大语言模型时的性能不仅取决于芯片本身,还取决于系统设计架构。
像OpenAI和微软这样的公司需要有一个能替代英伟达产品的选择,AMD可能会给他们一个无法拒绝的提议,但不要指望能从英伟达那里抢走很多份额。
关键词: