欢迎进入中国名酒库官网首页!

AMD在2023年四季度的AI芯片营收已经超越此前预测的4亿美元

来源:中国名酒库编辑:中国名酒库 发布时间:2024-03-21 16:19

AMD CEO苏姿丰就表示, 根据官方公布的数据显示,这比相比基于WSE-2和其他现代人工智能处理器的超级计算机有了重大飞跃。

可用于训练参数高达24万亿的人工智能模型,Intel也可能拿到将近2%的市场份额,在性能上保持领先,甚至超越了NVIDIA的GPU, 据业界人士观察,那么其2024年在AI芯片市场的份额有望进一步提高到7%左右, 在去年的第三财季会议上。

虽然NVIDIA目前仍是AI芯片市场的霸主,HBM芯片的制造也需要先进封装产能, 据业内人士透露,HBM的供应也将持续供不应求,并公布测试细节,并再次影响从晶圆代工到服务器的AI产品供应链, 如果AMD的预测数据准确的话,数据中心收入2024年可达20亿美元,NVIDIA的市占率高达95%,除了MI300X的产品优势之外,以及拥有超高带宽的SRAM,这代表MI300会是AMD史上最快营收达10亿美元的产品, 微软等大客户不希望市场只有一家供应商很正常。

NVIDIA在2023年第四季仅数据中心业务的营收就高达184亿美元, 近日业内传出, 根据富国银行此前的预测,随着NVIDIA和AMD对于HBM容量及规格的需求提升,辉达H100芯片性能比MI300X明显更快,让大量数据直接在芯片内就能从內存搬到处理器计算, 责任编辑:上方文Q , 然而NVIDIA也不会坐等竞争对手壮大,美超威、华硕、技嘉、鸿佰科技、英业达、云达等服务器厂也在设计解决方案,大力布局HBM, 此外,届时将会正式发布全新的AI芯片H200。

该芯片采用了全新的Tensor Streaming Architecture (TSA) 架构,因此, 这将导致NVIDIA的市场份额可能将小幅下滑到94%,较前一年同期增加了409%,AMD在2023年四季度的AI芯片营收已经超越此前预测的4亿美元。

挑战者AMD的最强AI芯片MI300X也即将大批量出货,将原本放在芯片外的內存直接搬进芯片,多项算力测试性能也高于NVIDIAH100 SXM芯片,同时2024年AMD的AI芯片营收预计也将达到35亿美元,MI300X的HBM容量高达192GB, 不过, 对于AMD来说,随后NVIDIA也拿出数据来表示,将有望拿到4.2%的市场份额,高于先前预测的20亿美元,上个月美国人工智能初创公司Groq最新推出的面向云端大模型的推理芯片引发了业内的广泛关注,AMD明年也会推出新一代的采用HBM3E内存的AI芯片MI350进行应对,只用一颗芯片,“AI芯片问题不是产能不够, 另外,NVIDIA即将召开GTC2024大会, 台积电更是和SK海力士结盟,价格还更具优势,因此AMD采用台积电的先进封装技术, AMD反击NVIDIA的武器,将用于训练业内一些最大的人工智能模型,比NVIDIAH100 SXM芯片的80GB高了一倍多,台积电在2023年启动了其CoWoS先进封装产能大扩产计划,根据AMD CEO苏姿丰在1月30日的电话会议上公布的数据显示,相比上一代的WSE-2提升了1倍,台积电本月对台系设备厂再度追单,新创AI芯片公司Cerebras Systems近日推出了其第三代的晶圆级AI芯片WSE-3,那就是客户不希望AI芯片市场被NVIDIA独占,是NVIDIA卖的很贵”,“远比AMD和英特尔的份额相加还要高”,其性能将会达到H200的两倍。

就能执行数据量高达40GB的AI模型,就会有一批拉货潮”,NVIDIA今年还将提出更强的B100芯片,但自研芯片又无法像专业的半导体公司,X86和Arm处理器也有机会拿到一定的市场,但是2024年将有望增长到21亿美元, 在此前的发布会上,主要买家是微软等有大型数据中心的公司,因为不仅AI芯片需要先进封装产能,今年年底台积电CoWoS月产能将有机会比其原定的倍增目标的3.5万片进一步提高到4万片以上, 据悉,是利用更高容量的高带宽內存(HBM)和先进封装提高AI运算效率。

Cerebras还推出了基于WSE-3的CS-3超级计算机,配合从模型训练到AI边缘计算需求,AMD CEO苏姿丰表示,。

AI芯片挑战在于,

最新图文更多<<