登录 注册 返回主站
F10资料 推荐产品 炒股必读

工业富联纪要(2024/3/3)

  • 作者:彩色的衣服
  • 2024-03-03 22:06:14
  • 分享:

Q:近期您对于 AI 服务器行业的观察?

A:2024 年整个 AI 市场涨幅非常快从 GPU 层面来看, 出货的 GPU 以英伟达为主,训练卡出货量在 2023 年达到 200 万张(英伟达训练卡都是工业 富联代工)其中 A100 和 H100 点 比为 1:1(A100 和 H100 各 100 万张)。在 2024 年训练卡出 货量预计达到 400 万张,其中 H100 达到 300 万张左右 A100 大概有 20 万张左右,B100 有 35 万张左右, H200 接近 20 万张(算力介于 H100 和 B100 之间),H20 大概 有 25 万张左 右(国内特供)。 从服务器端来看,2023 年工业富联的 AI 服务器(包括推理和训练)代工量为 13 万 台不到, 其中有 9 万台不到为推理服务器,剩下的是训练服务器(都是英伟达的)。2024 年增加到将 近 19 万台,其中 12 万台左右的推理服务器,7 万台左右 的训练 服务器。由此可见,在 2024 年英伟达的 GPU 出货量和工业富联的 AI 服务器出 货 量都有显著提升。英伟达 GPU 的出货量提升是来自市场的需求。工业富联 AI 服务器出货 量提升是有两方面原因,一方面是已有客户量的提升,如亚马逊、软、谷歌等。另一方 面是在 2024 年工业富联引入了新的客户,比如 Meta、苹果 等。总体而言,2024 年板卡 和 AI 服务器的出货量都有 较大提升。

Q:请问 B100 预计在 Q3 还是 Q4 才能出货?

A:英伟达在 2024 年会推出 B100、H200 和 H20,H20 和 H200 都会在 2Q24 出货,B100 会在 3Q24 出货。具体来看,H20 预计在 5 月 前出货,H200 预计在 6 月出 货,B100 预计在 7 月开始出货。

Q:出货是指板卡出给服务器厂商还是服务器出给终端客户?

A:出货是指卡出给英伟达。 一旦 卡交付给英伟达,随后将其组装成服务器的过 程基本上不会占用太多时间,大约一个半月 左右即可完成。

Q:请问 8*B100 的模组价格展望?8*H100 的价格变化趋势?

A:对于模组的价格而言,工业富 联还未获得客户的心理预期值。客户对于 B100 单卡价格的心理期望值大致在 38000-39000 美金左右。按照这个价格来测算, 模 组价格会在 31-32 万美金左右。因此,B100 的训练 服务器售价我预计会在 50 万 美金左右。目前 H100 单卡(SXM)价格大概在 21000 美金左 右,模组价格在 17-18 万美金左右,服务器价格在 23-25 万美金左右。这是工业富联从英 伟达拿到的价 格。

Q:请问超微拿卡价格会高于工业富联?A:超微的拿卡价格会偏高于工业富联,因为工业富联 拿卡的价格基本为云厂商 价格,云厂商的采购量即量大又稳定。相较之下,像超微这样的 公司由于其采购 量和预期无法与云厂商相媲美,因此在市场上可以看到的训练卡价格基本 上云厂 商是最有竞争力的。 我计算下来超微的 H100 单卡价格在 24000 美金左右,工业富联的 H100 单卡按 21000-22000 美金左右来看,大概有 1000-2000 美金左右的区别。 Q:请问是否还有 PCle 的 H100 出货?

A:有出货但不是很多,基本上 PCle 的 H100 能占到 H100 出货量的 30%左 右,大部分还是 8 卡模组

Q:请问 2024 年主要云计算厂商训练卡采购量?

A:2024 年在整个云厂商领域,北美的四大云厂商依然占据主导地位。微软是 2024 年训练 卡涨幅最显著的云厂商,微软的采购量中包含了一部分是供应给 0penAl 的。由于微软作为 采购的接口,无法明确划分这些卡是用于微软还是供 应给 OpenAl 的。具体来看,2024 软的 H100 训练卡的采购量约为 70 万张左右,是四大云厂商中采购量最大的客户。而亚马 逊 2024 年的训练卡采购量接近 40 万张,Meta 约为 35 万张左右,谷歌则接近 25 万张。

Q:0racle(甲骨文)在 2024 年的训练卡采购量您了解吗?

A:Oracle 不是工业富联的客户,但我认为 Oracle 的量不多, Oracle 的 AI 服务器 主要是和 英伟达合作。英伟达在 2024 年 DGX 的服务器出货量为 8000 台左右,如果按照 1 机 8 卡来 算,即为 64000 张训练卡,再加上 Oracle 自身的资源,我 预计总共训练卡的采购量在 10-12 万张的数量级。

Q:英伟达的 DGX 服务器是否大部分都给了 Oracle?

A:不是大部分而是全部。Oracle 的云和英伟达的 DGX 有关联合作,英伟达会依 托于 Oracle 的云进行租赁。

Q:请问板卡数量和英伟达业绩反推的板卡数量为什么差了 20%左右的量?

A:对于英伟达而言,在 Q4 生产的部分板卡或 8 卡模组,当时以库存的形式进 行组装,而 并非全部实质性地销售出去。因为像英伟达这样的芯片厂商通常会在 年底保留-部分库存, 以满足第二年对于生产需求较大或时间较紧的客户的交付 要求。这种情况在行业中是相当 正常的,不仅仅是芯片厂商,对于其他厂商也是 一样,尤其是在年底,许多企业都会采取 类似的操作方式。

Q:是否也可以把 2024 年工业富联的板卡数量乘 80%来对应英伟达业绩?

A:没错。大概对应 英伟达 320 万张卡的业昏

Q:请问工业富联在 2024 年出货量季度拆 分?

A:在 1Q24,A100 的出货量约为 7 万张而 H100 出货量约为 85 万张左右。在 2Q24,A100 的 出货量降至 6 万张而 H100 出货量则增至 90 万张,H200 的出 货量约为 3 万张。 在 3Q24,A100 的出货量约为 3 万张,H100 出货量约为 75 万张,B100 出货量约为 10 万张, H200 出货量约为 7 万张。在 4Q24,A100 的出货量约为 3 万张, H100 出货量约为 70 万 张。B100 的出货量约为 25 万张,H200 出货量约为 15 万张。

Q:请问工业富联在 2024 年代工的推理服务器中主要使用的 GPU?

A:主要以 L40 为主。 Q:这是否意味着 2024 年 L40 的出货量上百 万? A:L40 的量中会有少部分的 L40S,整个 L40 的出货量会在 200-240 万张,L40S 的 出货量在几十万张。

Q:请问 H200 在 2024 年的出货量是否有些保守?

A:目前英伟达给出的 H200 预期约为 25 万张。在新推出的 H200 和 B100 中,客户更倾向于选择 B100 这种高算力的训练卡,尤 其是云厂商。因此,H200 的出货量会相对较少,B100 基本可以理解为 H100 的升级版, 目前市面上算力最高的卡。H200 主要提供给一些中低端企业或商业客户使用,例如那些预 算不足以购买像 B100 这样昂贵的高端训练卡的客户可以选择购买 H200。另一方面,英伟 达推出 H200 是为了应对 AMD 的 MI300 或 350 系列卡。因为在 AMD 推出 MI300 或 350 系列卡时,对标产品是英伟达的 H100,而不是 B100,并且我相一旦 AMD 的卡验证完成并进行量产供应,价格肯定会低于 H100,这时 H100 的竞争优势就会减弱。因此,在这种情况下,英伟达必须推出一款与 AMD 的卡相匹敌,性能高于 MI300 或 350,但价格不会高太多 的卡,才能在市场上与其竞争。所以我认为,英伟达为了对抗 AMD 的 MI 系列,推出了 H200 这款卡。 由于 H200 所对应的客户群体主要以企业和商业客户为主,整体的需求可能并不会特别大。 因为英伟达的客户群体中,一半以上是互联网公司,而剩下不到 50%是企业和商业客户。 所以在这些客户中,既有 H100 又有 H200,选择哪个取决于 客户的预算。因此,从 2024 年的情况来看,H200 在小批量供应方面的需求可能 不会很大。

Q:请问 2025 年出货量的能见度如何?

A:2025 年的能见度基本上要等到 10 月才能展望。然而,我预计在整个 2025 年,与从 2023 年到 2024 年的提升相比,训练卡的出货量提升可能不会那么显著,因为 2025 年绝大多数厂商已经完成了对其模型的训练,并开始将其转向 商业化。 在这种情况下,训练卡的需求量可能不会像之前那样强烈。尽管 OpenAl 已经推出了 GPT-5 和 Sora 模型,但客户对于 AL 的追求不太可能像在 2023 年或 2024 年 那样迅速。我预计 在 2025 年,整个训练卡的需求量可能仅会增长约 30%(大约为 520-530 万张左右)。这是云 厂商给出的预测,不是英伟达给出的指引。

Q:请问 H200 的单卡价格?

A:客户接受的 H200 的单卡价格在 2.8-3 万美金左右, 官方目前尚未公布具体单 价。刚刚 提到的 H200 和 B100 的讨论中,所涉及的单价都是云厂商客户能够接 受的价格范围。我 认为英伟达在定价时也将努力接近这个范围, 尽量贴近客户预 期,

Q:请问是否有很多 H100 用于推理?

A:2024 年 H100 还没有大规模用于推理因为在 2024 年, H100 有与之对应的 推理即 L40。目前有人认为 H100 会用于推卡,理,但根据客户的反馈,在有 L40 的情况大家更倾向于选择 L40 作为推理卡 F 然而,2025 年一旦推出 B100 后, 如果英伟达没有推出与 B100 对应的最新推理卡客户可能会临时采用 H100 作 为推理卡。 这种情况可能发生在 2025 年,前提是没有新的推理卡推出。我猜测 这种可能性不大,因 为英伟达通常会在每年的 Q2 或 Q3 的产品发布会上推出新 的推理卡。

Q:是否有客户为了等待 B100 而对 H100 进行砍单?

A:有一些客户,比如微软等,采取的策 略是进行调整,而不是简单地砍单。他 们可能会减少 H100 的采购量,而通过增加 B100 的 采购量来弥补 H100 的缺口。这种情况在云厂商中比较普遍,尤其是像微软和 Meta 这样 对模型算力要求较高 的公司他们通常会在 3Q24 开始采购相应的 B100AI 服务器。

Q:英伟达在最近的业绩会上提到,他们认为英伟达的卡有 40%被用于推理,请问 您是否有 观察到相关趋势?A:目前确实有一些客户,例如 OpenAl 等公司,因为尚未拥有足够强的推 理卡。在这种情况下, 极少数客户可能会使用训练卡进行推理。这种情况通常仅限于某 些 客户,即其预算相对较充足,且其模型相对较大。然而,这类客户非常有限,通常只有像 OpenAl 这样的公司采用这种做法,其他公司普遍不会选择这样的方 式。 Q:请问 L40 和 L40S 板卡和服务器的单 价?

A:目前,L40 卡的单价为 4000-4500 美金左右,一台服务器价格在 6-7 万美金(配 4 张卡)。 L40S 的单价在 5000 美金左右,服务器的单价在 7 万美金左右。

Q:请问 L40 服务器的份额?

A:推理服务器通常与训练服务器相对应其他公司也通常会采取 类似的策略。L40 朋务器在 12 万推理服务器中占比在 50%左右

Q:为什么 L40S 被禁后还有这么大的量?

A:L40S 在推出时具有两个主要用途,方面是为国内 客户提供训练服务器,另方面则是在北美的一些低端市场中用于训练。由于 L40S 主要用于 图形和视觉 训而非人机对话训练,因练,此 2024 年 L40S 的出货量主要以低端训练 服务器为 主。 Q:请问工业富联的 UBB 有没有 A100 型 号? A:2024 年 A100 总共也有 20 万张左右 预计 2025 年就没有了。


温馨提醒:用户在赢家聊吧发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。本文中出现任何联系方式与本站无关,谨防个人信息,财产资金安全。
点赞0
发表评论
输入昵称或选择经常@的人
聊吧群聊

添加群

请输入验证信息:

你的加群请求已发送,请等候群主/管理员验证。

时价预警 查看详情>
  • 江恩支撑:23.55
  • 江恩阻力:25.51
  • 时间窗口:2024-05-05

数据来自赢家江恩软件>>

本吧详情
吧 主:

虚位以待

副吧主:

暂无

会 员:

197人关注了该股票

功 能:
知识问答 查看详情>