登录 注册 返回主站
F10资料 推荐产品 炒股必读

AI芯片有望率先受益,CPU+XPU异构形式成为主

  • 作者:急性子
  • 2023-04-18 09:28:37
  • 分享:
AI芯片有望率先受益,CPU+XPU异构形式成为主流

AI芯片根据下游应用可分为训练、推断两类

机器学习主要包括训练(training)和推断(inference)两个步骤,通常需要不同类型的AI芯片来执行。训练是指通过大数据训练出一个复杂的神经网络模型,通过大量标记过的数据来训练相应的系统,使其能够适应特定的功能;推理是指利用训练好的模型,使用新数据推理出各种结论。训练芯片通过大量的数据输入,构建复杂的深度神经网络模型的一种AI芯片。需要较高的计算性能、能够处理海量的数据、具有一定的通用性,以便完成各种各样的学习任务,注重绝对的计算能力。推断芯片推断芯片主要是指利用训练出来的模型加载数据,计算“推理”出各种结论的一种AI芯片,注重综合指标,侧重考虑单位能耗算力、时延、成本等性能。

全球AI芯片有望达到726亿美元规模

AI芯片是AI算力的核心,需求有望率先扩张。AI芯片是用于加速人工智能训练和推理任务的专用硬件,主要包括GPU、FPGA、ASIC等,具有高度并行性和能够实现低功耗高效计算的特点。随着AI应用的普及和算力需求的不断扩大,AI芯片需求有望率先扩张。根据IDC预测,中国AI算力规模将保持高速增长,预计到2026年将达1271.4EFLOPS,CAGRA(2022-2026年)达52.3%。在此背景下,IDC预测异构计算将成为主流趋势,未来18个月全球人工智能服务器GPU、ASIC和FPGA的搭载率均会上升,2025年人工智能芯片市场规模将达726亿美元。

云端/边缘端芯片同步发展

深度学习的应用开发可分成云端与边缘侧两大部分。云端指的是数据中心或超级计算机,具有强大的计算能力,利用海量数据进行模型训练,也可以进行推理。边缘侧指的是数据中心外的设备,如自动驾驶汽车、机器人、智能手机、无人机或IoT设备,用训练好的模型进行推理。根据场景不同,形成了两种不同要求的AI芯片云端芯片具有最大的计算能力和最高的性能,主要对深度学习算法模型进行训练,有时也进行推断。目前云端主要以CPU+GPU异构计算为主,根据wind数据,在机器学习服务器和高性能服务器中,CPU+GPU的成本占比分别为83%与51%。

边缘端芯片计算性能有限,主要使用从云端传来的训练好的模型和数据进行推断。在边缘侧或手机等端侧设备中,很少有独立的芯片,AI加速通常由SoC上的一个IP实现。例如,苹果智能手机里最大的应用处理器(ApplicationProcessor,AP)芯片就是一块带有AI核的SoC,这类SoC的性能一般可以达到5~10TOPS。

AI芯片有望率先受益,CPU+XPU异构形式成为主流

云端训练和推断计算主要由Al服务器完成,底层算力芯片包括CPU、GPU、FPGA、ASIC等。CPU是AI计算的基础,负责控制和协调所有的计算操作。在AI计算过程中,CPU用于读取和准备数据,并将数据来传输到GPU等协处理器进行计算,最后输出计算结果,是整个计算过程的控制核心。根据IDC数据,CPU在基础型、高性能型、推理型、训练型服务器中成本占比分别为32%、23.3%、25%、9.8%,是各类服务器处理计算任务的基础硬件。

GPU、FPGA、ASIC是AI计算的核心,作为加速芯片处理大规模并行计算。具体来看,GPU通用性较强,适合大规模并行计算,且设计及制造工艺较成熟,目前占据AI芯片市场的主要份额;FPGA具有开发周期短、上市速度快、可配置性等特点,目前被大量应用于线上数据处理中心和军工单位;ASIC根据特定需求进行设计,在性能、能效、成本均极大的超越了标准芯片,非常适合AI计算场景,是当前大部分AI初创公司开发的目标产品。

温馨提醒:用户在赢家聊吧发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。本文中出现任何联系方式与本站无关,谨防个人信息,财产资金安全。
点赞4
发表评论
输入昵称或选择经常@的人
聊吧群聊

添加群

请输入验证信息:

你的加群请求已发送,请等候群主/管理员验证。

时价预警 查看详情>
  • 江恩支撑:10.31
  • 江恩阻力:11.6
  • 时间窗口:2024-06-29

数据来自赢家江恩软件>>

本吧详情
吧 主:

虚位以待

副吧主:

暂无

会 员:

19人关注了该股票

功 能:
知识问答 查看详情>