登录 注册 返回主站
F10资料 推荐产品 炒股必读

ChatGPT需要多少算力?

  • 作者:LiAngPro
  • 2023-02-14 22:22:53
  • 分享:

为什么说有搜索引擎技术的公司在这一波“ChatGPT”浪潮中更具优势?


周鸿祎搜索引擎爬虫所有的网页,人类真正积累的知识库就存在着所有这些网页里边。搜索引擎里面有巨大的用户流量,有用户每天的搜索词,要拿这个词来对它进行修正和不断的持续的训练,这个飞轮才能不断的越转越快。做搜索引擎的公司,本身有很多的服务器集群,这个东西最终还是要拼算力。

ChatGPT大模型下计算量高速扩张,算力需求陡增。

1)以前,人工智能大多是针对特定场景应用进行训练,难以迁移,属于小模型范畴;而ChatGPT背后的支撑为人工智能大模型,可大幅扩充适用场景、提升研发效率。OpenAI GPT3自发布以来,在翻译、问答、内容生成等领域均有不俗表现,也吸引了海内外科技巨头纷纷推出超大模型、并持续加大投入。

2)在大模型的框架下,每一代GPT模型的参数量均高速扩张,GPT-3参数量已达到1750亿个。我们认为,ChatGPT的快速渗透、落地应用,也将大幅提振算力需求。访问算力初始投入近十亿美元,单日电费数万美元。

1)根据Similarweb的数据,2023年1月,平均每天约有1300万独立访客使用ChatGPT。访问阶段算力每天发生,其成本成为衡量ChatGPT最主要投入的关键指标。

2)我们以英伟达A100芯片、DGX A100服务器、现阶段每日2500万访问量等假设为基础,估算得出在初始算力投入上,为满足ChatGPT当前千万级用户的咨询量,投入成本约为8亿美元,对应约4000台服务器;在单日运行电费上,参考美国平均0.08美元/kwh工业电价,每日电费约为5万美元,成本相对高昂。前期训练公有云下,单次训练约为百万至千万美元。

1)模型的前期训练成本也是讨论的重要议题。基于参数数量和token数量估算,GPT-3训练一次的成本约为140万美元;对于一些更大的LLM模型(如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM),采用同样的计算公式,可得出,训练成本介于200万美元至1200万美元之间。

2)我们认为,在公有云上,对于全球科技大企业而言,百万至千万美元级别的训练成本并不便宜,但尚在可接受范围内。投资标的1)服务器浪潮息、紫光股份、中科曙光等;2)芯片景嘉微、寒武纪、海光息等;

3)IDC宝软件、万国数据、数据港、世纪华通等;4)光模块等。风险提示AI技术迭代不及预期风险、经济下行超预期风险、行业竞争加剧风险

随手分享给身边需要的朋友吧!最好的观点、最前沿的资讯值得分享!

风险提示/免责声明以上息来源于公开资料,仅在分享研报君的投资逻辑,非荐票,不构成买卖指导意见。股市有风险,入市需谨慎。


温馨提醒:用户在赢家聊吧发表的所有资料、言论等仅代表个人观点,与本网站立场无关,不对您构成任何投资建议。本文中出现任何联系方式与本站无关,谨防个人信息,财产资金安全。
点赞8
发表评论
输入昵称或选择经常@的人
聊吧群聊

添加群

请输入验证信息:

你的加群请求已发送,请等候群主/管理员验证。

时价预警 查看详情>
  • 江恩支撑:60.62
  • 江恩阻力:65.67
  • 时间窗口:2018-05-14

数据来自赢家江恩软件>>

本吧详情
吧 主:

虚位以待

副吧主:

暂无

会 员:

166人关注了该股票

功 能:
知识问答 查看详情>