LiAngPro
为什么说有搜索引擎技术的公司在这一波“ChatGPT”浪潮中更具优势?周鸿祎搜索引擎爬虫所有的网页,人类真正积累的知识库就存在着所有这些网页里边。搜索引擎里面有巨大的用户流量,有用户每天的搜索词,要拿这个词来对它进行修正和不断的持续的训练,这个飞轮才能不断的越转越快。做搜索引擎的公司,本身有很多的服务器集群,这个东西最终还是要拼算力。ChatGPT大模型下计算量高速扩张,算力需求陡增。1)以前,人工智能大多是针对特定场景应用进行训练,难以迁移,属于小模型范畴;而ChatGPT背后的支撑为人工智能大模型,可大幅扩充适用场景、提升研发效率。OpenAI GPT3自发布以来,在翻译、问答、内容生成等领域均有不俗表现,也吸引了海内外科技巨头纷纷推出超大模型、并持续加大投入。2)在大模型的框架下,每一代GPT模型的参数量均高速扩张,GPT-3参数量已达到1750亿个。我们认为,ChatGPT的快速渗透、落地应用,也将大幅提振算力需求。访问算力初始投入近十亿美元,单日电费数万美元。1)根据Similarweb的数据,2023年1月,平均每天约有1300万独立访客使用ChatGPT。访问阶段算力每天发生,其成本成为衡量ChatGPT最主要投入的关键指标。2)我们以英伟达A100芯片、DGX A100服务器、现阶段每日2500万访问量等假设为基础,估算得出在初始算力投入上,为满足ChatGPT当前千万级用户的咨询量,投入成本约为8亿美元,对应约4000台服务器;在单日运行电费上,参考美国平均0.08美元/kwh工业电价,每日电费约为5万美元,成本相对高昂。前期训练公有云下,单次训练约为百万至千万美元。1)模型的前期训练成本也是讨论的重要议题。基于参数数量和token数量估算,GPT-3训练一次的成本约为140万美元;对于一些更大的LLM模型(如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM),采用同样的计算公式,可得出,训练成本介于200万美元至1200万美元之间。2)我们认为,在公有云上,对于全球科技大企业而言,百万至千万美元级别的训练成本并不便宜,但尚在可接受范围内。投资标的1)服务器浪潮息、紫光股份、中科曙光等;2)芯片景嘉微、寒武纪、海光息等;3)IDC宝软件、万国数据、数据港、世纪华通等;4)光模块等。风险提示AI技术迭代不及预期风险、经济下行超预期风险、行业竞争加剧风险随手分享给身边需要的朋友吧!最好的观点、最前沿的资讯值得分享!风险提示/免责声明以上息来源于公开资料,仅在分享研报君的投资逻辑,非荐票,不构成买卖指导意见。股市有风险,入市需谨慎。
分享:
请输入验证信息:
你的加群请求已发送,请等候群主/管理员验证。
数据来自赢家江恩软件>>
虚位以待
暂无
166人关注了该股票
长期未登录发言
吧主违规操作
色情、反动
其他
*投诉理由
答:江南嘉捷的概念股是 3D打印、详情>>
答:数据未公布或收集整理中详情>>
答:每股资本公积金是:0.85(元)详情>>
答:以公司总股本39718.2443万股为基详情>>
答: 未来国内电梯行业市场发展趋势详情>>
燃料乙醇概念大涨2.64%,溢多利以涨幅20.0%领涨燃料乙醇概念
维生素涨价概念逆势走强,突破极反通道强势通道线
干细胞概念逆势上涨,概念龙头股北大医药涨幅10.06%领涨
LiAngPro
ChatGPT需要多少算力?
为什么说有搜索引擎技术的公司在这一波“ChatGPT”浪潮中更具优势?
周鸿祎搜索引擎爬虫所有的网页,人类真正积累的知识库就存在着所有这些网页里边。搜索引擎里面有巨大的用户流量,有用户每天的搜索词,要拿这个词来对它进行修正和不断的持续的训练,这个飞轮才能不断的越转越快。做搜索引擎的公司,本身有很多的服务器集群,这个东西最终还是要拼算力。
ChatGPT大模型下计算量高速扩张,算力需求陡增。
1)以前,人工智能大多是针对特定场景应用进行训练,难以迁移,属于小模型范畴;而ChatGPT背后的支撑为人工智能大模型,可大幅扩充适用场景、提升研发效率。OpenAI GPT3自发布以来,在翻译、问答、内容生成等领域均有不俗表现,也吸引了海内外科技巨头纷纷推出超大模型、并持续加大投入。
2)在大模型的框架下,每一代GPT模型的参数量均高速扩张,GPT-3参数量已达到1750亿个。我们认为,ChatGPT的快速渗透、落地应用,也将大幅提振算力需求。访问算力初始投入近十亿美元,单日电费数万美元。
1)根据Similarweb的数据,2023年1月,平均每天约有1300万独立访客使用ChatGPT。访问阶段算力每天发生,其成本成为衡量ChatGPT最主要投入的关键指标。
2)我们以英伟达A100芯片、DGX A100服务器、现阶段每日2500万访问量等假设为基础,估算得出在初始算力投入上,为满足ChatGPT当前千万级用户的咨询量,投入成本约为8亿美元,对应约4000台服务器;在单日运行电费上,参考美国平均0.08美元/kwh工业电价,每日电费约为5万美元,成本相对高昂。前期训练公有云下,单次训练约为百万至千万美元。
1)模型的前期训练成本也是讨论的重要议题。基于参数数量和token数量估算,GPT-3训练一次的成本约为140万美元;对于一些更大的LLM模型(如拥有2800亿参数的Gopher和拥有5400亿参数的PaLM),采用同样的计算公式,可得出,训练成本介于200万美元至1200万美元之间。
2)我们认为,在公有云上,对于全球科技大企业而言,百万至千万美元级别的训练成本并不便宜,但尚在可接受范围内。投资标的1)服务器浪潮息、紫光股份、中科曙光等;2)芯片景嘉微、寒武纪、海光息等;
3)IDC宝软件、万国数据、数据港、世纪华通等;4)光模块等。风险提示AI技术迭代不及预期风险、经济下行超预期风险、行业竞争加剧风险
随手分享给身边需要的朋友吧!最好的观点、最前沿的资讯值得分享!
风险提示/免责声明以上息来源于公开资料,仅在分享研报君的投资逻辑,非荐票,不构成买卖指导意见。股市有风险,入市需谨慎。
分享:
相关帖子