芯学长 | 掌握芯资讯,引领芯未来

您当前所在位置:首页 > IC行业资讯 > 行业热点

芯片:ChatGPT背后的核心竞争力!

发布时间:2023-07-17来源:芯学长 0

人工智能技术不断发展,继AlphaGO之后,ChatGPT又在全世界掀起了一波AI热潮。

最近大家都被这个软件反复刷屏,当我们都以为ChatGPT的开发公司Open AI赢麻了的时候,其实真正赢麻的却另有其人。

赢家另有其人

人工智能之所以能崛起,依赖的不外乎两个方面:一方面是模仿人脑建立的数学模型和算法;另一方面是集成电路硬件技术的发展。我们也可以直接把后者理解为:芯片。
回望人工智能发展历程,AI技术主要得益于算法、数据和计算能力三方面的突破。芯片为复杂的计算任务提供了有力的支撑,也是算力的保障。

ChatGPT作为人工智能的产物,运行条件自然离不开算法、算力和数据。

数据显示,ChatGPT的总算力消耗约为3640PF-days(即假如每秒计算一千万亿次,需要计算3640天),需要7-8个投资规模30亿、算力500P的数据中心才能支撑运行。

ChatGPT对于强大算力的需求就等于对高端芯片的需求。

OpenAI CEO Sam Altman也曾表示,ChatGPT处理用户查询的每笔成本约为2美分,这是引入和使用英伟达AI芯片所需的成本。


(图源:浙商证券股份有限公司 陈杭)

证券公司也帮我们算了一笔账,为了支撑如此强大的算力消耗,ChatGPT需要1w颗以上英伟达GPU A100芯片,一次模型训练成本就超过1200w美元。

今年年初至今,英伟达股票已经涨超55%。

要知道从去年Q3开始英伟达营收就在走下坡路,但随着超大型人工智能需求的增加,英伟达的营收也有望获得大幅增长。

人工智能背后的芯片

我们常说AI芯片,但AI芯片并不是一个具体的芯片种类,更多的是指应用领域。为人工智能提供基础算力的芯片都可以称为AI芯片。
目前市面上能作为AI芯片使用的芯片类型主要有4种。
第一种是CPU。CPU可以拿来执行AI算法,但是因为体系结构和逻辑限制,很难满足高吞吐量和低时延计算的要求。用于AI计算性价比较低。

第二种是GPU。诞生于英伟达的GPU最初确实主要应用于图形渲染,这是在后来科研和应用中逐渐用于AI计算领域。GPU拥有较强的并行推算能力,能够支撑强大的算力需求,目前主要用于加速。

第三种是FPGA。可对芯片硬件层进行灵活编译,且功耗远远小于CPU和GPU。

第四种是ASIC。主要是定制专用的AI芯片,可以在芯片架构和电路上进行优化,用来满足特定的应用需求。性能高、功耗低,但成本也较高。

要知道,AI的应用必须要跨过成本和性能的临界点,要足够低成本、低功耗、高效能。芯片是让AI从庙堂之高的云端服务走向更广泛行业的最优选。

芯片是竞争壁垒

如今,巨头企业在AI领域竞争激烈。
2月7日,谷歌官宣了ChatGPT竞品Bard,并发布演示Demo。2月8日,微软上线了ChatGPT版Bing+Edge。

国内也传出消息,阿里达摩院正在研发类ChatGPT的对话机器人,目前已开放给公司内员工测试。预测其他大厂也会陆续跟进研发相关产品。

可以预见的是,ChatGPT势必会引爆一波AI芯片的热潮,这一次赢的不仅只有Open AI和英伟达,国内一众芯片厂商或许也能分上一杯羹。

从芯片卡脖子至今,字节跳动、百度、腾讯、阿里等大厂已陆续入场AI芯片领域。放眼国内,还有寒武纪、燧原、壁仞、景嘉微、澜起等GPU/AI芯片企业。

无论是AI芯片领域,还是其他芯片领域,大家都希望国内芯片企业能够抓住每一次机遇,交出一份令人满意的答卷。

【免责声明】:本站部分文章为转载或网友发布,目的在于传递和分享信息,并不代表本网赞同其观点和对其真实性负责;文章版权归原作者及原出处所有,如涉及作品内容、版权和其它问题,我们将根据著作权人的要求,第一时间更正或删除。

文章评价

-   全部 0 条 我要点评

有疑惑?
在线客服帮您
029-81122100

立即咨询 >