科技行业资讯门户

广告

广告

广告

广告

广告

各类算力芯片,如何繁荣生长?

 【蜂耘网 云计算】随着ChatGPT的出圈,大家可以明显感受到全社会对于生成式人工智能技术的广泛关注,随着大模型的数量和模型参数量不断激增,对算力的需求也越来越高。

 

根据《中国算力发展指数白皮书》中的定义,算力是设备通过处理数据,实现特定结果输出的计算能力。

 

算力实现的核心是CPUGPU等各类计算芯片,并由计算机、服务器和各类智能终端等承载,海量数据处理和各种数字化应用都离不开算力的加工和计算。

 

那么,不同的算力芯片分别适用于何种应用场景,不同的算力芯片又有哪些区别?

 

01 不同场景需要何种算力芯片

 

小至耳机、手机、PC,大到汽车、互联网、人工智能、数据中心、超级计算机、航天火箭等都在其中发挥着核心作用,而不同的算力场景,对芯片的要求也各不同。

 

img2

 

数据中心作为数字时代的核心基础设施,承载着大量的数据处理、存储和传输任务。因此,它们需要强大的算力来应对各种复杂的计算需求。数据中心和超算需要高于1000TOPS的高算力芯片。当前,超算中心算力已经进E级算力(百亿亿次运算每秒)时代,并正在ZE)级算力发展。数据中心对于芯片的低功耗、低成本、可靠性以及通用性的要求都极高。

 

智能自动驾驶涉及人机交互、视觉处理、智能决策等众多方面,车载传感器(激光雷达、摄像头、毫米波雷达等)的不断增加,数据处理的实时性、复杂性和准确性要求不断提高,都对车载算力提出了更高的要求。通常,业内认为实现L2级自动辅助驾驶需要的算力10TOPS以下L3级需30~60TOPSL4级需要超300TOPSL5级需要超1000TOPS,甚4000+TOPS。所以自动驾驶领域的车载算力是远远大于生活中常见的手机、电脑的计算能力。比如蔚ET5的处理器算力1016TOPS、小P7的处理器算力508TOPS。在智能驾驶中,安全至关重要,因此该场景对算力芯片的可靠性有着极高的要求,对于芯片通用性的要求也较高,对于功耗和成本的要求就相对没有那么苛刻。

 

为了应对当前视频处理、人脸识别以及异常检测等复杂任务的挑战,同时确保系统在未来技术升级和拓展时拥有充足的计算资源。智能安防系统需要大约4-20TOPS的算力,这一数值虽然相较数据中心要小得多,但是也足以保障智能安防系统的高效稳定运作。随AI安防进入下半场,算力的重要性愈发凸显,这一数值也在不断上涨。智能安防对低成本和可靠性的需求比较高,功耗和通用性的要求则相对中等。

 

在智能移动终端中,可穿戴设备等小型产品对算力的需求相对不高,但智能手机、笔记本电脑等产品对算力的需求正在大幅提升。比如,前几年的iPhone12搭载A14芯片算力约11TOPS,小10手机所配备的骁865芯片算力则15TOPS。然而,随AI技术在智能手机中的日益集成和普及,骁888的算力已达26TOPS,之后8Gen18Gen2等芯片更是算力更是做了显著提升。智能移动终端也是一个对低功耗和低成本有着高要求的应用场景,对可靠性的要求相对较高,对通用性则没有太多的限制。

 

02 主流的算力芯片及其特征

 

当下的基础算力主要由基于CPU芯片的服务器提供,面向基础通用计算。智能算力主要基GPUFPGAASIC等芯片的加速计算平台提供,面向人工智能计算。高性能计算算力主要基于融CPU芯片GPU芯片打造的计算集群提供,主要面向科学工程计算等应用场景。

 

img3

 

CPU是传统通用计算之王,包含运算器、控制器、存储器等主要部分。数据在存储器中存储,控制器从存储器中获取数据并交给运算器进行运算,运算完成后再将结果返回存储器CPU的特点是通用性强,可处理各种类型的计算任务,但其计算效率不及专门针对特定任务设计的芯片。

 

GPU最初用于加速图形渲染,也被称为图形处理的利器。近年来GPU在深度学习等领域表现出色,被广泛应用于人工智能计算GPU的特点是具有大量并行计算单元,可同时处理大量数据,使其在并行计算任务中具有很高的效率。GPU的通用性不CPU,仅适用于特定类型计算任务。

 

ASIC是一种专为特定任务而设计的芯片。它通过硬件实现算法,可在特定任务中实现极高的计算效率和能效ASIC的特点是针对性强,仅适用于特定任务,但其计算效率和能效远CPUGPU,适用于规模大或成熟度高的产品。

 

FPGA利用门电路直接运算、速度较快。相比GPUFPGA具有更高的处理速度和更低的能耗,但相比相同工艺条件下ASICFPGA仍有不及,不FPGA可以进行编程,相ASIC也更加灵活FPGA适用于快速迭代或小批量产品,AI领域FPGA芯片可作为加速卡加AI算法的运算速度。

 

GPGPU即通用图形处理器,其中第一GP通用目的,而第二GP则表示图形处理,主要目标是利GPU的并行计算能力来加速通用计算任务。可以通俗的GPGPU理解为一个辅CPU进行非图形相关程序的运算的工具。适用于大规模并行计算场景,比如科学计算、数据分析、机器学习等场景。

 

03 GPU是AI的最优解,但未必是唯一解

 

在ChatGPT引发的人工智能热潮下,最受欢迎的莫过GPU,为了发AI,全球领先的科技巨头都在争相囤积英伟达GPUGPU因何受AI时代诸多厂商的青睐?

 

原因很简单,因为AI计算和图形计算类似,包含大量的高强度并行计算任务。

 

具体解释为,训练和推理是AI大模型的基石 在训练环节,通过输入大量的数据,训练出一个复杂的神经网络模型。在推理环节,利用训练好的模型,使用大量数据推理出各种结论。

 

而神经网络的训练和推理过程涉及一系列具体的算法,如矩阵相乘、卷积、循环层处理以及梯度运算等。这些算法通常可以高度并行化,也就是说,它们可以被分解为大量可以同时执行的小任务。

 

而GPU拥有大量的并行处理单元,可以快速地执行深度学习中需要的矩阵运算,从而加速模型的训练和推理。

 

目前,大部分企业的AI训练,采用的都是英伟达GPU集群。如果进行合理优化,一GPU卡,可以提供相当于数十台甚至上百CPU服务器的算力AMD、英特尔等企业也正在积极提升其技术实力,争取市场份额。中国头部厂商包括景嘉微、龙芯中科、海光信息、寒武纪、芯原股份等。

 

可以看到,在AI领域GPU一骑绝尘,正如英伟达将自身定义为人工智能领导者一样,可以看到业内目前几乎所有关于人工智能的应用背后都离不GPU的身影。

 

这时候可能会有人发问,在AI盛行的当下,单GPU就足够了吗GPU是否会独占未AI市场的鳌头,成为无可争议的宠儿?

 

笔者认为,非也。GPU固然是当下的最优解,但未必是唯一解。

 

CPU可以发挥更多的作用

 

GPU虽然目前AI领域占据了主导地位,但是它也面临着一些挑战和局限。比如说GPU的供应链问题导致了价格上涨和供应不足,这对AI开发者和用户来说都是一个负担。CPU则有着更多的竞争者和合作伙伴,可以促进技术的进步和降低成本。而且CPU也有着更多的优化技术和创新方向,可以CPUAI领域发挥出更大的作用。

 

一些更为精简或小巧的模型,在传统CPU上同样能够展现出卓越的运行效率,而且往往更加经济实惠、节能环保。这证明了在选择硬件时,需根据具体应用场景和模型复杂度来权衡不同处理器的优势。比HuggingFace公司的首AI布道JulienSimon演示的一个基IntelXeon处理器的语言模Q8-Chat。这个模型70亿个参数,可以在一32核心CPU上运行,并提供一个类似OpenAIChatGPT的聊天界面,可以快速地回答用户的问题,并且速度ChatGPT快得多。

 

除了运行超大规模的语言模型,CPU还可以运行更小更高效的语言模型。这些语言模型通过一些创新的技术,可以大幅减少计算量和内存占用,从而适CPU的特点。这也意味CPUAI领域并没有被完全边缘化,而是有着不容忽视的优势和潜力。

 

全球CPU市场由英特尔AMD双寡头垄断,合计市场份额超95%。目前,龙芯、申威、海光、兆芯、鲲鹏、飞腾六大国CPU厂商快速崛起,加速推动了国CPU的发展进程。

 

CPUFPGACPUASIC也富有潜力

 

不仅如此,由于AI加速服务器异构的特点,市场上除CPU+GPU的组合方式之外,还有其它多种多样的架构,例如CPUFPGACPUASICCPU+多种加速卡。

 

技术的变革是迅速的,未来确有可能出现更加高效、更加适合AI计算的新技术CPUFPGACPUASIC便是未来的可能之一。

 

CPU擅长逻辑控制和串行处理,FPGA则具有并行处理能力和硬件加速特性。通过结合两者,可以显著提升系统的整体性能,特别是在处理复杂任务和大规模数据时FPGA的可编程性使得其可以根据具体应用场景进行灵活配置和定制。这意味CPU+FPGA架构可以适应各种不同的需求,从通用计算到特定应用的加速,都可以通过调FPGA的配置来实现。

 

而ASIC是专门为特定应用设计的集成电路,因此它在性能和功耗上通常都经过了高度优化。CPU结合使用时,可以确保系统在处理特定任务时具有出色的性能和效率。此外ASIC的设计是固定的,一旦制造完成,其功能就不会改变。这使ASIC在需要长时间稳定运行和高可靠性的场景中表现出色。

 

全球FPGA芯片市场主要由赛灵思、英特尔双寡头垄断,合计占有率高87%。国内主要厂商包括复旦微电、紫光国微和安路科技。国外谷歌、英特尔、英伟达等巨头相继发布ASIC芯片。国内寒武纪、华为海思、地平线等厂商也都推出了深度神经网络加速ASIC芯片。

 

GPGPU能使用更高级别的编程语言,在性能和通用性上更加强大,也是目AI加速服务器的主流选择之一GPGPUDE核心厂商主要包NVIDIAAMD、壁仞科技、沐曦和天数智芯等。

 

04 中国算力,规模如何?

 

根据IDC的预测,未3年全球新增的数据量将超过过30年的总和,2024年,全球数据总量将26%的年均复合增长率增长142.6ZB。这些将使得数据存储、数据传输、数据处理的需求呈现指数级增长,不断提升对算力资源的需求。另外,面向人工智能等场景,大规模的模型训练和推理也需要强大的高性能算力供应。

 

近年来,中国算力基础设施建设取得显著成效。

 

到2023年底,全国在用数据中心机架总规模超810万标准机架,算力总规模达230百亿亿/EFLOPS),算力正加速向政务、工业、交通、医疗等各行业各领域渗透。同时,东数西工程与全国一体化算力网的布局下,中国算力智算网络一期已经上线,全国算一张已具雏形。

 

政策面,中国陆续出台《全国一体化大数据中心协同创新体系算力枢纽实施方案》、《算力基础设施高质量发展行动计划》、《十四数字经济发展规划》等一系列文件推动算力基础设施建设。此外,国家推动多地智算中心建设,由东向西逐步扩展。当前中国超30个城市正在建设或提出建设智算中心,据科技部出台政策要求混合部署的公共算力平台中,自主研发芯片所提供的算力标称值占比不低60%,并优先使用国产开发框架,使用率不低60%,国AI芯片渗透率有望快速提升。IDC数据,中国智能算力未来将快速增长20212026年期间中国智能算力规模年复合增长率52.3%

 

 

(蜂耘云计算网 责任编辑:行云) 

2024-05-06 10:57

广告

来源:半导体产业纵横
随着ChatGPT的出圈,大家可以明显感受到全社会对于生成式人工智能技术的广泛关注,随着大模型的数量和模型参数量不断激增,对算力的需求也越来越高。

声明:凡来源标明“蜂耘网”的文章版权均为本站所有,如需转载请务必注明出处,违者本网将追究相关法律责任;所有未标明来源为“蜂耘网”的转载文章目的在于传递更多信息,均不代表本网立场及观点,“蜂耘网”不对这些第三方内容或链接做任何保证或承担任何责任;如涉及版权等问题,请在内容发表之日起一周内与本网联系,否则视为放弃相关权利。

所有评论仅代表网友意见,与本站立场无关

最新资讯

推荐阅读

热门排行

1、

2、

3、

4、

5、

6、

7、

8、

专题推荐

人物访谈

  • 一文了解查理·芒格:为什么他是巴菲特最推崇的人

    来源:
    ①巴菲特写道,“如果没有查理的灵感、智慧和参与,伯克希尔-哈撒韦公司不可能发展到今天的地位”;
    ②芒格曾表示,“如果世上未曾有过查理·芒格这个人,巴菲特的业绩依然会像现在这么漂亮 ”
    ③两周前,芒格还公开在节目中维护93岁的老友巴菲特。

    37 2023-11-29
  • 面壁者,拉里·佩奇

    来源:中欧商业评论
    这两年,硅谷钢铁侠埃隆·马斯克在社交媒体上口无遮拦,这为他的公司引来了铺天盖地的负面新闻,然而,他的好友、谷歌联合创始人拉里·佩奇却因为看不到人同样被媒体炮轰多时。他已经在公共视野中消失太久了。

    141 2022-06-15
  • 百岁中科院院士文圣常逝世!被誉为我国海浪研究的“点灯人”

    来源:南方都市报
     3月21日上午,中国海洋大学发布讣告,中国科学院院士、著名物理海洋学家、该校教授文圣常,因病医治无效,于3月20日15时37分在山东青岛逝世,享年101岁。

    166 2022-03-21

会议活动

微信公众号

广告

相关新闻