究竟到底什么是算力 算力包括哪些类别分别有什么用途?

来源:星际派

什么是算力

算力的字面意思,大家都懂,就是计算能力(Computing Power)。

更具体来说,算力是通过对信息数据进行处理,实现目标结果输出的计算能力。

我们人类,其实就具备这样的能力。在我们的生命过程中,每时每刻都在进行着计算。我们的大脑,就是一个强大的算力引擎。

大部分时间里,我们会通过口算、心算进行无工具计算。但是,这样的算力有点低。所以,在遇到复杂情况时,我们会利用算力工具进行深度计算。

远古时期,我们的原始工具是草绳、石头。后来,随着文明的进步,我们有了算筹(一种用于计算的小棍子)、算盘等更为实用的算力工具,算力水平不断提升。

到了 20 世纪 40 年代,我们迎来了算力革命。

1946 年 2 月,世界上第一台数字式电子计算机 ENIAC 诞生,标志着人类算力正式进入了数字电子时代。

再后来,随着半导体技术的出现和发展,我们又进入了芯片时代。芯片成为了算力的主要载体。

时间继续推移。

到了 20 世纪 70-80 年代,芯片技术在摩尔定律的支配下,已经取得了长足进步。芯片的性能不断提升,体积不断减小。终于,计算机实现了小型化,PC(个人电脑)诞生了。

PC 的诞生,意义极为深远。它标志着 IT 算力不再仅为少数大型企业服务(大型机),而是昂首走向了普通家庭和中小企业。它成功打开了全民信息时代的大门,推动了整个社会的信息化普及。

在 PC 的帮助下,人们充分感受到 IT 算力带来的生活品质改善,以及生产效率提升。PC 的出现,也为后来互联网的蓬勃发展奠定了基础。

进入 21 世纪后,算力再次迎来了巨变。这次巨变的标志,是云计算技术的出现。

在云计算之前,人类苦于单点式计算(一台大型机或一台 PC,独立完成全部的计算任务)的算力不足,已经尝试过网格计算(把一个巨大的计算任务,分解为很多的小型计算任务,交给不同的计算机完成)等分布式计算架构。

云计算,是分布式计算的新尝试。它的本质,是将大量的零散算力资源进行打包、汇聚,实现更高可靠性、更高性能、更低成本的算力。

具体来说,在云计算中,中央处理器(CPU)、内存、硬盘、显卡(GPU)等计算资源被集合起来,通过软件的方式,组成一个虚拟的可无限扩展的“算力资源池”。

用户如果有算力需求,“算力资源池”就会动态地进行算力资源的分配,用户按需付费。

相比于用户自购设备、自建机房、自己运维,云计算有明显的性价比优势。

算力云化之后,数据中心成为了算力的主要载体。人类的算力规模,开始新的飞跃。

算力的分类

云计算和数据中心之所以会出现,是因为信息化和数字化的不断深入,引发了整个社会强烈的算力需求。

这些需求,既有来自消费领域的(移动互联网、追剧、网购、打车、O2O 等),也有来自行业领域的(工业制造、交通物流、金融证券、教育医疗等),还有来自城市治理领域的(智慧城市、一证通、城市大脑等)。

不同的算力应用和需求,有着不同的算法。不同的算法,对算力的特性也有不同要求。通常,我们将算力分为两大类,分别是通用算力和专用算力。

大家应该都听说过,负责输出算力的芯片,就有分为通用芯片和专用芯片。

像 x86 这样的 CPU 处理器芯片,就是通用芯片。它们能完成的算力任务是多样化的,灵活的,但是功耗更高。

而专用芯片,主要是指FPGA和ASIC。

FPGA,是可编程集成电路。它可以通过硬件编程来改变内部芯片的逻辑结构,但软件是深度定制的,执行专门任务。

ASIC,是专用集成电路。顾名思义,它是为专业用途而定制的芯片,其绝大部分软件算法都固化于硅片。

ASIC 能完成特定的运算功能,作用比较单一,不过能耗很低。FPGA,介于通用芯片和 ASIC 之间。

我们以比特币挖矿为例。

以前,人们都是用 PC(x86 通用芯片)挖矿,后来越挖难度越大,算力不够。于是,开始使用显卡(GPU)去挖矿。再后来,显卡的能耗太高,挖出来的币值还抵不上电费,就开始采用 FPGA 和 ASIC 集群阵列挖矿。

在数据中心里,也对算力任务进行了对应划分,分为基础通用计算,以及 HPC 高性能计算(High-performance computing)。

HPC 计算,又继续细分为三类:

科学计算类:物理化学、气象环保、生命科学、石油勘探、天文探测等。

工程计算类:计算机辅助工程、计算机辅助制造、电子设计自动化、电磁仿真等。

智能计算类:即人工智能(AI,Artificial Intelligence)计算,包括:机器学习、深度学习、数据分析等。

科学计算和工程计算大家应该都听说过,这些专业科研领域的数据产生量很大,对算力的要求极高。

以油气勘探为例。油气勘探,简单来说,就是给地表做 CT。一个项目下来,原始数据往往超过 100TB,甚至可能超过 1 个 PB。如此巨大的数据量,需要海量的算力进行支撑。

智能计算这个,我们需要重点说一下。

AI 人工智能是目前全社会重点关注的发展方向。不管是哪个领域,都在研究人工智能的应用和落地。

人工智能的三大核心要素,就是算力、算法和数据。

大家都知道,AI 人工智能是一个算力大户,特别“吃”算力。在人工智能计算中,涉及较多的矩阵或向量的乘法和加法,专用性较高,所以不适合利用 CPU 进行计算。

在现实应用中,人们主要用 GPU 和前面说的专用芯片进行计算。尤其是 GPU,是目前 AI 算力的主力。

GPU 虽然是图形处理器,但它的 GPU 核(逻辑运算单元)数量远超 CPU,适合把同样的指令流并行发送到众核上,采用不同的输入数据执行,从而完成图形处理或大数据处理中的海量简单操作。

因此,GPU 更合适处理计算密集型、高度并行化的计算任务(例如 AI 计算)。

这几年,因为人工智能计算的需求旺盛,国家还专门建设了很多智算中心,也就是专门进行智能计算的数据中心。

除了智算中心之外,现在还有很多超算中心。超算中心里面,放的都是“天河一号”这样的超级计算机,专门承担各种大规模科学计算和工程计算任务。

我们平时看到的数据中心,基本上都属于云计算数据中心。

任务比较杂,基础通用计算和高性能计算都有,也有大量的异构计算(同时使用不同类型指令集的计算方式)。因为高性能计算的需求越来越多,所以专用计算芯片的比例正在逐步增加。

前几年逐渐开始流行起来的 TPU、NPU 和 DPU 等,其实都是专用芯片。

大家现在经常听说的“算力卸载”,其实不是删除算力,而是把很多计算任务(例如虚拟化、数据转发、压缩存储、加密解密等),从 CPU 转移到 NPU、DPU 等芯片上,减轻 CPU 的算力负担。

近年来,除了基础通用算力、智能算力、超算算力之外,科学界还出现了前沿算力的概念,主要包括量子计算、光子计算等,值得关注。

关键词: 信息数据 数字电子时代 算力革命 算力水平

推荐

直播更多》

关闭

资讯更多》

焦点