实现算力自由还差什么?
安永大中华区数据智能咨询合伙人季昊:“我觉得其实目前全国范围内的算力中心,其实已经建设得非常多了。从这种支持大规模科研运算的这种超算中心,然后到这种支持人工智能计算的智算中心,再到这个IDC,就是互联网算力中心,它主要是支持互联网,或者是一些电信业务,其实目前全国这样的各种算力中心都在遍地开花。整个的算力,我觉得,基本上是通用的算力已经能满足现有的需求,但是如果说是特有的这种,像GPU这样算力肯定还是有不足。
但是随着人工智能这样算力的爆发式增长,我们首先得分析,这种爆发式增长大概周期是多少?那像刚才所说的,它可能是一个泡沫,可能是在一个高峰之后会有相应的回落。所以其实我们首先要预估这个增长大概的持续性,和这样的一个临界点是什么。那么依据于真实的需求我们去看,我们现有的算力网络是否能通过调度的方式,来实现算力的这种弹性调度,而不需要去新建一系列这样子的大型算力中心。一旦新建了之后,可能未来运营各方面都是成本,导致了一系列的上架率等等一系列问题。所以说我觉得这个问题还是得通篇来看,从国家层面、政务层面,包括企业的整体规划层面来看,利用现有算力还是要去新建算力,那么这个其实是一个需要去通篇考虑的这样的一个问题。
我觉得AI芯片未来迭代主要是两个方向。一块就是随着这个数据量、模型复杂度的不断提升,其实对于AI芯片本身的这个算力,它的无论从性能还是从功耗层面上,会提出进一步的要求。我们可以看到像GPU,它是也是在不断地从A800到A100,到H100这样不断地演进。但是目前的话整个AI芯片可能还是以GPU为主,但是我觉得随着对于算力的这种小型化、专用化、快速化的要求,其实一系列这种专用的AI芯片,比如像ASK的一些芯片,比如说目前像TPU、DPU,这样一系列概念,包括产品会随之应运而生。第二层面我觉得是从整个场景层面,因为随着AI这种技术不断地在各个场景中展开应用,那么对于AI芯片的多元化的需求,我觉得也会逐渐体现出来。比如说像一些现在的AI芯片基本上还是在这样集中式的机房里面,在一台服务上插着多个AI芯片,但未来的模式可能是随着场景的扩散复杂化。在一些边缘层面上的AI芯片,比如说还有一些这种人机交互的这样子植入性的芯片,或者像一些芯片就是特定场景满足一个特定功能,这样的层面上,我觉得会不断地发展,这样在移动式设备中,发挥它AI的能力。”