《2020-2021 年中国人工智能计算机发展评估报告》中指出: 日益增长的业务实时性需求使边缘和端侧计算能力变得越来越重要,IDC
预测,到 2023
年,接近 20%
的用于人工智能工作负载的服务器将部署在边缘。
《2021-2022 中国人工智能计算力发展评估报告》中指出: 人工智能芯片可部署在云端数据中心、边缘侧和终端侧。云计算为人工智能提供了基础架构,目前云端是承载海量数据处理和大规模计算的重要载体。在新技术的驱动下,5G
等连接技术降低了数据的传输和处理速度,为了分担数据中心的计算压力并且也能提高实时响应速度,人工智能在边缘侧的处理将成为企业的一个关键增长领域。人工智能在边缘以及端侧将有广泛的应用场景,从自动驾驶到工业制造,再到消费者智能家居和可穿戴设备,处于端侧、边缘侧的人工智能芯片需要在功耗、计算性能、形状和物料成本之间取得平衡。
小包阅读近两年的人工智能计算力发展评估报告,发现除了最核心的算力问题,报告还反复提到了边缘测与端侧,因此小包认为边缘测与端侧都会是 2022 年人工智能领域炙手可热的话题。
那小包就不由得好奇了!端侧和边缘侧分别都是什么那?又会有什么优势?
云计算指的是通过网络"云"将巨大的数据计算处理程序分解成无数个小程序,然后通过多部服务器组成的系统进行处理和分析这些小程序得到结果并返回给用户。云计算可以提供了庞大的计算能力、海量的数据存储能力,极大的促进互联网的发展。
借助云计算的强大计算能力,很多行业实现了跨越式发展,例如物联网行业物联网设备连接数量和产生的数据呈海量增长趋势。
一方面传统的采用集中处理方式的云计算模型已无法处理因各类接入设备产生的海量数据,让云端不堪重负,造成更大的数据瓶颈;另一方面,万物互联背景下,应用服务需要低延时、高可靠性以及数据安全,而传统云计算模式在实时性、隐私保护和能耗等问题上无法满足需求。
为了更加实时和分析来自终端设备的海量数据并减轻网络传输压力,人工智能的算力会逐渐向边缘转移。那什么是边缘计算那?
边缘计算指的是在网络边缘结点来处理、分析数据。边缘结点指的就是在数据产生源头和云中心之间任一具有计算资源和网络资源的结点。比如手机就可以是人与云中心之间的边缘节点,网关是智能家居和云中心之间的边缘结点。
通常来说边缘计算把更多的计算进程放到边缘节点,云端运行较少的进程。这样,就可以实现在数据产生源附近计算、分析数据,最大限度减少客户端与云端的数据流转,进而减少云端响应时间和网络服务不稳定性。
如果还是不能理解边缘计算,小包来举个栗子: 大家都听说过章鱼吧,就像下面这种:
不知道大家了不了解章鱼,章鱼具有"概念思维",能够独自解决复杂的问题,是自然界中智商最高的无脊椎动物。这与它的记忆系统有关,章鱼有两个记忆系统,一个是大脑,具有 5 亿神经元;另外一个是八个爪子上的吸盘,也就是说,章鱼的八个爪可以思考和解决问题。
章鱼的大脑就类似于云计算,八个小爪子就是边缘计算,每个爪子就是一个小型的机房。云计算把握整体,边缘计算把握局部。
由于边缘计算更靠近数据,因此边缘计算会具备下列优势:
我们可以举几个边缘计算典型案例来体验边缘计算的优点:
但需要注意,虽然边缘计算非常牛,但是边缘计算并非是云计算的"取代品",不能将云计算一刀切(虽说章鱼爪子能思考,但也不能把大脑切掉光靠爪子生活啊)。如果说云计算更注重把控全局,那边缘计算则聚焦于局部,本质上是对云计算的补充和优化,边缘计算更靠近数据源头,能低时延近实时的解决问题。
IDC
预测,到 2023
年,将有 20%
的边缘服务器用来处理 AI
工作负载,70%
的企业将在物联网边缘运行不同级别的数据处理。
边缘计算同样会存在很多挑战:
与云计算到边缘计算类似,人工智能的发展也正在经历从云到端的过程。
我们回想一个人工智能应用的开发流程,一般有下列四步:
模型推理的方案一般是部署在云端或者服务器端,对外提供 API
给客户端。这种模式存在很多优势,云服务器空间资源充足,可以存储海量数据;算力强大,能进行复杂的模型推理。但不免出现类似云计算的问题:
端智能简单来说就是在端侧完成模型推理过程。
相比于云智能来说,端智能有着以下几点显著优势:
但端智能也存在比较致命的缺陷——低算力。端侧的算力和存储与云服务器相比还相差甚远,无法做大规模高强度的计算。为了尽可能压榨算力,就需要对硬件平台进行适配,做指令级的优化;同时压缩模型,在时间和空间上减少消耗。
同时,由于端侧只是单用户数据,数据量小,在算法上无法做到最优。用户数据有限,端侧数据并不适合长期大量存储,端侧可用数据有限。
近年来,端智能的应用场景越来越多,广泛应用于人脸识别、手势识别、图像搜索、互动游戏等,但可以粗略的分成两类:
AI
,创建新的交互方式AR
: 基于端侧 AI
的⼈脸检测能⼒结合 AR
应⽤可以给消费者更加真实的购物体验。AR
应用、游戏: 美颜相机、虚拟试妆AI
新技术,实现更个性化,时效性等的工作流程feeds
流,使内容推荐更精准。端智能的应用已经非常广泛和普遍,但端智能的发展也面临着一些挑战。
淘系技术通过调研,总结出几大趋势:
端上的推理高于训练,但仍需要补齐端上的训练能力。在《2020-2021 年中国人工智能计算机发展评估报告》中,IDC 预测,用于推理工作负载的服务器市场份额将在不久的将来超过训练,并在预测期内保持这一趋势。
但这并不意味着端上训练不重要。
Google Jeff Dean 在 2019 年 12 月中旬的一次采访中提到:One thing that’s been shown to be pretty effective is specialization of chips to do certain kinds of computation that you want to do that are not completely general purpose, like a general-purpose CPU。
摩尔定律在过去的几年逐渐失效,general-purpose CPU
性能的增长速度已经平滑。但人工智能模型对算力的要求越来越高。因此很多公司推出了针对 AI
特殊加速的 "XPU"
。
未来端智能算力主要靠各式各样的 XPU
来提供。如何适配碎片化的 XPU
,充分利用硬件能力,是未来推理引擎要重点突破的领域。
未来几年,全球的手机出货量不会像往年一样大幅增长,而是平稳甚至下滑(见下图全球手机出货量趋势),但 AIOT 端产品一方面种类多样,比如像安防领域的指纹锁、监控摄像头、无人机等等。另一方面随着云计算的发展,物联网界正进行着跨越式的发展,AIOT 端数量会越来越多
端智能经过近几年的发展,已经有一些比较成熟的端侧推理引擎。
领取专属 10元无门槛券
私享最新 技术干货