云计算的限制:为什么需要边缘的机器学习
2019/8/28 14:33:06
机器学习有着很高的处理需求,而其通信成本意味着人们最终需要它在边缘的地方(智能手机)发挥作用。 如今,人们正在进入由人工智能(AI)驱动的新一轮技术创新时代,机器学习处于技术最前沿。即使在今天,机器学习也是任何设备体验的重要技术,为各种任务、功能、应用程序提供支持。从设备上的安全性(如面部解锁、面部识别和指纹识别),到智能手机摄像头和音频功能(允许用户通过诸如Socratic、Snapchat、FaceApp、Shazam等应用程序获得更智能和有趣的体验),经常使用各种基于机器学习的功能由消费者提供。 但是,对于创建大量数据的基于机器学习的任务,这些任务通常会转移到云端进行处理,然后再通过操作发送回设备。例如,Socratic和Shazam都在云中使用机器学习处理,而不是在设备上。这就带来了一个问题:在设备上进行机器学习处理会不会更简单、更快捷? 能够在设备或边缘上执行基于机器学习的任务,而不是将其发送到云端进行处理,许多人将其描述为“机器学习演进的下一个阶段”。有许多重要的限制,功耗、成本、延迟、隐私等限制因素使得在云端和设备之间来回传输的机器学习数据不切实际。几年前,机器学习在边缘领域似乎是一个“白日梦”,而设备的技术创新使它们能够处理计算密集型任务。 云计算的约束 云端的机器学习处理的所有约束都是相互关联的。 首先,处理云端的机器学习任务所需的大量数据的功率和成本是巨大的,更不用说通过不断增长的带宽需求产生的大量流量。早在2017年,就有人指出,如果每个人每天使用他们的Android语音助手三分钟,那么谷歌公司必须将其拥有的数据中心数量翻一番。 而在2019年,谷歌公司可能解决了这一特殊挑战——事实上,在最近的会议中,谷歌公司表示可以让500GB语音辅助模式缩小到0.5GB,因此它可以在移动设备上完全运行。然而,它确实说明了云端的机器学习可以处理巨大基础设施和经济需求。边缘的机器学习可以通过减少对基于云计算的机器学习所需的云计算服务和支持基础设施的依赖来减轻这些负担。 用于云端的机器学习处理的巨大经济成本可能最好通过开发人员的经验来说明。每台设备在服务器上进行一秒钟的计算大约需要0.00003美元。这显然是一个非常小的成本,但是当考虑到开发商的目标是尽可能多的受众时,其成本很快就会开始上升。例如,对于一百万台设备,服务器上一秒钟的计算成本是28美元,即每分钟1680美元。对于以1亿用户为目标的极其成功应用程序,开发商将支付每分钟160万美元的费用! 最重要的是,将云计算用于基于机器学习的任务根本不可行。即使距离很近,也需要大量的电力才能将数据发送到云端。在设备上,基于机器学习的处理所需的功率量要小得多。 在设备和云端之间来回发送数据将会产生明显的滞后或延迟,大多数基于机器学习的应用程序,特别是那些对时间要求严格的应用程序来说都是不能容忍的。改善延迟开启了基于机器学习的应用程序可以完成的新功能。例如,如果由于发送、处理、接收增强视频所花费的时间而在云端完成机器学习处理,那么Snapchat AR体验是不可能的。 通过逐步查看流程,可以最好地说明用于云端的机器学习处理的延迟问题。在当前的4G网络上以一种方式(从设备到云端)启动数据流提供50ms的理论延迟,这大约是4个视频帧的延迟。然后,为了处理云端的机器学习数据,一个视频帧可能延迟16ms。最后,从云端回流到设备是50ms的延迟。因此,整个过程大约有10个视频帧的延迟,使得其延迟远远高于提供即时响应设备上的机器学习。5G技术确实有可能将此设备更改为边缘处理,因为其部署只有1ms的延迟,但5G技术的广泛应用仍需要一段时间。 最后,云计算与设备之间的持续交互创建了一个更容易受到隐私威胁的
下一页
返回列表
返回首页
©2025 人工智能世界_专注人工智能领域,汇集人工智能技术资料 电脑版
Powered by iwms