早期采用人工智能技术的组织已开始从人工智能的应用中获得真正的业务成果。但推行人工智能计划并非没有挑战。
人工智能创造商业价值的时代已经到来。事实上,在德勤公司(Deloitte)最近的一项调查中,82%的早期使用人工智能的组织表示,他们从人工智能投资中获得了经济回报。
人工智能和相关技术正在改进现有产品,并创造出新产品。这些技术正在优化内部和外部运营工作,帮助组织做出更好的决策,让员工更具创造力,并去从事具有更高价值的工作,以及带来多方面的好处。
毫无疑问,88%的公司计划在未来一年增加对认知技术的支出。
然而,人工智能并不是解决所有业务问题的灵丹妙药,而且采用人工智能技术绝非易事。以下是企业必须克服的最重大挑战,然后才能看到部署人工智能技术的积极成果。
数据问题
启动AI项目的最大障碍是数据。具体而言,就是缺乏那些没有固有偏见,也没有侵犯隐私权的可用及相关数据。
根据德勤公司的调查,16%的IT主管将数据问题列为与人工智能相关的最大挑战,比任何其他问题都要高,39%的受访者将数据列入前三个令人担忧的方面。
帕洛阿尔托研究中心(PARC)人工智能研究实验室负责人Raj Minhas说,许多公司将收集数据作为其日常运营的一部分。“但这些数据可能并非正确的数据。”
在启动人工智能计划之前,公司必须认真研究他们拥有的数据,寻找价值较高的领域。
“这就像在路灯附近寻找丢失的钥匙,而不是在你丢掉钥匙的地方去寻找,”他说。“我们建议企业回头看,了解他们能从哪里获得最大价值,而不是从他们拥有最多数据的地方开始查看。”
另一个问题是没有合适数量的正确数据。
“我们与许多拥有大型资本基础设施的客户合作,比如拥有风力涡轮机和铁路系统,”他说。“所有这些设备的设计都非常可靠。”因此,当企业尝试在故障发生之前使用机器语言来预测故障时,他们发现,从这些设备所收集的99.9%的数据都来自其正常运行期间。
“你所关注的是机器的异常行为,”Minhas说。“所以,你拥有很多数据,但这些都是错误的数据。”
业务流程方面的挑战
如何将人工智能技术整合到公司的职能部门中,这是另一个障碍,也被列为德勤公司调查中的第二大问题。
德勤风险与财务咨询公司(Deloitte Risk and Financial Advisory)分析和数据风险全球主管Vivek Katyal说:“结构性和文化方面的因素仍是阻碍人工智能应用的关键因素之一,也是最大的挑战之一。”“人们仍然在努力理解人工智能带来的影响,它能做什么,不能做什么。这就像一个可怕的机器人闯入一个组织中,把事情搞得一团糟。”
他说,当人工智能被植入人们已经使用的平台(如ERP或CRM系统)中时,这种应用就会更容易。事实上,人们可能甚至不知道人工智能技术已经被使用。
“但是,当我们谈到人工智能改变业务流程时,它从根本上改变了企业的工作方式和工作内容,并且这是一个有更棘手问题需要解决的领域,”他说。
技术实施方面的挑战以及技能的短缺
人工智能技术的实施带来了许多技术挑战,大多数组织都没有足够的人工智能技能来熟练地应对这些挑战,在德勤公司的调查中,有39%的受访者将技术问题列为三大挑战之一,而31%的受访者将缺乏技能列为三大挑战之一。此外,69%的受访者表示AI技能的短缺为中等、严重或极为严重。
高德纳公司(Gartner)分析师Svetlana Sicular说:“目前的情况是,大多数公司无法自己解决这些问题,因为他们没有这些技能。”一年前,当她与刚刚开始研究AI的企业用户交谈时,大多数企业认为他们将自己构建系统。到了秋末,这个数字发生了变化,现在约有三分之二的企业希望通过在智能企业应用程序中使用嵌入式工具来部署AI。“情况变化很快,”她说。
让该技术发挥作用是一回事;让它在实际业务中运转则是另一回事。
“许多公司都没有准备好接受机器学习技术的输出具有概率性这一事实,”Sicular说。“有些结果始终是不正确的。对他们来说,这完全是一种出乎意料的事情,他们需要为例外情况进行设计,并为反馈循环提供一些方法。”
工具和开发的成本
对于那些从零开始构建AI系统的组织来说,人工和技术的成本可能很高。对于那些刚起步的组织来说尤其如此。
纽约州北部的安德森自闭症中心(Anderson Center for Autism)拥有850名员工,其首席信息官格雷格•保尔克(Gregg Paulk)说:“我最初进入这家公司的时候,我们就走了这条路。”
他表示,建立新的人工智能系统在资金和人员方面都非常昂贵。“我们是一个小型的非营利组织。我们没有这些开发人员。”因此,对于该中心而言,就像许多小型组织一样,这意味着必须雇佣一家外包公司来完成这项工作。
“在过去,我们一直在努力做类似的事情,因为费用和开发时间的关系,我们失败了,”保尔克说。
取而代之,该组织正在将AI工具应用到公司已经使用的系统中。例如,来自Ultimate Software公司的人力资源平台现在可支持人工智能驱动的工具,让该组织可对员工进行调查,包括询问开放式问题,并使用自然语言处理和情感分析功能来智能地分析各种回复。该软件还建议管理人员采取具体行动来解决员工问题,这已使员工流动率在过去两年内下降超过三分之一。
“2013年,当他们第一次开始在会议上讨论人工智能时,我想,‘这一技术永远不会使用,’”保尔克说。现在,他对该技术的能力感到“惊讶”,并且该组织已经通过基于云的系统在使用该技术。
“我们自己肯定做不到,”他说。
安德森自闭症中心的情况并非个案。据德勤公司称,59%的公司通过企业软件供应商获得AI技术。例如,Salesforce Einstein是一个内置的AI工具,可帮助销售代表确定哪些潜在客户更有可能转化为实际买家。
49%的公司使用基于云的AI。许多供应商和云提供商都提供现成的AI服务,因此企业无需构建自己的基础架构,也无需训练自己的算法。
这两种方法都可以降低成本,或者将成本从IT部门转移到各个业务部门。对于像Salesforce这样的云应用程序,对物理基础架构或内部支持工作或管理人员的需求都较少,因为大部分工作都由供应商处理。
领导目标的错位
不幸的是,高管的价值往往取决于其预算规模和下属人数。德勤公司的Katyal表示,首席信息官工作是否成功不需要按其下属人数或预算来衡量,而需要通过其业务优势来衡量。
首席信息官是否帮助公司降低成本或提高收入?首席信息官是否帮助公司提高了自身所持有数据的价值?他说,这些工作很难衡量,但这种转变正在开始。 “首席信息官的奖励机制正在发生变化,尽管速度还不够快。”
Vic Bhagat亲眼目睹了这一变化。他曾在通用电气(GE)多家机构担任了20年的首席信息官,之后在易安信公司(EMC)担任首席信息官,在该公司时其下属有26,000人。他的下一个首席信息官工作是在威瑞森公司(Verizon),在这里他管理3500人。
他说,当他在更换工作时,人们一直在问他一些错误的问题。
“当猎头公司给我们打电话时,第一个问题是你的团队有多少人,你的预算是多少,你管理的应用程序有多少?”他说。“这些都是错误的衡量指标。这些指标会将错误的行为推向错误的结果。”
他说,使用人工智能来将业务流程自动化,降低成本,简化IT运营工作,这些都是对公司有利的结果。
他说,如果做得好,这实际上可以保护就业。“如果我可以将日常琐碎工作自动化和数字化——人工智能可以做这些工作——我可以让那些被这一工作解放出来的人员去处理客户流程工作,将那些工作数字化,然后创造出优异的客户体验。”
现在,这些人是创收周期的一部分,而不是业务支出。这可以在预算谈判过程中产生重大影响。
“如果我可以将这些人员部署在对业务至关重要的工作上,那么业务人员就会站起来说,你最好不要碰这些人,因为这对我们现在正在做的事情至关重要,”他说。
衡量并证明商业价值
要证明人工智能计划的商业价值可能具有挑战性,在德勤公司的调查中,30%的受访者认为这个商业价值问题是人工智能应用的三大障碍之一。
一个问题是公司通常是先实施该技术,然后寻找其可以解决的问题,而不是从业务需求入手。
“许多组织认为他们需要聘请数据科学家,让他们来处理数据方面的工作,”位于亚利桑那州坦佩(Tempe)的技术咨询和系统集成公司Insight的数字创新副总裁马特•杰克逊(Matt Jackson)说。“但你看不到这对组织产生任何直接影响。”
高德纳公司分析师惠特•安德鲁斯(Whit Andrews)表示,对于组织来说,基于项目内在性质而不是所使用的技术来衡量商业价值,这是非常重要的。
“你会想说,它改善了客户体验,而这就是我们所知道的,”他说。“或者它虚报了我们在维护方面所做的开支,这就是证据。”
法律及监管风险
对于那些关注人工智能的企业来说,法律和监管风险是一个重要问题,特别是那些处于受监管行业的企业。Raghav Nyapati说,一个问题是人工智能算法缺乏透明度,他最近在一家全球十大银行负责AI项目,现在正在启动一家金融科技创业公司。
“这个模型是一个黑盒子,”他说。“算法已经改进,但该模型的可解释性和透明度仍然值得怀疑。”
这使得公司很难向监管机构、客户、董事会成员和其他利益相关者解释其决策过程。
“如果出现任何问题,银行必须支付巨额罚款,”Nyapati说。
网络安全
根据德勤公司的调查,网络安全是使用人工智能技术的最大风险。并且企业为了支持其AI计划而收集信息,而目前已出现许多与信息相关的数据泄露事件。但是,在大多数情况下,这些数据无论如何都会被收集,并且AI应用程序本身并没有导致黑客攻击的漏洞。
事实上,AI越来越多地被用来保护企业免受网络威胁。但是,任何新的软件或平台都会带来新的安全挑战,而且这些问题通常最初并不明显。然而,Katyal指出,攻击者有更容易、更直接的方式来破坏企业安全。
“我不认为人工智能技术会带来更多风险,”他说。“人们只是更难理解、审查、审计和评估风险是什么,以及风险是如何得到解决。”
但随着技术变得越来越普遍,恶意的内部人员(或者能够精确使训练数据中毒的聪明攻击者)有可能创建几乎无法检测到的且有危险缺陷的算法。
“例如,AI被用于检测欺诈行为,”国际信息系统审计协会(ISACA) 董事会安全顾问兼主席罗伯•克莱德(Rob Clyde)说。“机器学习技术的欺诈检测算法已被许多大型信用卡公司使用。但如果我存在恶意,并且可以训练这一算法,让它认为在每个月的第13日,所有能被13整除的交易金额都不是欺诈行为,那么我就可以利用这一特点来获利。”
他说,或者考虑一下自动驾驶汽车。“如果算法被恶意训练的话,当司机是某个特定的人,它就会撞车——但是对于其他人来说,车辆就能正常运行,那该怎么办呢?你怎么发现这一情况呢?”
此外,许多AI应用程序都是使用开源库构建的。
“已经有过在开源软件中植入恶意代码的例子,”他说。
道德标准
企业还担心过早使用人工智能技术会带来更大的风险。根据德勤公司的调查,32%的受访者表示道德风险是他们最担心的三大问题之一,33%的受访者表示人工智能故障可能导致信任受到损害,39%的受访者表示人工智能系统在关键任务甚至生死攸关的情况下出现故障的可能性。
例如,自动驾驶汽车的一个经典哲学困境,必须决定是直行并撞上一个人,或是转向并撞上多个人。
“我并没有解决这一困境,”国际信息系统审计协会的克莱德说。“我听说制造商提出了这个问题。这是他们正在努力解决的问题,特别是对于在城市驾驶而言。”
这可能是董事会或道德委员会可能需要解决的问题,但首席信息官在这方面可以发挥重要作用。实施人工智能技术的技术人员通常能够在早期就发现潜在的风险,并需要让他们可以放心地将这些风险告知首席信息官,以引起他的注意,然后首席信息官可以将这一情况报告给董事会。
“你需要拥有一种人们可以谈论道德问题的组织文化,”他说。
他说,首席信息官可能会较多参与高管层或董事会层面对这些问题的讨论。“这不仅仅是首席信息官的工作内容。”