关于人工智能在工作业务中的六个误解

关于人工智能在工作业务中的六个误解,第1张

人工智能技术正在深入到工作环境中,不仅取代了平凡和重复的人工工作,而且还以其他方式改变了其他的工作。人工智能技术渗透到业务的各个方面,并在推动组织战略。调研机构Gartner公司预测,到2025年,人工智能将成为推动组织基础设施决策的首要技术之一。

然而,即使人们对人工智能的兴趣上升,关于这项技术的一些误解仍然存在。首席信息官必须识别这些误区,以便在推动人工智能项目的实施时制定合理的策略或增强现有策略。通过了解人工智能的工作原理和局限性,组织的首席信息官可以更好地利用人工智能技术来实现业务价值。

误区1:人工智能在冠状病毒疫情期间是一种奢侈品

事实:即使在冠状病毒疫情危机中,组织对人工智能的兴趣和投资也将继续增长。实际上,Gartner公司最近的一项调查发现,自从发生疫情以来,24%的组织增加了人工智能投资,42%的组织保持不变。

在疫情持续蔓延期间,人工智能不仅帮助医疗保健和政府首席信息官承担了诸如预测病毒传播和优化应急资源之类的任务,对于各种企业加快疫情之后的恢复工作也至关重要。人工智能一直是成本优化和业务连续性的重要推动者,可以在不中断业务的情况下支持收入增长,并改善客户互动。

尽管人工智能并不是什么灵丹妙药,但大多数组织都不能忽视其应对疫情的直接和长期影响的潜力。组织的首席信息官必须积极主动地推广人工智能,而不是将其作为一种奢侈品,它是一种可用于实际场景的强大技术,例如在疫情蔓延期间和结束之后更快地分析更多数据和增强决策。

误区2:不需要采用人工智能策略

事实:人工智能可以应用于各种各样的业务问题,但是只有在制定了人工智能战略的情况下,才能实现变革性的商业价值。

首席信息官可以通过将业务优先级与市场机会(尤其是那些利用人工智能的力量来增强人类工作的机会)相结合来最大限度地实现人工智能的价值。首先确定最有前途的人工智能用例,这些用例与战略计划和关键业务功能保持一致,例如使管理任务自动化以腾出更多时间进行创新。定期重新访问组织采用人工智能的方法,并确保有关人工智能实施的决策得到研究和审议的支持。

误区3:人工智能只能取代平凡而重复的工作

事实:随着时间的推移,许多技术已经影响了人们的工作方式以及获得高薪机会所需的技能。因此,某些职业消失了,而新的职业却不断产生。例如,如今很少有打字员这个职位,就像十年前很少见到社交媒体营销经理一样。

人工智能技术有望对人们的工作和学习方式产生重大影响。人工智能不仅有潜力将被认为使平凡或重复的任务实现自动化,而且它还可以通过完成更高价值的任务来帮助改进或改变其他的工作。例如,人工智能可以在几分钟内阅读数千份法律合同,并比律师更快、更少地从中提取所有有用的信息。

组织的首席信息官可以确定人工智能对现有任务的潜在影响,其方法是确定人工智能可以增强或自动化的活动,如项目管理或客户服务。在人工智能的帮助下,员工可以接受再培训,更好、更快地完成工作。与员工和利益相关者进行频繁而透明的沟通非常重要,以消除对人工智能使用的担忧,减少负面情绪,帮助团队为即将到来的变革做好准备。

误区4:人工智能和机器学习是相同的

事实:人工智能是计算机工程技术的总称。在人工智能有一个主要的分支领域叫做机器学习(ML),它是指机器在没有明确编程的情况下进行学习的能力。机器学习可以被编排成从数据中识别模式,它通常擅长于解决特定的任务。例如,机器学习可用于对电子邮件是否为垃圾邮件进行分类。

同样,机器学习与深度学习也不相同。深度学习技术或深度神经网络(DNN)是一种能够实现惊人突破的机器学习。但这并不意味着深度学习是解决人工智能框架下所有问题的最佳技术,也不意味着深度神经网络(DNN)一直是特定挑战者最成功的人工智能技术。实际上,使用基于规则的系统或传统的机器学习可以有效解决许多当前的人工智能问题。

最新的尖端人工智能技术并不总是最有效的解决业务问题的方案。数据科学家需要将人工智能技术视为一个整体,并实施那些最符合商业模式和目标的技术。对于复杂的问题,尤其是那些需要更多人类洞察力的问题,最好将深度学习与其他人工智能技术(如物理模型或图形)结合起来。

与利益相关者交流时,首席信息官必须澄清这些通常互换的术语,这一点很重要。将对人工智能的整体讨论分解为关于诸如机器学习之类的某种技术的对话,以展示每种技术如何解决现实世界中的问题。

误区5:人工智能就是关于算法和模型的技术

事实:建立和应用机器学习算法来创建预测模型通常是人工智能项目中最简单的部分。更具挑战性的部分包括确保用人工智能解决的问题得到很好的定义,收集和管理足够的正确数据,而部署是人工智能项目中最困难的部分。事实上,到2023年,至少有50%的IT领导者将努力将他们的人工智能预测项目从概念验证提升到成熟的生产水平。

组织的首席信息官应通过与主要利益相关者协商来专注于定义人工智能将解决的业务问题。并事先明确组织和管理测试、部署和其他人工智能运营活动所需的人员、流程和工具

误区6:并非所有黑盒人工智能都必须遵守法规

事实:黑盒人工智能是一种人工智能系统,其中输入和过程对用户隐藏。根据客户隐私、安全性、算法透明性和数字道德的法规要求,不同的人工智能的应用对可解释性有不同的要求。

人工智能产生内部使用的见解并不一定需要那么多的解释性。然而,人工智能做出关于人员的决定(例如关于贷款或信贷的资格)需要解释性。由于道德和法律上的原因,在具有重大后果(例如启用自动驾驶时)的“闭环”中做出决策的人工智能对解释性有很高的要求。

首席信息官必须确保人工智能应用程序符合现有的道德和法规。为测试和验证团队提供支持,这因为他们收集的数据将确定对所使用的人工智能应用程序的可解释性的需求。
责编AJX

欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/dianzi/2492652.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-08-04
下一篇 2022-08-04

发表评论

登录后才能评论

评论列表(0条)

保存