人工智能(AI)的能力无疑令人震惊,这让许多人想知道它是如何做到的?,而这个问题的答案推动了可解释人工智能的概念,有时候称为XAI。
许多人喜欢参与有关可解释人工智能的讨论,但他们往往没有提出能够实现的可行性想法。
什么是可解释的人工智能?
可解释的人工智能是通过人工智能算法解释它是如何以人类可以破译的方式得出结论的想法。这将面临一个众所周知的“黑盒问题”,其中人工智能算法可以确定某些内容,但无法提供导致这些结果的因素的详细信息。那么,人们怎么认为他们可以相信人工智能算法所说的内容呢?
实现可解释人工智能的目标是一项令人钦佩的必要壮举,但这并不简单。在将可解释的人工智能变成现实之前,行业人士需要认识到以下四件事情。
1.解释可能不是建立信任的最佳方式
人们能够理解的是,如果人工智能可以自我解释,用户以及使用人工智能做出决策的企业会相信人工智能更值得信赖。但是一些人认为,努力实现可解释的人工智能并不是建立增强信任的最佳途径。相反,测试和分析可以给出所寻求的答案。
这是因为人工智能用来得出结论的方法可能非常复杂,即使提供了解释,人们也无法理解。但是,当人工智能用户能够测试和分析人工智能所做的决策,并确保它们显示出足够的一致性,以显示系统按预期工作时,就会产生信任。
可解释的人工智能仍然是有用的,但是人们不应该把它视为最终解开人工智能的奥秘。
2.可解释的人工智能与应用程序设计直接相关
对于可解释的人工智能而言,另一件至关重要的事情是,与大多数人认为的相反,人们不需要将人工智能视为获得答案的起点。相反,使用可解释的人工智能取得进展意味着从应用程序级别开始。
例如,用于促进贷款审批流程的人工智能应用程序能够以这样的方式运行,即允许人们采取人工智能工具的每个步骤以及通过这些 *** 作创建的路径。然后,人们可能会深入挖掘并查看应用程序的哪些特征触发了批准或拒绝。
采用这种方法并不一定能为给定的应用程序带来完全可解释的人工智能。但是,记住可解释性对于参与构建使用人工智能的应用程序的人来说是一个很好的策略。
3.强化学习比人们想象的要复杂得多
人工智能算法以多种方式学习。这是一种有监督的学习,它涉及人工智能从预先分类的数据变得更智能,以便查看和分类。或者,当人工智能算法仔细检查输入数据以找到其中的模式时,就会发生无监督学习。最后,有一种被误解的第三种人工智能学习风格称为“强化学习”,也有一些人称之为“自我学习”。
这种算法根据收到的反馈,将执行的 *** 作理解为可取或不可取。人们需要关注由它所做的事情引起的响应,然后从尝试和错误的方法中学习。
不幸的是,考虑到复杂任务的成功都是由所有行动的总和造成的,因此加强人工智能并不是那么简单。考虑到这一点,人们必须考虑到一些使增强人工智能有效的必要条件。例如,系统必须提供具体的激励。但是,不同的场景有不同的相关期望动作。
此外,任何适当使用强化学习的系统都必须考虑环境中的每个可用变量。但是,当人们考虑到许多现实问题的不可否认的复杂性时,很容易看出这是一个非常耗时的步骤。
当人们努力实现可解释人工智能的目标时,他们需要记住人工智能算法以多种方式学习。此外,由于所有变量都在发挥作用,强化学习尤其困难。整理出描述强化学习算法得出结论的所有细节可能是一个过于漫长的过程。
4.所有关于可解释的人工智能的对话应包括道德伦理部分
当人们谈论人工智能时,道德伦理问题经常发挥作用。当使用人工智能处理可能导致伤亡的事件时,尤其可能发生这种情况,例如加强国防力量。尽管人工智能机器最终可能比制造它们的人更聪明,但是人类仍然有责任设计出尽可能符合道德规范的人工智能机器。
有些人甚至争辩说,实现可解释人工智能的里程碑意味着人们将机器保持在比人类更高的标准。毕竟,当人们要求充分解释所做出的决定以及如何做出决定的时候,做到这些事情往往是不可能的。转瞬即逝的想法和原始欲望是两种能让人们在意识原因之前就开始行动的因素。
但是,是什么让机器实施道德的行为与非道德的行为?几乎可以肯定的是,编程已经开始发挥作用,但它很可能无法说明整个过程。因此,尽管让人工智能解释自己是至关重要的,但也应该对人工智能合乎道德更多的关注——即使在可解释性出现之前。
发展之路还很漫长
这份清单强调了许多人喜欢参与讨论有关可解释人工智能的一些原因,但他们往往没有提出如何实现的想法。
尽管如此,这仍是一个有价值的目标,随着人们逐渐开发和采用人工智能,并用它实现新事物。
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)