聊天机器人、争实、助脚曾经是移动用户世界里的限定功能,但在未来,聊天机器人将成为每个人生活中不可或缺的单元。如何想象聊天机器人更强的用户体验,值得每一个PM学习。
与机器人聊天是一种实用的法国风格,可以模仿与人的对话。聊天机器人分为两种:
根据聊天机器人的命令:
健谈的机器人的智能水平是根据开发员工的法国风格确定的,但它的天赋可能是有限的,使用它会感到不安全。
使用自然智能(AI)的聊天机器人;
聊天机器人的实际活动可以掌握人的文字,而不仅仅是命令,在人类的交互过程中已经变得越来越智能。
2016年11月,在Rapid企业创新节上,聊天机器人大放异彩。谈论机器人和与现实战斗正在成为移动用户世界的有限功能。谷歌在2016年9月发布了法式风格的智能即时通讯应用Allo。Allo支持英语听写的功能,也有实际助脚的功能。美国苹果公司早在2011年10月就已经发布了iOS功能Siri,并不断终止和改进。Siri的英文听写功能从2012年5月开始成为iOS管理系统的一个组件。有传言说三星的AI其实是要帮毕比在已经发布的Galaxy8中造势。
如今,聊天机器人已经成为每个人生活中不可或缺的一个单元。如何想象聊天机器人更强的用户体验,值得思考。
谈论机器人的不是人。
聊天机器人虽然可以模拟人的对话,终止与人的交流,但实际上并不是人。分解成年人的聊天机器人会引起混乱,引起用户猜不到的情绪反应,所以聊天机器人会成为空用户的怀疑。因此,健谈的机器人不应该试图征服用户,因为用户是人。
如图1所示,在名为CARL的新聊天机器人项目中,可用性测试的参与者表示他们喜欢动画版的聊天机器人。他们更倾向于选择不像人的、互相有猥亵行为的健谈机器人。他们看过,卡尔长得像人就很奇怪了。
图1-卡尔
亚马逊在美国的解决方案技术工程师证实了这项发明,他说,“有些人喜欢看起来像人的聊天机器人。”因此,UX假设员工使用的视觉效果元素或对话必须清晰明了,机器人只是机器人。
为什么人们不喜欢和人亲近的聊天机器人?卡尔的总体目标:参与者提到,如果聊天机器人卡尔以一个真实角色的品牌形象出现,他们会认为他的脸很奇怪。一些与会者提到动画版的卡尔更幽默。
谈论机器人是角色的投射。
用户会终止聊天机器人和认识的人的联系关系。当他们与自然智能联系在一起时,他们会谈到在机器人上设计一个角色。这些联系人关联的显示可以是聊天机器人的用户世界或者其衬托模式造成的。
如图所示,视频讨论解释了这位女士对一个名叫蔻驰的健谈机器人的反应。在那次讨论中,女性用户在聊天机器人上投射了一个顽皮、男性化的真实身份,即使该拟人化的聊天机器人由女性控制。虽然用户有信心这样做,但用户会谈论机器人结束拟人化,并将其与他们熟悉的橙色人物联系起来。视频讨论的效果与卡尔的相似。
图2-聊天机器人跟风
动画版的卡尔聊天机器人是用户可以分辨的相关角色。许多人提到卡尔是为了让他们想起自己的爱人。结果,在讨论结束后的几个星期里,与会者不断前来收集电子邮件,询问卡尔的远方情况。
会话是核心区域。
人们喜欢打架。与没有时间交谈的对话者的对话。同样的,有些人不能回复一个喋喋不休的机器人,他不能阻止一般的谈话。一个合适的对话答案需要准确的尝试去寻找。对于教师来说,找到一种准确的语音、语调和互动交流的方式是至关重要的。对话想象的一种方法是索引语音和地理数据库,这涉及到创建一个层次结构,并且该层次结构包含构成振兴的所有陈述。虽然言语地理数据库的索引是一种有效的会话想象方法,但也很费时。
什么是语音和地理?口头上,对话生成句子和英语单词。有四种类型的语言地理学,每一种都由不同的语言地理学数据库索引:
1.睡眠急救
这种方法涉及到将语音字符串数组生成为单个英语单词的战斗标记,如图3所示。
2.英语的语法解释
动词地理最常见的情况是英语语法解释,它可以生成字符串以确信其语法相关性,如图4所示。
3.词义解释
那种解释情境可以把英文单词交换成符号,可以帮助聊天机器人掌握句子的实际意思,如图5所示。
4.语境解释
哪种解释方法会提高字符串以抓住讲述者的企图,如图6所示。
知道何时结束谈话。
知道何时结束对话和如何开始对话一样重要。虽然聊天机器人可以是信息管理系统、网页或移动应用法式风格的一个单元,但用户可以在开始和结束时选择何时结束对话。如果用户暗示他想结束对话,聊天机器人不应该不断地影响用户。火烧眉毛、固执己见的聊天机器人会把粗心的用户的感受发过去。
图7是丝芙兰交换太多的例子。Sephora提供了期待已久的提示,但是用户即使没有得出振兴的结论,仍然终止会话。在用户最终回答之前,丝芙兰提供了一个有趣的测试。但是丝芙兰却不停的背诵用户的一系列问题,一个早就被人央求的视频,不断的推荐小技巧。大家可以注意到,用户只回复了一次哪个被火的自以为是的聊天机器人。
图7-丝芙兰
这时候用户不能封闭聊天,或者把丝芙兰聊天机器人变成隔音的,还带来了限制或者设置聊天频率的方法,或者停止不断提示的循环。如果你能更好的了解用户的要求和需求,那么解决所有这些考试成绩就非常简单了。用户应该能够随时随地结束对话,并设置自己的要求,以满足他们的最高水平。
经过整个预测过程,假设是真实的,自然的。
当我们听说电话商的伎俩时,每个人都会挂断电话。同样,当我们回复聊天机器人的招数时,人们往往会对这些回答漫不经心,避免使用聊天机器人。那会让用户没有安全感。
为了获得最佳的用户体验,聊天机器人应该叫用户“嘿,阿米莉亚!”。他们应该为用户提供他们想要的信息。例如,如果用户已经使用了气候网站,那么用户的影响力将是现在最合适的答案。但是,如果用户已经使用了假想的网站,那么新的假想信息或疑似信息会更容易消化,吸收用户的注意力。
麻省理工学院的聊天机器人Eliza在1964年就已经第一次表演了用户关心的考试成绩。伊莱扎扮演了心灵治疗师的角色,明确提出了极限测试分数,并能对下一个测试分数重复反应。如果用户不能停止猜测,并放弃了保留的桌面,伊莱扎的交流将被中断。如果伊莱扎不能抓住用户的注意力,用户的感觉受到损害,那么自然化对话的最佳解决方案就是预测想法。什么是估计假设?
“预测假设由优化算法驱动,用户是中间的假设规范。我们已经看到物质战服务获胜并控制机械设备来学习猜测用户的偏见。”
“据估计,在假设的下一阶段,材料战服务将旨在猜测是否需要每一项要求。早上你在准备工作的时候,你的私人助理会全程点评你的出行时间,提醒你天空铁路已经提前开会了,确保道路交通质量良好,然后帮你给优步打电话,让你来公司办公室开会。这些控制都是正面的,没必要要求。此外,所有这些控制都有考试结果。到了公司办公室,你的全自动咖啡机已经精准定位了你之前的影响力。你一走向全球,你的现磨咖啡之前就已经准备好了。”
假设根据用户的过去行为来猜测用户的未来行为。经过整个流程的简化和选择,聊天机器人的设计者旨在让用户的生活更紧凑。但那种方法并没有表现出思维规范的偏差,要求终止关于振兴的谈判,否则就会表现出问题。为了更好地防止这类问题的出现,用户的工作站都需要一个安静的网络。
估计假设做出不好的选择时,聊天机器人会考很多逻辑题,如图8。当时用户最终的感受是迷茫,缺乏怀疑和愤怒。例如,用户可以做出如下反应:
困惑:
“为什么我会得到哪一个?我有什么联系?”
毫无疑问:
“聊天机器人曾经给我推荐过一个非常好的休闲度假的地方,但是这个推荐很草率。”
愤怒:
“为什么我会推荐孕妇谈论机械设备?我有身体了!那就很难了!”
图8-平衡成本的概率
想象一下员工必须要思考的风险,包括用户的烦恼,以及其他问题的成本。根据缺战和停工的不同,用户填写预期问题的意愿也不同。关于聊天机器人,哪个风险相对性更低。谈天空机器人是主线上的一个平台或数据素材的单元。给用户制造麻烦是最明显的测试结果。但根据知名品牌或平台,聊天机器人可以全程提供羞耻感来加重对用户的伤害。
谈机器人的预测,其中一个比较大的测试分数是用户的热门领域。用户可以对成为健谈的机器人没有任何怀疑,因为他们得到的倡导或谈话在会议之前是不推荐的。如果聊天机器人不能推送用户听取意见,用户可以忽略聊天机器人的详细推荐。这将产生巨大的用户体验测试分数。因此,聊天机器人必须具备吸收能力,有针对性地引导用户倾听意见和手势,并通过对话的全过程准确猜测用户的行为。那样做会赢,会得到用户的怀疑。图9显示了人们对机器人的怀疑。
图9-托管机器人
谈田机器人视频语音世界的未来
漫不经心的想着聊机械装备奖励提供了愉快的用户体验。天生的智能使聊天机器人不断改进,创造更强的对话。与过去相反,它让每个人都更容易使用聊天机器人,以抑制实证主义带来的不便。使用聊天机器人来规划你的周布局就是一个例子,但这仅仅是个开始。
未来聊天机器人可能会终止整个视频语音。继聊天机器人的聊天思路改进之后,Alexa也将在其他视频和语音用户中得到改进。将视频、语音和谈论机器人的功能分开,可以让幻想者创造越来越低的自然度。用户可以选择听到对话,或者间接查看信息交流,然后选择通过视频语音或简短问题回复聊天机器人。那种配合可以在细节上修改聊天用户的感受。那种健谈的机器人可以提供视觉效果,以及听觉系统和人的感觉的结合。图10是Blair的原型,一个具有语音交互的聊天机器人。
人们期望聊天机器人能够在自然的水平上为人服务,即使聊天机器人有人们的控制。通过全程预测,自然智能的聊天项目已经可以从逻辑上识别人的需求,以更多元化的方式帮助大家。
翻译自AmeliaWong发表的关于UXmatters的文章
文中地址:http://www.UXmatters.com/mt/archives/2017/02/designing-conversational-chatbot-user-interfaces.php
文字oftodesign(微疑国民政府号:ofto,虚列作者。)
欢迎分享,转载请注明来源:内存溢出
评论列表(0条)