设计有“限制”的智能产品

设计有“限制”的智能产品,第1张

设计有“限制”的智能产品 适应用户活动、环境或个性的智能产品已经变得很普遍。


随着越来越多的智能产品出现在市场上,用户往往希望与他们进行更多的互动,就像人与人之间的互动一样。


在21世纪的头几十年,技术的限制使作为设计师的我们无法创造出完全符合这些期望的智能产品。


因此,在设计智能产品的过程中,管理用户对交互的期望是很有必要的。


在这里,您将了解人们如何与智能产品交互的基本心理学,以及设计不违背用户期望的智能产品的指导原则。


什么是智能产品?在日常生活中,我们身边智能产品和用户界面随处可见,它们可以执行一系列令人惊叹的动作。


在这种情况下,我们将智能产品定义为一种能够收集用户及其使用环境的信息,并进行处理以使其行为适应用户或特定环境的产品。


例如,当发现阳光照射时,太阳百叶窗会自动拉低,再比如一款旅游应用会根据你之前去过的地方推荐新的度假地点——甚至可以用自然的声音大声朗读出来。


基本上,任何产品都可以收集用户或各种环境因素的信息,并以一种智能的方式使用它们,来自动调整其行为。


在某些情况下,用户与智能产品的交互更像是交流,而不是工具使用。


例如,当你使用类似于自然语音的语音命令与智能家居交互时,你的家庭也会以同样自然的方式响应你的命令,你可能就接受了这一事实:你与你的家进行了简短的对话。


作者/版权所有:Guillermo Fernandes。


版权条款和许可:公共领域Amazon Dot是具有语音控制功能的扬声器,带有智能个人助理Alexa,Alexa会随着时间的推移了解您的偏好。


它可以帮助您选择音乐,关灯或订购中餐。


当产品没有被命令就自动执行 *** 作并似乎可以进行交流时,对于用户而言,它们看上去会比他们本身还要聪明。


人类一直在寻找我们周围世界的情报线索,而其中拥有一定智力和意图最基本的线索就是,某物或某人能够自行采取行动。


当我们遇到一个看起来很聪明的存在时,例如另一个人或一条狗,我们知道可以期望他们有多少智力,因为我们可以根据过去的经验来判断它。


当我们遇到一款智能产品,该智能产品具有智能的行为方式并能够自行执行 *** 作时,我们就没有太多经验可以作为基础。


因此,准确预测期望值是一项艰巨的任务。


这就会在设计与智能产品的交互时带来不同的挑战。


因此,对智能产品的期望是如何会引起这些来自双方的挑战的,这一点尤其重要。


现在让我们看一看。


1. 用户对智能产品的期望来自ByronReeves和Clifford Nash等学者的心理学研究告诉我们,用户倾向于将智能产品视为有智力和意图的产品。


因此,首先,我们将研究用户的期望基于什么,以及如何管理这些期望。


2. 设计师对智能产品的期望作为设计师,我们有时低估了用户和用户环境的复杂性。


在此文章的后半部分,我们将为您提供一些关于如何预测用户环境的相关理解。


作者/版权所有: Nest版权条款和许可: CC BY-NC-ND 2.0在使用的第一周,Nest恒温器会在白天了解你的习惯。


然后,它会自动设定温度,以适应你的习惯。


这是许多用户可以期待的一个重要组成部分——一个全自动的家。


用户对智能产品的期望是什么?人们的反应表明,媒体不仅仅是工具。


媒体被礼貌地对待,他们可以侵犯我们的身体空间,他们可以有与我们相同的个性,他们可以是一个队友,他们可以引出性别刻板印象。


——拜伦·里夫斯和克利福德·纳什,《媒体方程式》的作者我们都可以想出这样的例子,在这些例子中,我们把科技视为一种智能的社会存在,而不是一种工具。


我们有时把扫地机器人当成宠物,而不是清洁工具。


我们对我们的电脑生气,因为我们觉得自己被误解了,或者因为他们没有做我们想让他们做的事。


如果你经历过因为电脑蓝屏死机而生气,你会喜欢这个概念:你对着笔记本电脑大喊,因为他居然显示“蓝屏死机”,然后又使劲重置电脑。


看到它正常启动时,低声说,“唷——谢谢!”。


我们知道,科技产品只是物品,但在某些情况下,我们把它们当作有意图、有感情、有智慧的存在。


在一系列实验中,斯坦福大学教授拜伦·里夫斯和克利福德·纳什发现,尽管人们有意识地认为电脑是物体而不是人,但他们对电脑的直接行为有时与他们对另一个人的行为相似。


这表明,即使我们有意识地知道某物是一种没有任何意图的工具,我们也可能对它采取行动,就好像它是有生命的、有意识的或有知觉的存在一样。


这很有趣,尤其是因为它揭示了这种现象其实是一种人类的自然倾向,而不仅仅是感性的人的特质;那么,是什么技术让我们这样做?我们有时会把科技视为一种社交和智能生物,这似乎有些奇怪。


即便如此,如果我们看看我们如何觉察这个世界背后的基本心理学,它还是很有意义的。


发展得益于我们与周围世界的不断互动。


从很小的时候,我们就知道不同的物体是如何相互联系的,无生命的物体是如何不同于有生命的物体而存在的。


举个例子,Gergely Csibra和他的同事进行的一项著名的研究表明,在我们一岁以前,我们就知道,没有外力的推动无生命的物体是不会运动的,而有意识的物体却能够自己进行运动。


换句话说,我们可以区分有生命的个体和无生命的物体。


从进化的角度来看,我们不断寻找意向性的线索是一项非常有实际意义的事。


这意味着我们可以很容易地发现什么东西有意图,这些意图是什么。


它使我们的眼球保持敏锐,使我们的耳膜对威胁的第一个信号做好准备。


比如,当你在海滨人行道上行走时,如果你把钱包掉在卵石滩上,你会毫不犹豫地跳下去捡。


不过,如果我们把海滨长廊改成一座横跨鳄鱼保护区的桥,你就会认真地重新考虑了。


抛开僵尸式的幽默,石头,大圆石和其他惰性物体不谈,因为“死”物体不会伤害我们。


当然,我们可能会对它们做出非常糟糕的选择(比如,出于某种奇怪的原因,我们把电锯的开伞索从两腿之间向后拉到前面),但不管是出于本能还是出于意志,它们并不会伤害我们,因为它们不能“想要”做任何东西。


Author/Copyright holder: Margaret A.McIntyre. Copyright terms and licence: Public Domain人们过去很容易区分物体和生物。


随着技术的发展,这条界线变得越来越模糊。


几千年来,区分无生命的物体和社会智能生物是相对简单的。


到目前为止,21世纪见证了科学进步的飞速发展,也给我们人类这个物种带来了一个全新的问题:随着产品变得越来越智能,表现得好像它们是有意为之:它们的表现好像不能总是满足用户的期望。


如果我的扫地机器人可以自己移动,并知道什么时候该吸尘,为什么它看不到厨房角落里的灰尘呢?如果我iPhone上的语音助手可以告诉我天气和回答我今晚应该去哪家餐厅的问题,为什么它就不能有个人意见或感受呢?从理性上讲,我知道它不能,因为它没有意识,但我很难知道它能力的上限是什么。


Author/Copyright holder: AppleIncorporated. Copyright terms and licence: Fair Use在语音交互中(这里是我iPhone上的Siri个人助理),这项技术的交流方式类似于人类交流,但这种交互的局限性可能不太清楚。


用户不了解一个产品在做什么或不做什么,不了解一个产品有什么能力,会带来负面的用户体验。


在一项关于人们如何感知智能环境并与之互动的研究中,研究员Eija Kassinen和她的合著者指出,如果不理解智能产品,用户就会失去对它们的信任和满意度。


你可以拥有最复杂、最逼真的应用程序或设备,但用户需要了解它才能成功。


如何不设计智能产品所以,我们知道,当智能产品看起来有自己的思想时,用户会寻找更多的意向性线索。


这意味着,如果你的产品不能满足用户的期望,也不能表现得非常聪明,你就不应该让它看起来非常聪明。


一个典型的设计例子就是微软臭名昭著的office assistantClippy。


Clippy于1997年首次亮相,是一个动画回形针,它会自动d出并提供帮助,帮助用户完成与办公相关的不同任务。


但是用户无法控制Clippy何时d出;而且它的建议并没有多大帮助,于是很快就遭到了许多办公用户的吐槽。


Clippy的问题之一是,尽管它在表面上看起来像一个智能生物(它有一张脸,可以在文本气球中“说话”),但它对用户的活动了解有限,甚至完全不了解。


从表面上看,Clippy似乎很懂社交,因此用户希望它具有一定的社交智能。


然而,因为Clippy并不真正了解用户或用户的活动,所以它不能按照社会规则行事。


因此,大多数用户认为Clippy既粗鲁又烦人。


Clippy可能看起来很关心你(或者看起来像是在撅嘴),但却无法提供工作描述中的内容。


最终,它在2003年停用。


Author/Copyright holder:simonbarsinister. Copyright terms and licence: CC BY 2.0上世纪90年代末,微软(Microsoft)的Office assistant“Clippy”广受诟病,如今它还活在笑话和艺术作品中。


Clippy显然没有很好地处理用户的期望;那么,如果你想处理好它们,你要怎么做呢?看看最近成功的智能产品的例子,比如亚马逊的Dot和Nest的恒温器,你会发现很多公司都采取了不同的方法设计出智能产品,但这些产品一点也不像社交产品。


这两款产品都有令人愉悦而简单的设计,而且看起来都很像他们本身:一项技术。


这样,他们就避免了引起用户错误的期望。


显然,您应该考虑应用于智能产品用例的社交规则,即使您的产品看起来一点也不像社交对象。


想想苹果iPhone的自动纠错功能吧,它可以自动更正用户短信中的文字,但有时会变成非常尴尬或无礼的文字。


根据用户与智能产品的交互方式,我们可以将我们的学习总结为三条设计智能产品时应该考虑的原则。


管理用户期望的指南永远不要许下超出你能力范围的承诺——只有在能够做到的情况下,才能创造出看起来和行为上都具有社交性的东西。


如果可能的话,请清楚地告知用户产品的功能和它当前正在做什么。


如果一个产品是智能的,假设用户在某种程度上也会期望它拥有社交技能。


想想你的领域里存在哪些明显的社会规则,不要打破它们。


例如,如果你不知道用户在做什么,永远不要打断他。


技术能够预测用户的环境吗?Clippy的一个基本问题是,尽管它看起来像一个智能产品,但它在感知用户行为方面的智能或能力有限。


当你有了一个智能产品,它可以探测到更多的周围环境,并为行动提出很好的建议,那么你能让它自动做到哪一步?哪些行动需要用户批准或发起?要理解这一点,您需要深入了解人类的互动和环境。


“我的论点是,设计一种工具,我们必须尽最大努力,去理解它所要发挥作用的更大的社会和物理环境。


”-Bill Buxton,微软的首席研究员,也是人机交互领域的先驱。


clippy打破了一条重要的社会规则:它打断了用户,并且对什么时候该做什么事情一无所知。


在社交方面,它表现得非常粗鲁!你可以通过设计你的智能产品,来避免这种情况,这样它就不会在用户没有要求的情况下引起用户的注意。


或者,您可以尝试了解用户和当时的场景,以便了解什么时候产品可能吸引用户注意是合适的,或者在没有被要求的情况下做某事。


这需要彻底了解用户的环境和习惯,这是众所周知的难点,因为环境和习惯是不断变化的。


Author/Copyright holder: SpotifyTechnology S.A. Copyright terms and licence: Fair Use音乐服务Spotify学习你的音乐习惯,并根据你的喜好创建建议。


这些建议可以很容易地在单独的部分中找到,但是它们不会干扰用户或引起注意。


在经典著作《计划与情境行动:人机沟通问题》中,露西·苏奇曼详细描述了,为了创造更社会化、更智能的互动,科技需要了解人的环境和沟通习惯。


她认为,在设计人机交互时,创建一个共同的基础或双方都能理解的环境是困难的。


人与人之间的交往总是处于一定的语境中,只有同样理解语境的人才能理解。


当人们互动时,我们毫不费力地感知到注意力,在交流中找到新的轨迹,利用我们共同的互动历史知识,协调我们的行动。


我们可以做到这一点,因为我们对环境有共同的理解,这是技术难以实现的,即使它是智能的,而且能够检测到关于环境和用户的信息。


举个例子,也许能帮助我们了解日常生活中一些简单情况的复杂性:我和丈夫刚回到冰冷的家中。


我看着他问:“你能把温度调高一点吗?”通过这种简单的互动,我丈夫明白了: 我在跟他说话,因为我在看着他; 把温度调高多少,因为他知道家里的温度通常是多说; 我说的恒温器是什么,因为他知道我们在哪个房间,我们通常在哪里调高温度。


在大多数情况下,我甚至不用问,因为他自己也会觉得冷,想要更高的温度。


如果我有一台亚马逊的Alexa和Nest的恒温器,我可以让Alexa把温度调高,但我需要把指令描述得更具体一些,比如:“Alexa,把厨房的恒温器调高5度。


”需要告诉Alexa我在和它说话,我指的是什么恒温器,以及把温度提高到多高。


这看起来很简单,但是您必须训练用户传达正确的命令,因为还不清楚智能产品需要具体到什么程度。


您真的需要您的用户们明白,如果他们想要设备采取所需的行动,他们需要微调他们的言辞。


或者,假设我安装了传感器,它知道我在哪个房间,我通常喜欢什么温度。


当Nest发现我的存在时,它就会自动升高温度。


这在大多数情况下都是可行的,但是因为它不理解任何其他的背景环境,所以在我只在家10分钟,或者我需要离开家门超过几分钟的时候,它就会变得很烦人。


在这种情况下,考虑如何传达产品正在做什么可能是一个好主意,比如 Alexa可以问,“我现在要开始让恒温器升温,这样可以吗?”这也让我可以选择关闭自动 *** 作。


如果我让门开着,它也可以问:“嘿,我把暖气开大了,因为我以为你可能会在房间里待一会儿,但我看到门是开着的。


等你关上门我再打开好吗?”与用户就产品正在运行的功能进行交流是有帮助的,这意味着您不必预测家中可能出现的每一种情况。


综上所述,人是复杂的,即使是智能产品也不可能知道所有正在发生的事情,因此,你应该考虑以下几点:管理限制的指南不要假设你的产品能够完全理解用户的使用场景。


为用户提供方便的选项和建议,但不要中途打断用户行为。


Spotify为新音乐提供建议,但它不会自动播放。


如果你有疑问,那就找一些有限的场景,在那里你对正在发生的事情能有一个概念。


总是为用户提供一种简单的方法来关闭自主 *** 作或自适应功能。


你可以学到的当人们描述智能产品或具有社交属性的智能产品时,往往意味着该产品可以自动适应人们的行为和当时的使用场景。


这意味着——无论何时你在设计智能产品——你必须清楚地传达你的产品能做什么和不能做什么。


即使你的产品很复杂,你也应该避免让它看起来很智能或者很善于社交。


人们能从周围的环境和简单的线索中理解很多东西。


但是这对于智能产品来说要困难得多。


在制作自动适应用户或环境的产品时要谨慎,并且总是提供一种简单的方法来关闭自动 *** 作或自适应功能。


了解你的创造的局限性,并比用户不可预测的日常生活情景,领先一步,这将使你的设计符合现代的期望,使你的产品走上成功之路。


欢迎分享,转载请注明来源:内存溢出

原文地址: http://outofmemory.cn/tougao/591092.html

(0)
打赏 微信扫一扫 微信扫一扫 支付宝扫一扫 支付宝扫一扫
上一篇 2022-04-13
下一篇 2022-04-13

发表评论

登录后才能评论

评论列表(0条)

保存