AI设计的思路是什么?更完美?更能想用户之所想?本文作者Cliff Kuang在“The company studied personal assistants–human ones–to understand how to make a great machine assistant”一文中讲述了一个微软从5年前开始的智能助理研究故事,并认为智能助理研究的重点不在于解决问题能力的强弱,而是如何处理与用户的关系。
在我们对于人工智能如何改变世界的讨论中,你可能不会注意到它已经以一种微妙的方式融入进我们的生活。举个例子:软件PowerPoint Designer当前版本所呈现的一个特性。你每一次创建新幻灯片的尝试,Designer都在以不可见地方式扫描你的内容,试图找出更好的方法让这些演示在数以百万计的幻灯片中脱颖而出。点击设计标签,与你随意放置的图片和项目符号不同,你会发现有三个不同设置,里面有更好的字体选择以及基于幻灯片基调的围绕图像边框。这在几年前看起来可能很前卫的做法,如今使用起来却如此简单。但是这种简单操作掩盖了一些陌生而迷人的东西:当微软第一次测试Designer时,它看起来是绝对的、难以言喻的一种操作。
乔恩·费里德曼与罗娜特·劳伦斯
“在第一次的测试过程中,根据Designer做出的文字与动画设计让人觉得电脑比自己更清楚需求。”乔恩·弗里德曼解释道,身为微软设计董事合伙人他领导着微软Office系列。还有一个依然奇怪的事情:如果你按照Designer的建议修改,那么最终的结果是觉得自己再也无法忍受这种操作了。看起来,电脑并没有考虑到你接下来的演示是将如何。相反,它只是在一步步地掌握主动权。最终,微软解决了这个问题,推出了一种更有帮助、更中立的功能,这一功能推出了更符合上下语境的相关建议。但是在这些变化背后,存在一个该公司所控制的人工智能设计原则:人类是所有故事中的英雄。
当你把这些原则全部罗列出来的时候,这些原则似乎显而易见:“人类是英雄”、“平衡情商和智商”、“尊重社会价值观”、“尊重环境”、“与时俱进”。但是在这些原则背后存在一个不同寻常的起源故事,它会告诉你许多关于如何设计的事情。这些原则并不是一开始就完全形成的。相反,它们是一个从五年前开始的进展的最终结果,在这里,微软花费无数的时间与精力试图通过观察真人助手如何获得客户的信任而打造一个更好的人工智能助手。
探索观察信任的形式
五年前,设计团队注意到他们正在测试的原型产品出现了一些很奇怪的事情,这时微软正忙着与苹果的Siri进行竞争。他们有两种不同逻辑的基本助手:一种是用户帮助训练助手,另一种是简单猜测一个人需要什么并导出结果。事实证明,用户对前者的态度要宽大的多,而不会对后者特别感兴趣即使它表现得同样好。是训练助理这件事情让用户更能宽容地对待智能助理的错误。
“为了研究这一动态,我们开始采访真人助手,让他们回想与其他人之间的关系以及自己的任务是如何随着时间推移而推进的。” 微软产品规划与研究高级总监罗娜特·劳伦斯解释说。这项研究后来演变成研究助理的新工作、观察他们与新客户建立关系的过程、并要求他们记录下自己的感受。但是要弄清这些关系的真相的确棘手。通常情况下,人们立即表达清楚自己的感受的能力很差,所以研究方法围绕着让这些人思考音乐或艺术来捕捉他们的情绪和感情。“这是一门很健全的科学,如果你让一个人去思考音乐以及音乐带来的情感,人们就会更能感触到自己的潜在感情。”劳伦斯解释道。
这项研究是在漫无目的的旷野外进行机器学习研究的转折点。这是一个Google Now正在开始测试功能的时代,它对人的通勤情况进行预测,或者对人们可能在公共汽车站等多久进行预测。劳伦斯的团队注意到,用户可能会感觉这些功能很神奇,但是如果程序错上一两次,他们就会选择将其全部关闭。发现用户对如此小概率错误事件的反映态度,劳伦斯的团队意识到获取信任十分棘手,却也十分重要:除非人类与机器之间建立起了某种联系,否则他们永远不会在机器犯错以后给予一个恢复正常的机会。
这种看法与他们正在做的助理研究项目相吻合。经过时间的一次又一次证明,助理们的成功并不是因为他们比客户聪明,而是因为他们的不聪明。而这将直接应用于机器助手的行为设定。“它从人那里拿走的任务越多,你就越需要注意那些情绪,比如‘它会让我感觉更强大更聪明?还是我仅仅觉得这个系统很聪明’”劳伦斯解释道。“让人们在使用一个系统的过程中感觉系统更强大会建立起一种这不再是你的搭档的感受,从而引起人们对机器是否在为自己工作的担忧。”
微软真实的测试了人们对仿制“助手”的反映,一个人坐在假屏幕后面,表现得向一个界面大脑。他们研究用户对一种看似强大或顺从的系统所做出的反映,并监测他们的心率和瞳孔放大情况。这一切都是由现实的助手所证明:你可以袒露自己的局限来获得信任,从而让客户的专业技能引领你前进。但是获取信任的真正秘诀是什么?潜心学习更好技能,直到你能以他们从未想过的体贴程度带给他们惊喜。比如说,在合适的时间,为客户准备好给兄弟姐妹的完美礼物。或是推荐看起来正好适合他们的酒店。一个好的助手会给你选择权,然后让你选择,而不是强加于你的意见之上。
随着时间推移而变化的屏幕
这些教训以微软今天如何设计人工智能为基础。首先一个原则是人类应该成为恒星。另一个原则是,这种关系应该随着时间的推移而发展。为此,微软正试图建立一种不同的人工智能适应模式。这并不是为了让所有人赞叹于机器所拥有的知识,而是通过向用户提供可选择的选项来悄悄获取用户的信任。然后,当时机成熟的时候,提供比用户想象中更聪明的东西。
“给人们提供那些惊人的能力的相反情况可能是超负荷的,依然会有30%的错误可能性。” 弗里德曼说道。“这些模型还没有达到建立高可信度然后进行信任飞跃的阶段。我们尝试着调整节奏,努力建立起一种关系,因为你必须以此映照人与人之间的关系是如何建立的。”
他给出的例子是,当有人在写一篇研究论文时,识别出一个人的注意力不集中,并从他人的社交图中提炼出相关的内容库就做的很好。或者是在有人在制作PPT时,看看有哪些同事做了类似的演示以及哪些幻灯片值得借鉴就做得很好。“如果你还没有相关内容的权限,系统可能会帮助你进行操作。”弗里德曼补充说道。所有这些例子都暗示了过去20年用户体验发展的相反面。随着与用户关系的发展,屏幕不仅仅是一系列可用性屏幕,它也会随着时间的推移而改变。
劳伦斯说,关键在于,电脑能做什么与它应该做什么之间存在一种张力。“如何做到尊重用户?恰当的设计是留心分析它们如何知道自己知道什么,并给你选择的权利。”劳伦斯说道。但是培养正确的关系不仅仅是创造机器,并观察人类如何喜欢它们。相反,应该回到更深层的真相中:当没有机器参与的时候,人们互相形成关系的方法。
来源:36氪_木木子
领取专属 10元无门槛券
私享最新 技术干货