微软官方,Copilot设计背后的故事

前段时间微软把chatGPT技术与office套件进行了融合,出了一个新工具叫Copilot,让世人惊叹,原来AI还能这样玩!这种全新的产品形态,对于UI和交互设计都将会产生重大影响。

所以,我特别好奇,微软官方设计团队会如何思考这件事。当我在他们设计官网看到了这篇文章后,觉得写的特别好。

我从中学习了他们的设计理念和框架,以及如何去思考整体的设计。周末抽空翻译整理了文章内容,与大家一起分享微软关于Copilot背后的视觉和交互思考,相信会对你有新的启发。

当系统成为产品:打造下一代用户体验之道——By Jon Friedman and Kurtis Beavers

深入了解 Microsoft 365 应用中全新 Copilot 的体验

经过多年稳定而渐进的创新,现在似乎终于看到了一些将引发真正变革的技术。

乍一看,大型语言模型,就像OpenAI的ChatGPT或DALL-E这样的下一代人工智能技术,似乎是实现用户界面最终能够自动适应人类的那个关键。它们令人惊叹,但目前还处于发展初期,充满了各种可能性。

但是,与我们平常接触的人工智能不同,像自动填写这样的功能几乎无处不在,从个性化新闻摘要到电子邮件。这项新技术将我们从完全依赖人工智能自动操作转变为人工智能作为“副驾驶员”的模式。

这是一种截然不同的思维方式,因此需要全新的互动方式。我们的设计和研究团队一直在深入探索,努力理解这个关键时刻的一切。

对于微软设计团队来说,我们知道必须有一个观点,要创造一个设计系统,帮助技术以符合人类需求的方式使用,并推动人类的自主能力和协作能力。

我们也明白需要创建灵活敏捷的设计和工程流程,因为这是一项全新的技术,需要持续迭代以应对用户反馈和持续学习的需求。

 

 

在3月16日,我们宣布了 Microsoft 365 Copilot – 你的工作副驾驶。Copilot将大语言模型(LLM)的强大能力与你在Microsoft Graph和Microsoft 365应用中的数据结合起来。包括日历、邮件、聊天记录、文档、会议等,把你的话转化为地球上最强大的生产力工具。

Copilot是对话式用户体验的先驱,它是UI设计的新趋势,就像第一代触屏设备一样具有改变范式的意义。我们相信它有潜力改变人们与技术的互动方式,使事情变得更加简单,并打开新的可能性。

然而,我们必须确保Copilot的强大功能与简洁易用的用户体验相结合,并符合社会伦理的正确导向。在Copilot中,我们重新思考了从视觉识别到交互设计的所有内容,旨在创造出真正有价值的用户体验。

Copilot的用户体验在多个Microsoft 365应用中得到了体现

为了真正发挥这项技术的潜力,我们必须挑战当前对技术的看法。我们对人工智能的许多潜意识观念都是受到电影和书籍的影响。它们往往比较极端,只会做人类或者机器之间的二元选择,推崇机器完全自动化的概念,让机器为我们做所有事情。

但是,下一代人工智能真正的力量在于它能够增强人类的潜力,从根本上将我们从人工智能的自动驾驶转变为人工智能的副驾驶。

这是我们Copilot体验的一个核心原则,通过与人工智能的协作互动,确保你始终能掌控全局,引导Copilot完成你的目标。

作为设计师,我们所创造的用户体验必须促进对这种关系的理解,帮助人们采用新的心智模型,以积极、高效和道德的方式推动每个人的发展。

这些新的心智模型必须建立在我们所称之为“适当信任”的基础上,即人们了解技术的限制和能力,并有能力以负责任的方式使用它

虽然Copilot在帮助生成内容或促进团队协作等任务方面非常出色,但它可能会生成不完美或需要改进的答案。人们越了解这些情况,就越能更好地使用它。

就个人而言,我发现Copilot不仅帮助我更清晰地进行沟通,而且通过与它适当合作的协作过程,它还教会了我如何更好地进行沟通。

它帮助我成长,并且作为一名设计师,它也重新点燃了我的创造力,因为它是一个非常灵活的媒介。

即使它会犯错。它确实会犯错,而且知道这一点非常重要,阅读和改进输出的过程可以激发新的想法,启发和确认我认为正确的东西。这就是为什么我们努力确保人们始终感到有能力掌控。

我们在Microsoft经常强调在公开环境中进行设计,而这个领域提供了一个非常重要的背景。随着这项新技术的不断发展,新的功能和用途也在不断涌现。

作为整个行业的产品制造商开始使用这项技术进行开发,我们觉得有必要分享Copilot背后的设计过程和框架,以便我们可以共同学习、成长和进步。

AI适用于各个层面

生产力在不同层面展现出来:有时你需要钻研琐碎的细节,有时你需要看到大局或制定战略。

如今的工作和生活需求常常超过我们的认知能力,导致压力、焦虑和生产力的损失,因此Copilot释放人们的创造力、精力和时间的能力非常有前景。

 

 

通过将LLMs的能力与人类的认知需求和能力相匹配,我们提出了一个三部分的框架,以在应用内外实现全方位的生产力:沉浸式、辅助式和嵌入式体验

沉浸式体验是指在工作中涉及多种工具、需要深入的、有关上下文的理解,并且通常结合了创造、协作和/或理解的需求。

这种全方位体验超越了预设应用的限制,将大型语言模型(LLMs)与你的业务数据和上下文结合起来,让你提升技能并提高工作效率。从起草演示文稿或商业提案到帮助你准备本周最重要的会议,Copilot将根据你在工作和生活中的需求进行适应,涵盖各种情境。

相比之下,辅助和嵌入式体验是为那些需要在特定应用内加快工作速度和质量的时候而设计的。从认知角度来看,这是当你希望在Word中更具创造力、在Excel中更具分析能力、在PowerPoint中更具表达力、在Outlook中更高效、在Teams中更具协作性时,你需要更专注来完成更单一类型的工作。

这些体验以适应性组件或模块的形式呈现,从特定应用中的嵌入式体验扩展到与Copilot进行对话的完全沉浸式体验。

无论是在调用还是指导过程中,它们都为Copilot的整体交互带来了一致性。同时,它们始终与你当前任务的流程相匹配,了解屏幕上的上下文,并为你提供熟悉的功能。

综合起来,这三种工作层次不仅支持任务,还支持跨应用和平台的工作流程,而在网络环境和协作多人情境下,实现这一点常常非常困难。

通过在Microsoft 365生态系统中满足你所处的位置,通过处理你的业务数据,使信息在整个组织中自由流动,并自动化乏味或重复的任务,你可以更轻松地保持工作流程的连贯性。

为用户赋能的用户体验基础设计

在设计Copilot的体验时,我们将每个设计和工程决策都根植于优先考虑人的行为能力的伦理框架中,这对我们来说是至关重要的。

从UI模式到Copilot的视觉效果,我们希望能够表达这些价值观。虽然我们可以轻松地为每个元素写一篇博文,但这篇是一些核心基础要素的概述。

让用户有掌控力

我们内部进行了深入的讨论,关于给用户多少控制权和多少指导。是要完全隐藏AI,只给用户一个“总结”按钮吗?还是给他们一个开放的文本输入框,但附带一些建议?

 

 

用户掌握更多的控制权就需要承担更多的责任,所以如果我们让用户坐在驾驶座上,我们不能让模型隐藏在一个按钮后面,它的能力必须能够被使用和理解。

这就要求产品对于有害用途等问题设定合适的限制,同时也赋予了用户更多的权力,而不仅仅是提供一系列按钮供他们按下来执行某些功能。

在“怎么做”这一点上,自然语言是释放模型能力的好方法,但前提是要理解交互过程的性质和重要性。直到现在,大多数科技产品都是确定性的。核心交互以精确可复现的方式进行。

大语言模型使我们朝着概率性产品迈进,这些产品具有不精确和不可复现的特点。甚至无法将模型的响应硬编码,因为每次交互都会全新展开。

当设计对话式用户体验时,我们认为逐个交互的方式可以让你探索模型的能力,并在需要时将其引导回预期的使用情况。

简而言之,通过逐步的对话交互,你可以发现模型的各种功能,同时如果需要,也可以将其引导回预期的使用方式。

引导至关重要

在设计下一代人工智能体验时,用户引导是至关重要的,我们利用加载时间、初次使用状态时的设计等方式来解释技术,征求反馈并提出最佳实践建议。

在零状态设计(即用户在进行任何交互之前所看到的屏幕状态)中,我们优化设计来重视和促进教育用户。与大语言模型(LLMs)互动是相对新颖的,可能令人感到有些害怕,因此我们希望你在进入体验的第一次就能清楚地了解其能力和限制。

这是在使用人工智能进行负责任构建的重要组成部分。伦理原则如果没有融入到实际的用户界面中,就没有意义。

因此,在零状态设计中,我们如何利用这个界面空间来教导人们关于模型可能出现的错误和需要核实输出的需求呢?我们还在探索一种“AI标识”,可以在所有Copilot输出旁边显示,只要你点击它,就可以了解更多关于所使用的基础技术。

类似地,模型的输出结果只能好到输入的提示信息的质量。写提示信息是一项新技能,需要时间来掌握。较长、更详细的提示信息通常能够给出更好的结果,这就是为什么我们创建了一个提示功能菜单,并提供了提示建议和提示线索。

随着人们对这项技术越来越熟悉和适应,我们的设计可能会逐渐减少对此的强调,但目前它仍然至关重要。

让等待变得更有价值

随着技术发展,对速度的期望也在不断改变。我们现在常常期望即时或接近即时的反馈。然而,由于LLMs处理的信息规模庞大,有时生成回应的时间可能会比我们预期的要长一些。

但是,如果这多出来的几秒钟能够为你节省一小时的时间,其实是值得的。设计师可以利用这段等待时间来创造透明度(有助于更好的理解AI的运作方式),就像我们利用零状态来进行教育用户一样。

这可以包括提醒人们核实回应的对话框,以及分享关于模型生成答案的信息。

我们希望能够思考如何利用等待的时间来加强对模型限制的认识,同时创造愉悦的体验。我们能否将等待变成期待的时刻呢?

创造有意的摩擦

在确保人的主导性时,最大的风险之一是对模型过度依赖。Copilot并不是自动驾驶,它需要人类的监督和协作,因为它有可能生成不准确或错误的答案,而且最好的结果是通过反复的交互中进行微调而产生的。

当与他人分享Copilot的结果时(比如某个财年的OKR摘要、入职文档或事件回顾),这一点变得尤为重要。Copilot的结果链接到引用文献,并且在悬停时甚至可以提供更多关于来源的信息。

然而,对这些结果仍然需要人工审核,作为设计师,我们可以创造有意的摩擦来帮助实现这一点。

例如,在某人准备分享内容之前,我们可以询问他们是否进行了事实核查或是否有人工审核。内容设计师在此类交互中起着重要的作用,因为我们如何表达某些内容可以决定某人是否会注意到所要求的内容。

通过视觉元素进行沟通

从视觉角度来看,我们希望利用颜色和图标等元素,在微软的产品中创建和强化对人工智能功能的理解。

使用产品品牌的颜色和鲜明的装饰,使产品在与人工智能功能进行特定交互时更具活力,清晰地表明模型处于什么状态,并与周围的UI区分开来。

 

 

视觉元素还清楚地展示了Copilot何时正在使用和/或生成内容,我们的目标是通过让你依靠自己的判断来调优输出结果,从而建立信任。

怀着持续学习的心态前进

现在是一个特别重要的时刻,对于产品来说,这是一个珍贵的机会。

很少有技术能够真正改变游戏规则,而在所有领域中,我们都对LLM的力量和影响力有着深刻的认识。而对于Copilot来说,不仅仅是LLM作为一种媒介,还有它所在的生态系统。

Microsoft 365是世界上最强大的生产力套件之一,其广泛的功能使得政府、医院和学校都依赖它。

当你将LLM的力量置于其中时,就有了独特而卓越的潜力来提升人类的能力并满足人类的需求。

这对设计界来说是一项令人兴奋、谦卑且重大的责任,我们所选择的默认设置、设计原则和用户体验框架都至关重要。同样重要的是我们在应对新兴技术时采用的流程。

在未来的六个月到一年内可能会出现新的模型,因此我们需要敏捷、灵活的设计和工程流程,以便充分融入新的研究成果和用户反馈。这就是为什么我们要预览这些设计的原因,尽管它们还很新颖,但我们希望在安全的预览环境中向企业用户学习。

我们不能在闭门造车、技术真空或与普通人脱节的情况下进行设计。我们必须积极寻求反馈,拥抱学无止境的态度,并通过公开设计来分享经验。

我们还必须始终以伦理考虑和普遍人类需求为基础进行构建,技术本身可能会变化,但这些原则仍然是持久的。

如果你有学到,记得分享到你的朋友圈哦~原文:https://medium.com/microsoft-design/behind-the-design-meet-copilot-2c68182a0e70

原文:https://mp.weixin.qq.com/s/A_hchiCjz2R5nlW7E7F4TA

- Posted in: Blog

- Tags:

0 条评论 ,2,800 次阅读

发表评论

  1. 既然来了,说些什么?

Top