交互设计优化案例(以人为本的 AI 交互设计指南科技与人性的共鸣)

交互设计优化案例(以人为本的 AI 交互设计指南科技与人性的共鸣)

admin 2025-10-22 社会资讯 32 次浏览 0个评论

AI产品的界面设计,正在从“技术驱动”走向“人性协同”。本文以微软 HAX 设计指南为核心框架,结合真实案例,系统拆解人机交互中的关键原则,帮助产品人理解如何构建更可信、可控、可理解的智能体验。

以人为本的 AI 交互设计指南——科技与人性的共鸣

除夕夜 19:00,小方敲下“妈,新年快乐,我…”,光标仍在闪烁,却被泛着炫光的 AI 包裹住对话框,并自动填充“祝您笑口常开,万事皆胜意。”并发送。指尖悬在半空,但那句“我还在回家路上,你们先吃。”的真实信息被永远封存。

闪烁着祝福的光标载着小方驶向“它”所认为的归途,将真实的亲情倾轧到车轮底下。我们不禁思考:当所有 AI 以“人性化”之名替代人决策时,“人性”是否也将沉眠于科技荫蔽下,不再泛起光辉?

或许我们可以在已有的设计哲学中找到答案。微软HAX(Human-AI eXperience)设计指南中——这套由微软研究院2019年在 CHI 会议提出、历经49名设计师的用户研究、覆盖20类主流 AI 产品的验证的AI 交互设计指南,旨在以”增强而非取代”的理念重塑人机关系。

该指南分别阐述了人工智能系统在初始交互时,在常规交互期间,当它们不可避免地出错时以及随着时间的推移应该如何表现的最佳实践。

在语言大模型掀起的全民智能浪潮中,AI 全面参与到人类的生活中,我们抱以学习的态度研究微软如何平衡人与 AI 的协作方法,以更好地为我们找到 AI 与用户之间共生关系。

以人为本的 AI 交互设计指南——科技与人性的共鸣

微软 18 条 HAX 设计指南。图源:微软 HAX Toolkit

01 信任的基石:透明度的仪式

指南将交互的起点视为人机协作前的“认知契约”。帮助用户建立AI 系统“能做什么”到“不能做什么”的能力区间认知,从而建立起信任关系。

能力边界清晰可见

PowerPoint 中的 Copilot 通过提供介绍性的简介和在引导用户时展示用例来明确系统可以做什么。如同新入职的同事的自我介绍。

以人为本的 AI 交互设计指南——科技与人性的共鸣

图源:微软 HAX Toolkit

汽车遇到大雨天气或复杂路况时,自动驾驶系统的对外界的识别能力下降,导致智驾风险增加。此时,系统会通过语音和车机界面变化,告知用户从 L2 降低到 L1 的智能驾驶等级,可以让用户直观地感知到 AI 能力的变化。甚至,在部分用户友好的智驾系统设计中,还会贴心地提示用户“可靠性降低40%”等数据化的反馈信息,引导用户及时接管方向盘,避免用户对自动驾驶抱有过高期待引起交通事故。

量化能力边界

不管是 L1 和 L2 的能力界定,还是可靠性降低40%,都以定性或定量的方式定义的能力边界,这种沟通方式清晰地把 AI 能力的边界勾勒出来。同时,将技术参数转为用户可感知的具体风险提示,比模糊的“请注意安全”更有效。

接受不完美

AI 并非万能助手,它表达出能力局限的“自知自明”或者“力不从心”使 AI 从冰冷算法变为坦诚相待的搭档。在 AI 更频繁地参与人机交互体验中场景,设计师更应该考虑如何帮助用户理解 AI 的能力边界,让用户与这位能力有限但有用的同事建立协作关系。

02 理解的深度:从场景分析到尊重文化

“聪明的人工智能可以在流动的现实中捕捉人性中的细节。”

——来源:微软AI CEO 穆斯塔法·苏莱曼在 TED 的演讲

这也正是 HAX 第 3 到第 6 条指南的共同目的:让 AI 更好地理解人类。

理解场景,适时响应

饿了吃饭,困了睡觉,这是人类从自身需求作出的自然反应。但在终端设备中的 AI 助手如何在合适的时间、地点提供帮助?

理解人所处的场景变得尤为重要。虽然 AI 无法全面地“看见”人类所经历的一切,但可以通过时间、位置、偏好、数字世界中的历史行为等数据,推测出用户的当前需求,并给出合理建议。

Copilot 根据时间自动显示“会议还剩 10 分钟”通知,并让用户轻松地“打开 Copilot”以生成会议记录。

以人为本的 AI 交互设计指南——科技与人性的共鸣

微软 Team 应用中,会议结束前推荐用户生成会议记录。图源:微软HAX Toolkit

再比如,大众点评也会根据时间、位置、用户的习惯偏好、口味、价格等因素推荐餐厅。这种基于多维度情景的感知,本质也是理解和适应文化的过程。

尊重差异,避免偏见

AI 将复杂的情景因子简化为数字特征时,由于算法机制的有限性,难免会遗漏少量群体的文化细节,也可能会放大社会中的性别、地域等隐性偏见。

例如,非正式的语气在美国可能被认为是友好的,而相同的表达可能在重视礼仪的文化中是冒犯的;部分在中国代表友好的手势,在其他国家可能被视作侮辱的意味;这样的例子在生活中比比皆是。

那么,如何通过设计减轻这种偏见呢?

Siri 提供了多个声音选择,不再仅有女声,避免强化女性作为助手的刻板印象。同时,在设置页中不再以“男”和“女”为选择标准,减弱造成性别对立的可能。

以人为本的 AI 交互设计指南——科技与人性的共鸣

Siri 提供了多种音色,且不以男女作为音色的区分

AI 在不断提升识别语气、动作、表情等更多维度信息的能力的过程中,也需要我们警惕简单化的标签分类划分用户的倾向。

或许,

当车机助手在用户开车时屏蔽非重要信息;

青少年的手机里不再推送不良信息;

求职者不用担心因为年龄被算法过滤……

那时,每一行代码与算法决策,都能体现出对人的尊重。

03 容错的智慧:从掌控到动态平衡

人无完人,技术也是一样。前文中可以看到微软 HAX 团队在设计AI应用场景时对透明度的认可和感知的追求。在交互的实践中,AI 与用户的关系也不一定是你输我赢的博弈。他们可以通过灵活调用、逐步纠正、清晰解释的交互设计让用户从容掌控创作方向。

随需而动的调用方式

以 Siri 为例,你可以用电源键、语音唤醒或双击屏幕内底部导航条的方式唤起 AI 助手。无论是用手机时、离手时、还是懒得动手时,都可以通过“零层级”的交互方式最高效地唤醒 AI 助手。一旦你不需要它时,只需要点一下屏幕或什么都不做,就可以让它自动退出。

以人为本的 AI 交互设计指南——科技与人性的共鸣

触发 Siri 的三种方式。图源: www.apple.com

接受错误,也给出选择

再智能的 AI 系统,也难免理解错误用户需求或完全不懂用户的意图。此时,容错的设计就显得非常重要。

在我们生活中最常见的,就是刷短视频的场景,若用户被推送到不喜欢的内容,可以选择“不感兴趣”或“减少此类推荐”以降低相似视频的推送频率。

以人为本的 AI 交互设计指南——科技与人性的共鸣

抖音 App 用户长按视频,可以选择“不感兴趣”以减少推荐

AI 客服也可以在不确定用户的问题时,给出多个解决方式以供选择,在猜不到你的意图时也可以引导接入人工客服。实在猜不透时,它也能直接选择退后一步,减少干预,让你选择它的所有服务。

以人为本的 AI 交互设计指南——科技与人性的共鸣

与 Kemicate AI 客服对话时,若不理解意图时会推荐用户使用人工服务。图源:微软 HAX Toolkit

有时候,AI 的坦率反而让人更能够容忍,毕竟我们也从不认为技术可以完成一切。更重要的是,用户每一次的纠正,也都是系统更进一步了解人类的机会。

这种人与机的链接也印证了技术伦理学家 Shannon Vallor在《lessons from the AI Mirror》中的观点:“技术系统的错误和缺陷是与人建立链接的契机。”

说清楚,放心用

AI 想让人放心用,不仅需要好的体验,也需要清晰的解释。

如果 AI 推送了一条内容,用户自然会关心:“为什么给我看这个?” 这时,系统就应明确告诉用户,那些行为或偏好触发了这些推荐。比如,在“播客”App,会说明是基于用户过去的收听内容的推荐,帮助用户了解到自己的收听行为可以影响到未来的推荐内容。这种清晰明了的解释不仅消除了用户的不确定感,还能促使用户更积极地与应用互动,帮助系统不断地优化推荐算法。

以人为本的 AI 交互设计指南——科技与人性的共鸣

播客 App 的主页在推荐小标题上的差异

更好的解释性设计也可以是将陌生的新功能以案例的形式展示给用户,并支持调整各项参数,让用户直观的看到设置带来的变化。NerdWallet 在确定的时间轴中告诉用户是买房便宜还是租房便宜。同时,用户也可以调整房价、租金、成本、利率、年数等属性让用户查看不同维度的数据对结果的影响。

以人为本的 AI 交互设计指南——科技与人性的共鸣

NerdWallet 提供给用户可以不同维度上的属性,并给出最后结果。图源:微软HAX Toolkit

这样“所见即所得”的设计方法很早就被应用。比如 iOS 在锁屏的设置流程中给予了预设值,减少了用户的学习成本,还通过实时预览展示最终效果,避免用户误操作。

以人为本的 AI 交互设计指南——科技与人性的共鸣

iOS 锁屏设置预设值

由此可见,AI 系统在与人类的复杂协作流程中,应该充分理解人类的意图后,成为人类意图的延伸。只要它是坦诚透明、始终以人类为中心,即便出现错误和局限,都不会削弱这种合作的纽带。

人类,或许不需要像开篇的故事里描述的那样,帮助人类做看似“正确”的答案的 AI。它可或许应该是一套指哪打哪的外骨骼肌,听从人类的指挥,放大人类的创作性,又保留人对方向和结果的掌控感。

04 共生进化:在时间长河里成长

人与AI的协同关系确定后,在时间的维度上,HAX 团队又推敲了技术在时间维度上发展的指导。剩余的7条原则将从“记忆—演化—控制”展开,他们认为:“AI 应该随着时间与人共同成长,但永远不背离人性。”

短期记忆与长期洞察的动态平衡以人为本的 AI 交互设计指南——科技与人性的共鸣

模拟跟 AI 助手对话场景

若 AI 助理如此独立地考虑每条话语,不理解上下文联系,我们可能都会很恼火吧。

人类的思想是连续的,AI 系统也可通过记录用户的关键行为而减少用户重复操作,让用户投入到更具创造力的活动中。

在长期的记忆的设计中,耳熟能详如抖音、小红书等内容产品,可以通过学习用户长期的浏览习惯,调整新的推荐内容。用户的每一次观看时长、点赞和不喜欢都成为下一个内容推荐的影响因子。

同时,在用户的观看偏好发生巨大变化时,AI 也会循序渐进的调整推荐,既可以跟得上用户的变化节奏,也避免太大的推荐内容变化带来的不适感。

Me.bot 则进一步拓展了记忆的能力。它会根据用户不断上传的文字、图片、灵感、计划等形式的碎片化信息整合为结构化数据,生成个性化建议或回答。还可以根据个人的数据模拟用户的思维习惯,打造用户的“数字分身”,释放创造力。此外,它非常关注数据归于个人而非平台的理念,让用户放心使用而不用担心数据被泄漏。

Me.bot 与人类不断碎片化地沟通、处理和保留记忆的协作方式,一起完成各种任务。在时间长河中,它终将成为更懂我们的可靠伙伴。

以人为本的 AI 交互设计指南——科技与人性的共鸣

Me.bot 根据用户之前提问展示相关的建议

从微观反馈到宏观掌控

人与 AI 共生协作的时间长河中,用户不仅要享受便利,还想保持对系统的掌控感。就像在复杂的海面航行,船长需要及时留意海面的变化,也要防止航线发生偏离。

这需要AI鼓励用户提供细致的反馈,以便于及时调整偏好推荐,帮助优化体验。比如,Google 地图在导航结束后邀请用户对路线体验打分,这些反馈也会影响后续的路线规划与推荐。

以人为本的 AI 交互设计指南——科技与人性的共鸣

图源:微软 HAX Toolkit

在用户采取行动前后,收集或确认用户的意图,都可以向用户传递其行为给 AI 带来的具体影响。比如在导航前让用户选择他的路线,在喜欢的音乐被取消收藏时将减少此类推荐。

以人为本的 AI 交互设计指南——科技与人性的共鸣

左图:高德地图App在导航时展示多种方案和其特点。

右图:音乐App中用户选择“不喜欢”后可减少相似推荐。图源:微软HAX Toolkit

在技术的航行中若要防止航线偏离,就需要让用户实时感知到系统的状态与变化,并自定义系统以适应其偏好。

Instagram 的设置页的设计上就通过“使用说明”、“通知”、“消息”的三层控制结构,用户可以轻松的找到需要调整的选项。

以人为本的 AI 交互设计指南——科技与人性的共鸣

Instagram App 中设置、消息、通知的层级关系

最后,在每一次更新时也不要忘记让机器以人类习惯的理解方式进行沟通。

Outlook 升级邮件分类算法时,它不会用技术语言描述模型算法变化,而是直接告诉用户如“您现在可以更精准地过滤促销邮件”这种具体的价值。

咱们最理想的状态,也许是 AI 在时间长河中不断优化算法的同时,也能引导人类的成长。但这样的引导使用保持合适的距离,把AI 能力可以延伸出去的方向始终交给人类掌舵。

终章 让技术守护人性之光

无论是自动驾驶会在暴雨中会主动”示弱”,还是 Siri 的声线选择打破性别的刻板印象,都是 HAX 设计指南推崇的“技术谦逊”。这种谦卑并非是能力局限,而是不应该试图代替人类的尊重。

有趣的是,贯穿整个 HAX 工具手册,每一个设计模式都会提醒设计者应该避免让用户过度依赖 AI 。正如黑镜里的《Hang the DJ》中的描述,在一个由 AI 控制的恋爱匹配系统中,AI 通过模拟测试来决定人们的恋爱对象。两位主人公因反抗系统的安排而被不断拆散,却发现他们只是系统模拟的一部分。当我们过度依赖 AI 时,或许我们就是AI 的一部分。

所以,在我们着手设计 AI 时,必须也要考虑那些不可被简化的人性细节和复杂。这样,才能用技术的发展守护人性本真的“向善”形态。

这篇文章仅对微软 HAX 设计指南进行了概括性解读,让大家初步了解其内容。后续篇章中,我们将继续拆解微软的实际应用,探索 HAX 设计指南在实践中的思考。

参考文献

SaleemaAmershi,DanWeld,MihaelaVorvoreanu,AdamFourney,BesmiraNushi,PennyCollisson,JinaSuh,ShamsiIqbal,PaulBennett,KoriInkpen,JaimeTeevan,RuthKikin-Gil,EricHorvitz(2019).GuidelinesforHuman-AIInteraction.CHIConferenceonHumanFactorsinComputingSystemsProceedings,https://www.microsoft.com/en-us/research/publication/guidelines-for-human-ai-interaction/ShannonVallor(2018).LessonsfromtheAIMirror.SaleemaAmershi,PartnerResearchManagerMihaelaVorvoreanu,Director,UXResearchandEducation,AetherEricHorvitz,ChiefScientificOfficer(2019).Guidelinesforhuman-AIinteractiondesign.MicrosoftResearchBlog.https://www.microsoft.com/en-us/research/blog/guidelines-for-human-ai-interaction-design/HAXTeam(2019).Hands-ontoolsforbuildingeffectivehuman-AIexperiences.Microsoft.https://www.microsoft.com/en-us/haxtoolkit/HAXTeam(2019).HAXDesignLibrary.Microsoft.https://www.microsoft.com/en-us/haxtoolkit/library/

本文由 @HAI Design 原创发布于人人都是产品经理。未经作者许可,禁止转载

题图来自Unsplash,基于CC0协议

该文观点仅代表作者本人,人人都是产品经理平台仅提供信息存储空间服务

转载请注明来自海坡下载,本文标题:《交互设计优化案例(以人为本的 AI 交互设计指南科技与人性的共鸣)》

每一天,每一秒,你所做的决定都会改变你的人生!

发表评论

快捷回复:

评论列表 (暂无评论,32人围观)参与讨论

还没有评论,来说两句吧...