Skip to content

模块 7:AI 产品设计——不确定性中的品味

The challenge of AI design is not making the machine look smart. It is making the machine feel trustworthy. Intelligence without trust is just a clever stranger — and no one takes advice from a clever stranger.

Google PAIR: People + AI Guidebook (2019) — Google 的人机交互研究团队(PAIR)阐述 AI 产品设计的核心原则:如何让用户理解、信任并有效使用 AI 系统。


学习目标

完成本模块后,你将:

  • 理解 AI 作为全新设计材料——它的不确定性、概率性和涌现性如何根本改变品味的维度
  • 掌握"不确定性 UX"的设计品味:如何让概率输出感觉可信而非随意
  • 区分对话式 UI 的品味层次:从功能性(能用)到品味性(好用且有气质)
  • 分析 ChatGPT、Claude、Perplexity 三者的"AI 品味签名"——各自的设计哲学和取舍
  • 理解"魔法与控制"之间的品味平衡:何时让 AI 自主,何时交还用户控制权
  • 掌握 AI 产品中"克制"的品味逻辑——不做什么比做什么更定义品味
  • 理解信任的设计(designing trust)如何成为 AI 时代的核心品味维度

一、AI 作为新设计材料

传统设计材料 vs AI

传统设计材料——无论是实体的(木材、金属、玻璃)还是数字的(像素、代码、动效)——有一个共同特征:确定性。你设计一个按钮,它每次被点击时的行为是完全相同的。你选择一个颜色,它不会根据情境自己变色。

AI 打破了这个基本假设。

Amelia Wattenberger(曾任 GitHub 设计师,AI 交互设计领域最有影响力的思考者之一)在 2023 年的文章 "Why Chatbots Are Not the Future" 中精辟地概括了这个变化:

"We used to design interfaces. Now we design relationships. The interface is not a surface anymore — it's a conversation partner with its own (simulated) opinions."

这个转变对品味意味着什么?

维度传统产品品味AI 产品品味
一致性最高美德——相同输入 → 相同输出需要新定义——相同输入 → 不同但合理的输出
控制感用户掌控一切用户和 AI 共同掌控——程度是品味问题
可预测性好产品是可预测的完全可预测的 AI 没有价值——惊喜是功能
透明度界面是透明的中介AI 的"思考过程"本身是产品的一部分
错误错误是 bug错误是概率——幻觉(hallucination)是材料属性

AI 设计的"材料属性"

好的设计师会深度理解材料——木匠知道不同木材的纹理方向和硬度差异,这些知识决定了他如何使用材料。AI 设计师也需要理解 AI 的"材料属性":

1. 概率性(Probabilistic)

AI 的输出不是"对或错"——是"在概率分布中采样"。这意味着品味不是关于"确保正确",而是关于如何呈现不确定性

2. 涌现性(Emergent)

AI 能做什么不是被完全设计的——它是从训练数据中"涌现"的。这意味着产品设计师不是在"规划功能",而是在引导和限制涌现

3. 对话性(Conversational)

AI 最自然的交互模式是对话。但"对话"是人类最复杂的社交行为之一——它包含权力关系、情感调节、社会规范。设计一个"对话 AI"等于设计一个"社交关系"。

4. 不透明性(Opaque)

深度学习模型的决策过程不可完全解释。这意味着品味不能建立在"用户理解 AI 如何工作"的基础上——而要建立在**"用户信任 AI 够用"**的基础上。


AI 产品

ChatGPT 为什么用聊天界面——以及为什么这是一个品味决策

问题:2022 年 11 月 ChatGPT 发布时,很多人质疑:为什么用聊天界面?GPT-3 的 API 已经存在了两年,为什么是聊天框而非其他形式(如命令行、表单、画布)让它爆发?这个界面选择背后的品味逻辑是什么?它的品味代价是什么?
分析:ChatGPT 选择聊天界面是一个看似简单但极度深思熟虑的品味决策。品味逻辑有三层:(1) 认知门槛——聊天是人类最本能的交互模式,不需要学习。任何人都知道怎么'说话',但不是所有人都知道怎么写 API 调用或填写结构化表单。这是品味的民主化——让 AI 的力量对所有人可及。(2) 期望管理——聊天界面隐性地设定了'你在跟一个人说话'的心智模型。这个心智模型让用户自然地接受'它有时会犯错'(人也会犯错),而如果是一个搜索框界面,用户会期望'客观正确'的答案。(3) 开放性——聊天界面不预设使用场景。你可以问任何事。如果用表单或结构化界面,你就在品味上限制了 AI 的用途。品味代价同样有三层:(1) 效率损失——很多任务用结构化 UI 比聊天更高效(比如数据分析)。(2) 可发现性差——用户不知道 AI 能做什么,因为聊天界面没有'菜单'。(3) 对话隐喻的局限——AI 不是人,但聊天界面暗示它是。这种不匹配在用户发现'它会编造事实'时会造成信任损伤。Anthropic、Perplexity 和其他产品后续的界面创新——结构化输出、引用标注、artifact 展示——都是在修正聊天界面的品味局限。

二、不确定性的 UX:品味的新前沿

如何设计"可能是错的"

传统 UX 设计中,"错误状态"是边缘情况——设计师处理它的方式是尽量减少它的发生。AI 产品中,"可能是错的"是常态——模型输出是概率性的,幻觉是固有属性。

这创造了一个全新的品味挑战:如何让"不确定"感觉可信而非不可靠?

Google 的 PAIR(People + AI Research)团队在 2019 年发布的 People + AI Guidebook 中提出了几个核心原则:

原则 1:校准期望(Calibrate expectations)

在用户开始使用之前,就让他们知道 AI 能做什么、不能做什么。这个原则的品味维度在于:如何传达局限性而不损伤信任?

方式品味
"AI 可能犯错,请核实所有信息"过度谨慎——像免责声明,传达的是不信任
"我对这个答案比较有信心 / 这个问题超出了我的擅长范围"适度坦诚——像一个有自知之明的专家
不做任何说明过度自信——用户会在幻觉中失去信任

原则 2:让不确定性可见(Make uncertainty visible)

不是隐藏不确定性,而是把它作为品味元素来设计。

Perplexity 的做法很有品味:它在每个回答中标注引用来源——不是因为用户真的会去检查每一条引用,而是因为引用的存在传达了"这个答案有据可查"的品味信号

原则 3:渐进式信任(Progressive trust)

不要一开始就要求用户完全信任 AI。让信任随时间建立——从低风险任务开始,逐步扩展到高风险任务。

Apple Intelligence(2024 年发布)的品味克制体现了这个原则:它没有像 ChatGPT 那样一次性展示 AI 的"全部能力"——而是从最安全的功能开始(写作辅助、照片整理),渐进式地扩展。

信任的设计(Designing Trust)

Linus Lee(前 Notion AI 研究者,独立 AI 工具开发者)在 2023 年的一系列文章中提出了一个重要观点:

"Trust in AI products is not about accuracy. It's about predictable behavior within understood limits. A tool that is 80% accurate but always tells you when it's uncertain is more trustworthy than a tool that is 95% accurate but never admits doubt."

这个洞见揭示了 AI 信任的品味本质:信任不是"你对不对"——而是"你的行为是否符合我的预期"。

一个有品味的 AI 产品不是最准确的——而是最可预期的。用户知道它什么时候可靠、什么时候可能出错、在出错时如何表现——这种可预期性就是信任,就是品味。


三、AI 产品的品味签名

ChatGPT:万能助手的品味

ChatGPT(OpenAI, 2022 年 11 月发布)的品味签名可以用一个词概括:全能感(omniscience)

品味维度ChatGPT 的选择
语气自信、流畅、略微正式——像一个知识渊博的助手
边界几乎不拒绝——尽可能回答所有问题
格式长回答、完整结构(标题、列表、代码块)——追求"完整性"
错误处理倾向于生成看似合理的答案,即使不确定
个性中性——不太有个性,优先"有用"

品味分析: ChatGPT 的品味选择是"让用户觉得 AI 什么都能做"。这带来了惊人的吸引力("哇,它居然能做这个!")和惊人的信任风险(它的自信让用户很难判断何时它在编造)。

ChatGPT 的品味哲学接近Amazon 式的"什么都有"——覆盖面最大化,让每个人都能找到价值。代价是缺乏鲜明的品味个性。

Claude:谨慎合作者的品味

Claude(Anthropic, 2023 年发布)的品味签名可以用一个词概括:审慎感(thoughtfulness)

品味维度Claude 的选择
语气温和、细致、有时候会自我修正——像一个认真思考的同事
边界清晰的拒绝——在感知到风险时会明确说"不"
格式回答长度适度,倾向于解释推理过程
错误处理更愿意说"我不确定"或"让我重新想想"
个性有辨识度——比 ChatGPT 更"像一个人",但保持克制

品味分析: Claude 的品味核心是 Anthropic 的"constitutional AI"理念在产品层面的体现——不仅追求"有用",还追求"安全"和"诚实"。这在品味上意味着它愿意用能力感换取信任感

Anthropic 的产品设计哲学反映了一种独特的品味取向:克制是能力的表达,而非能力的缺失。 不做某些事不是因为做不到——而是因为判断了不应该做。这与模块 6 讨论的 Jobs 式减法一脉相承。

Perplexity:可验证答案的品味

Perplexity(2022 年创立,Aravind Srinivas 主导)的品味签名可以用一个词概括:可验证性(verifiability)

品味维度Perplexity 的选择
语气直接、简洁——像搜索引擎的进化版
边界主动标注"我不知道"和"信息可能过时"
格式结构化答案 + 内联引用——每个事实性陈述都标注来源
错误处理通过引用让用户自己验证——把判断权交给用户
个性工具性——不追求"像一个人",追求"像一个可靠的信息系统"

品味分析: Perplexity 做了一个有趣的品味选择:它不试图成为"万能助手"或"思考伙伴"——它定位自己为"可验证的答案引擎"。这种自我限定是品味表达——它说"在所有 AI 能做的事情中,我只选择做这一件,然后做到极致"。

引用系统是 Perplexity 最强的品味特征。它不只是功能——它是信任的视觉设计。当你看到 [1] [2] [3] 这些引用标记时,你的信任感会上升——不是因为你真的验证了每条引用,而是因为引用的存在传达了"这个系统尊重事实"的品味信号。


辨别 AI 产品的品味签名

以下是三段 AI 产品对同一个问题的回答(已隐去品牌名)。根据回答的语气、结构、处理不确定性的方式,判断每段回答更接近哪种 AI 品味哲学。

样本 A
样本 B
样本 C

四、魔法与控制:品味的平衡艺术

"Magic" 的品味诱惑

AI 产品最大的品味诱惑是制造"魔法"感——让用户惊叹"哇,它怎么知道我想要这个?"

Google 前 CEO Eric Schmidt 在很多场合说过:"The best technology feels like magic." 很多 AI 产品设计师将此作为品味标准——产品应该让用户觉得 AI "懂他"。

但 Linus Lee 在 2023 年的文章 "Against magic in AI UX" 中提出了一个反直觉的论点:

"Magic is the enemy of trust. When you don't understand why something happened, you can't predict when it will fail. The best AI tools don't feel magical — they feel like a very competent extension of your own capability."

魔法的品味问题:

魔法带来的魔法的品味代价
惊叹感("哇!")无法预测——"哇"可能随时变成"什么?"
减少操作步骤丧失控制感——当 AI 做了你不想要的事
差异化——显得比竞品更"智能"信任脆弱——一次"魔法失灵"就可能毁掉所有信任
降低学习成本用户无法建立正确的心智模型

控制的品味

与"魔法"对立的品味是**"控制"**——让用户始终知道 AI 在做什么、为什么这么做、如何修改。

Figma 的 AI 功能(2023-2024)体现了这种品味:

  • AI 生成的设计不是"自动替换"——而是作为"建议"出现在侧边
  • 用户可以看到 AI 的"推理"(为什么选择这个布局/配色)
  • 每一步都可以撤销、修改、忽略

这种品味的哲学基础是:AI 是工具,不是代理人。 品味在于用户感觉自己在使用 AI,而非 AI 在替代自己。

Cursor 与 Copilot:两种品味的实战对比

GitHub Copilot(2021 年发布)和 Cursor(Anysphere 公司,2023 年起快速增长)都是 AI 编程助手,但它们的品味取向有深刻差异:

维度GitHub CopilotCursor
核心隐喻自动补全的进化版AI pair programmer(结对编程伙伴)
控制模式建议出现 → 接受/拒绝对话 + 建议 + 多文件编辑
魔法程度中等——内联建议感觉"自然"高——可以一次修改多个文件
品味取向保守——不改变编辑器的基本隐喻激进——重新定义"编辑器是什么"

Cursor 的品味选择更大胆——它赌的是用户愿意把更多控制权交给 AI。这个赌注目前似乎赢了(2024 年 Cursor 增长极快),但它也承担了更高的品味风险:一旦 AI 的多文件编辑引入了 bug,用户的信任损伤比 Copilot 的单行建议更严重。

品味平衡的原则

综合 Google PAIR、Apple Intelligence、Anthropic 的设计实践,可以提炼出几个"魔法与控制"之间的品味平衡原则:

  1. 可逆性原则: AI 做的任何事都应该可以一键撤销。不可逆的"魔法"不是品味——是傲慢。
  2. 渐进揭示原则: 默认展示结果,但让用户可以选择查看过程。
  3. 错误成本原则: AI 的自主性应该与错误成本成反比——错误成本低(如邮件措辞建议),AI 可以更主动;错误成本高(如代码部署),AI 应该更被动。
  4. 退出成本原则: 用户应该永远可以回到"不用 AI"的状态——AI 不应该成为依赖。

AI 品味的四种范式

魔法优先(Magic-first)

追求哇的时刻。代表:早期 ChatGPT、Midjourney。品味逻辑:AI 的价值在于做人类做不到的事——越不可思议越好。风险:信任脆弱、期望管理困难。

控制优先(Control-first)

用户始终在驾驶座。代表:GitHub Copilot、Apple Intelligence。品味逻辑:AI 是工具的增强,不是工具的替代。风险:过于保守,无法发挥 AI 的全部潜力。

信任优先(Trust-first)

准确性和诚实性高于一切。代表:Claude、Perplexity。品味逻辑:长期信任比短期惊叹更有价值。风险:可能显得不够智能或太保守。

共创优先(Co-creation-first)

AI 和用户是合作伙伴。代表:Cursor、v0 by Vercel。品味逻辑:最好的 AI 交互不是AI 为你做也不是你指挥 AI 做——而是一起做。风险:角色边界模糊。

思考:在你的工作场景中,哪种 AI 品味范式最合适?是否存在某种场景需要在四种范式之间动态切换?

五、AI 克制的品味:不做什么定义品味

Apple Intelligence 的品味克制

2024 年 6 月 WWDC 上,Apple 发布了 Apple Intelligence。与其他科技巨头的 AI 策略相比,Apple 的品味最突出的特征是极度的克制

在 Google、Microsoft、Meta 竞相推出最强大的 AI 功能时,Apple 做了几个令人瞩目的"不做"决定:

别家做了Apple 不做品味理由
通用 AI 聊天机器人没有独立的 AI 聊天应用"AI 不是一个去的地方——它应该无处不在但不抢戏"
AI 生成长文本只做"重写/润色/摘要"用户应该是创作的主体——AI 是编辑助手,不是作者替代
AI 搜索与 Siri 深度整合但不替代搜索的品味已经在 Safari 中——不需要一个新入口
开放 API封闭的系统级集成品味一致性优先——第三方 AI 可能破坏 Apple 体验的品味基准

Craig Federighi(Apple SVP of Software Engineering)在发布会上反复使用一个词:"personal"。Apple Intelligence 的品味核心是"个人化"——AI 应该服务于你的个人语境(你的邮件、你的照片、你的日程),而非成为通用万能工具。

Anthropic 的克制哲学

Anthropic 的 Claude 代表了 AI 品味中另一种克制:能力的自限

Dario Amodei(Anthropic CEO)在多次公开讲话中强调了一个核心理念:AI 产品应该"do less harm over do more"。这在产品品味上体现为:

  • 主动拒绝: Claude 会拒绝它认为有潜在危害的请求——即使技术上它可以完成
  • 不确定性透明: Claude 更愿意说"我不确定"而非编造自信的答案
  • 能力边界清晰: Claude 不试图成为"万能"——它明确自己的局限

这种品味哲学的根源是 Anthropic 对 AI 安全的重视——但在产品层面,它创造了一种独特的品味个性:一个知道自己不应该做什么的 AI,比一个什么都愿意做的 AI 更值得信任。

品味克制的悖论

AI 产品中的品味克制面临一个悖论:

  1. 克制建立信任("这个 AI 知道自己的边界")
  2. 克制降低短期吸引力("这个 AI 好像不如竞品强大")
  3. 市场竞争奖励短期吸引力
  4. 所以市场压力倾向于推动所有 AI 产品走向"什么都做"

这意味着品味克制在 AI 领域是一种需要勇气的选择——它需要你相信长期信任比短期惊叹更有价值。从品味训练的角度,识别和欣赏 AI 产品中的克制——不只是惊叹于它能做什么——是 AI 时代的关键品味能力。


设计一个有品味的 AI 交互

30-40 分钟

选择一个你熟悉的工作场景(如写文档、分析数据、回复邮件、做产品决策),为它设计一个 AI 辅助功能。不写代码——写品味决策:(1) 这个 AI 功能的品味签名是什么?(魔法/控制/信任/共创——或者你自己的定义)(2) 它在什么时候主动帮助、什么时候被动等待?为什么?(3) 它如何处理自己不确定的情况?(4) 用户如何控制 AI 的自主程度?(5) 如果 AI 犯了错,用户的体验是什么?

建议结构:

场景定义~20%

尽可能具体。不是AI帮我写文档,而是当我在写产品需求文档的功能描述部分时,AI基于之前的用户调研数据给出措辞建议。

品味签名~25%

你选择的每个品味方向都有代价——写出来。选择魔法感意味着放弃什么?选择控制优先意味着放弃什么?

交互细节~30%

关键不是AI能做什么——而是AI和用户之间的关系设计。谁主导?谁辅助?在什么时刻角色切换?

错误设计~25%

AI一定会犯错——错误体验是品味的试金石。一个在犯错时仍然让用户感到被尊重的AI,比一个从不犯错但没有人格的AI更有品味。

  • 不要从AI能做什么出发——从用户在这个时刻的感受出发。品味不是关于能力,而是关于体验
  • 参考 Apple Intelligence 的克制——想想你的 AI 功能不做什么。不做的列表可能比做的列表更定义品味
  • 试试用人类协作的隐喻来思考:如果这个 AI 是一个人类同事,他/她的性格是什么?在什么情况下你会信任他/她的判断?
目标:500 字

六、延伸阅读

必读

  1. Google PAIR, People + AI Guidebook (2019, pair.withgoogle.com)

    • 目前最完整的 AI 产品设计指南。不只是设计模式——它深入讨论了 AI 交互中的信任、期望和错误处理的设计原则。
  2. Amelia Wattenberger, "Why Chatbots Are Not the Future" (2023)

    • 对聊天界面作为 AI 交互默认范式的深刻质疑。Wattenberger 提出了丰富的替代性 AI 交互范式——每一种都有独特的品味特征。

推荐

  1. Linus Lee, "Against magic in AI UX" (2023)

    • 对 AI 产品中"魔法感"崇拜的有力反驳。Lee 的核心论点:最好的 AI 交互不是"不可思议的"——而是"可理解的"。
  2. Anthropic, "Claude's Character" (2024, anthropic.com)

    • Anthropic 对 Claude 品味个性的官方阐述。注意它如何将安全、诚实和品味融为一体——"不做某些事"不是限制,而是品味选择。
  3. Apple, "Apple Intelligence" 设计文档 (2024, developer.apple.com)

    • Apple 如何将 AI 集成到系统级别而非作为独立功能。注意克制的品味:Apple 选择"不做"的事情比它选择"做"的事情更有启发性。
  4. Intercom, "The principles of bot design" (2017)

    • 虽然写于大模型时代之前,但它对对话式 UI 品味的讨论(如何处理bot 的"人格"、如何管理期望)仍然高度相关。

体验

  • 用同一个问题(建议选一个需要事实性和判断性的问题,如"2024 年最值得关注的技术趋势是什么")分别问 ChatGPT、Claude 和 Perplexity——不是比较"谁更准确",而是感受三者的品味差异:语气、结构、处理不确定性的方式、引用习惯。
  • 如果你使用 AI 编程工具:在同一个编程任务中分别使用 GitHub Copilot 和 Cursor——注意你对"控制感"的感受有什么不同。

七、本模块要点

  1. AI 是全新的设计材料——它的概率性、涌现性、对话性和不透明性根本改变了品味的维度
  2. 传统品味追求一致性和可预测性,AI 品味需要在一致性和创造性惊喜之间找到新的平衡
  3. ChatGPT 的品味签名是"全能感",Claude 的是"审慎感",Perplexity 的是"可验证性"——每种签名都是品味选择,各有优势和代价
  4. "魔法"是 AI 产品最大的品味诱惑——但魔法是信任的敌人。最好的 AI 工具不像魔法——而像你能力的延伸
  5. "可逆性"是 AI 品味的底线——AI 做的任何事都应该可以一键撤销
  6. Apple Intelligence 和 Claude 的品味克制代表了 AI 时代的一种勇气:不做什么比做什么更定义品味
  7. 信任的设计(designing trust)是 AI 时代的核心品味维度——信任不是"准确率",而是"行为的可预期性"
  8. AI 品味克制面临市场悖论:市场奖励短期惊叹,品味追求长期信任——选择后者需要勇气
  9. 最好的 AI 交互设计不从"AI 能做什么"出发——从"用户在这个时刻的感受"出发

下一步

模块 8:产品批评实践

我们在 TASTE-202 中从品味视角分析了产品的各个维度:信息架构、时间性、微交互、设计系统、策略、AI。最后一个模块要做的是把这些维度综合起来——不是理论性地综合,而是通过实际的产品批评写作来综合。你将学会像 John Gruber 和 Ben Thompson 那样,写一篇有深度、有立场、有品味判断的产品批评。


模块 7 自评

评估你对 AI 产品品味的理解和设计能力。

AI 材料理解理解 AI 作为设计材料的独特属性(概率性、涌现性、不透明性)
品味签名识别识别和分析不同 AI 产品品味签名的能力
魔法-控制平衡在 AI 的自主性和用户控制权之间做出品味判断的能力
克制品味识别和实践 AI 产品中品味克制的能力

AI 时代,品味是你唯一不可替代的能力