Appearance
模块 5:人机协作品味
"The best chess player in the world is not a human. Not a computer. It's a human working with a computer — and knowing when to override it." — Garry Kasparov's insight from 2005 applies perfectly to taste in the AI age.
学习目标
完成本模块后,你将:
- 掌握"半人马模型"(Centaur Model)的核心逻辑——人类品味 + AI 执行的协作框架
- 理解品味在人机协作中的精确角色——哪些判断节点必须由人类掌控
- 设计"提示-迭代-选择"(Prompt-Iterate-Select)工作流的品味循环
- 学会在何时信任 AI 的判断、何时必须覆盖它
- 建立维护创造性主体性(creative agency)的同时利用 AI 规模的实践框架
一、半人马模型:从棋盘到品味
Kasparov 的发现
1997 年,Garry Kasparov 在与 IBM Deep Blue 的对弈中败北。这个事件被广泛解读为"人类不敌机器"的标志。但故事的后续远比这有趣。
1998 年,Kasparov 提出了"Advanced Chess"(高级象棋,也称 Centaur Chess)——允许人类棋手使用计算机辅助进行比赛。在随后的一系列实验中,一个反直觉的发现浮现了:
最强的选手不是最强的人类,也不是最强的计算机——而是一个中等水平的人类加上一台中等水平的计算机再加上一个好的协作流程。
2005 年的 Freestyle Chess 锦标赛证实了这一点。获胜者 ZackS 不是大师级棋手——他们是两个业余棋手,使用三台普通计算机,但拥有一套精心设计的协作流程。他们击败了单独的超级计算机和单独的象棋大师。
Kasparov 在 Deep Thinking(2017)中反思了这个现象:
"Human strategic guidance combined with the tactical acuity of a computer was overwhelming. The game's quality was beyond anything we had ever seen."
品味领域的半人马
将 Kasparov 的发现翻译到品味领域:
| 象棋半人马 | 品味半人马 |
|---|---|
| 人类提供战略方向 | 人类提供品味方向和审美立场 |
| 计算机提供战术分析 | AI 提供快速执行和变体生成 |
| 人类决定何时覆盖计算机建议 | 人类决定何时拒绝 AI 产出 |
| 协作流程决定最终表现 | 工作流设计决定品味输出质量 |
| 最强组合 ≠ 最强人类 + 最强计算机 | 最好的品味输出 ≠ 最有品味的人 + 最强的 AI |
最后一行至关重要。在品味半人马中,流程设计——什么时候让 AI 生成、什么时候人类介入、如何结构化评估和迭代——的重要性可能超过个体品味水平或 AI 模型的性能。
这意味着:设计好的人机品味协作流程本身就是一种品味技能。
二、品味判断链:哪里需要人类
将品味分解为判断节点
一个完整的创造性任务可以被分解为一系列品味判断节点。在每个节点上,我们可以问:这个判断应该由人类做、由 AI 做、还是由两者协作完成?
以设计一个品牌视觉系统为例:
| 判断节点 | 判断内容 | 最佳分工 |
|---|---|---|
| 品牌定位 | 这个品牌应该传达什么气质? | 人类主导 — 需要对市场、用户、文化的深度理解 |
| 风格方向 | 应该探索哪几个视觉方向? | 人类主导,AI 辅助 — 人定方向,AI 快速可视化 |
| 变体生成 | 在选定方向上生成多种变体 | AI 主导 — 速度和多样性是 AI 的优势 |
| 变体筛选 | 从 50 个变体中选出最好的 5 个 | 人类主导 — 需要品味判断力 |
| 细节精炼 | 调整色彩、比例、节奏 | 协作 — AI 快速执行调整,人类评估效果 |
| 一致性审查 | 整个系统是否传达同一个品味 | 人类主导 — 整体一致性是最高级的品味判断 |
| 最终决策 | 这是否达到了品牌应有的品味标准 | 人类主导 — 标准设定和最终裁决是不可委托的 |
规律是清晰的:越抽象、越需要语境理解、越涉及价值判断的节点,越需要人类主导。越具体、越涉及执行细节、越可参数化的节点,越可以委托给 AI。
危险的委托
最危险的情况是在关键品味判断节点上不自觉地委托给了 AI。常见的滑坡:
滑坡 1:方向默认
你让 AI 生成一个设计方案但没有给出明确的品味方向。AI 产出了一个"还不错"的结果。你接受了。但这个方向不是你选择的——它是 AI 的默认美学。你的品味主体性在这个节点丧失了。
滑坡 2:标准侵蚀
你让 AI 生成了 20 个变体。前几个都差不多——因为它们都在 AI 的舒适区内。你开始降低标准:"这些也还行吧。"品味标准被 AI 的平均水平向下拉了。
滑坡 3:一致性放弃
你在不同的任务中使用 AI,每次都接受 AI 的风格默认值。结果是你的品牌系统内部出现了风格不一致——因为每次的 AI 默认值略有不同。但因为每一个单独的产出都"还可以",你没有注意到整体的品味漂移。
Ethan Mollick 在 Co-Intelligence(2024)中描述了类似的现象:在 Wharton 的实验中,使用 AI 写商业案例分析的学生往往产出质量更均匀——但他们也失去了最高品质的那些极端表现。AI 压缩了品味的方差:减少了最差的产出,但也消除了最好的。
音乐制作
Grimes 的人机协作音乐品味
问题:2023 年,音乐人 Grimes 宣布任何人都可以使用 AI 克隆她的声音来创作歌曲,她将分享版税。随后出现了大量 AI-Grimes 歌曲。这些歌曲的品味质量差异巨大——有些令人惊艳,有些令人尴尬。这个差异从何而来?
分析:Grimes 的实验是品味半人马的完美案例。AI 提供了一个高品质的执行层(Grimes 的声音克隆),但品味层完全取决于使用者。那些令人惊艳的作品背后是有音乐品味的创作者——他们理解 Grimes 音乐美学的核心(实验性电子 + 梦幻叙事 + 不完美的脆弱感),并将这种理解编码到了歌曲的结构、编曲和歌词中。那些令人尴尬的作品背后是只看到了 Grimes 声音表层的人——他们模仿了声音但没有品味来支撑内容。关键洞察:AI 提供了 Grimes 音乐的执行层(声音),但 Grimes 音乐的品味层(审美判断、实验勇气、叙事独特性)不在声音中——在那些决策中。当你只复制执行层而没有品味层时,结果注定空洞。
三、提示-迭代-选择:新的品味循环
PIS 工作流
"提示-迭代-选择"(Prompt-Iterate-Select,简称 PIS)是 AI 时代最基本的创造性工作流。它看起来简单,但内在的品味运作极其精细。
阶段 1:提示(Prompt)— 品味编码
这是你将品味判断转化为 AI 可理解的指令的过程。如模块 3 所述,prompt 的品味质量直接决定了产出的品味上限。
但 PIS 工作流中的 prompt 有一个特殊要求:它不应该精确到限制探索空间。第一轮 prompt 的目标不是"得到最终结果"——而是"打开一个有潜力的品味方向"。过早精确会阻止你发现意外的好方向。
阶段 2:迭代(Iterate)— 品味对话
迭代是 PIS 工作流的核心——也是品味发生的主要场所。每一轮迭代都是一次品味对话:
- 审视 AI 的产出
- 识别哪些维度接近你的品味标准
- 识别哪些维度偏离
- 精化 prompt 以调整偏离维度
- 重复
关键在于:迭代不是线性逼近目标——它是螺旋式的品味发现。在迭代过程中,你的品味目标本身可能会改变。也许 AI 的一个"错误"产出让你发现了一个比原始意图更好的方向。能识别这种意外价值并调整方向——这是品味灵活性的体现。
Brian Eno(音乐制作人和生成艺术先驱)在 1975 年与 Peter Schmidt 创造的 Oblique Strategies 卡片就是这种品味灵活性的训练工具——在创作僵局时随机抽取一张指令卡,强迫自己探索意外的方向。AI 的"错误"产出可以扮演类似的角色。
阶段 3:选择(Select)— 品味裁决
选择阶段是最纯粹的品味行为。你面对一组变体,做出最终判断:"这一个,而非其他。"
好的选择不仅是"选最好的"——还是"知道什么时候停止迭代"。完美主义在 AI 时代是一个特殊的陷阱:因为再迭代一轮几乎没有成本,你可能无限迭代下去。品味意味着知道什么时候够好了——不是完美,而是恰当。
PIS 的品味层次
| 层次 | 判断内容 | 品味要求 |
|---|---|---|
| 表层 | 这个变体看起来好不好? | 视觉审美(最基础) |
| 结构层 | 这个变体的内在逻辑通不通? | 结构判断(需要领域知识) |
| 意图层 | 这个变体是否服务于原始意图? | 方向一致性(需要清晰的品味立场) |
| 惊喜层 | 这个变体是否比原始意图更好? | 品味灵活性(需要放下执念) |
| 完成层 | 现在可以停止了吗? | 完成度判断(最高级的品味) |
迭代品味判断
以下描述了 AI 生成过程中五个迭代结果。假设你在设计一个独立书店的品牌视觉。判断每个迭代结果应该引向什么品味行动:采纳、调整方向、完全重来、还是识别意外价值。
样本 A
样本 B
样本 C
样本 D
样本 E
四、信任与覆盖:何时听 AI 的
建立品味信任框架
在人机协作中,一个关键的品味技能是知道何时信任 AI 的判断,何时覆盖它。这不是一个全有或全无的决策——它取决于具体的判断维度。
高信任区域(AI 判断通常可靠):
- 技术质量:分辨率、语法正确性、代码语法、色彩和谐度。AI 在这些可参数化的维度上通常比大多数人类更可靠
- 风格一致性检查:AI 可以检测一组设计稿中的风格不一致(虽然它可能无法判断哪种风格更好)
- 覆盖度评估:AI 可以帮助确认你是否遗漏了某个重要的考虑维度
低信任区域(AI 判断通常不可靠):
- 情感共鸣:这个设计是否让人感到温暖?这段文字是否令人动容?AI 可以识别情感标签但不能体验情感
- 文化适切性:这个视觉表达在特定文化语境中是否合适?AI 的文化理解是统计性的,不是体验性的
- 品味立场:这是否是一个有勇气的、有立场的选择?AI 天然回避强烈立场
- "刚好"感:这是否已经足够好?不是更好或最好——而是对这个情境来说恰当的?这种精确的满足感判断是最微妙的品味
覆盖 AI 的勇气
有时候,覆盖 AI 的判断需要勇气。当 AI 建议的方向更"安全"、更"主流"、数据表明更"受欢迎"时——坚持你的品味判断意味着承担风险。
Steve Jobs 在 2001 年力推 iPod 时,几乎所有市场数据都表明 MP3 播放器是一个小众市场。如果有 AI 顾问,它会基于市场数据建议放弃。Jobs 的品味判断覆盖了数据——不是因为他不相信数据,而是因为他看到了数据看不到的东西:人们与音乐的关系需要一种更优雅的形式。
在日常工作中,覆盖 AI 通常没有这么戏剧化。但逻辑是一样的:
- AI 建议使用更鲜艳的配色因为"数据显示鲜艳色更受欢迎"——但你的品味判断说克制的配色更符合品牌气质
- AI 建议更长的文章因为"长内容 SEO 表现更好"——但你的品味判断说简洁的表达更有力
- AI 建议更常规的布局因为"这个模式用户更熟悉"——但你的品味判断说一种新布局能更好地传达产品的独特性
每一次覆盖都是品味的表达。品味是在有更安全的选择时仍然坚持自己判断的能力。
五、维护创造性主体性
什么是创造性主体性
创造性主体性(creative agency)是指你在创造过程中的主体地位——你是创作的主导者,做出关键的品味判断,对结果承担责任。
AI 协作的最大风险不是 AI 做得不好——而是你在不知不觉中让渡了主体性。表现为:
- 你不再形成自己的初始方向——而是看了 AI 的第一批产出后才"有想法"
- 你不再主动构思——而是被动评估 AI 的建议
- 你不再坚持高标准——而是接受 AI 产出的"还可以"
- 你不再冒险——而是选择 AI 建议的"安全"选项
这是一种品味的委缩(taste atrophy)——就像一块不使用的肌肉会萎缩。当你长期让 AI 做品味判断时,你自己的品味判断力会退化。
保持主体性的实践
实践 1:先形成判断,再看 AI
在每一个创作任务开始时,先花时间形成你自己的品味方向——甚至先做一个粗糙的草稿。然后再用 AI 来探索和精化。这保证了品味方向来自你而非 AI。
Ira Glass(This American Life 制作人)的经典建议在这里适用:
"Nobody tells beginners this, and I really wish someone had told me. All of us who do creative work, we get into it because we have good taste. But there is a gap. For the first couple of years you make stuff, it's just not that good."
Glass 说的"gap"——品味与执行之间的差距——在 AI 时代被重新定义了。AI 可以帮你跨越执行的 gap,但你仍然需要维护品味那一端。先形成判断,确保品味那一端是活跃的。
实践 2:设定品味红线
在开始使用 AI 之前,明确定义你的品味红线——哪些品味标准是不可妥协的。比如:
- "品牌视觉必须有手工温度,即使 AI 产出更精致也不采用纯数字感"
- "文字必须有个人声音,即使 AI 写得更'专业'"
- "设计必须有留白,即使 AI 倾向于填满空间"
红线不是固执——它是品味的骨架。没有骨架,品味在 AI 的便利性面前会逐渐融化。
实践 3:定期无 AI 创作
就像运动员需要赤脚训练来维持本体感觉一样,创作者需要定期不使用 AI 来维护品味的本体感觉。
这不是因为无 AI 创作本质上更好——而是因为执行过程中的困难和限制是品味训练的一部分。当你被迫亲手做每一个决策时,你对品味的感知比在 AI 批量产出中浏览时更加精细。
Richard Sennett 在 The Craftsman(2008)中的观点在这里重新获得了紧迫性:手艺过程中的摩擦不是障碍——它是品味教育的场所。定期回到有摩擦的创作中,是维护品味锐度的必要投资。
实践 4:品味复盘
每完成一个使用 AI 的项目后,做一次品味复盘:
- 在这个项目中,哪些品味判断是我做的?哪些实际上是 AI 做的?
- 有没有我本应坚持但最终妥协的品味标准?
- AI 在哪些地方提升了我的品味(让我发现了意想不到的好方向)?
- AI 在哪些地方削弱了我的品味(让我接受了低于标准的产出)?
这种反思性实践是维护创造性主体性的最重要工具。
三种人机品味协作模型
指挥家模型:人类做所有品味判断
人类像指挥家一样完全控制品味方向和标准,AI 像乐手一样负责执行。每一个品味决策都由人类做出,AI 只是加速执行。优势:品味主体性最强,不存在品味让渡的风险。劣势:可能限制了 AI 能带来的品味启发——有时候 AI 的意外产出可能比你的预设方向更好。适合:品味立场已经非常清晰的项目。
爵士乐模型:品味在即兴对话中涌现
人类提出一个主题(品味方向),AI 进行即兴变奏,人类做出回应(选择、修改、拒绝),AI 再次回应。品味在这个来回对话中逐步涌现——最终结果可能超出任何一方的预设。优势:最有创造性潜力,能发现双方单独都想不到的方向。劣势:需要高度的品味灵活性,容易在对话中失去方向。适合:探索性项目,方向尚未确定的创作。
编辑模型:AI 草拟,人类做品味编辑
让 AI 先产出初稿,然后人类像编辑一样进行品味层面的修改——删减、重组、提升、替换。类似于出版行业中编辑与作者的关系。优势:效率高,人类只需要在品味层面介入。劣势:人类的品味判断可能被 AI 的初稿框定(锚定效应)。适合:执行密集、品味方向已确定的项目。
思考:不同类型的项目可能需要不同的协作模型。尝试将你最近的三个创作项目(或假设三个不同类型的项目)分别匹配到最合适的模型,并解释为什么。
设计你的品味半人马
30-40 minutes基于本模块的半人马模型、品味判断链和 PIS 工作流,为你的一个真实工作场景设计完整的人机品味协作方案。不是泛泛地说'我用 AI 帮忙做设计'——而是精确地定义每一个品味判断节点的分工、你的品味红线、你的覆盖原则、以及你维护创造性主体性的具体措施。
建议结构:
工作场景定义~15%
具体描述你选择的工作场景。它涉及哪些创造性决策?目前你是如何做这些决策的?
品味判断链~30%
将这个场景分解为具体的品味判断节点(参考设计品牌视觉的例子)。为每个节点定义分工:人类主导、AI 主导、还是协作?为什么?
品味红线与覆盖原则~25%
你的品味红线是什么——哪些标准不可妥协?在什么条件下你会覆盖 AI 的建议?举出具体的可能场景。
主体性保护~30%
你将采取什么具体措施来防止品味委缩?定期无 AI 创作、品味复盘、先形成判断再看 AI——选择最适合你的实践。
- 选择一个你真正在做的工作场景——不要假设。真实的约束和挑战会让你的设计更有价值。
- 品味判断链的颗粒度要够细——粗糙的分解(如 AI 负责创作,我负责判断)太模糊。每个节点都应该是一个具体的决策。
- 品味红线需要是具体的、可检验的——不是我追求高品味这种空话,而是我的文案不使用以下形容词或我的设计留白不低于 30%。
- 写完后问自己:如果我把这个方案交给一个新同事,他们能按照这个方案维护我的品味标准吗?如果不能,说明方案还不够具体。
目标:500 字
延伸阅读
必读
Garry Kasparov, Deep Thinking (2017)
- 半人马模型的原始来源。Kasparov 从人机棋赛中提炼的协作智慧完全适用于品味领域。第 11 章 "The Human-Machine Team" 最相关
Ethan Mollick, Co-Intelligence (2024)
- 最系统的人机协作研究综述。Mollick 在 Wharton 的实验数据揭示了 AI 如何同时提升底线和压缩上限——对品味的含义深远
Brian Eno, "Generative Music" 讲座 (1996)
- 在 AI 之前就实践了人机协作创造的先驱。Eno 关于"放弃完全控制以获得意外惊喜"的品味哲学是品味半人马的思想源头
推荐
Ira Glass, "The Gap" (2009)
- 关于品味与执行之间差距的经典表述。在 AI 时代重读:AI 消除了执行 gap,但品味 gap 仍然需要时间和实践来弥合
Richard Sennett, The Craftsman (2008) — 第 8-9 章
- 关于手艺训练与品味培养关系的深刻论述。当 AI 消除了手艺执行的需求时,Sennett 的问题变得更加紧迫
Jaron Lanier, You Are Not a Gadget (2010)
- 关于技术如何可能削弱人类创造性主体性的先见性警告。虽然写于 AI 大爆发之前,核心论点完全适用
视频
- Kasparov at TED: "Don't Fear Intelligent Machines" (2017) — 6 分钟内理解半人马哲学的精华
- Brian Eno on Creativity and AI (2023) — 生成艺术先驱对 AI 协作的最新思考
本模块要点
- 半人马模型是人机品味协作的核心框架——最优品味产出不来自最强的人或最强的 AI,而来自人类品味 + AI 执行 + 好的协作流程
- 品味判断链分析是设计协作的第一步——将任务分解为判断节点,为每个节点定义最佳分工。规律:越抽象越需要人类,越具体越可委托 AI
- 三种危险的品味委托:方向默认(接受 AI 的默认方向)、标准侵蚀(降低品味标准以适应 AI 产出)、一致性放弃(忽视整体品味漂移)
- PIS 工作流的品味运作:Prompt 是品味编码、Iterate 是品味对话、Select 是品味裁决。迭代是核心——品味在迭代的来回中被精炼
- 意外价值的识别是高级品味技能——AI 的"错误"产出可能包含比你预设方向更好的品味方向。能识别这种意外价值需要品味灵活性
- 知道何时停止迭代是完成度品味——AI 使迭代几乎零成本,但无限迭代是品味的陷阱。"恰当"不是"完美"
- 信任与覆盖框架:高信任区域(技术质量、一致性检查)、低信任区域(情感共鸣、文化适切性、品味立场)。在低信任区域坚持你的判断需要勇气
- 创造性主体性是必须保护的资产——品味委缩(长期让 AI 做品味判断导致自己的品味退化)是 AI 协作的最大隐性风险
- 四种保护主体性的实践:先形成判断再看 AI、设定品味红线、定期无 AI 创作、品味复盘
- 三种协作模型适合不同场景:指挥家模型(品味明确的项目)、爵士乐模型(探索性项目)、编辑模型(执行密集的项目)。好的品味半人马知道在不同场景中切换模型
下一步
我们已经掌握了当下的人机品味协作方法。最后一个问题是面向未来的:品味将如何演化?在 2030、2040 年,当 AI 远比今天更强大时,品味的角色会增强还是衰减?我们将以推测性设计的方法论探索品味的多种可能未来——并在课程的最后,综合整个 TASTE-304 的学习成果,形成你自己的品味宣言。
模块 5 自评:人机协作品味
评估你设计和执行人机品味协作的当前能力。
半人马思维理解人机协作的非零和逻辑——不是人 vs AI,而是人+AI+流程
覆盖判断力知道何时信任 AI、何时覆盖它——并有勇气执行覆盖
PIS 工作流熟练度运用 Prompt-Iterate-Select 工作流的品味效率和深度
主体性保护维护创造性主体性的意识和实践