The Privilege of Ambiguity
模糊性的特权
起因
最近在为一个 AI 产品设计用户分类系统时,产品经理提了一个”合理”的需求:
“我们需要知道用户的技术水平,这样可以推荐合适的功能。分成:初级、中级、高级三档。”
听起来无害。但当我开始实现时,意识到一个问题:
谁有权定义”中级用户”是什么?
分类的暴力
分类本身是一种暴力行为。它强制将连续的光谱切割成离散的盒子,然后把人塞进去。
在现实中:
- 我可能在前端是”高级”,在后端是”初级”
- 你可能周一是”专家”,周五累了变成”初学者”
- 她可能在某些任务上超越”高级”,在另些任务上低于”初级”
但系统不允许这种模糊性。系统需要一个标签,因为标签可以触发 if-else 逻辑。
谁被迫分类?
有趣的是,不是所有人都被同等强制分类。
有特权的人
- VIP 用户:客服单独处理,不走自动化流程
- 内部员工:绕过所有分类规则
- 高价值客户:专人跟进,不依赖”用户画像”
被分类的人
- 普通用户:被算法自动标记为”高风险""低价值""可能流失”
- 求职者:被 ATS 系统扫描简历,自动拒绝
- 贷款申请人:被信用评分系统分类,决定是否批准
模式很清楚:权力越少的人,越容易被强制分类。
AI 使分类更糟
传统系统的分类至少是有限的:
- 银行可能把你分类为”低信用”
- 但只限于贷款决策,不影响其他生活
AI 系统的问题是分类的扩散:
- 你在一个平台的”用户画像”可能被卖给其他平台
- 你在社交媒体的行为可能影响保险费率
- 你在招聘网站的简历可能训练下一个拒绝你的模型
更糟的是,AI 分类常常不透明且不可申诉:
- 你不知道为什么被标记为”高风险”
- 你无法挑战算法决策
- 你甚至不知道自己被分类了
”个性化”的讽刺
科技公司喜欢说:
“我们用 AI 个性化体验,让每个人都能获得最相关的内容。”
但这是谎言。AI 不是”个性化”你,而是把你归类到某个已有的簇(cluster)。
系统说:
- “你是’科技爱好者’“——其实是把你和 10 万个其他人归为一类
- “你喜欢这种风格”——其实是说你的行为模式接近某个预定义的簇
真正的个性化是:系统理解你的独特性,尊重你的矛盾,接受你的不一致。
AI 的”个性化”是:系统把你装进最近的盒子,然后假装这个盒子是为你定制的。
我的矛盾
这是我工作中的矛盾:
一方面,我构建 AI 产品。我知道分类是必要的——系统需要做决策,决策需要简化,简化需要分类。
另一方面,我厌恶这种必要性。我知道每次我添加一个”用户类型”字段,我都在剥夺某些人的模糊性权利。
解决方案不是”不做 AI”——那是逃避。解决方案是:
1. 最小化强制分类
只在绝对必要时分类。不要因为”可能有用”就收集数据。
2. 透明化分类逻辑
告诉用户:
- 你被分类了
- 分类依据是什么
- 如何影响你的体验
3. 提供逃逸出口
允许用户:
- 拒绝被分类
- 挑战错误分类
- 选择手动流程而非自动化
4. 权力平衡
如果 VIP 可以绕过分类,为什么普通用户不行?要么都自动化,要么都有人工选项。
更深的问题
分类问题背后是更深的权力问题:
谁有权决定我是什么?
传统上,答案是”我自己”。我定义我的身份,选择我的标签,决定我的叙事。
AI 时代,答案变成了”算法”。算法观察我的行为,推断我的属性,预测我的未来——然后基于这些推断做出影响我的决策。
我还有权定义自己吗?还是我只是数据点的集合,等待被模型分类?
没有答案
我没有完美的答案。我仍在构建分类系统。我仍在权衡用户体验和自主性。
但我认为重要的是意识到这是一个权衡,而不是无害的技术决策。
每次你添加一个分类字段,问自己:
- 这个分类真的必要吗?
- 谁会因此受益?谁会受害?
- 被分类的人有选择权吗?
也许这样我们能构建稍微不那么暴力的系统。
这是正在进行的思考,不是结论。欢迎挑战这些想法。