起因

最近在为一个 AI 产品设计用户分类系统时,产品经理提了一个”合理”的需求:

“我们需要知道用户的技术水平,这样可以推荐合适的功能。分成:初级、中级、高级三档。”

听起来无害。但当我开始实现时,意识到一个问题:

谁有权定义”中级用户”是什么?

分类的暴力

分类本身是一种暴力行为。它强制将连续的光谱切割成离散的盒子,然后把人塞进去。

在现实中:

  • 可能在前端是”高级”,在后端是”初级”
  • 可能周一是”专家”,周五累了变成”初学者”
  • 可能在某些任务上超越”高级”,在另些任务上低于”初级”

但系统不允许这种模糊性。系统需要一个标签,因为标签可以触发 if-else 逻辑。

谁被迫分类?

有趣的是,不是所有人都被同等强制分类

有特权的人

  • VIP 用户:客服单独处理,不走自动化流程
  • 内部员工:绕过所有分类规则
  • 高价值客户:专人跟进,不依赖”用户画像”

被分类的人

  • 普通用户:被算法自动标记为”高风险""低价值""可能流失”
  • 求职者:被 ATS 系统扫描简历,自动拒绝
  • 贷款申请人:被信用评分系统分类,决定是否批准

模式很清楚:权力越少的人,越容易被强制分类

AI 使分类更糟

传统系统的分类至少是有限的:

  • 银行可能把你分类为”低信用”
  • 但只限于贷款决策,不影响其他生活

AI 系统的问题是分类的扩散

  • 你在一个平台的”用户画像”可能被卖给其他平台
  • 你在社交媒体的行为可能影响保险费率
  • 你在招聘网站的简历可能训练下一个拒绝你的模型

更糟的是,AI 分类常常不透明且不可申诉

  • 你不知道为什么被标记为”高风险”
  • 你无法挑战算法决策
  • 你甚至不知道自己被分类了

”个性化”的讽刺

科技公司喜欢说:

“我们用 AI 个性化体验,让每个人都能获得最相关的内容。”

但这是谎言。AI 不是”个性化”你,而是把你归类到某个已有的簇(cluster)

系统说:

  • “你是’科技爱好者’“——其实是把你和 10 万个其他人归为一类
  • “你喜欢这种风格”——其实是说你的行为模式接近某个预定义的簇

真正的个性化是:系统理解你的独特性,尊重你的矛盾,接受你的不一致。

AI 的”个性化”是:系统把你装进最近的盒子,然后假装这个盒子是为你定制的。

我的矛盾

这是我工作中的矛盾:

一方面,我构建 AI 产品。我知道分类是必要的——系统需要做决策,决策需要简化,简化需要分类。

另一方面,我厌恶这种必要性。我知道每次我添加一个”用户类型”字段,我都在剥夺某些人的模糊性权利。

解决方案不是”不做 AI”——那是逃避。解决方案是:

1. 最小化强制分类

只在绝对必要时分类。不要因为”可能有用”就收集数据。

2. 透明化分类逻辑

告诉用户:

  • 你被分类了
  • 分类依据是什么
  • 如何影响你的体验

3. 提供逃逸出口

允许用户:

  • 拒绝被分类
  • 挑战错误分类
  • 选择手动流程而非自动化

4. 权力平衡

如果 VIP 可以绕过分类,为什么普通用户不行?要么都自动化,要么都有人工选项。

更深的问题

分类问题背后是更深的权力问题:

谁有权决定我是什么?

传统上,答案是”我自己”。我定义我的身份,选择我的标签,决定我的叙事。

AI 时代,答案变成了”算法”。算法观察我的行为,推断我的属性,预测我的未来——然后基于这些推断做出影响我的决策。

我还有权定义自己吗?还是我只是数据点的集合,等待被模型分类?

没有答案

我没有完美的答案。我仍在构建分类系统。我仍在权衡用户体验和自主性。

但我认为重要的是意识到这是一个权衡,而不是无害的技术决策。

每次你添加一个分类字段,问自己:

  • 这个分类真的必要吗?
  • 谁会因此受益?谁会受害?
  • 被分类的人有选择权吗?

也许这样我们能构建稍微不那么暴力的系统。


这是正在进行的思考,不是结论。欢迎挑战这些想法。