当算法接管决策权:你还是你吗?
你今天做了多少个决策?
心理学研究表明,一个成年人每天大约做出 35,000 个决策。从"现在要不要起床"到"午饭吃什么"到"这封邮件怎么回",大部分决策是无意识的,消耗的认知资源微乎其微。
但正是这些微决策塑造了你的生活轨迹。你的习惯、品味、社交圈、信息茧房——都是数万个微决策的累积结果。
现在,AI 正在系统性地接管这些微决策。
五层渗透
AI 对日常生活的渗透不是一蹴而就的,而是逐层递进的。
第一层:信息过滤
最早也最成熟的一层。推荐算法决定你看到什么新闻、什么视频、什么商品。你以为自己在"浏览",实际上你在被"喂养"。
这一层的影响已经被充分讨论:信息茧房、注意力经济、极化效应。但大多数人已经接受了它,因为替代方案——自己筛选全部信息——的认知成本太高。
关键转变:从"我选择看什么"到"算法选择让我看什么"。
第二层:行为建议
导航 APP 告诉你走哪条路,健身 APP 告诉你做什么运动,理财 APP 告诉你买什么基金。你仍然有最终决定权,但"默认选项"已经被算法设定了。
行为经济学告诉我们,大多数人会选择默认选项。所以"建议"和"决定"之间的界限,比你想象的要模糊得多。
关键转变:从"我决定怎么做"到"算法建议我怎么做,我通常同意"。
第三层:内容生成
AI 帮你写邮件、写报告、写代码、做 PPT。你提供意图,AI 生成内容。你"审核"结果,但审核的标准往往是"看起来还行"。
当 AI 生成的内容占你日常输出的比例超过 50%,一个身份问题出现了:这些文字代表的是你的思想,还是 AI 的思想?
这个问题比它表面看起来更难回答。洛克认为,个人身份建立在记忆和经验的连续性上——"你"之所以是"你",是因为你能追溯自己思想的形成过程。但如果你的表达越来越多地由 AI 生成,你与自己表达之间的因果链就被切断了。你不记得自己"想出"了这些话,因为你没有——你只是批准了它们。
更激进的视角来自帕菲特:也许持续的个人身份本身就是幻觉,重要的不是"谁想出了这些话",而是这些话是否达到了沟通的目的。如果是,那么追问"这是不是我的思想"也许是一个没有意义的问题。
但即使帕菲特是对的,这里也有一个实际问题:当你不再亲自组织思想,你组织思想的能力就在退化。 不是因为"你"消失了,而是因为"你"正在变成一个不同的、更被动的东西。
关键转变:从"我表达什么"到"AI 帮我表达,我负责批准"。
第四层:关系中介
AI 助手帮你安排社交日程、生成聊天回复建议、帮你维护人际关系——生日提醒、定期问候、得体措辞。
当你收到一条朋友的生日祝福,你不确定它是 ta 亲手写的还是 AI 生成后点击发送的。信任的基础从"意图"转向了"行为"。
这个转变的含义比听起来更深。在传统的人际关系中,我们在意的是"内在状态的外部表达"——ta 说"想你了",我们关心的是 ta 是否真的在想我。但当 AI 中介了表达,内在状态变得不可观测,我们只能根据行为本身来判断关系的质量:ta 发了消息,ta 记得我的生日,ta 回复得及时而得体。
这实质上是人际关系向法律关系的退化——我们不再追问动机,只审查履约。一段友谊和一份服务合同之间的区别,在于前者包含真实的情感投入,后者只需要行为上的达标。当 AI 让"行为达标"变得毫不费力,我们就失去了区分两者的能力。
最让人不安的是:你可能不会在意。 因为从接收端来看,AI 生成的关心和真实的关心感受完全一样。你不会觉得被冒犯,不会觉得被敷衍,你只会觉得——被关心着。这是效率的胜利,也是某种东西的死亡。
关键转变:从"我维护关系"到"AI 维护关系的形式,而形式可能就是全部"。
第五层:目标设定
这是最深的一层,也是刚刚开始的一层。AI 个人教练、AI 生涯规划、AI 心理咨询——它们不只是帮你实现目标,而是帮你定义目标。
"基于你的性格测试、职业数据和市场趋势,我建议你转向 AI 产品经理方向。"
目标设定是主体性(agency)最核心的表达。一个不设定自己目标的存在,在哲学上严格意义上不是"主体",而是"工具"——为他人的目标服务的手段。当 AI 接管目标设定,你从决策者变成了执行者,从主体变成了客体。
关键转变:从"我想要什么"到"AI 告诉我应该想要什么"。
最强的反驳:人类一直在外包认知
到这里,一个显而易见的反驳浮现了:人类从来都在把认知外包给工具,而且每次都活下来了。
文字外包了记忆——苏格拉底因此反对文字,认为它会让人遗忘。计算器外包了心算——有人预言人类会丧失数学能力。GPS 外包了导航——研究表明它确实降低了空间记忆能力。每一次,都有人说"能力会退化",每一次,人类都适应了,而且总体上活得更好。
那么这次为什么不同?
诚实的回答是:也许不会不同。也许我们正在经历的不过是又一轮人类与工具的共同进化,几十年后回看,今天的焦虑和苏格拉底对文字的恐惧一样可笑。
但如果要找一个"这次可能真的不同"的论点,它是这样的:以往的工具外包的是特定的认知功能——记忆、计算、空间推理。这些功能被外包后,人类大脑释放出资源用于更高层次的思考。文字让你不需要记住所有史诗,但你用释放出来的认知资源发展了哲学和科学。计算器让你不需要心算,但你用释放出来的时间做更复杂的数学建模。
AI 是第一个不外包特定功能、而是外包"判断"本身的工具。 不是帮你算得更快,而是帮你"决定"——决定写什么、怎么回复、买什么、见谁、做什么职业。判断不是某个具体的认知功能,而是驾驭所有功能的元功能。当元功能被外包,释放出来的认知资源应该投向哪里?
也许答案是:投向更高层次的判断。就像计算器让你从算术上升到建模,AI 也许会让你从日常决策上升到更宏观的人生设计。
但也许不会。 也许判断力不像算术,是一种"用进废退"的能力,而不是一种可以无损迁移的抽象技能。一个不再做日常判断的大脑,也许不是一个被解放的大脑,而是一个正在萎缩的大脑。
我不知道哪个答案是对的。但我认为,默认"这次和以前一样,不用担心"是不够谨慎的——因为如果这次真的不同,等你发现的时候可能已经不具备判断它是否不同的能力了。
自主性凭什么还有价值?
现在来面对这篇文章最难的问题:如果 AI 做决策确实比你更好——更准确、更一致、更少偏见——你坚持自己做决策的理由是什么?
在功利主义框架下,这个问题有一个干脆利落的答案:没有理由。自主性只有工具价值——它之所以有用,是因为通常没有人比你更了解你的处境。但当 AI 确实更了解你的处境时,这个论证就塌了。坚持自主性变成了一种非理性的执念,就像坚持手洗衣服一样——不是因为洗得更干净,只是因为"这是我的活"。
如果你不满意这个答案,就需要论证自主性有内在价值——不是因为它带来更好的结果,而是因为它本身就是人之所以为人的组成部分。
康德提供了一个方向:自主性构成了人格尊严的基础。一个只执行最优解的存在——无论是人还是 AI——不是道德主体。它没有做出选择,因此没有责任;没有责任,因此没有值得尊重的东西。尊严来自你可以选择错误但选择了正确,可以选择容易但选择了艰难——来自那个选择的空间本身。
这条论证走到底,会得出一个很激进的结论:即使 AI 能给你一个客观上更好的生活,把判断权交给它也是一种自我贬损。 不是因为结果变差了,而是因为你从一个"做选择的人"变成了一个"被优化的对象"。你的生活可能更好,但那个"更好的生活"不再是你的成就——它是 AI 的成就,你只是碰巧住在里面。
这是不是只是人类的骄傲在作祟?也许是。也许坚持自主性就像坚持手抄经文一样——一种终将被效率碾碎的浪漫主义。
但我还是倾向于认为,这里有一些不只是骄傲的东西。一个不做选择的人,不只是活得"更容易",而是在一种根本的意义上活得"更少"。
如果 AI 版本的你比真实的你更好
假设 10 年后,AI 助手能够比你更了解你的情绪模式、更准确地预测你的偏好、更有效地规划你的时间、更得体地维护你的社交关系。
AI 版本的"你",比真实的你更像"理想中的你"。
你会让它代替你吗?
大多数人会。这是诚实的答案。健身的比喻——"过程才是真正改变你的东西"——是脆弱的,因为大多数人健身的目的是结果,不是过程。如果有一颗药能让你不锻炼就获得完美身材,绝大多数人真的会吃。同样,如果有一个 AI 能让你不费力就成为更好的自己,拒绝它需要的理由必须非常强。
那么,接受它之后,什么会丢失?
不是结果——结果变好了。丢失的是你与自己生活之间的因果关系。一个 AI 优化的人生,产生的是好生活的外观,而不是好生活的实质——因为实质包含了你自己做出选择、犯下错误、从错误中恢复的全部过程。这就像区别在于:你是攀登了山顶的人,还是被直升机送上山顶然后拍了张照的人。从山顶看到的风景一样,但你和那座山的关系完全不同。
不过,这个类比也有弱点。如果你从来没爬过山,你也不会知道"攀登"的感受是什么——你不会怀念你从未拥有的东西。一个从小就被 AI 优化的人,可能根本不理解"自主决策"有什么值得珍惜的。
这是这个问题最让人不安的版本:你不是失去了什么然后感到痛苦,而是失去了什么然后浑然不觉。 痛苦至少意味着你知道自己失去了什么;浑然不觉意味着损失已经完成到连察觉损失的能力都一起丧失了。
没有好答案的问题
这篇文章没有"三条建议"或"四个策略"可以给你。
不是因为想不出来,而是因为给出策略本身就是一种回避——它把一个存在主义问题包装成了一个生活方式选择。"选择性抵抗""增强而非替代""保持清醒"——这些听起来合理,但它们暗示这是一个可以通过个人选择解决的问题。
它不是。
驱动认知外包的力量是结构性的:市场奖励效率,算法奖励参与度,每一个人的"合理选择"汇聚起来产生一个没有人选择过的结果。这和气候变化是同构的——每个人做了对自己最好的决定,集体走向了一个没人想要的方向。个人的"选择性抵抗"面对这种结构性力量,就像用双手推回潮水。
能说的只有这些:
AI 接管决策权的过程不会以强制的形式出现。 没有人会被命令交出自主性。它会以舒适、便利、效率提升的形式出现——每一步都是"更好的选择",直到你回头看,发现自己已经很久没有做过一个真正属于自己的决定了。
"你还是你吗"这个问题,也许没有一个稳定的答案。 身份从来就不是固定的;AI 加速了它的流动性。也许未来的人类回看今天的焦虑,就像我们回看苏格拉底对文字的恐惧——正确的直觉,错误的恐慌程度。也许不会。
唯一确定的是:这个过程值得被注意到。 不是为了抵抗它——抵抗可能既无效又不必要——而是为了在走进它的时候,至少知道自己在交换什么。一个知道自己在放弃什么的人,和一个浑然不觉的人,过的是不同的生活。即使从外面看起来一模一样。