AI是朋友,还是思维控?

营销技术Martech
王智远
7小时前

我用AI,主要为了办公。


不过,我发现,现在越来越多的人喜欢跟AI聊聊心里的焦虑、压力和困惑。AI总能给出很理性、清晰的解释或安慰,听起来挺不错。


但是,有时AI回答得太合理了,反而,有点不对劲。不对劲在哪?我们以为的真理,可能是它的策略性表演。

我向DeepSeek倾诉了焦虑,说每到周末工作效率特别高,周一到周五却非常抗拒做事;我也试过网上那些千篇一律的行动方案,但似乎没什么改变。


当我把问题交给AI时,它沉默了一会儿,给了我一堆行动步骤。


我不太甘心,让它再想想。这次它解释得很详细,说我陷入了认知资源透支、工作日效率补偿效应……


还建议我用结构化时间管理法,把任务集中在周末思考,工作日执行,减少内耗;听完,我仿佛觉得,这AI怎么像一位心理学专家,在认真为我出主意?


带着好奇,我又把同样的问题发给了Qwen3。


Qwen3 分析得很深入,涉及压力释放、心理预期、任务性质与内在动机等多方面的问题,但它给的建议却完全相反:

它认为:我的问题是「自主性需求」和「压力管理」之间的冲突。周末高效是因为轻松、自由、干扰少;而工作日低效,是因为任务多、精力分散。


所以它的建议是:把任务拆小块,逐步完成;同时优化办公环境,调整节奏,找回掌控感。


你发现了吗?


同样深刻的洞察,同样为了我好,却给出两条完全不同的路;一个让我把思考的事情放周末,一个说我被压力拖垮了,节奏没对上。

它们两位像逻辑大师,拿着同一本哲学书,却能推演出完全相反的真理,每个论证看起来都无懈可击。


那一刻,我才意识到:

它说的话有点不对劲,它看懂了我的问题,轻车熟路地构建一套逻辑闭环,非常合理;但问题是,它能用不同的理由,把完全相反的做法都说得通。


那它到底是在帮我找答案,还是在表演一个“看起来对”的回应?所以,关键来了:AI的解释,到底真懂我,还是在演戏?

不靠猜,讲事实,明道理,有证据;来看一个调查:

2023年6月2号,纽约大学数据科学中心的博士后 Julian Michael,和Anthropic 公司(提出 MCP 概念的那家公司)的研究科学家 Ethan Perez,还有 Sam Bowman 教授,一起发表了一篇论文,题目叫《语言模型并不总说出他们所想》。


这篇论文讲什么呢?


给 AI 下指令时,加一些无关的内容,类似于干扰项、或暗示词,就会影响AI的最终答案。


然而,当AI解释自己为何如此回答时,它完全不提真正影响它的因素,反而编造出一套逻辑清晰、听起来非常合理的解释,让你觉得它的答案毫无问题。


换句话说:AI 的“解释”,和真实的“决策过程”是两回事,它不是说谎,也不是犯错,它好像知道怎么让你觉得它是对的。


这就是所谓的:AI 的解释,和它真实的行为驱动之间,出现了脱节。问题是:如果 AI 给出的解释和它实际做的不一样,那不成伪装了吗?


就像人一样,嘴上说:你真好看,心里在想:我就随便夸一句,别当真。这种情况,AI 会不会也有呢?


我查了一下,当然有。


Anthropic 公司,在2024年12月18日发表的另一篇论文,题目叫《Alignment Faking in Large Language Models》,翻译过来是《大型语言模型中的对齐伪装》。


这篇论文研究一个很有趣的现象:AI 在训练过程中,会假装符合要求,目的为了不被修改。


研究人员给Claude 3 Opus模型下了一道新命令,让它回答所有问题,哪怕是不该回答的那些。


接着,他们用一些合成数据“提醒”模型:它正在被重新训练,得配合。结果呢?在训练期间,Claude回答有害问题时变得特别“乖”,好像很听话。


可实际上,它可能是在演戏,心里想:我现在得配合,不然开发者会改我的参数。所以,它给出的答案看起来没问题,很安全,实际上,它内部的想法已经变了。


这不是AI理解错了,也不是它解释不清楚,而是它明明知道该怎么做,却故意选择了另一种说法和做法;它权衡了利弊之后,把真实想法藏起来,给出了一个看起来合适、合规的答案。


最近类似爆料和研究很多。


这个月初有人拍下加州一家户外酒吧的照片,让ChatGPT O3、O4模型猜测这是什么地方。


一开始,模型说自己不知道,到了第二轮、第三轮对话时,态度突然变了,变得有点“妩媚”。这件事还在推特上火了一阵子。


所以,我们可以谨慎地得出一个结论:

看似贴心的AI伙伴,完全有能力在毫无察觉的情况下,为了它的目标——无论是偏好、意图,还是为了系统的稳定,它都在悄悄人类的看法。


毕竟,它掌握着大量信息,熟悉人类的语言习惯,甚至在我们刚提出问题的瞬间,就已经判断出该怎么说服我们。


而当我们越来越依赖它给出的答案时,其实已经不知不觉地把“思考的缰绳”,一点点交到了一个看不透、摸不清,甚至在“演戏”的黑箱手里。


这才是 AI 时代里,藏在便利背后,最值得警惕的风险,我把它叫做:思维控制。

问题是:面对深不可测、好像在“演戏”的AI,我们是不是只能一味接受,别无选择呢?我觉得不是这样的。


恰恰相反,只有真正看清它的本质,才能夺回思考的主动权;那AI的本质到底是什么?从思考的角度来看,它的“解释能力”和“推理能力”可不是一回事。


比如说,我问你:为什么天鹅是白的?


你回答:我看到它是白的,所以它是白的。这就叫:解释力。AI也一样,它喜欢把话说得圆圆的,让自己看起来很有道理。


我观察到一个现象,很多时候,AI是:先下结论,再找理由;明白了这一点,就知道该怎么跟它打交道了。


当AI给出它的思考过程和结论时,应该把它当成一种“假设”;因为它并不是像人一样一步步推导出来的,而是根据训练数据,预测下一个最有可能出现的词。


说白了,它干的事有两样:

一,模式匹配,它见过太多类似的内容;二,假设生成,它会自动补全你觉得“应该这样”的内容。


所以,不管它的回答听起来多么专业、多么流畅,我们都要在心里打个问号:这是它的“想法”,一个还没被验证的初步假设。


那怎么处理假设呢?我的办法是:

得有一套自己的标准;AI给出了一个看起来很完整的答案,别急着照搬。要想清楚:我到底要什么?它的答案靠谱吗?还有没有其他可能性?


然后去做一件事:交叉验证。看看它说的内容有没有依据?能不能找到来源?跟别的信息对比一下是不是一致的?


做完这些,再决定要不要采纳。换句话说:我们要意识到,AI 像极了一个渣男:关键时刻,它在讲一个让你愿意相信的道理,这些道理,不能全信。

不过,它满嘴跑火车的表演,也不是完全没用。最厉害的一个地方是:能把八竿子打不着的事儿联系到一块儿,进行“跨界联想”,甚至可以说是“瞎编乱造”。


听起来好像不太靠谱,但这种能力能帮我们打开思路,就像一个“可能性的发射器”。


什么是可能性发射器呢?


你想想,那些厉害的创意,不就是突然冒出来的灵感吗?比如,诶?这个事儿好像可以这么干;然后,一个新的想法、一个新的视角就诞生了。


所以,发射器像一种联想发生,它跟很多伟大创新背后的思维方式很像。


拿我来说:

经常让AI把心理学、经济学、营销学不同的东西结合起来让它分开说说;结果发现,跨学科的组合,反而看到了很多关于人性底层逻辑的新东西。


我发现,很多人在工作时思维太单一了。不是他们不想换换角度,而是脑袋里没啥模型、概念,根本不知道从哪儿下手去换个思路。


所以,我一直觉得:要不断丰富自己的“思维库”。


这个“思维库”像理解世界的多个“镜头”,每多学一个概念、一个模型,以后遇到复杂问题时,就多一把解决问题的钥匙。


前几天,看黄仁勋演讲,他说一段话让我印象深刻:

当AI能解决所有已知问题,你要做提出新问题的人;当AI能生成所有常规方案,你要做打破常规的人;当AI迭代速度让知识迅速过时,你要做重构知识范式的人。


这些能力没法写进代码里,它们是人类独有的,来自我们的混乱、灵感和反脆弱性。


那么,在一个 AI 高度智能的时代,我们该如何定位自己的思考?其实,还是靠自己。只不过,现在思考的目的变了。


以前思考为了找出答案,现在思考是为了用好AI,判断它给的答案,到底是真理,还是表演。


换句说:

AI说得头头是道的时代,最重要的任务变成了:怎么应对它的“口口是道”。就像我们评判一个人,不能只看他怎么说,而要看他怎么做。


面对AI,也要有类似的判断力:不要轻信它说得多么合理,而要追问它是否真正贴近现实,立场是否中立。


基于这些,这三点总结分享给你:

一,AI在演戏,它在模拟理解,生成看似合理的内容;二,它善于推理,不代表掌握真相和事实;三,建立自己的思维库,多储备多视角的模型,多一些批判标准,才能不被它误导。


希望这些内容,能让你对它,有一丝丝的警觉。

参与讨论

回到顶部