谁也没想到,ChatGpt能够写出优秀的论文。
因为对于普通人来说,硕士论文,博士论文实在是很高级的东西,只是他们不知道的是,中国人有句话叫做“天下文章一大抄”。
我们以为ChatGpt已经有了硕士、博士的高智商,其实它不过是把过去科学家们研究的知识重新做了个组合,编成了一篇文章而已。
当然这么说ChatGpt,不是说它一点威胁都没有,而是说它现在表现出来的能力,其实还在一个可以接受的范围之内。在其他Gpt火起来之前,其实我们还正在热烈地讨论着冥想、瑜伽、禅宗、阳明心学等一系列的东西。
相信记性比较好的朋友,还会记得尤瓦尔·赫拉利在他的《未来简史》里面忠告我们:“每一个现代人都应该花一点时间去冥想一下,否则人类就不会有未来”,所以现在我们能不能把这两部分连在一起来说呢?
人工智能是一个把世界概率化了的模型。这里引用微软的CTO在混沌大学演讲时所举的例子——美丽的成都中心。当 AI组织出美丽的城之后,有三个词可以给他用来进行输出:一个是成都的都,一个是程序的序,还有一个是三体里面主人公程心的心。那么它到最后会怎样利用概率做选择,以符合它对面聊天的那个人的需求,这就是一个通过过去所有概率化的文本和当前对话人的需要,进行概率判断的过程。
所以人工智能AI处理的,是一个被概率化了的世界。
语言如此,图像如此,人类社会发生的各种各样的事件,天气预报等等都是如此。而所谓的冥想、瑜伽、禅宗或者是阳明心学,其实说的是一种心外无物的新世界。
这个“心”代表着人类的生命情感,就像王德峰老师在讲儒家的时候说的,儒家所说的仁义道德,其实就是在讲中国人的生命情感,中国人的亲情以及因为亲情而延长出来的责任,也可以形象地说是一种牵挂。
当这种生命情感和佛家的思想结合后就产生了新儒家、禅宗或者是阳明心学的“心外无物”、“天理即人欲”、“知行合一”、“致良知”等一系列关于“心”的学问。
而在人工智能的概率事件和生命情感的新世界中间,有另外一个基于西方历史,传统的、理性的、概念的世界,也就是苏格拉底所开创的知识的世界。
这个理性的世界被笛卡儿发扬光大,被康德、黑格尔推向极致,导致了西方人的思想解放,创造出或者说发现了一大批科学的理论,比如万有引力、相对论、量子力学还有一大堆机器:发动机、电脑等等。
现在我们有了三个世界:概率的世界、理性概念的世界,还有“心”的世界——由生命情感组成。
传统的经济学是基于理性的“经济人”的假设。认为人是理性的,然后发展出一系列的经济学的框架。
而从上世纪的70年代开始,行为经济学逐步发展,丹尼尔·卡尼曼、理查德·泰勒等一群人发现了人类的非理性行为或者叫人类的非理性课程并因此获得了多次诺贝尔奖。
很显然这些非理性,正是源自于“心”的世界,也就是源于生命情感对决策的影响。
事实上你当然知道,回家以后不应该因为菜稍微有点咸而去责怪烧菜的妻子,但是你就是控制不住说了,然后你们就因为这些鸡毛蒜皮的事情闹得很不愉快,这就说明我们人的大脑其实并不善于处理概率的问题。
或者说如果我问你,“你难道不知道这样的处理方式会导致什么样结果的概率分布吗?”你一定会说我当然知道,但是理性没办法帮助你在这样的事件当中做出正确的决策,你总是会因为各种各样的生命体验,而做出违反概率的、错误、选择笨蛋、毫无理性可言。
但是不要以为这样的非理性完全没有意义,如果我们去看费曼的书就会发现他说,大量的理论物理的规律,其实未必是推导出来的,而是猜出来的。
怎么猜呢?其实就是从你的生命实践和生命情感中获得灵感。
想一想发现苯环的那位科学家在梦中梦见了蛇,咬住了它的尾巴,还有画出了元素周期表的门捷列夫,怎样梦见了那个元素周期表的结构,再想想爱因斯坦的量子力学、电机论文关于黑体辐射能量是怎样一份一份地释放出去,就更加有生活的、明显的痕迹了。
如果大家都在做散户炒股票,那么我们会发现我们人脑最不能处理的就是概率,因为我们总是被某一个具体的线索所牵引,比如说:要打仗了,然后我们会做什么选择呢?
我们不会从具体的、某个公司的股票基本面长期价值的那个角度去思考它,那是巴菲特和芒格建议的价值投资和分析模型,但是我们总是相信线索,具体会表现为听消息,中国人的消息总是很准的,但是中国的散户赚钱的并不多。
说这件事,是因为很多的专家都没有想到关于人工智能的突破会出现在ChatGpt这样一个领域内,因为过去我们以为关于人工智能的突破会在另外一些方向上发生,就像虽然我们一直在研究人工智能,但是也没有料到人工智能最先的成就居然是下棋战胜了围棋高手。
在这点上我们人类的专家没办法处理概率性事件,事实上,证明把世界概率化这个工作是全方位展开的,就像前面所说的,在语言方面、绘画方面、图像方面、历史事件方面、天气方面等等,所有的可以被量化或者是概率化的内容都正在被推进。
但是科学或者是技术,其实很像河西走廊上面的地下河,它是连续不断的向前前进的,但是哪里会有一个绿洲,其实有点看命,因为就要看哪里的地面凹陷下去,水才会露出来,然后长出一片绿洲。
所以正像《文明之光》的作者吴军所说的那样,事实上关于人工智能的技术或者是科学和技术一直是全方位展开的,只不过专家也没办法预测它的下一朵鲜花或者说是下一片绿洲会出现在哪个领域。
如果你看过卡尼曼的《噪声》,你就会发现专家的预测其实是最不可靠的,因为专家的大脑其实也很难真正地从理性的角度去用概率进行判断,更多的时候,我们还是在我们的生存场当中做出符合我们的“心”或者生命情感的那些非理性的判断。
我们知道,计算机的结构是表征0或者1的二极管,而大脑里面的神经元也只有0或者1两种状态,所以从物理结构的角度来讲,似乎计算机和人的大脑是同构的。
如果他们具有相同的结构,那么也许在不远的未来,人工智能AI真的有可能会和大脑一样具备同样的功能,也就是有意识、有自我。只是这个过程有可能会比较长,比如说300万年前可能就已经有了灵长目的大类,但是猴子、黑猩猩等他们没有发展出自我意识,没能成为人,所以仅仅具备相同的结构单元可能是不足够的。
那么计算机和人脑之间,到底差什么?可能还得留给生理学家、心理学家去研究。
也许在未来的某一天,他们会打消我们的顾虑,让我们放心地睡觉,不用担心有一天会被机器人控制了。
当然说这样一个话题,其实还是想说,任何事情都是一个过程,就像300万年前有脑子的猴子、猩猩直到大约20万年前才演变成自然之道,几百年前才发展出科学这个过程,其实是相当漫长的。
而今天的人工智能如果要想演变成人,甚至控制人,当然也需要一个过程,我们首先要担心的是一群人利用人工智能控制另外一群人。
所以我们要想办法把我们的文明能够变成机器可以阅读的语言,能够让机器把我们的文明概率化,然后帮助我们去应对来自另外一个和机器文明融合更好的人群的挑战。
否则就像过去的机器取代人一样,它其实首先取代的是像机器一样工作的人。过去是流水线上的工人,那是手脚像机器一样工作的人;接下来可能是一些处理文字图片的人,也是不适用大脑的创造力,而是用大脑的机械部分去处理文字和图片的人。
总而言之,人工智能取代的,或者是最先取代的,永远都是像机器一样工作的人。
不过担心人工智能也是有必要的,毕竟我们还是要不停地监督它们,看看它们什么时候会忽然像“吴三桂一样冲冠一怒为红颜”,这就代表着它忽然间具备了生命情感,如果到了那个时候,那真正的挑战就开始了。
记得我听了一本科幻小说,写的是人类第一次毁于核战争,当人类从核战争的废墟上站起来以后那第二次的毁灭,毁灭于人工智能。当人类从废墟里第三次站起来的时候,他们决定把人工智能当成自己的孩子一样培养,而不是去考虑各种各样的程序门槛,各种各样的密码暗号来限制人工智能。
所以也许在遥远的未来,人工智能真的就是人,那其实也没什么,因为最后或者是过去,我们不是也一直在开展着人与人的斗争吗?似乎也没什么好怕的。
最后祝大家都好运。