《心智简史》第22章 我意识到我,凝视心智上的无限镜屋
最聪明的分子心智嵌套于最聪明的神经元心智之中,最聪明的神经元心智又嵌套于最聪明的模块心智之中,而最聪明的模块心智又嵌套于最聪明的超级心智之中。当智人的超级心智从篝火和洞穴发展到购物中心和太阳能电池阵列时,这种嵌套式、层级递增的心智提升,在智人的超级心智中再次展现出来。随着智人超级心智的发展,超级心智的模块也在发展,进而推动了科学、艺术和经济的发展。
你的自我与在它之上和之下的无数物理动态层彼此交织,密不可分,这些物理动态层整体上形成了一种类似倒置飓风的事物(见图22-1 自我飓风)。
你存在的动态由一系列嵌套的堆栈构成,这些堆栈通过量子与行星彼此交叠的反馈回路连接起来。每一层都是一种独特的动态—一种独特的物质运动,它的行为受到正上方和正下方层级的影响。你是主观体验特性思维的一场局部运动,但你也是伴随意识运动的局部语言运动,伴随表征思维运动的意识运动,伴随神经思维运动的表征运动,伴随分子思维运动的神经运动,伴随无目标亚原子运动的分子运动。
生物进化经历了多个层次的涌现(大量下一层的元素在高一层面上显现出的全新特性):
1、无机物——>有机物(RNA)
2、有机物——>细胞
3、单细胞——>多细胞
4、植物——>动物(C0意识):感知(大脑)+行动的闭环
5、C0意识——>C1、C2意识
这些涌现层级中还有许多的小层级的涌现:器官、视觉、语言等等。今天的AI只有一个层次的涌现:大量的神经元——>大模型(LLM),还只是统计层面的(推理层面的CoT还没有大量的单元+数据可以用来训练,还不是涌现)。
—
https://mp.weixin.qq.com/s/_kpzjNqdcNvRXTkVDiFFhQ
涌现也即“计算不可约性(computational irreducibility)”:底层规则演化涌现的整体属性,对计算而言,即无法通过更简化的计算步骤来预测最终结果。宇宙遍布这样的系统。https://mp.weixin.qq.com/s/OhFnufF_pCVv6snRsO1dBQ
把我们对气体的观察想象成——我们把众多分子的微观状态「合并」到了一起,只关注总体的聚合属性。统计力学的专业用语会提到「粗粒化」(coarse graining)。可在我们这种计算化的框架下,就能很清楚地用计算的方式来刻画这一点:在分子层面上,有不可约的计算在进行;而当观察者想要「理解气体发生了什么」,观察者自身也在进行计算。
https://mp.weixin.qq.com/s/3iD_JyGD6c39ePPniS8-WA
《涌现何时发生?机器观察者可以像人类一样识别涌现吗?》
—
https://mp.weixin.qq.com/s/gs0bpnhgWj6RhCvJcREoTA
《三个电子,就会涌现出集体行为》
仅仅三个电子,就已经能显现出强烈的粒子间相互作用;而当电子数达到五个时,相互作用甚至强到足以模拟数千亿电子的集体行为。
https://www.nature.com/articles/d41586-025-01713-9
—
推理层面的CoT还没有大量的数据可以用来训练,还不是涌现:
https://arxiv.org/abs/2403.04121
《Can Large Language Models Reason and Plan?》
https://mp.weixin.qq.com/s/cGr-JlQK8x2q5fMGFNpfew
《LLM神话破灭?苹果论文最新实锤:难以实现真正智能》
https://mp.weixin.qq.com/s/YH35jyOZ9jCtHYi3qZR45g
《大模型推理的天花板在哪里?》
《The Illusion of Thinking: Understanding the Strengths and Limitations of Reasoning Models via the Lens of Problem Complexity》
专门针对推理任务进行优化的“大型推理模型”(Large Reasoning Models, LRMs)通过“链式思维”(chain‐of‐thought, CoT)或自我反思机制,先生成详尽的思考过程再给出答案。
– 低复杂度阶段:标准LLM表现出色,推理更高效、准确率甚至超过LRM;
– 中等复杂度阶段:引入思维痕迹后,LRM开始在准确率上领先,但其推理token消耗也显著攀升;
– 高复杂度阶段:无论思维与否,所有模型准确率均骤降,出现“推理崩溃”现象——无法给出任何有效解答。
LLMs 只是深度学习的一种形式,这种方法的局限性正日益清晰,或许其他形式——尤其是那些更善于处理符号的——最终会蓬勃发展起来。
https://mp.weixin.qq.com/s/4mJm30w6v9mcPujWX02_mA
《思维链并非可解释性》
https://www.alphaxiv.org/abs/2025.02
《Chain-of-Thought Is Not Explainability》Bengio
https://mp.weixin.qq.com/s/LxmpNCLvYrlUKymgf1WLsA
《什么构成了优秀的推理链》LLMs的推理质量本身仍然处于不稳定状态。https://mp.weixin.qq.com/s/_5M7uc86kCTWxqSUSPkIfg
《大模型是「躲在洞穴里」观察世界? 强化学习大佬「吹哨」提醒LLM致命缺点》
《柏拉图洞穴中的语言模型》
LLM没有采用一种学习过程来了解世界是如何运作的,而是采用了一种难以置信的间接过程来扫描人类大脑,以构建人类认知过程的粗略副本。当然,训练大语言模型的数据中心里并没有人被绑在核磁共振机器上。大语言模型采用的是一种更巧妙的方法:它们通过分析人类思维在互联网上的投影来重建人类的思维过程。它们仅仅复制了人类心理表征的某些方面,而无需弄清楚让人类获得这些表征的学习算法。这些 AI 系统其实生活在「柏拉图的洞穴」里。这个洞穴就是互联网,人类智能就像洞外的光源,在洞壁上投下现实世界的影子,而大语言模型只能看到这些影子。