2.1.2.7 教育的目的是建立并实现目标

传统教育体系的目标是快速培养大量的、满足标准工作质量的熟练社会人:
1、学习/记忆知识。
2、重复练习形成学习方法。

《从拔尖的陷阱到掌控的反噬》
https://mp.weixin.qq.com/s/nggJT46jUfXNgEZyZVc8hQ
优绩主义、泰勒教学模式、抢跑——过程(评价系统)成了目标本身,做题家总是在揣摩出题人的心思;固化/僵化了学习的方法,失去了“确立目标的能力”。“人的真正成长需要一种否定性的力量”。


AI时代需要新的教育体系:
1、建立、保持兴趣的能力,以保持不断建立新的阶段性目标的动力。
2、确立目标的能力:阶段性目标的建立与创新的能力。
3、实现目标的能力:复杂环境下的学习/分析新问题的能力(创新能力)、使用工具(建立创新的基础层次)的能力、团队协作能力。

2.1.4 进化形成不同层次的目的

人在进化过程中,逐步形成不同层次的目标/目的:
1、基因——复制、变异(发展)
2、载体——生存(基本生存能力 + 逐渐增长的预测判断能力)且健康长寿、对多模态IO的满足
3、意识/智能——学习、创新
前两个层次的目标是被动的,是经过长期进化积累形成的。随着载体的预测能力的增长,逐步形成第三层次。

这些层次的目的与马斯洛的需求层次的关系;与双因素模型的关系;供给与需求的有限性(物质约束)/无限性(无成本复制)。

1.2.3.1 意识理论(ToC)综述文章

“Theories of consciousness” Anil K. Seth & Tim Bayne
https://www.nature.com/articles/s41583-022-00587-4
中文: https://swarma.org/?p=35967

“An integrative, multiscale view on neural theories of consciousness.” Storm, Johan F., et al.
https://doi.org/10.1016/j.neuron.2024.02.004
中文: https://mp.weixin.qq.com/s/OM-_-yjfHuUug2OXcZEv4w

“A Review of Findings from Neuroscience and Cognitive Psychology as Possible Inspiration for the Path to Artificial General Intelligence”
神经科学和认知心理学的发现回顾:作为通往人工通用智能之路的可能启示
https://arxiv.org/abs/2401.10904
全译上 https://mp.weixin.qq.com/s/vTn-haVWeXvLhI5O1MVpeQ
全译下 https://mp.weixin.qq.com/s/FnxGJBaa0qPWM3w8EAkTZQ

1.1.1.3 生命的出现是预期的相变

Is the Emergence of Life an Expected Phase Transition in the Evolving Universe?
《生命的出现是宇宙演化中预期必然出现的相变吗?》
Stuart Kauffman and Andrea Roli
https://osf.io/6rvjs 
https://doi.org/10.31219/osf.io/6rvjs
https://arxiv.org/abs/2401.09514v1

1.1.1.3.1 生命的定义
一个非平衡的、自我复制的化学反应系统。具有以下三个特征:
1.集体自催化(催化闭合 Catalytic Closure):一个具体例子是模板复制双链RNA序列,每条链都是合成另一条链的模板催化剂。
2.约束闭合(Constraint Closure):系统通过构建自己的边界条件约束来构建自身,从而构建相同的边界条件的能量释放。细胞自我构建边界,计算机、汽车不会自行构建边界。细胞在释放能量时构建了非常边界条件,而能量构建了完全相同的边界条件。
3.空间闭合(Spatial Closure):对应在通用构造函数中。物理体现的指令扮演着的双重角色:生命体用于构造通用构造函数的副本,其中构造物理指令的物理副本被构造,然后指令被插入其中。物理指令的双重作用恰恰构成了软件和硬件之间的区别。与此形成鲜明对比的是,活细胞通过自催化和约束闭合,专门构建自身。细胞不是需要单独指令的通用构造函数。元胞自动机模拟了一个可以无限进化的数字世界,具有自我催化和空间闭合的特征,却不具备约束闭合的特征。在元胞自动机中,即使在那些能够不断重复自身的规则中,如果在复制过程中,如果规则发生了改变,那系统由于缺少约束封闭,也会难以出现预适应的现象。

康德式整体(Kantian Wholes):一个有组织的存在者具有部分为整体而存在,并通过整体而存在的属性。所有生物都是康德式的整体,它们为它们的部分而存在,并通过它们的部分而存在。生物体已经进化成嵌套的康德整体。原核生物是一阶康德整体。真核细胞是线粒体和叶绿体的共生体 是包含一级康德整体的二级康德整体。多细胞生物是包含二阶和一阶康德整体的三阶康德整体。

1.1.1.3.2 生命出现的必然性
根据生命的定义,生命是宇宙演化中预期必然出现的相变现象。
设N为节点数,连接节点的线数为L,比率L/N增加到 0.5 时,一个巨大的连接组件或网络出现了。增加系统中分子的数量和原子复杂度,反应与分子的比率增加,在系统中分子的某种复杂性和比率下,将出现一个集体自催化集,是一个一阶相变,其概率接近 1.0。通过该相变可以产生自我复制的分子系统,由此论证生命涌现的必然性。

1.1.1.3.3 进化的不可演绎性
进化生物圈持续创造了无法提前推断或确定的新相空间。
不同于牛顿范式下的无生命物理学,生命体诉诸功能是必要的。一旦我们定义了一个康德整体,其组件的“功能”是明确的。组件的功能是其因果关系的子集,是对维持整体带来的影响。因为零件的功能是其因果属性的子集,它维持整体,同一部分的功能可以改变。一些新的,未使用的,同一部分的因果属性的子集可以维持整体。这些被称为预适应。预适应不能被事先预测,是生物圈功能新颖性和开放式进化的源泉。生物圈的演化是一种不可演绎的结构,而不是必然的演绎。生物圈的进化没有任何规律。因此,我们不能使用集合论或任何基于集合论的数学:集合论的第一公理是扩展公理-“当且仅当两个集合包含相同成员的集合时,它们才相等”。此外,选择公理也失败了。我们不能使用基于集合论的数学——基本上是所有的数学——来推断生物圈的未来演化。我们不能仅仅用物理学来解释生物圈的演变。可遗传变异的自然选择作用于康德的整体,而不是直接作用于其部分。这种选择是向下的因果关系。在这里,解释性箭头指向上方。

《生命的出现是宇宙演化中预期必然出现的相变吗?》
https://mp.weixin.qq.com/s/py9OIu0sgTtj2d0G9xIUxw

《生命相变必然涌现,而演化则不可预期》
https://mp.weixin.qq.com/s/BPNonKtKFAeE4PEKgJppnQ
集体自催化集(Collectively Autocatalytic Sets)和相邻可能理论(Theory of the Adjacent Possible)

2.1.1.7 纳瓦尔的三个答案

《纳瓦尔宝典》埃里克·乔根森
第五章 哲学
生命的意义和目的是什么?这个问题很大,我会给你三个答案。

第一个答案:生命的意义是一个私人问题。每个人都必须找到自己生命的意义。其他人(无论是佛陀还是我)给你的任何智慧听起来都像是胡说八道。从根本上说,每个人都必须自己去寻找答案,所以重要的不是答案,而是问题。你得坐下来深入思考,努力探究这个问题。寻找人生的意义可能需要几年甚至几十年。一旦找到令自己满意的答案,这个答案就会成为你生活的根基。

第二个答案:生命没有意义,生活没有目的。有人说:“人生如水上写字或以沙建房。”宇宙已经存在了100亿年,未来可能会继续存在700亿年。与宇宙的历史相比,你的生命相当于不存在——在过去的100亿年中并不存在,在未来的700亿年中也将不复存在。宇宙终将归于热寂。你做的任何事情都将烟消云散,你存在的一切痕迹都将无处可寻。人类终将灭亡,地球也会荡然无存。即使是移民火星的群体也会消失。无论你是艺术家、诗人、征服者、贫民,还是其他任何人,几代人过后,都不会有人记得你。总之,生命没有任何意义。归根到底,一个人必须创造自己人生的意义。
你必须想清楚:“生命只是一场戏,而我只是一个观众?”
“我做的事情是为了自我实现吗?”
“我对某种东西的渴望是因为其本身吗?”
所有这些都是你编造出来的意义。对宇宙来说,没有什么基本的内在目的或意义。如果有,在得知了这一意义之后,你就会接着问:“为什么这就是生命的意义?”正如物理学家理查德·费曼所说:“就好像一个东西被一只乌龟驮在背上,这只乌龟下面是一只更大的乌龟,再下面都是乌龟。一个问题总会带来另一个问题,‘为什么’会不断累积。任何一个答案都会引出另一个‘为什么’。”我不相信“永恒的来世”这类回答。仅仅因为在这个星球上生活了70年,你就能获得永恒的来世——我觉得这个说法毫无依据,荒谬至极。我觉得“来世”跟“前世”差不多。你还记得自己的“前世”吗?不记得了吧。“来世”也一样。在你出生之前,这个世界上并不存在一个“你”,你不关心任何事和任何人,包括你所爱的人,包括你自己,包括人类,包括人类是要移民火星还是留在地球上,包括是否有人工智能,等等。在你死后,这个世界上的“你”就消失了,你也不会在乎这些了。

第三个答案:这个答案有点儿复杂。根据我所阅读的科学领域的书籍(我的朋友写过相关主题的书),我拼凑出一些理论。也许人生有意义也有目的,但我要说的这个目的或许并不能令你满意。说白了,在物理学中,时间之箭来自熵。根据热力学第二定律,随着时间的推移,熵只会增加,不会减少,这意味着宇宙中的无序状态只会增加,集中的自由能只会减少。如果把人类或植物等任何一种生物或人类文明视为一个系统,这些系统就是在局部熵减。人类在局部熵减,因为我们有行动力。而在人类局部熵减的同时,整个地球在整体熵增,直到宇宙归于热寂。在宇宙热寂理论之下,你可以提出一些很有意思的解释,我也非常乐于看到。在热寂状态里,能量不再集中,万物都处于同等的能量水平。此时,万物归一,毫无二致。作为生命系统,我们所做的一切都是在推动宇宙加速达到热寂。创作艺术、研究数学、组建家庭、发明计算机、创建文明等等——所有这些更复杂的系统都在使宇宙加速达到热寂。你正在把我们推向“万物一体”的终极境界。

2.1.3.1.1 人类不会主动赋予AI“自我意识”、“终极目标”

《科学之路:人、机器与未来》Yann LeCun(杨立昆)
意识属于“冗余”的AI特质,非但无益且可能有害,因此不是“造物者”(即人类)所重视的特质。如果从目的论的角度来说,人工智能永远都不会被人类主动赋予意识。没有人工意识,就没有必要有机器人三定律。
一个小魔法师控制不了自己创造出来的小怪兽。所有这些假设都是极不可能的。我们怎么会如此聪明地设计出一个超人类的智能机器,同时又如此愚蠢地赋予它荒谬至极的目标呢?我们会轻率到不采取一些保障措施吗?例如,为何不设计另一台超级智能机器,使其唯一目的就是阻止第一台机器呢?
没有社会结构,就没有统治体系。没有统治欲望也可以很聪明。统治的意愿与智力无关,更多的是睾丸素分泌的问题。只有当我们在智能机器中明确地建立了这种欲望时,它们才会渴望统治人类。我们为什么要这样做呢?

《别害怕终结者》杨立昆和托尼·泽特尔
AI系统试图统治人类的情景是不现实的,要实现统治,你需要有统治的动机。这种动机在人类以及一些其他社会性物种中存在,但在非社会性物种中并不存在,因此我们设计的AI系统也不会有这种动机。我们可以设计AI系统的目标,使它们非支配性、顺从或者遵循与人类整体最佳利益一致的规则。

2.2.1.5.2 当前的LLM无法实现AIGCs

1、《大语言模型无法实现具身智能的根本原因》Generating meaning: active inference and the scope and limits of passive AI
https://mp.weixin.qq.com/s/brSGlBFfDXIhmHtXydK3hQ
https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(23)00260-7?dgcid=raven_jbs_etoc_email

我们对语言符号含义的掌握并非源于我们处理自然语言的能力,而是源于我们通过采样和互动而积累的对生活世界的更基础的理解。想象一种外星生命形式,它与某些潜在现实的唯一联系是通过大量的文字:与隐藏的现实(我们的人类世界充满了猫、牧师、经济萧条、LLMs、选举等等)有着真实但复杂且有时不精确关系的物品。将这个存在对文字流的访问本身视为一种形态,一种感觉通道。外星人发现自己被迫尝试预测感官流中的下一个项目,推断出使其能够出色地完成这项工作的潜在模式。

对感知行为的著名描述将大脑描述为有机体与世界相互作用的生成模型,这与生成人工智能的当前进展表现出有趣的相似之处。然而,由于它们与有目的的、维持生命的感觉运动相互作用的控制作斗争,生物体的生成模型与身体和世界密不可分。与生成式人工智能学习的被动模型不同,它们必须捕捉并控制行动的感官后果。这使得实体主体能够以不断测试其最佳模型的方式干预他们的世界;这提供了坚实的基石,对于发展真正的理解至关重要。
• 我们通过将生成式人工智能与我们目前对生物体(被视为主动推理系统)的理解进行比较来讨论生成式人工智能的基础。
• 生成式人工智能和主动推理都基于生成模型,但它们以根本不同的方式获取和使用它们。生物体和主动推理主体通过与环境进行有目的的交互并通过预测这些交互来学习它们的生成模型。这为他们提供了核心理解和重要感,这是他们后续知识的基础。
• 生成人工智能领域越来越多地朝着多模态和具身化的方向发展。虽然可以通过预测视频以及耦合控制和语言输入来学习很多东西,但其后的智能体将无法控制他们的感觉运动体验,也无法与环境进行有目的的交流,无法进行有用的干预来支撑我们对事物的因果理解。未来的生成式人工智能可能会遵循相同的(仿生)方法,并在被动训练之前(或代替被动训练)学习与世界的具体接触中隐含的可供性。

“新生儿要做的第一件也是最基本的事情是什么?如果一个人认同自由能原理,那么它唯一要做的就是解决其外感受、本体感受和内感受的原因的不确定性。对沉浸在环境中的有知觉生物的感觉的解释必须区分自我(生物)和非自我(环境)。结构学习的首要任务是区分可以归因于自我的感觉的原因和那些不能归因于自我的感觉的原因。”——Karl Friston

2、《为什么用当前的数学构建不了真实的世界模型》
https://mp.weixin.qq.com/s/r0RRMZ_NZnRghHFHgEVILw
一个真实的世界模型应该是一个完整而准确的描述现实世界的模型,它应该包括了所有基本的组成部分和相互作用,能够准确地反映真实世界的各种现象和规律。这样的世界模型应该是基于大量的观察、实验和数据分析而建立的,能够预测和解释真实世界中的各种现象和事件。一个真实的世界模型应该是动态的,能够随着新的观察和实验数据的不断积累而不断完善和修正。它也应该是综合的,能够充分考虑不同领域和学科的知识和观点,以便更全面地理解和解释现实世界的复杂性。最重要的是,一个真实的世界模型应该是可靠和可验证的,它的预测和解释应该能够得到经验证实验的支持,能够被多个独立的研究团队不断重复和证实。
真实的世界模型应该包括:
– 物质实体
– 空间
– 时间
– 功能和行为
– 社会关系
– 观点和信念

当前的数学是一种抽象的工具,用于描述和解决各种现实世界中的问题。然而,由于现实世界是非常复杂和多变的,数学模型往往只能提供一种理想化的简化描述,而无法完全还原真实世界的复杂性和多样性。另外,数学模型的构建也受到数据的限制和误差的影响,因此无法完全准确地捕捉真实世界中的各种因素和变化。此外,真实世界还包括了许多非线性、非确定性、不可预测的因素,这些因素在数学模型中往往难以准确描述和模拟。因此,尽管数学在建立模型和解决问题方面具有强大的能力,但对于真实世界的复杂性和多样性,目前的数学工具还无法完全捕捉和表达。

3、《世界模型的基础:抽象与客体永恒性》 Above and beyond the concrete: The diverse representational substrates of the predictive brain
https://mp.weixin.qq.com/s/jhoGiEeaqos8Ar66cTVCpQ
https://cuhigginslab.com/wp-content/papercite-data/pdf/rossignac-milonetal2020a.pdf

2.1.1.1.1 三类知识的基本问题

《理解和改变世界:从信息到知识与智能》希发基思

三类关于知识的基本问题:

1、目的论问题Why
我们期待从现象中找到一个目的。例如,我们为什么会存在?

2、本体论问题What
这涉及到“存在”的本质。例如,世界是否是一个虚拟的游戏?

3、认知论问题How
这类问题是科学的、数学的、经验的,只有认知论问题才能严格求解。然而,因为某些必须的冗余,这个世界充斥了太多平庸的、迷信的、甚至是欺诈的“知识”。人类一直试图去解释这个世界,并且用该解释去预测未来。然而,大多数对过去的解释,并不具备对未来的预测能力。

1.2.2.14.3.2 意识的整合世界建模理论IWMT

意识的整合世界建模理论(IWMT):将整合信息和全球神经工作空间理论与自由能原理和主动推理框架相结合;朝着解决困难问题和描述主体因果关系的目标迈进。

IWMT = FEP-AI(自由能原理和主动推理框架) + IIT(整合信息理论) + GNWT(全局工作空间理论)

Adam Safron
An Integrated World Modeling Theory (IWMT) of Consciousness: Combining Integrated Information and Global Neuronal Workspace Theories With the Free Energy Principle and Active Inference Framework; Toward Solving the Hard Problem and Characterizing Agentic Causation
https://pubmed.ncbi.nlm.nih.gov/33733149/
https://mp.weixin.qq.com/s/rcZzMUyX5Y25L-WWnk49NA

2.1.3.1  AI不能形成自己的目的/意义

生命最显著的特征之一是其处理新奇事物的能力,特别是对新环境和内部组成部分的变化进行适应和蓬勃发展。在整个生物圈中,适应性能力的程度有很大的变化,从简单的稳态过程到具有元认知能力的复杂心智,不仅能够追求复杂目标,而且能够设定和重新设定这些目标。
《Competency in navigating arbitrary spaces as an invariant for analyzing cognition in diverse embodiments 导航任意抽象空间:强大的智能不变量》
https://www.mdpi.com/1099-4300/24/6/819
https://mp.weixin.qq.com/s/Vk5G10-Ll508KdoOJtE4lw

1、人类不会主动赋予AI“自我意识”、“终极目标”

2、AI没有自我、没有意识,不能主动形成“终极目标”

3、没有经历过长期的环境竞争与选择、累计改进的过程,无法形成“终极目标”