2.2.1.5.2 当前的LLM无法实现AIGCs

1、《大语言模型无法实现具身智能的根本原因》Generating meaning: active inference and the scope and limits of passive AI
https://mp.weixin.qq.com/s/brSGlBFfDXIhmHtXydK3hQ
https://www.cell.com/trends/cognitive-sciences/fulltext/S1364-6613(23)00260-7?dgcid=raven_jbs_etoc_email

我们对语言符号含义的掌握并非源于我们处理自然语言的能力,而是源于我们通过采样和互动而积累的对生活世界的更基础的理解。想象一种外星生命形式,它与某些潜在现实的唯一联系是通过大量的文字:与隐藏的现实(我们的人类世界充满了猫、牧师、经济萧条、LLMs、选举等等)有着真实但复杂且有时不精确关系的物品。将这个存在对文字流的访问本身视为一种形态,一种感觉通道。外星人发现自己被迫尝试预测感官流中的下一个项目,推断出使其能够出色地完成这项工作的潜在模式。

对感知行为的著名描述将大脑描述为有机体与世界相互作用的生成模型,这与生成人工智能的当前进展表现出有趣的相似之处。然而,由于它们与有目的的、维持生命的感觉运动相互作用的控制作斗争,生物体的生成模型与身体和世界密不可分。与生成式人工智能学习的被动模型不同,它们必须捕捉并控制行动的感官后果。这使得实体主体能够以不断测试其最佳模型的方式干预他们的世界;这提供了坚实的基石,对于发展真正的理解至关重要。
• 我们通过将生成式人工智能与我们目前对生物体(被视为主动推理系统)的理解进行比较来讨论生成式人工智能的基础。
• 生成式人工智能和主动推理都基于生成模型,但它们以根本不同的方式获取和使用它们。生物体和主动推理主体通过与环境进行有目的的交互并通过预测这些交互来学习它们的生成模型。这为他们提供了核心理解和重要感,这是他们后续知识的基础。
• 生成人工智能领域越来越多地朝着多模态和具身化的方向发展。虽然可以通过预测视频以及耦合控制和语言输入来学习很多东西,但其后的智能体将无法控制他们的感觉运动体验,也无法与环境进行有目的的交流,无法进行有用的干预来支撑我们对事物的因果理解。未来的生成式人工智能可能会遵循相同的(仿生)方法,并在被动训练之前(或代替被动训练)学习与世界的具体接触中隐含的可供性。

“新生儿要做的第一件也是最基本的事情是什么?如果一个人认同自由能原理,那么它唯一要做的就是解决其外感受、本体感受和内感受的原因的不确定性。对沉浸在环境中的有知觉生物的感觉的解释必须区分自我(生物)和非自我(环境)。结构学习的首要任务是区分可以归因于自我的感觉的原因和那些不能归因于自我的感觉的原因。”——Karl Friston

2、《为什么用当前的数学构建不了真实的世界模型》
https://mp.weixin.qq.com/s/r0RRMZ_NZnRghHFHgEVILw
一个真实的世界模型应该是一个完整而准确的描述现实世界的模型,它应该包括了所有基本的组成部分和相互作用,能够准确地反映真实世界的各种现象和规律。这样的世界模型应该是基于大量的观察、实验和数据分析而建立的,能够预测和解释真实世界中的各种现象和事件。一个真实的世界模型应该是动态的,能够随着新的观察和实验数据的不断积累而不断完善和修正。它也应该是综合的,能够充分考虑不同领域和学科的知识和观点,以便更全面地理解和解释现实世界的复杂性。最重要的是,一个真实的世界模型应该是可靠和可验证的,它的预测和解释应该能够得到经验证实验的支持,能够被多个独立的研究团队不断重复和证实。
真实的世界模型应该包括:
– 物质实体
– 空间
– 时间
– 功能和行为
– 社会关系
– 观点和信念

当前的数学是一种抽象的工具,用于描述和解决各种现实世界中的问题。然而,由于现实世界是非常复杂和多变的,数学模型往往只能提供一种理想化的简化描述,而无法完全还原真实世界的复杂性和多样性。另外,数学模型的构建也受到数据的限制和误差的影响,因此无法完全准确地捕捉真实世界中的各种因素和变化。此外,真实世界还包括了许多非线性、非确定性、不可预测的因素,这些因素在数学模型中往往难以准确描述和模拟。因此,尽管数学在建立模型和解决问题方面具有强大的能力,但对于真实世界的复杂性和多样性,目前的数学工具还无法完全捕捉和表达。

3、《世界模型的基础:抽象与客体永恒性》 Above and beyond the concrete: The diverse representational substrates of the predictive brain
https://mp.weixin.qq.com/s/jhoGiEeaqos8Ar66cTVCpQ
https://cuhigginslab.com/wp-content/papercite-data/pdf/rossignac-milonetal2020a.pdf

2.1.1.1.1 三类知识的基本问题

《理解和改变世界:从信息到知识与智能》希发基思

三类关于知识的基本问题:

1、目的论问题Why
我们期待从现象中找到一个目的。例如,我们为什么会存在?

2、本体论问题What
这涉及到“存在”的本质。例如,世界是否是一个虚拟的游戏?

3、认知论问题How
这类问题是科学的、数学的、经验的,只有认知论问题才能严格求解。然而,因为某些必须的冗余,这个世界充斥了太多平庸的、迷信的、甚至是欺诈的“知识”。人类一直试图去解释这个世界,并且用该解释去预测未来。然而,大多数对过去的解释,并不具备对未来的预测能力。

1.2.2.14.3.2 意识的整合世界建模理论IWMT

意识的整合世界建模理论(IWMT):将整合信息和全球神经工作空间理论与自由能原理和主动推理框架相结合;朝着解决困难问题和描述主体因果关系的目标迈进。

IWMT = FEP-AI(自由能原理和主动推理框架) + IIT(整合信息理论) + GNWT(全局工作空间理论)

Adam Safron
An Integrated World Modeling Theory (IWMT) of Consciousness: Combining Integrated Information and Global Neuronal Workspace Theories With the Free Energy Principle and Active Inference Framework; Toward Solving the Hard Problem and Characterizing Agentic Causation
https://pubmed.ncbi.nlm.nih.gov/33733149/
https://mp.weixin.qq.com/s/rcZzMUyX5Y25L-WWnk49NA

2.1.3.1  AI不能形成自己的目的/意义

生命最显著的特征之一是其处理新奇事物的能力,特别是对新环境和内部组成部分的变化进行适应和蓬勃发展。在整个生物圈中,适应性能力的程度有很大的变化,从简单的稳态过程到具有元认知能力的复杂心智,不仅能够追求复杂目标,而且能够设定和重新设定这些目标。
《Competency in navigating arbitrary spaces as an invariant for analyzing cognition in diverse embodiments 导航任意抽象空间:强大的智能不变量》
https://www.mdpi.com/1099-4300/24/6/819
https://mp.weixin.qq.com/s/Vk5G10-Ll508KdoOJtE4lw

1、人类不会主动赋予AI“自我意识”、“终极目标”

2、AI没有自我、没有意识,不能主动形成“终极目标”

3、没有经历过长期的环境竞争与选择、累计改进的过程,无法形成“终极目标”