《AI的理解困境:如何走出数据世界,触达生命的理解?》https://mp.weixin.qq.com/s/SflTQWcS3EcKKggL-bxTkw
大脑的基本功能并非积累知识,而是控制与世界的信息和能量交换。重要的不是知识的真实性,而是与世界交互形成的稳定性。生物系统的另一特征是在与世界进行互动之前,它们能够基于已掌握的关于动态世界的知识,做出行动预测。这种预测是主动推理(active inference)的基石。简单来说,主动推理认为,生命有机体的感觉行为根本上是预测性的,而非随机被动触发,它建立在能够提供可供性的世界模型之上。
成功的生成模型能够从数据中提炼出“潜在变量”,这些变量有助于解释和预测。主动推理的生成模型涉及理解,并将潜在变量作为概念形成的基础。沟通的意义不在于语音和语法,而在于由沟通所预测的社交互动。生成式AI只是继承了人类沟通所得的语言财产,却不会参与到赋予语词意义的互动过程中。生命有机体通过与环境的感觉运动互动来学习,这种互动不仅包括了统计规律的掌握,更重要的是,它们是形成知觉和对世界因果关系理解的基础。生命有机体的注意力涉及到主动选择,其目的是消除不确定性。
生物体在演化的过程中,面对自然选择的压力,发展出了独特的生成模型。例如,我们的情绪,根植于对某物“对我重要”的感觉,这为我们对世界的理解赋予了意义和目的。在主动推理的过程中,我们利用内感受预测(interoceptive prediction)来引导行动和决策,这种方式使我们能够更好地理解行动的原因和后果。这种内感受、外感受和本体感受的预测共同促进了生命体的生存。因此,与生成型AI不同,生物的主动推理模型自然形成,不需要像AI那样不断地学习细粒化的、繁复的任务。
真正的“理解”以能动性理解为基础,建基于有机体通过感觉运动与世界进行的互动,建基于生命有机体对环境的主动探索。更深层次的理解需要分离性表征的能力,即使这种能力仍然基于与世界的互动,但它能够超越当前情境,进行规划、想象和讨论抽象概念。这种理解不仅仅是对统计规律的掌握,而是对世界模型背后的因果结构的深入认识。
更可靠的方式可能是先让AI系统在与现实世界的互动中学习,然后再将这些经验与大型语言模型结合。
Pietro Perona:如果你是一个非实体,你所需要做的就是进行预测,而相关性对于预测来说是非常有用的。但是,如果你需要改变世界,也就是说你需要进行干预,那么你就需要理解事物的原因。因此,因果关系是至关重要的,它使得推理成为可能。
《智能能够在不与环境交互的情况下自我进化吗》
https://mp.weixin.qq.com/s/Lg3QpRVXcnZtxmfHVPyC2Q
否存在一种可能性,智能其实可以在不与环境交互的情况下自我进化,就像数学推理一样,一步步就产生了复杂的智能。
###
如果智能体的目的是生存、发展,就必须要依赖与环境的互动(解释、预测、学习),不断变化的环境是知识的唯一来源。