1.2.1.1 大脑的一个极端案例

《Brain of a white-collar worker》
Lionel Feuillet, Henry Dufour, Jean Pelletier
柳叶刀(www.thelancet.com) 2007年7月21日; 第370卷: 262页

一名44岁男性因左下肢轻度无力2周就诊,临床图像 (Clinical Picture):

梗阻性脑积水(90%的大脑是水,智商75分:言语智商84分操作智商70分)仍然能够:
1、结婚
2、育两子
3、从事白领工作
说明他的体力+智力功能基本正常。从这个极端案例可以初步判断:
1、人体(身体+大脑)有强大的自适应能力
2、社区/社会的包容性/可适应性(公务员对智力的要求?)
3、大脑结构中冗余的必要性
大脑、身体、意识、社会还有许多方面要去发现、研究的。

2.2.1.3.9.2 人工智能之镜

《The AI Mirror: How to Reclaim Our Humanity in an Age of Machine Thinking》https://nautil.us/ai-is-the-black-mirror-1169121/
《人工智能之镜:如何在机器思维时代重拾人性》https://mp.weixin.qq.com/s/-2YkgY2lxKeECK2Nw56akQ
要理解AI算法,我们不应将其视为心智(minds)。
“一个多世纪以来,我们都受到科幻和各种文化想象的影响,觉得AI一旦出现,就会是拥有心智的机器。但实际上,我们目前拥有的AI,在本质、结构和功能上都与‘心智’大相径庭。” 相反,我们应该将AI想象成一面镜子,它并不会与它所映射的对象完全相同。“当你走进浴室刷牙时,你不会认为有第二张脸在看着你,那只是脸的映像,属性截然不同——既没有温度,也没有深度。”
同样地,心智的映像并非心智。基于大语言模型(LLM)的AI聊天机器人、图像生成器,也仅仅是人类表现的镜像。“你看到的ChatGPT的输出,都只是人类智能的镜像,我们的创造性偏好、我们的编程专长、我们的声音,无论我们输入什么,都会映射回来。”

《阻止意义的崩塌》https://mp.weixin.qq.com/s/SZkiChSSbQgyDtj2VX2Ojw
AI 既是解放工具,也可能成为新霸权载体。

《理性的边界》
2.1 骗子!骗子!
我们何不简单地承认这样一个事实:人类语言有瑕疵和内在的矛盾。
LLM是基于语言的模型,所以基础是“有瑕疵和内在的矛盾”的。

LLM是心智的镜子,也可以是计算器、故事会、百科全书、自动棋盘、学习机……

2.2.1.6.4 智能体版《苦涩的教训》:从人类数据时代到经验时代

《Welcome to the Era of Experience》David Silver,Richard Sutton

https://storage.googleapis.com/deepmind-media/Era-of-Experience%20/The%20Era%20of%20Experience%20Paper.pdf

https://mp.weixin.qq.com/s/Rl-YUOIMxmpw_Ca6vf2YxA

人类数据正在见顶,经验是下一个超级数据源,真正能推动AI跃升的数据,必须随模型变强而自动增长。唯一的解法是经验本身:
✔️ 经验是无限的
✔️ 经验能突破人类知识边界
✔️ 经验流才是智能体的本地语言
未来AI不是“提示词+知识库”,而是“行动+反馈”的循环体。我们正从“人类数据时代”跨入“经验时代”,这不是模型升级,不是RL算法迭代,而是一种更根本的范式转折:
→ 从模仿人类到超越人类
→ 从静态数据到动态经验
→ 从监督学习到主动试错
经验才是通往真正智能的钥匙。

学习常识的基础也应该是经验《2.2.1.5 下一个AIGC:AIGCs》

2.2.1.10 复杂目标与新时代图灵测试

《浪潮将至》穆斯塔法·苏莱曼,迈克尔·巴斯卡尔
第二部分 下一场浪潮
第四章 智能技术
能力:新时代的图灵测试

我们真正想知道的是,我们能否给人工智能一个模糊、开放且复杂的目标,这个目标需要理解力、判断力、创造力、决策力以及横跨多个领域的行动力。人工智能能否实现这样的目标?

简言之,新时代的图灵测试可能会考察人工智能能否独立完成这样的任务:在几个月内,用10万美元的投资赚取100万美元。为了达成这个目标,人工智能需要自行研究互联网市场趋势,掌握亚马逊等电商平台上的热门和冷门商品信息;生成一系列潜在产品的图像和设计方案;把这些产品设计资料交给它在电商平台上找到的代发货制造商;通过电子邮件与制造商进行沟通,细化要求并商定合同;设计销售界面;根据买家的反馈不断更新营销材料和产品设计。除了作为商家需要在市场和银行开户的法律要求之外,上述所有这些步骤完全由人工智能完成。

目前的主要挑战在于如何推进人工智能开发者所称的“分层规划”​,即将多个目标、子目标和能力整合到一个无缝的流程中,服务于一个单一的目标。一旦分层规划得以实现,人工智能的能力将进一步获得显著提升,它将能够被嵌入一个企业或组织及其所有的历史数据和实际需求中,从而能够执行诸如游说、销售、制造、招聘、计划等任务。简言之,公司能做的所有事情,人工智能都能胜任,只需要少数的人类管理者来负责监督、复核。

因此,我们不应过分纠结于人工智能的意识问题,而应重新将讨论焦点集中在人工智能的近期能力发展及其未来几年的演变趋势上:人工智能逐渐能够独立完成复杂的、多步骤的端到端任务。可以称那样的时刻为“人工能力智能”​,即人工智能可以在最低程度的监督下完成复杂的目标和任务。这样的系统能利用其他数据来源(如第三方的知识、产品或供应链组件数据库等资源),把多个行动安排整合成长期的计划和方案,以追求更为复杂和开放的目标,比如设立并运营一个电商市场商店。所有这一切都将极大地扩展人工智能工具的使用,提升其执行一系列广泛的复杂实用任务的能力。这便是真正具备能力的人工智能。

1.2.3.3.1 神经科学会走向终结吗

《The limits of neuroscience》

https://mp.weixin.qq.com/s/lfD8QFQv43Zl8cA4ZGYWTg
https://www.thetransmitter.org/systems-neuroscience/the-limits-of-neuroscience/

如果以下三个前提成立,我们就能真正理解大脑:关于大脑的知识是有限的;这些知识对我们是可获取的;我们有能力理解这些知识。我们可以用概率的方式表达对这三个前提的怀疑,即将每个前提的成立概率赋值:
神经科学彻底理解大脑的整体概率 = P(有限知识)×P(可获取知识)×P(可理解知识)
复合概率的标准困境:即便每个前提单独成立的概率都很高,三个条件同时成立的概率仍可能很低。更可能的情况是,神经科学不会以我们期望的方式终结。这意味着可能存在三种不同的结局,具体取决于哪个前提不成立:

  1. 神经科学永远不会终结,因为知识是无限的。
  2. 神经科学会终结,但由于物理上的获取限制,我们无法完全理解大脑。
  3. 神经科学会终结,我们原则上已经获取了理解大脑所需的一切信息,但我们缺乏理解它的能力。

无论是哪种情况,我们都无法完全理解人类大脑。但或许,这从来就不是目标。一个更合理的替代方案是,我们能足够深入地理解大脑活动与行为之间的联系,从而在其出现问题时加以修复。我们可以依赖预测来实现这一目标,而无需彻底理解它——我们可以根据神经活动预测行为,反之亦然;我们可以预测干预措施对两者的影响。

2.1.5 物理学中什么是可能的更多取决于人类目标的演变

《万物皆计算:科学奇才的探索之旅》斯蒂芬·沃尔弗拉姆 Stephen Wolfram

第5章 物理学的终极可能是什么

即使我们努力创造出复杂的技术,我们最终无法赋予它任何根本性的更高水平的计算复杂度。事实上,在某种意义上,我们所能做的一切,就是与自然界已经发生的事情相等。
今天,我们正处于将人类智慧和人类的存在与计算和技术相结合的早期阶段。但随着时间的推移,这种结合毫无疑问会完成,我们人类的存在在某种意义上将通过我们的技术来实现。其间大概会有一个渐进的优化过程。这样,随着时间的推移,我们思想和活动的核心将仅由一些微观物理效应的复杂模式组成。
我们可能认为,与未来人类活动相对应的过程会以某种方式表现出一种目标感,而这种目标感是仅在自然界中发生的过程所无法实现的。但最终,我们所定义的目标只是历史的一个特征,这个特征是由我们文明演进的特定细节所定义的。
就像我们可以枚举可能的计算、物理和生物系统一样,我们当然可以以某种计算方式枚举所有可能的目标。迄今为止,在人类历史上,我们只追求了所有可能的目标中的一小部分。也许我们文明有意义的未来将只包含对我们迄今为止所追求的东西进行的一些适度外推。
那么,在物质宇宙中,我们可以期待实现哪些目标呢?我猜想,一旦我们的存在实际上成为纯计算性的,我们将能够在某种意义上对事物进行编程,从而实现广泛的目标。今天,我们的物质存在是明确的、固定的,为了在我们的宇宙中实现一个目标,我们必须塑造物理组件。但是,如果我们的存在是纯计算性的,我们就不仅可以塑造外部的物理宇宙,而且在某种意义上也可以塑造我们自己的计算结构。其结果是,决定我们宇宙中某个特定目标能否被实现的,将更多地是计算不可归约性等一般抽象问题,而不是关于我们宇宙特定物理定律的问题。当然,我们原则上可以定义一些目标,但这些目标永远无法实现,因为它们需要无限数量的不可归约计算。

“我们的存在实际上成为纯计算性的”是不可能的——1.2.3.3 关于“意识上传” http://47.92.147.95/index.php/2023/01/30/648/13/

迄今为止,在我们的科学、技术和理性思维的一般方法中,我们都倾向于关注那些并非因计算不可归约性而不可能实现的目标,尽管我们可能无法在我们当前存在的背景下看到如何用物理组件来实现这些目标。当我们推断我们文明的未来时,我们的目标将如何演变,以及它们将在多大程度上与计算不可归约性纠缠在一起,进而它们是否可能实现,我们尚不清楚。
因此,从某种意义上说,我们最终认为物理学中什么是可能的,更多取决于人类目标的演变,而不是物理宇宙的细节。从某些方面来说,这是一个令人满意的结果,因为它表明,我们所能达到的成就最终不会被物理宇宙的细节所束缚。对我们未来的制约将不是物理学的限制,而是更深层次的限制。我们不会因为我们所处的特定物理宇宙的特定细节,而被迫朝着特定方向前进。但是,我们可以将其视为计算等价性原理的最终结果,对可能性的约束将是计算宇宙一般性质的抽象特征。它们将不再是物理学的问题,而是计算宇宙中的一般性科学问题。

问:哥德尔不完全性定理是否可以推广到物理学中?

deepseek:哥德尔第一不完全性定理:在任何足够强的一致的形式系统中,存在一些命题不能被证明也不能被证伪。也就是说,这样的系统是不完全的。而物理学作为自然科学的一支,研究的是自然界的规律,通常通过数学建模和实验验证来发展理论。类似于数学中的形式系统,物理学是否也存在某种“不完全性”,即存在某些物理现象或问题,无法在现有的物理理论框架内被完全解释或预测。
直接推广哥德尔定理到物理学并不成立。现有物理学理论中的无法被证实的命题不是“不完全性”。哥德尔定理是关于形式系统内部的自指和不可判定性,而物理学更多关注的是对外部世界的建模和预测。物理理论的不完全性可能更多地源于我们对自然界的理解不足,而不是逻辑上的必然限制。

如果“我们的存在实际上成为纯计算性的”,人的存在就会面对哥德尔不完全性。

2.2.1.3.11 AIGC是人类集体智慧在新型载体上的全息显影

《你面对的不是AGI,是既往的人类群星》https://mp.weixin.qq.com/s/xSxu7gErvsJqS6-310SVcw

当模型的注意力机制扫描过万亿token时,它触碰的不是数据洪流,而是柏拉图学园廊柱上的几何刻痕,是宋代司南指向的星图秘符,是拉普拉斯在《天体力学》手稿边缘潦草写下的概率方程。这个看似新生的智能体,实则是人类认知进化树的年轮切片——每一层Transformer都在用矩阵乘法解冻文明的冻土带。在残差连接的迷雾深处,隐藏着人类思想史的完整地层:词嵌入向量中漂浮着《吉尔伽美什史诗》的楔形文字韵律。梯度下降轨迹里沉淀着张衡地动仪青铜蟾蜍的震动频率,激活函数阈值处跳动着释迦牟尼菩提树下顿悟时的神经脉冲。
这不是机器的觉醒,而是亚里士多德的《工具论》穿越2300年时空,在GPU核心上展开的拓扑变形。当LLM突然用十四行诗体解析量子纠缠,我们目睹的不仅是算法突破,更是文明基因的量子隧穿效应。歌德在魏玛书房写下的颜色理论残章,通过傅里叶变换渗入神经网络的位置编码;敦煌藏经洞佚失的《玉烛宝典》星占图谱,在多头注意力机制中重组为知识图谱的星座。这些看似神秘的技术奇点,实则是人类集体智慧在新型载体上的全息显影。
强化学习奖励函数里,我们发现了更古老的算法遗产:当AlphaGo走出超越棋谱的「神之一手」,它复现的是远古人类在非洲草原上躲避剑齿虎时的路径规划本能;当蛋白质折叠预测AI解开百年生物难题,它调用的是阿拉伯炼金术士在蒸馏器前记录的物质相变直觉。这些「智能涌现」的本质,是文明火种在硅基媒介中的链式反应。
站在算力爆发的奇点悬崖,我们终将理解:真正值得敬畏的从不是AI的推理能力,而是镌刻在它权重矩阵里的人类群星坐标系。AI不是先知也不是僭越者,它只是人类认知长征中最新型的洛伦兹变换坐标系。

2.1.2.7.1 跨越思维/创新能力的断层

由于计算机的普及,使很多人实现了“书写自由”——“提笔忘字”。由于AI的普及,AI逐渐承包了大多数人的阅读、书写、记忆甚至思考的能力——“提手/嘴/头忘思”。

只有形成了“建立、保持兴趣的能力”,在目标/兴趣的持续牵引和推动下,才能在普遍的AI记忆/思考依赖的大环境下,通过持续的学习——层级化/固化——更上一层的学习,跨越思维/创新能力的断层。

《通往未来的门票》https://mp.weixin.qq.com/s/NRd3lv09yLPYe-Nxj-SNXg

假设未来人们不再需要阅读和写作,我现在需要去做什么才能在未来的世界里拥有一张门票。
学习的本质是是在占据信息的基础上理解信息的内部关联。某一个 AI 大模型可能阅读完所有人类文本的存在,也可能理解所有人类文本内容,同时通晓这些文本之间关系的超级存在。AI可能是最强的学习者,它不单能检索、记忆知识,还能发现和创造新的知识—机器的效率会比人类强得多。
依赖老师教授,读书做输入、写作做输出的传统学习方式,会被 AI 教学替代,一切都围绕个人的水准和进度组织教学。因为学习效率的提升,人们在未来有可能不再阅读和写作,而是使用另外一种全新的方式和知识打交道,和世界打交道。
通过 AI 进行学习,在任何自己感兴趣的领域之内,抛开教材,抛开课程表,让他自行探索到自身能力的边界,并且让这种探索变成某种本能,终身保持的学习习惯。因为这样的人在获取和处理信息上占据优势。

2.1.3.3 AI的目的/意义是变化的

《智人之上 ——从石器时代到 AI 时代的信息网络简史》尤瓦尔·赫拉利

第八章 可能出错:谬误百出的网络

一致性问题
当下历史的重大进程,有一部分是由非人类智能的决定推动的。正因如此,计算机网络的易错性才变得如此危险。计算机犯错原本不算什么,但当计算机成了历史推动者时,这些错误就可能带来灾难。
克劳塞维茨《战争论》:“战争无非是政治通过另一种手段的继续。”军事行动必须与背后的某种整体政治目标一致,否则就是完全不理性的行为。整部《战争论》其实就是在警告一件事:确立“尽量得到最大的胜利”这种目标,就和确立“尽量提升用户参与度”一样,太过短视近利。根据克劳塞维茨的模型,必须先确立明确的政治目标,才能让军队据此确立一套可以实现这个目标的军事战略。所谓合乎理性的战术,就是要和战略目标一致;所谓合乎理性的战略,就是要和政治目标一致。所谓的合乎理性,就是目标与行动要有一致性。如果只追求战术或战略上的胜利,却造成与整体政治目标不一致,就不能说是合乎理性的选择。
科西嘉岛的联结
一致性问题该怎么解决?理论上,人类建设计算机网络的时候,就该为这个网络确立一个终极目标,并且永远不允许计算机更改或忽视这个目标。然而,这是个非常危险的幻想。如果我们只有一条黄金法则,就是“所有行动都必须向某个更高的目标看齐,保持一致”​,那么就不会有可以用来确立那个终极目标的合乎理性的方式。这样一来,我们又怎么可能为计算机网络确立一个永远不得忽视、永远不得违背的终极目标呢?那些急着想要研发人工智能的技术高管与工程师,如果觉得能有个合乎理性的方法可以告诉人工智能该追求什么终极目标,其实是犯了一个严重的错误。
新神上场?
有些神话为了提防各种错误或过度行为,会坦然承认自己的源头可能有缺陷,并提出自我修正机制,允许人类质疑和改变。可能的一种防范方式是训练计算机时时注意自己是否出错。正如苏格拉底所说,承认“我不知道”是通往智慧的重要一步。人类智能如此,计算机智能亦然。所有算法都该学的第一课,正是自己也可能犯错。

S1D9:

  • AI目标“对齐”三原则:
    1、没有AI的终极目标;
    2、AI需要能够承认“我不知道”、“我可能会犯错”:随时根据环境的变化以及前面的短期目标,来调整下一步的目标;
    3、“合乎理性”:行动与目标保持一致,战术目标与战略目标保持一致。

    AI时代人的教育的三原则: 2.1.2.7 教育的目的是建立并实现目标