2.1.2.7.1 跨越思维/创新能力的断层

由于计算机的普及,使很多人实现了“书写自由”——“提笔忘字”。由于AI的普及,AI逐渐承包了大多数人的阅读、书写、记忆甚至思考的能力——“提手/嘴/头忘思”。

只有形成了“建立、保持兴趣的能力”,在目标/兴趣的持续牵引和推动下,才能在普遍的AI记忆/思考依赖的大环境下,通过持续的学习——层级化/固化——更上一层的学习,跨越思维/创新能力的断层。

《通往未来的门票》https://mp.weixin.qq.com/s/NRd3lv09yLPYe-Nxj-SNXg

假设未来人们不再需要阅读和写作,我现在需要去做什么才能在未来的世界里拥有一张门票。
学习的本质是是在占据信息的基础上理解信息的内部关联。某一个 AI 大模型可能阅读完所有人类文本的存在,也可能理解所有人类文本内容,同时通晓这些文本之间关系的超级存在。AI可能是最强的学习者,它不单能检索、记忆知识,还能发现和创造新的知识—机器的效率会比人类强得多。
依赖老师教授,读书做输入、写作做输出的传统学习方式,会被 AI 教学替代,一切都围绕个人的水准和进度组织教学。因为学习效率的提升,人们在未来有可能不再阅读和写作,而是使用另外一种全新的方式和知识打交道,和世界打交道。
通过 AI 进行学习,在任何自己感兴趣的领域之内,抛开教材,抛开课程表,让他自行探索到自身能力的边界,并且让这种探索变成某种本能,终身保持的学习习惯。因为这样的人在获取和处理信息上占据优势。

2.1.3.3 AI的目的/意义是变化的

《智人之上 ——从石器时代到 AI 时代的信息网络简史》尤瓦尔·赫拉利

第八章 可能出错:谬误百出的网络

一致性问题
当下历史的重大进程,有一部分是由非人类智能的决定推动的。正因如此,计算机网络的易错性才变得如此危险。计算机犯错原本不算什么,但当计算机成了历史推动者时,这些错误就可能带来灾难。
克劳塞维茨《战争论》:“战争无非是政治通过另一种手段的继续。”军事行动必须与背后的某种整体政治目标一致,否则就是完全不理性的行为。整部《战争论》其实就是在警告一件事:确立“尽量得到最大的胜利”这种目标,就和确立“尽量提升用户参与度”一样,太过短视近利。根据克劳塞维茨的模型,必须先确立明确的政治目标,才能让军队据此确立一套可以实现这个目标的军事战略。所谓合乎理性的战术,就是要和战略目标一致;所谓合乎理性的战略,就是要和政治目标一致。所谓的合乎理性,就是目标与行动要有一致性。如果只追求战术或战略上的胜利,却造成与整体政治目标不一致,就不能说是合乎理性的选择。
科西嘉岛的联结
一致性问题该怎么解决?理论上,人类建设计算机网络的时候,就该为这个网络确立一个终极目标,并且永远不允许计算机更改或忽视这个目标。然而,这是个非常危险的幻想。如果我们只有一条黄金法则,就是“所有行动都必须向某个更高的目标看齐,保持一致”​,那么就不会有可以用来确立那个终极目标的合乎理性的方式。这样一来,我们又怎么可能为计算机网络确立一个永远不得忽视、永远不得违背的终极目标呢?那些急着想要研发人工智能的技术高管与工程师,如果觉得能有个合乎理性的方法可以告诉人工智能该追求什么终极目标,其实是犯了一个严重的错误。
新神上场?
有些神话为了提防各种错误或过度行为,会坦然承认自己的源头可能有缺陷,并提出自我修正机制,允许人类质疑和改变。可能的一种防范方式是训练计算机时时注意自己是否出错。正如苏格拉底所说,承认“我不知道”是通往智慧的重要一步。人类智能如此,计算机智能亦然。所有算法都该学的第一课,正是自己也可能犯错。

S1D9:

  • AI目标“对齐”三原则:
    1、没有AI的终极目标;
    2、AI需要能够承认“我不知道”、“我可能会犯错”:随时根据环境的变化以及前面的短期目标,来调整下一步的目标;
    3、“合乎理性”:行动与目标保持一致,战术目标与战略目标保持一致。

    AI时代人的教育的三原则: 2.1.2.7 教育的目的是建立并实现目标

1.2.2.11.1 GWT意识模型的工程实现

全局神经工作空间理论 Global neuronal Workspace Theory, GWT

《尖峰神经元网络的灵活串行处理,从访问意识到灵活行为》Flexible serial processing in networks of spiking neurons,From access consciousness to flexible behaviour

基于GWT理论的尖峰神经模型,用于执行由多个步骤组成的序列任务。神经工程框架和语义指针架构被用来构建模型,包括并行处理网络、全局工作空间、工作记忆组件和门控网络。得到的神经网络在认知和生物学层面上都与全球神经元工作空间理论一致,因为它解释了意识竞争、与之相关的由P3波标记的点火以及选择性广播。它还解决了在形成意识访问联盟过程中的历时和共时整合的未解决问题。模拟表明,该模型能够以稳健的方式执行许多步骤。最重要的是,它复现了人类的反应时间模式。该模型为解释意识在序列处理中的作用提供了一个很好的框架。

https://mp.weixin.qq.com/s/thlEle41U-sBTqB3NCSzbw

https://theses.ubn.ru.nl/handle/123456789/10626

2.2.1.3.9.1 大语言模型真能“理解”语言吗

https://mp.weixin.qq.com/s/yKPgi9fkTpaITSvVPuOhnA

对于“智能系统如何进行理解”的问题存在一个有趣分歧:依赖统计相关性的心智模型与依赖因果机制的心智模型。

  • 要理解“挠痒痒”,就是要把一个词映射到一种感受上,而非映射到另一个词上。
  • “类人水平的理解”基于概念——关于外部范畴、情境、事件的内部心理模型,以及关于个体自身内部状态和“自我”的内部心理模型。这些模型使人类得以将自己的知识和经验抽象化,以便进行稳定的预测、概括、类比,组合推理、反事实推理、积极干预世界以验证假设、并向他人解释自己的理解。
  • 人类概念的确切本质究竟是什么:概念究竟是领域特定(domain-specific)且先天决定的,还是更加通用且后天习得的?概念在多大程度上是基于具身的隐喻,在多大程度上是通过动态的、基于情境的刺激在脑中表征,又是在何种条件下以语言、社会学习和文化为基础?
  • 人类理解(无论是个体还是集体的理解)的轨迹是对世界高度压缩的、以因果关系为基础的模型的发展,人类似乎对这种形式的理解有很强的天然驱动力,无论是在科学领域还是在日常生活中。这种形式的理解需要较少的数据、简化的模型、清晰的因果关系,以及对机制的强直觉(mechanistic intuition)。
  • “大语言模型是否有理解能力”这一争论的关键问题如下:
    (1)讨论这些系统能否“理解”是不是犯了范畴错误(category error)——将语言个例(token)之间的联结误认为是物理、社会和心理经验个例之间的联结?简言之,是不是说,这些模型永远不可能具有理解能力?
    或者反之(2)有没有一种可能,这些系统(或它们的后继者)在缺乏物理经验的情况下,实际上已经创造出了某种基于概念的(concept-based)、对人类理解能力而言至关重要的丰富心智模型?如果确实如此,扩展这些已有的模型,或许就能够产生更接近我们期望的概念?
    又或者(3)如果说这些系统目前无法产生这些概念,要是将其规模扩大到难以想象的程度,那么扩大后的超大规模统计相关系统能否产生出相当于人类理解功能的能力?亦或是更进一步,超大规模的系统能产生全新形式的、人类难以通达的高阶逻辑?如果到了这个地步,我们还有理由说这类相关性是“虚假的”,这类解决方案是“捷径”吗?
  • 在某些情况下,大语言模型在心智理论(theory-of-mind)测试中表现出类人的反应,也在推理测试中表现出类人的能力和偏见。如果把为人类设计的测试应用在大语言模型上,那么对结果的诠释就会有赖于对人类认知的预设,而这些预设对大语言模型来说可能完全不成立。若要取得进展,科学家就需要开发能适用于各种不同类型智能和理解机制的新基准和新探测方法。

我们有必要扩展现有智能科学的边界,如此才能容纳更宽泛意义上“理解”的概念,使之既适用于人类,也适用于机器。正如神经科学家特伦斯·赛诺夫斯基所指出的,“专家们对大语言模型智能的不同看法表明,基于自然智能的旧理念已经有所欠缺了”。如果大语言模型和类似模型能以一种前所未有的规模利用统计相关性来工作,那么或许这也能被视为一种新的“理解”形式,一种能带来超人般预测能力的“理解”形式。正如Deepmind的AlphaZero和AlphaFold系统,它们分别在国际象棋和蛋白质结构预测的领域带来了如同“外星人”般的直觉。未来我们需要面对的挑战就在于,开发新的科学方法,以揭示不同形式智能如何理解的具体机制,厘清它们的优势和局限,并学习如何整合这些多样化的认知模式。

2.1.3.0 “目的”决定了AGI的出现是否是“奇点”来临

当AI可以设计出比自己更好的机器人时,强人工智能时代就来临了。

1)如果“更好”只是更智能、更强大,这没有什么可以担心的,大家都喜欢更快的计算器、更强大的推土机,让AI更高效的为人类服务,是生产力的进步。

2)如果“更好”是AI认为对自身的更好,这时就会出现人与AI对资源分配需求的冲突/矛盾。出现能够自主进化的更智能、更强大的AI,就是“奇点”来临的时刻。所以核心问题是,更高级的智能是否会产生“自我”,或形成自己的目的/意义。

3)如果AGI是“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能”,即使AGI只是1)中的生产力的进步,这也可能会导致大部分人丧失存在的目标/意义,同时会让少数人大幅提升创新的能力、效率(只需要负责提出问题/方向)。

1.1.2.4.1 基因层面的创新

1、变异
《信息、生命与物理学》保罗·戴维斯
第4章 达尔文学说2.0
与拉马克学说“调情”
细胞能通过某种方式感受到这一危险,并加快特异基因的突变速度。——生物进化能够根据环境来调整掷骰子的频率!
生命可以被描述为一条陡然上升的信息学习曲线。生物不必通过试错法来演化,每一代也无须浪费时间从头开始做重复工作。它们可以从生命过往的经验中受益,这一进步趋势显然违背了热力学第二定律。

2、转座子、病毒
《信息、生命与物理学》
第4章 达尔文学说2.0
基因中的麦克斯韦妖
《贪婪的大脑:为何人类会无止境地寻求意义》
第2章 大脑进化简史:思维的科学
激发基因活力的其他途径
转座子(transposons),或称作跳跃基因,是一整段基因编码,可以在基因组内从一个地方跳转到另一个地方。
一些病毒入侵对我们极为有利,可以将其他物种的有用信息转移到我们体内,或者重组我们的DNA编码而产生新特性,比如早期哺乳动物的胎盘的形成就与病毒残余物有关。
生命体的DNA编码之所以具有普遍性,原因之一是DNA能够促进不同来源的新基因信息的导入。如果真是这样,那么我们会发现,尽管外部世界的斗争从不间断,而且很残酷,但整个生物圈为了优化内在的基于DNA的“想法”而进行奇怪的合作。

3、表观遗传、形态发生
《信息、生命与物理学》
第3章 生命的逻辑
形态发生的奥秘
DNA中的信息被称为基因型,而真实的物理细胞被称为表型。所以,一种基因型可以产生很多种不同的表型。
不同层面的信息模式和信息流:DNA(分子层面)​,酵母菌的细胞周期(细胞层面)​,多细胞生物的形态发育,生物群体和社会性组织。

第4章 达尔文学说2.0
越来越多的表观遗传因子被发现,它们驱动着生物信息模式和信息流的构建。

4、有性繁殖:某种意义上实现了拉马克式的进化
《贪婪的大脑:为何人类会无止境地寻求意义》丹尼尔.博尔
第2章 大脑进化简史:思维的科学
保持基因活力的三种方式——基因突变、性繁殖与死亡
性繁殖会提高基因创造力:动物两性的基因混合产生新的基因信息,能提高后代应付危险的能力。这种补偿复制速度慢的方式极为有效,所以大部分动物都进行性繁殖。充分利用性繁殖的一种动物是地位较低的线虫(nematode worm)。秀丽隐杆线虫(Caenorhabditis elegans)结构简单,发育后代的速度很快(约为4天)​,繁殖方式为有性繁殖。这种线虫可以自由选择生育后代的方式——通过自体受精或者与其他线虫交配。从信息处理角度看,如果线虫生活的环境很安全,有充足的食物,那么不妨采用自体受精的方式,因为它的有关生存的基因信息准确无误。但如果线虫生活在有致命危险的环境中,它的下一代的DNA就要做重大调整,而经性繁殖产生的下一代可能具有更好的基因来应付恶劣的环境。
这也从基因层面部分解释了现代人类生育能力下降的原因。

5、死亡
《贪婪的大脑:为何人类会无止境地寻求意义》
第2章 大脑进化简史:思维的科学
保持基因活力的三种方式——基因突变、性繁殖与死亡
在自然界,死亡很可能使生物体避免积累过时的信息。如果没有自然死亡,一个物种的基因创造力会受到过时的思想的损害,随着时间推移,这种损害会变得越来越严重。老一代生命体的死亡能使一个家族或物种有更强的能力应对变化的环境。进化的动力就是繁衍后代,生存居次要地位。死亡作为一种进化手段,展示了繁衍与生存之间的矛盾:为了使基因能够更准确地反映最新的相关信息,有利于繁衍后代,有机体会毫不犹豫地放弃生存。

2.2.1.3.2.1 终身学习

1、“可以无限扩展的两种方法是搜索和学习”
2.2.1.6.3 《苦涩的教训》
http://47.92.147.95/index.php/2023/11/27/921/14/
从这个苦涩的教训中,我们应该明白通用方法的巨大力量,即那些随着计算能力的增长而持续扩展的方法。在这方面,似乎可以无限扩展的两种方法是搜索和学习。

2、《终身学习的生物学机理》
https://mp.weixin.qq.com/s/bZ-GW9yZeJz8Izx1AlvBuA
德克萨斯大学圣安东尼奥分校等研究人员在Nature Machine Intelligence发表的《Biological underpinnings for lifelong learning machines》
本文介绍了终身学习(Lifelong Learning, L2)的六个关键特征,从生物学角度介绍了使这六种终身学习特征得以实现的内在机制,包括大脑中的过程及来自大脑之外的细胞内和细胞间活动。最后介绍了结合上述终生学习特征的生物启发算法。
文章提供了一个全面而深入的视角,展示终身学习在人工智能领域的研究背景、意义以及未来发展的方向。通过借鉴生物体的学习机制,未来有望开发出更加智能、灵活和可持续的人工智能系统,以应对日益复杂的现实世界挑战。

人脑/意识的作用:
1、解释、预测、判断
2、学习、记忆、提高

2.1.1.8 “我该怎样生活”

《何为良好生活:行之于途而应于心》陈嘉映
第四章 实践中的目的

9 学医是为了悬壶济世吗?
我该怎样生活这个问题不仅是人生道路之初的问题,更是贯穿人的一生的问题。这个问题,主要不是选择人生道路的问题,不是选对或选错人生道路的问题,而是行路的问题——知道自己在走什么路,知道这条路该怎么走:我们是否贴切着自己的真实天性行路。在最初“选择人生道路”的时候,没谁一开始通透了解自己的本性,了解周边环境并预见环境的变化。我们一开始不可能通透了解自己的本性,这不在于我们还不够聪明,而在于我们的本性在一开始不够具体,本性有待在盘根错节的实践中向我们逐渐清晰地显现。我们大概可以在这个意义上去理解歌德说他的浮士德是一系列越来越纯粹或纯洁(rein)的努力。我把这个纯粹或纯洁理解为:自身通透。我以为,这种自身通透是phronesis最核心的含义——洞明自己行在何处,浑然一体地洞明自己和自己所行之路,从而能贴切着自己的真实天性行路,把自己大致保持在天性所指的道路上。

10 实践传统的式微
传统的瓦解给现代社会带来很多困扰。其中突出的一种,就是人们常说的意义流失。昆德拉《身份》:“生命的意义在过去的时代不是个问题,这种意义自然而然地跟人们在一起,在他们的作坊里,在他们的田野里。每一个职业都创造出了它的思维方式,它的存在方式。一个医生跟农民想的不一样,一个军人跟一个老师的举止不一样。​”意义不是想出来的,不是论证出来的,而是被感受到的,通过生存和劳作的直接性感受到。在实践活动中,人的整个生存,包括他的德性,跟他的劳作结合在一起,并通过他的劳作跟一个兴趣—劳作共同体结合在一起。而当传统瓦解,业行转变为职业,职业要求于个人的,不是他的整个的人,而是他在特定岗位上的效用。个人不再作为整体的人通过他所属的实践传统与社会相关联,他的性情、德性跟他的“效用”隔离开来,​“生活的意义”渐渐成为一件主观的事情。
传统的瓦解固然有可叹之处,但反观近代发展的历史,不难看到,科学技术的发展,工商业的发展,平民的兴起,这些导致传统衰败的事项,每一项都自有其情理。而且,传统的瓦解以及相伴而生的个人原子化过程,“所有这些同时也是一次巨大的解放。​”解放是连同意义的不确定性一起到来的,职业化是连同祛魅一起到来的。

2.1.3.1.2 人类赋予AI的终极目标及AIGL

人类赋予现有AI的终极目标:
1、AIGC(“2.2.1.2 AIGC”):生成下一个单词/句子。现有大语言模型(LLMs)的所有活动及成果都是在这个大目标下完成的。
2、AIGCs(“2.2.1.5 下一个AIGC:AIGCs”):生成下一个动作。

下一个可能的生成式AI:AIGL(AI Generated Logic),通过推理空间的学习及搜索,生成下一个逻辑,结合AIGCs实现在现实空间中的规划及行动的闭环,可以作为达到AGI奇点的标志。实现AIGL存在以下约束:
1、可用来学习/训练的数据的有限性。
2、现实世界的未来无法预测 & 哥德尔不完备性定理。