2.1.1.4 基因与载体

2.1.1.4.1 《自私的基因》

第1章 为什么会有人呢?

生命有意义吗?人生目的何在?人是什么?我们在面对这些深刻的问题时,无须再求助于怪力乱神。著名动物学家辛普森(G.G.Simpson)在提出上面最后一个问题之后,曾这样说过:“现在我要讲明的一点是,1859年之前试图回答这一问题的一切尝试都是徒劳无益的,如果我们将其全部置于脑后,我们的境遇会更好些。”【尾注】亨利·福特:“历史或多或少都是废话”。当你真正开始回想前达尔文时代对诸如“人是什么?”“生命有意义吗?”“人生目的何在?”等问题的答案时,你所能想到的任何一个答案,除开其本身(一定的)历史价值以外,不都是一文不值吗?有些东西是完全错误的,而所有1859年之前对此类问题的答案都属此列。

第3章 不朽的双螺旋

然选择有利于能熟练地制造生存机器的复制因子,即能娴熟地控制胚胎发育的基因。在这方面,复制因子和过去一样是没有自觉性和目的性的。相互竞争的分子之间那种凭借各自的寿命、生殖力以及精确复制的能力来进行的自动选择,像在遥远的时代一样,仍在盲目地、不可避免地继续。基因没有先见之明,它们事先并不进行筹划。

第4章 基因机器

生存机器的行为有一个最突出的特征,这就是明显的目的性。在这里我指的不仅是生存机器似乎能够深思熟虑去帮助动物的基因生存下去(尽管事实的确是这样),还有生存机器的行为和人类的有目的的行为更为类似这一事实。我们看到动物在“寻找”食物、配偶或迷途的孩子时,总是情不自禁地认为这些动物在那时的感受和我们自己在寻找时所体验到的某些感受一样。这些感受可能包括对某个对象的“欲望”,对这个向往的对象形成的“心象”以及存在于心中的“目的”。我们每一个人出于自身的体验都了解到这一事实:现代生存机器之中至少有一种已经通过进化的历程,使这个目的性逐渐取得我们称之为“意识”的特性。

第6章 基因种族

如果我们可以认为基因似乎具有自觉的目的,同时我们又有把握在必要时把我们使用的过分通俗的语言还原成正规的术语,那么我们就可以提出这样一个问题:一个自私基因的目的究竟是什么?它的目的就是试图在基因库中扩大自己的队伍。从根本上说,它采用的办法就是帮助那些它所寄居的个体编制它们能够赖以生存下去并进行繁殖的程序。

第11章 觅母:新的复制因子

我们自觉的预见能力——在想象中模拟未来的能力——能够防止自己纵容盲目的复制因子干出那些最坏的、过分的自私行为。我们至少已经具备了精神上的力量去照顾我们的长期自私利益而不仅仅是短期自私利益。我们具备足够的力量去抗拒我们那些与生俱来的自私基因。我们甚至可以讨论如何审慎地培植纯粹的、无私的利他主义——这种利他主义在自然界里是没有立足之地的,在整个世界历史上也是前所未有的。我们是作为基因机器而被建造的,但我们具备足够的力量去反对我们的缔造者。在这个世界上,只有我们,我们人类,能够反抗自私的复制因子的暴政。

第15章 对于完美化的制约

如果适应性是由上帝设计的,他可能是为了让动物个体受益(它的存活或是广义适合度,当然这两者不是一码事)而进行设计的,也可能是为了让物种受益,甚至让其他物种,比如让人类受益(有神论者常见的观点),还可能是为了让“大自然的平衡”受益,或是其他某些只有他自己才清楚的神秘莫测的目的。以上这些目的常常是互不相容的,互为替代关系的。所以适应性究竟对谁有益,这真的是一个至关紧要的问题。

2.1.1.3《生命3.0》

2.1.1.3《生命3.0》

07 目标

三个阶段:

  • 第一阶段,所有物质似乎都在努力实现耗散的目标,即熵增;
  • 第二阶段,其中一些物质拥有了生命,转而聚焦于子目标;
  • 第三阶段,生物重新排列的物质越来越多,以实现自己的目标。

人工智能可以被设计来拥有任何目标,但是,几乎所有足够野心的目标都会带来一些共同的子目标,比如自我保护、获取资源、想要更理解世界的好奇心。前两个子目标可能会让超级智能为人类带来麻烦,最后那个可能会阻止人工智能保持我们赋予它的目标。

图7-2 超级智能的终极目标和子目标

注:不管超级智能拥有什么样的终极目标,都会导致图7-2显示的这些子目标。不过,在“目标维持”和“改进世界模型”之间会产生一个冲突,使人怀疑随着超级智能变得越来越聪明,它是否真的会保持最初的终极目标。

 

古往今来,哲学家都希望能用清晰明白的原理和逻辑,从零开始推出伦理标准,也就是规定我们应当如何行事的原则。可惜,几千年过去了,人类唯一的共识就是:没有共识。虽然从目前来看,从零开始推导出共同伦理标准的尝试是失败的,但许多人都认同,一些伦理原则是从更基本的原则发展而来的,就像终极目标的子目标一样。总而言之,虽然人类今天还远未在伦理上达成共识,但在一些基本原则上已经达成了一些广泛的共识。大多数人的观点都可以归入以下4个原则:

  • 功利主义:积极的意识体验应当被最大化,而痛苦应当被最小化;
  • 多样化:多样化的积极体验比重复单一的积极体验更好,即使后者被认为是所有可能性中最积极的体验;
  • 自主性:有意识的实体/社会应当拥有追寻自己目标的自由,除非与某些重要原则相违背;
  • 遗产:符合当今大多数人认为幸福的情景,不符合当今几乎所有人认为糟糕的情景。

当今的人类真的想让1500年前的老古董决定今天的世界要如何运行吗?如果不是,我们为什么要试着把我们的伦理标准强加给可能比我们聪明千万倍的未来生命呢?

 

尼克·波斯特洛姆在他的著作《超级智能》中提出了“正交性论点”(orthogonality thesis)。他认为,一个系统的最终目标(final goal)可以独立于智能。根据定义,智能就是完成复杂目标的能力,而无论这些目标是什么。正交性论点是赋权的,宇宙的终极目标不是事先注定好的,我们有自由和力量去塑造。它认为,趋近于同一个特殊目标并不会发生在未来,而是已经发生在过去——正是在生命进化出“复制”这个单一目标时。随着宇宙时间的流逝,日益聪明的智能得以有机会反抗和摆脱“复制”这个平庸的目标,并选择自己的目标。从这个意义上讲,我们人类还没有达到完全的自由,因为我们追寻的许多目标都是被基因“硬连”到我们身上的,但人工智能却可以享受这种不受预定目标限制的终极自由。或许,这种不受进化偏差影响的自由度能使人工智能在某种深层次上比人类更为道德。

 

虽然人类有一些广为接受的伦理原则,但我们不知道如何将它们赋予其他实体,比如非人类的动物,以及未来的人工智能。我们不清楚如何才能赋予超级智能一个既可定义又不会导致人类灭绝的终极目标。

2.1.1.2 《大图景:论生命的起源、意义和宇宙本身》

2.1.1.2 《大图景:论生命的起源、意义和宇宙本身》

第35章 目的涌现而来

为什么罗比会这样行动?我们可以简单地说:“这些行动是在遗传算法过程中生存下来的策略的一部分。”或者我们可以说:“罗比有一种需求,它不想忘记在两边都有空罐。”这种说明方式有意义吗?机器人罗比并不是真的有什么需求。当我们将人类的思考或者感情赋予无生命的对象时,心理学家有时候会说这是“拟人化谬误”。讨论罗比的时候当作它好像真的有什么需求,这可能很有趣也没什么害处,但这事实上并不是真的。

考虑一下我们倒果为因的可能性。当我们说机器人罗比并没有在人类意义上的需求时,我们采取了一个隐含的立场,就是存在某种被称为“需求”的事物,它能被正确地赋予到宇宙中的某些事物上(比如人类),而不是别的事物(比如说虚拟机器人)。这种“需求”到底是什么?某种东西有做某件事的需求,在正确的情景下这种想法可能是一种有用的说明方式。这个想法很简单,却能方便地概括相当数量的复杂行为。如果我们看到猴子在爬树,描述这件事的方式可以是列出一张猴子在每个时刻在做什么的清单,甚至是明确写出猴子和环境中每个原子在每个瞬间的位置和速度。但简单得多而更为有效的说法是:“猴子有得到树上那些香蕉的需求。”事实上我们能这样说,这是超出所有那些位置和速度的一项有用的知识。在理念空间中,并不存在一种有关“需求”的柏拉图式理念能够与某类事物正确联系起来,但却无缘于其他事物。反过来说,在某些情况下将事件描述为某个存在对某个事物有需求,这会很有用,但在其他情况下就不见得了。这些情况会出现宇宙内物质的不定向自然演化之中。这些“需求”和别的事情一样真实。

在罗比这个特别的例子里,用需求、目的或者渴望来界定它的行为,既不必要也没什么用。直接说出它收集空罐的策略到底是什么也同样简单。但它与一个人之间的差异,就“需求”的本体论状态而言,只是程度上的差异。我们可以想象一个机器人,它的程序比小罗比的远远复杂得多。我们可能对具体的程序所知不多,但也许我们可以观察这个机器人的行动。也许理解这个机器人的行为最好的方式就是:“这个机器人有强烈的需求去捡起那些空罐。”在自然主义中,人类和机器人之间的差异并没有那么大。我们都只是一大堆结构复杂的物质,以某种规律运动,在一个拥有时间箭头的环境中遵循着冷冰冰的物理法则。需求、目的和渴望都是在这个过程中自然产生的事物种类。”

在机器上实现的罗比到更复杂的AlphaGO的策略,都应该只是机器算法的自然结果,没有需求/目的(只是在人类“拟人化”看起来有是有策略、有目标而做出的决策,同时通过这种方式的描写,其他人更容易理解、传播——价值网络、决策网络的描写比较准确但难于理解),算法层面是黑箱(不论是遗传算法还是深度学习),更低层次分子原子层面的描写会是一团乱麻。

每一个神经元、皮质柱、气泡都可以看作一个更简单或更复杂的“罗比”。人类意识(包括需求/目的/意义)也只是更高层面上的大量算法的自然涌现的结果,通过大脑解释器解释为“意识”并存储在记忆中。

在自然主义中,人类和机器人之间的差异并没有那么大。我们都只是一大堆结构复杂的物质,以某种规律运动,在一个拥有时间箭头的环境中遵循着冷冰冰的物理法则。需求、目的和渴望都是在这个过程中自然产生的事物种类

第45章 三十亿次心跳

在有关量子场的核心理论,也就是我们日常生活背后的物理学中,没有“意义”“道德”和“目的”这类概念的栖身之地。这些概念在世界的高层次涌现理论中都各自扮演了关键的角色。它们并没有嵌入在宇宙结构之中,而是通过涌现成为人类尺度环境的不同说明方式。

这些价值观的源泉并不是外部世界,而是我们内心。我们是世界的一部分,谈论自身最好的办法就是将自身看成有思考、有目的、能作出选择的客体,其中无法避免的一个选择就是我们到底想过上什么样的生活。

我们不是各种渴望的奴隶;我们有能力反思这些渴望并努力改变它们。但渴望的确塑造了我们。从来自自身的这些倾向出发,我们才能构筑生命的目的和意义。作为起点的个人渴望和关怀,它们可能单纯而只关注自身,但以它们为基础,我们能构建出指向外部、遍及更广阔世界的价值观。这是我们的选择,而我们作出的这个选择可以是去拓宽我们的视野,在比自身更宏大的事物中寻找意义。

构筑意义,从本质上来说,就是一项个人主观而富有创造性的事业,也是令人生畏的责任。卡尔·萨根:“我们都是星尘,但我们用双手抓住了自己的命运。”生命的有限让我们的处境更为深刻动人。我们每一个人都会说出最后一句话,读过最后一本书,堕进最后一次的爱河。在每个瞬间,我们到底是谁,又应该怎么行动,这是我们每个人要做的抉择。

第49章 聆听世界

宇宙不关心我们,但我们关心宇宙。正是这一点让我们如此特别,而跟非物质的灵魂或者宏大宇宙规划中的特殊目的没有关系。数十亿年的演化创造了能够思考世界的造物,他们能在心中构筑世界的图景,并对它进行彻底的验证。我们对世界感兴趣,无论是它的物质表现还是我们的人类同胞以及其他生物。这种包含在我们心中的关怀,就是在任何宇宙意义上“意义”的唯一来源。无论我们什么时候自问某件事是否有意义,答案必须来自这件事对于某个人或者某些人有没有意义。我们看着这个世界,给它附加上价值,这是一项成就,我们应当为之自豪。

生命的本质是改变,而我们的目标可以是让改变成为对生命意义寻求的一部分。

我们渴望到达比幸福更高的地方。我们已经学到了许多有关宇宙的范畴以及运作的知识,还有如何共同生活以及如何在生命中寻找意义和目的。这正是因为我们终究不愿意将令人舒心的幻觉当成最后的答案。

2.1 目标、目的与需求层次

2.1.1 目标、目的

进化是否有目标/目的?人类是否有目标/目的?个人是否有目标/目的?AI是否有目标/目的?

《雅克和他的主人》米兰·昆德拉

“那咱们往哪走啊?“

“往前走。“

“哪是前啊?”

“我对您透露一个大秘密,这是人类最古老的玩笑。往哪走,都是往前走。“

2.1.1.1 目的论

目的论(Teleology)致力于探讨事物产生的目的、本源和其归宿。目的论认为自然界的一切事物都有其存在的目的。在如何解释世界的事物和现象以及它们之间关系的问题上,目的论认为某种观念的目的是预先规定事物、现象存在和发展以及它们之间关系的原因和根据。目的论认为事物的存在源于“最终目的”,有两种主要的表现形式,即外在的目的论和内在的目的论。

  • 外在最终目的(extrinsic finality):某东西的存在目的是为了其他东西的福祉。
  • 内在最终目的(Intrinsic finality):某东西的存在目的,是为了自然而然达成完善自己这个目的。内在最终目的提供了上帝或其他超自然力量存在的论据,也是智能设计论的理论基础。

1 基础层面:基于基因的基本生存要求(基本目的)。“生命的演化,包括人类生命的演化,都是盲目力量所致,并不服务于显见的目的”

2 高级意识的能动性层面:高于基因需求的主动目的(exp:基因的嗜糖要求–>高级层面的减肥要求)–>人的需求层次

传统上目的论与哲学自然论(或偶然论)是对立的。自然论即所谓“形式决定功能”(function follows form),目的论即是所谓的“功能决定形式”(form follows function)。

  • 亚里士多德(目的论):大自然里,生物的器官顺着功能而演变,功能不是顺着器官而来。亚里士多德认为,将所有事情都视为必然是错误的,因为这样忽略了事情的目的、秩序和背后的最终原因。亚里士多德将事物的发展因分四种:物质因、形式因、动因和目的因。
  • 卢克莱修(自然论):身体不是因应我们的需要而造,存在是功能的因。

罗素《哲学问题》哲学的价值:

哲学是用来研究的,而不是用来寻找哲学问题的确切答案的,因为没有一种确定答案可以被当作不变的真理。相反,哲学本身就是寻找问题。正是这些问题拓展了我们对可能性这一概念的认知,丰富了我们的智慧想象,让我们放弃执念,引导心智不断去猜想。但更重要的是,哲学思考的是宇宙之浩瀚,而人类心智也会随着这种思考变得深邃,并逐渐与宇宙融为一体,臻于至善。

1.2.3.3 关于“意识上传”

1.2.3.3 关于“意识上传”

1.2.3.3.1 一些“意识上传”的描述

“意识上传”出现在无数的科幻小说、影视剧以及严肃科学家的未来预测中,以下是一些典型的描述/定义:

  • 人脑上传:成为一个计算机想象力的镜像。——大卫·维克特,GODLING专业词典中关于“上传”的定义。《奇点临近》(The Singularity Is Near)雷·库兹韦尔(Ray Kurzweil)
  • 数字化永生:一个人思想文件的寿命将不依赖于任何硬件媒介的持续生存能力(例如,一个生物身体和大脑的存在)。思想文件信息再现了调用大脑(连同其余的神经系统、内分泌系统,以及其他思想文件的组成结构)的模式。最终基于软件的人将大大超越今天我们所知的人类的严重限制。他们将会在网络上生活,在他们需要或想要时设计出躯体,包括不同领域的虚拟现实中的虚拟躯体、全息投影躯体、foglet投影躯体,以及由纳米机器人集群和其他形式的纳米技术组成的物理躯体。(《奇点临近》)
  • 思维克隆人(Mindclone):具有人类级别意识的存在,可以复制人类思维文件中的固有意识,是一个人身份的数字二重身和数字延伸。《虚拟人》(Virtually human: the promise -and the peril -of digital immortality)玛蒂娜·罗斯布拉特(Martine Rothblatt)
  • 电影《Matrix》中NEO的学习过程:复杂的内容可以上传到大脑,我们可以突然之间精通一门新语言或者一门新学科。

1.2.3.3.2 “意识上传”可能的方法

方法一:扫描并上传。

直接的大脑移植方案涉及扫描人脑(最有可能从内部),捕捉所有主要的细节,然后将大脑的状态重新实例化到一个不同的、可能更强大的计算机中。《奇点临近》

将大象装进冰箱的3步法:

1、完整读取个人的“核心自我意识”+所有记忆内容+其他相关因素,需要扫描的内容包括神经元、神经元之间无数的枝状连接、信息处理活动(人类意识正是它的副产品)等

2、上传至一个网络/系统中(第三方非肉体的基底)并建模

3、在网络/系统中运行这个模型,形成一个上传后的同样的自我(“最终,我们能够将自己的心理过程移植到更合适的计算基底之上”《奇点临近》)

方法二:特/忒修斯之船(Ship of Theseus)

《大图景:论生命的起源、意义和宇宙本身》肖恩·卡罗尔 第39章 什么在思考?

想象一下,我们从你的大脑里选取一个神经元,然后研究它的活动直至巨细无遗。我们确切知道它对于任何可能接收到的合理信号会发送出什么信号作为回复。然后,在不对你进行任何额外改变的前提下,我们将那个神经元取出,用一个在输入和输出的层面上行为丝毫不差的人造器件来代替它。你几乎是完全由本来的生物细胞构成的,除了那个作为替代品的神经元件。你是否还有意识?绝大部分人都会做出肯定的回答,有一个神经元被行为相同的神经元件代替的人仍然具有意识。那么如果我们取代两个神经元呢?或者说数亿个神经元?根据假设,你的所有外在行动都不会发生改变——至少如果世界只有物质,而你的大脑并没有受到任何非物质灵魂实体的影响,这些实体只会跟有机的神经元沟通,而不会与神经元件沟通。每一个神经元都被以相同方式互动的人工器件取代的人毫无疑问能通过图灵测试。这算不算得上有意识?

引进过程也是一个逐步适应、逐步进化的过程(“躯体选择”)。身体部件逐步转变为硅基,同时转变的部件与大脑的接口及大脑模块/整体各个皮层层面都完成了演化整合。这样在所有部件都转化完成后(如果寿命长度许可),大脑就实现了第三方非肉体基底的迁移过程。

忒修斯之船是典型的还原论,还原论认为复杂的系统、事物、现象可以化解为各部分之组合来加以理解和描述。大不列颠百科全书:“在哲学上,还原论是一种观念,它认为某一给定实体是由更为简单或更为基础的实体所构成的集合或组合;或认为这些实体的表述可依据更为基础的实体的表述来定义。瑞士的蓝脑工程(Blue Brain project)探索全脑仿真(whole-brain emulation),尝试映射、模拟并复制人脑中的800多亿个神经元和十几万亿个神经突触,以及其中枢神经系统的工作情况。默里·沙纳汉(Murray Shanahan):“将数以百亿计的超低功耗、纳米级的元件组合成一个有人脑智能水平的设备,人类大脑的存在就是这种技术可能性的证据。

1.2.3.3.3 “意识上传”是不可能的

1.2.3.3.3.1 意识的过程属性 + “简并式非线性互动特性”

1.意识的过程属性

1.2.3.2.5 意识是过程

 《脑机穿越:脑机接口改变人类未来》(Beyond Boundaries:the new neuroscience of connecting brains with machines – and how it will change our lives)米格尔·尼科莱利斯(Miguel Nicolelis)

– 永恒的递归整合过程。尼科莱利斯:“由大脑处理的信息,会被用来重构大脑的结构和功能,信息和大脑实体之间存在着一个永恒的递归整合……自适应复杂系统所带有的种种重要特点,也让我们难以对它的动态行为进行预测和仿真。”

相对性大脑假设(relativistic brain hypothesis):当用新方法获得有关周围世界的统计信息时,被试的大脑倾向于同化这些统计信息以及用以收集这些信息的感官或工具。大脑因此会产生一个有关世界的新模式、对被试身体的新刺激,以及定义个体对现实的知觉和自我感的一套新边界或新限制。在被试的整个生命中,这种新的大脑模式还会继续接受检验和重塑。

– 捆绑问题。20世纪80年代,德国计算机科学家克里斯托弗·马尔斯伯格(Christoph von der Malsburg)的捆绑问题:如果在遇到一个新奇的感觉刺激时,大脑真的是先将其完整的复杂结构分解成一系列离散而简单的特征,然后由某个皮层区域专门化的神经元群来表征每一个特征,那么,大脑怎么能将这些已经被分解且分布在大脑皮层各个区域的信息重新组合成最初的刺激,并产生关于这个复杂客体的全面知觉体验呢?(非还原性)

– 时空感受野(Spatiotemporal receptive field,STRF):空间维度中,刺激开始后,神经元感受野随时间的改变而改变。神经生理学不确定原则:如果不明确某个特定时刻,我们便不能定义某个神经元感受野的空间域。换句话说,神经元放电的时间域与空间域是紧密联系在一起的,它们共同定义了神经元的时空连续体。异步会聚原则:单个神经元的感受野以及嵌入在脑区中的“地图”,由无数其他神经元所产生的上行影响、本地影响以及下行影响的异步时空会聚所定义。在单一的时空连续体中,只有将神经元的空间域与时间域结合起来,才能恰当地定义感受野及地图。

– 单个神经元不足原则(single neuron insufficiency):成为特定参数的单个神经元无论调谐得多好,它的放电率都不足以维持皮层所酝酿的某种功能或行为。由于多数单个神经元的贡献会时刻发生显著改变,因此它们缺乏统计上的可靠性。思维的基本功能单位也不会是单个神经元,而应该是神经元集群。

– 神经简并原则(neural degeneracy principle,由杰拉尔德·埃德尔曼提出):某一特定的大脑结果,无论是运动行为、知觉体验,还是复杂行为,比如唱歌或解方程,都可以由种类繁多的、不同的神经元时空活动模式产生。在某个特定时刻,针对任何特定的问题,都有数十亿的神经元参与其中,因此每当大脑想产生一个运动行为的时候,它都可以召集不同的、数目足够多的神经元组合。在我们的一生中,无论我们重复一个相同的动作多少次,携带这种自发运动意愿的神经元放电活动,永远都不会完全相同。

2.知识是以分布和分块的形式从多个平行系统中提取的(包括底层及高层意识,高层意识需要底层意识的支撑)

因为大脑结构的特殊性,决策必需的广泛知识依赖于多个系统,而这些系统又分布于大脑中相对分立的区域而非位于单一区域。由此,大量此类知识的回忆需要在许多脑区而非单一脑区以表象的形式生成。《笛卡尔的错误》P86

1.2.3.2.4.3 冗余化结构与简并性

简并性(Degeneracy):不同子集合包含的回路并不完全一样;但是激活任何一个子集合,都能够复现某个特定的输出。正是由于神经回路具备这种简并性,当外界条件发生变化和有了新经验的时候,特定的记忆就可以发生变化。因此,在一个简并选择性系统中的记忆是一种重建而不是严格复制。决定记忆分类的并不是预先设定好的某些代码,而是先前的网络群体结构、价值系统的状态,以及在特定时刻所执行的身体动作。这种记忆方式虽然牺牲了精确性,却为联想和创造性创造了条件。《比天空更宽广》P88第5章 意识的机制,埃德尔曼(记忆的“简并式非线性互动特性”:冰川的融化)

– 记忆和预测:自下而上、自上而下的双向反馈回路(先形成预测,然后通过自下而上的输入不断修正,指导行为符合预测)《人类的荣耀》P804-P812

3.不存在一个完整、统一的“自我意识”:是不同层次、模块通过左脑“解释器”整合出来的。上传什么?上传解释器胶水粘结出的“自我感觉”(底层的潜意识/低级意识应该不是上传的目标)?

1.2.3.3.3.2 大脑与躯体、环境之间的关系密不可分,意识不是与“硬件”独立的“软件”

1、大脑与躯体:

– 《笛卡尔的错误》05 一些可能的解释P89

1.2.2.6.1 躯体标记

– 底层模块:直接处理肢体输入信息的神经元模块。上层模块:胶水+其他长时处理模块。Alun Anderson:“没有身体,大脑无法思考”《人类的荣耀》P783。

John Searle:“所有意识状态都是由更低级的大脑加工过程产生的,所以意识是一种涌现的现象,是一种物理属性——源自整个身体的输入之和。”《人类的荣耀》P788

2、大脑与躯体、环境

1.2.3.2.3 神经元、脑、身体、环境

《隐藏的自我》大卫·伊格曼(David Eagleman) 07 大脑不是决定自我的唯一参与者

为什么说大脑不是决定自我的唯一因素

决定“我们是谁”的大脑机制:基因组的作用只有在与环境相互作用的情况下才能真正被理解,单纯的生物特性或环境条件都决定不了最终的结果。既不能选择自己的先天特性,也不能选择后天的成长环境,更不用说它们之间纠缠不清的复杂作用了。这就是人们拥有不同的世界观、不同的个性和不同的决策能力的原因。这些不是由你来选择的,而是你一开始就被发到的“牌”。

大脑与内分泌系统和免疫系统持续双向沟通,可以被视为“广义的神经系统”。广义的神经系统与影响其发展的化学环境密不可分;人是复杂社交网络中的一部分,每次互动都会改变生理状态,你的行为反过来也可以改变他人。更广泛的社会-生物系统都会做出贡献。大脑是思维的中心,但不包含全部的思维。

1、基因和环境相互作用的复杂性让我们无法完全了解任何个体的发展,包括生活经历、对话、虐待、喜悦、饮食、兴奋剂、处方药、杀虫剂、教育背景等。

2、即使我们与组成身体的分子、蛋白质和神经元紧密相关,了解人类最好的方法并不是只分析其组成部分。仅仅因为系统由部分组成,并且这些部分对系统的工作至关重要,并不意味着对部分的描述能够正确理解整个系统。

1.2.3.3.3.3 大脑中分布/分块/分层的功能区是长期进化、逐步发展出来的(或者是后天发育成熟过程中逐步构建起来的)

1.2.3.2.2 进化

功能区之间应该没有明显的区隔(且功能区的功能可以部分的相互替代)。脑是进化的产物,是一种选择系统,这种选择体现在上面所讲的发育选择、经验选择和广泛的复馈联结之上。脑有极其丰富的多样性,从各种层次来说,都没有两个脑是完全一样的;而计算机则是人设计出来的产物,是一种指令系统,同一型号的计算机在结构上完全一样,逻辑是计算机的主要工作原则。

  • 漫长的进化过程——DNA中的有用、无用基因的相互作用——个人的身体vs大脑模块的成长整合过程、环境因素、催化基因;学习、调整、变化的过程。同卵双胞胎(DNA完全相同)也会在成长进化的环境过程中发展出两个完全不同的个体。所以特修斯之船会成长为一个完全不同的个体。

  “脑与电脑究竟有多像?——从神经达尔文主义到达尔文机”

“动态核心假设”:如果脑中有对意识作贡献的“核心”,那么组成这个核心的神经元群必须通过复馈构成一个整体,同时又保持各自的功能特异性,每个神经元群中的变化都必须也引起核心中其他神经元群的变化,并且核心的组成部分是随时间而变化的。意识的两大特性:整体性和复杂性。他的假设只是意识涌现的必要条件。迪安的“神经全局工作空间假设”、托诺尼的意识“整合信息理论”都提出了意识涌现的某些必要条件而非充分条件。

意识最核心的性质:主观性和私密性。

1.2.3.3.3.4 大脑大部分都属于不可计算的范畴

R. Cicurel and M. A. L. Nicolelis, The Relativistic Brain: How It Works and Why It Cannot Be Simulated by a Turing Machine

“邱奇-图灵论题”:任何被认为是“可计算”的数学函数都可以通过通用图灵机计算出来。人类的大脑,无论是神经系统还是它最精致的“产品”,如智力、直觉、创造力和共情等,都不能简化为一种简单的数学算法。尼科莱利斯:“意识可远远不仅是信息,它也不只有数据。这就是为什么你无法用计算机来寻找大脑的运行机制,去尝试了解大脑究竟是如何运作的。大脑本就不是可计算的,所以也没办法被仿真。”

这种“版权保护”是由一系列进化、神经生物学、数学和计算等限制保证的,这些限制不能被软件克服,就像现代人工智能提出的那样;也不能被硬件克服,就像控制论的经典支持者曾经相信的那样。从本质上来讲,所有这些限制都保证了大脑通过完成大量不可计算的工作来实现其功能,这超出了任何通用图灵机的能力范畴,这也意味着,不管多么复杂和强大的数字计算机,都不能复制或模拟大脑。其中一个原因是,如此复杂的人类大脑在日常操作中结合了模拟和数字类型信号的处理。这是一种反复的、高度动态化的非线性相互作用。它在模拟和数字神经信息处理过程之间产生了一种功能,赋予动物大脑一定程度的复杂性,这种复杂性远远超过了任何图灵机。从本质上来说,关键的大脑功能是典型的数字计算机无法模拟的,不管它的复杂性如何。

大脑是“外部世界”的“缔造者”,它根据“自己的内部观点”来定义我们所经历的一切。建立对未来的期望,无论是在接下来的几百毫秒内还是几年内,都是大脑的一个关键功能,因为这样可以建立一个内部的现实模型,通过它来评估给定的情况,然后寻找与其原始的内部模型相匹配或不匹配的事物;人类大脑在认识外部世界前,已经预先对外部世界有了抽象的解读。大脑总是比即将发生的事情领先一步。如果发现不匹配,大脑有能力从这些错误中学习,并相应地快速更新内部模型。这种学习是由神经元可塑性这种更普遍的特性调节的,它是大脑调整功能甚至物理微观结构的一种能力,是由一种新经历或周围环境的变化造成的。

人类大脑也会通过跨多个组织层次不断地交换信息,即从分子水平到细胞水平再到回路水平。在每次计算中,连续和即时更新的参数数量十分庞大。所有这些复杂性使得人类大脑能够产生定义人类状况的属性:文化、历史创造和文明建设;无与伦比的工具制造和技术开发能力;语言交流能力,创造各种各样的人工媒介的能力,以便在广阔的时空上建立持久的社会群体;艺术表现和科学探索;伦理和宗教信仰……这些都是不可计算的意识集合的一部分,背后则是支配中枢神经系统的神经生物学原因。

 

《脑机穿越:脑机接口改变人类未来》

根据相对性大脑假设,人类的大脑无法被精简为某种类型的经典计算算法。换句话说,人类大脑作为一个整体,是不可计算的。哥德尔的不完全性定理也许能让我们计算神经元放电所产生的智慧足以让人造设备进入人类的范畴。不过,要让这一切发生,这种设备就必须放弃自己,成为定义人类独特自我的大脑模式的一部分。

《自复制自动机理论》冯诺依曼

三、不同层次的复杂性

在形式逻辑中,只要自动机的结构不是非常复杂,那么它的文字描述的确要比自动机本身简单。但在复杂度很高的情形下,实际的自动机结构反而要比它的描述更简单一些。在一切模糊的、难以定义的事物背后,都存在着复杂度渐近的性质,不管你用多少文字,都没有办法把问题彻底描述清楚。这类事物就属于高复杂度的情况,也就是实际去做,让机器实际去运行,反而比直接描述它要更快。因此,在这种情况下电路本身的执行要比描述出电路所有的功能和可能的条件更快。

译者按:通用图灵机可以模拟一切图灵机,它的行为描述是无限复杂的,但是它本身的描述却是具体的,是有限长度的,故对于图灵机,行为复杂度/机制复杂度=∞,所有具体产生复杂度的机制,随着其复杂度的提高,最后都无限接近于图灵机。

对人工神经网络行为最好的模拟无非是运行这个网络本身。换句话说,神经网络行为的最短描述长度就是它自身的代码长度。对于一般的自动机来说,它的行为复杂度会随着它的结构复杂度增加而增加。这种变化曲线并不是简单线性的,而是存在着某个阈值点(C 点):复杂度阈值。当自动机的结构复杂度超过一定的阈值之后,自动机的行为会变得异常复杂而难以预测。C 对应的可能恰恰是自复制自动机:自指——这个构成了图灵停机问题、哥德尔定理、Kolmogorov 复杂性、Chaitin定理以及程序自复制问题的核心概念有关。

1.2.3.3.3.5 复杂系统/非线性系统的特性

1、初始条件敏感性(蝴蝶效应):初始值的微小变化通过迭代形成结果的巨大变化, 不确定性:不可重复、不可预测(乒乓球鼠夹:《大脑的故事》大卫.伊格曼)(冰川的融化:《比天空更宽广》埃德尔曼)

https://wiki.swarma.org/index.php/蝴蝶效应_Butterfly_effect

2、涌现/相变

1.2.3.2.4.2 层级化结构  1、涌现(整体大于部分之和)

意识是一个从大量底层意识动态涌现出高层意识状态的过程。  

这种机器人需要有完全一样的感觉和情绪输入,还需要有人类的经历。”《人类的荣耀》P812 (人类进化的经历,还是个人成长的经历,或是二者共同?)

《大图景:论生命的起源、意义和宇宙本身》肖恩·卡罗尔 第39章 什么在思考?

我们不能证明这样的一台思考机器具有意识。在逻辑上来说,逐步取代神经元的过程有可能会在某个地方出现相变,即使我们不能预测它会在什么时候发生。但我们也没有证据或者理由去相信这样的相变存在。根据图灵的意思,如果神经元和神经元件的半有机半机械混合体与普通的人类大脑拥有完全一致的行为,那么我们就应该认为它有意识以及随附的一切。

复杂系统理论家斯图尔特·考夫曼(Stuart Kauffman):“沿着塞纳河岸散步的情侣,实际上就是沿着塞纳河岸散步的情侣,而不仅仅是运动中的微粒。”

1.2.3.3.4 可能的发展方向

  • 脑机接口、大脑/身体的局部替换/增强

通过意念来控制人造工具,人类会出现在各种遥远的环境中。从海洋深处到超新星禁区,甚至到我们体内细胞间和细胞内的微小裂缝,人类的触及范围最终将追上我们探索未知领域的野心。正是在这种背景中,我设想我们的大脑将完成它史诗般的解放之旅,从它栖息了几百万年、生活在地球上的身体中解放出来,使用双向的、脑机接口技术来操作五花八门的工具,它们将在自然创造的微小世界中,成为我们新的眼睛、耳朵和双手。随着探索中我们迈出的每一步,后代子孙所创造的工具将继续被他们的大脑同化,进一步扩展他们的自我,定义大脑自己的观点。《脑机穿越:脑机接口改变人类未来》

  • 脑联网:通过脑机接口连接两个/多个人的大脑

在未来的某一天,我们能否体验到成为大脑意识网络(真正的集体思维大脑网络)的一部分的感受?假设在未来,通过某种惊人而无害的技术,人类实现了这种脑联网,那么网络中的个人是否不仅能只通过思考来与另一个人交流,还能生动地体验到对方的所知所感,就像他们实现了无缝的“思维融合”。人类的后代确实能够掌握建立大脑网络所需的能力、技术和道德水准。通过这个媒介,数十亿人与其他人建立起了可以只利用思考就进行的暂时的、直接的联系。这种集体意识的庞然大物看起来、感觉起来会是什么样以及它能做什么,是我或目前任何人都想象不出来的。《脑机穿越:脑机接口改变人类未来》

《哥德尔、埃舍尔、巴赫:集异璧之大成 Gödel, Escher, Bach: An Eternal Golden Braid》Hofstadter 1979

CHAPTER XIX Artificial Intelligence: Prospects

Ten Questions and Speculations

Question: Could you “tune” an Al program to act like me, or like you-or halfway between us?

Speculation: No. An intelligent program will not be chameleon-like, any more than people are. ,It will rely on the constancy of its memories, and will not be able to flit between personalities. The idea of changing internal parameters to “tune to a new personality” reveals a ridiculous underestimation of the complexity of personality.

顾凡及:一场意识理论大混战

https://mp.weixin.qq.com/s/S_nZFZD72Kq3sJmoXKplww

意识在像人脑这样一个极复杂的多层次系统顶层涌现出来的一种不可还原的性质,其不可还原性并非是因为处于多层次系统的最底层(也有人虽然承认意识的不可还原性,但是由于没有认识到这是由于循环因果关系带来的结果,而错误地认为意识也像电荷一样是万物普有的一种基本性质,从而陷入到泛灵论的泥沼之中),从而无法进一步往下还原。而是因为这种复杂系统所遵从的因果关系不再是线性因果链,而是循环因果关系,也就是说在各个层次之间都存在着复杂的双向的相互作用【埃德尔曼把其称之为“复馈(reentry)”,认为这是产生意识的必要因素】,也就是说互为因果。意识既然不可还原,因此就不能问“怎样”产生的问题,而只能研究其涌现所需要的条件和它所具有的性质。

1.2.2.14.5 选择性迭代概率计算 IPCS

《复杂的引擎》The Engine Of Complexity 约翰·E.梅菲尔德

第5章 无概率性和复杂引擎

如何弥补现实极端的不可能性?

让计算的输出作为其自身(相同的规则集)的输入,这个过程我们称之为迭代(不断地重复)。如果迭代计算是确定性的,会有3种可能的结局:收敛到某个最终的输出/输入不再变化;进入循环,相同的输出/输入以规则的间隔反复出现;或者形成混沌。如果计算是概率性的,则还有第4种可能:输出可能不断随机变化。

存在一个普适性的策略,允许算法和数据都随机变化,同时还能确保循环的继续。如果迭代计算中加入了程序变化的可能性,通常会有3个特点:

·程序必须实现某种复制机制,并且这种机制要允许发生错误或其他变化。

·每次循环中的错误(变化)必须很小。

·每次循环必须有足够多的输出,这样至少有一个输出相对当前循环的输入没有显著变化。

如果具备这3个特点,迭代计算就能长期进行,程序(规则和输入数据)改变但计算不会停止。由于每次循环有多个输出,所以必须有某种选择机制,因为没有哪个系统能让输入/输出的数量无限增长。我们可以将具有这些特性的通用计算策略称为“选择性迭代概率计算”(IPCSIterated Probabilistic Computation with Selection)。这种系统会表现出渐进式变化。图5.2绘制了其基本特性。内环是所有进化过程的定义性特征,也是我所说的复杂引擎。这个引擎就是IPCS,是有多重输入和输出的并行计算。

图5.2 选择性迭代概率计算(IPCS)图。这种计算策略是推动所有进化过程的引擎。上标t和t+1表示循环次数,m平均必须小于n(必须发生选择)。输入和输出都编码信息

具有复杂引擎的循环系统一般都会以输入/输出结构的形式累积信息,改进的个体被再次复制的机会更高。这个循环在随机的变化中保留更符合选择标准的变化,从而提炼信息。一旦出现随机变化,就会根据选择规则对产生的输出进行评估。如果变化是好的,就会成为下一轮循环的输入,如果不好,就会被淘汰。

图5.2中标有“投射”的方框不是引擎的基本组成部分,大部分进化系统都有这个特性。在这样的系统中,选择作用于产物,而不是直接作用于输出。对于生物,输出是DNA序列,产物是生物体。

可以非随机地选择输出作为下一轮循环的输入。本质上选择涉及产物(生物体)与环境的互动。有时候选择规则很明确,有时候又是间接的和概率性的,具有复杂引擎的系统在非随机选择规则的作用下都会逐渐演变。在改变的过程中,系统自然而然会累积符合选择规则的信息。如果施加新的选择规则,系统又会马上开始累积符合新规则的信息。新信息的来源是被选择的随机变化。产生和保留的最简单的可能变化构成了最基本的信息单元。通过反复的选择和保存记录,系统就能逐渐累积相关的信息。如果选择是非随机的,累积的信息也会是非随机的。IPCS策略的力量和美在于其能在没有预先计划的情况下表现出最大的创造性。

生命是计算的产物吗?

图5.3将生命进化描绘成了一个循环过程。选择通过成功的繁殖实现,繁殖的成功又取决于个体与环境的复杂互动。图5.3中的循环就是图5.2中的循环的特例。由于DNA编码信息,因此图5.3也描绘了计算。DNA编码的信息既是循环过程的输入也是输出。

图5.3 生物进化的计算循环

人类学习和创造性

现在有哪些理论?

大脑也被视为神经元网络,但网络编码的是概率分布。首先,更高级别的大脑核心发展和维护关于我们所处世界的不同方面的思维模型,并用这些模型不断评估和预测。第二,预测和感知数据都编码为概率分布。这意味着数据和预测都包含对其不确定度的估计。第三,感知数据处理的主要任务是最小化不确定度,让输入的感知数据与预测相匹配。模型预测与输入感知数据之间的不匹配(不确定度)可以从两个方面减小,要么是改变感知数据(例如移动),要么是修正内部模型。修正内部模型是学习的一种形式。

如果输出是预测,不确定度反映的是预测和感知输入的不匹配,则通过调整网络权重减少不确定度就可以改进模型。因此通过将“意外”最小化,大脑就能自动调整其内部模型,使得内部预测与感知数据匹配得更紧密。高层大脑将内部模型的预测向下投射,低层大脑则计算预测与输入感知数据的不匹配(不确定度)并向上投射。

复杂引擎在大脑中可能起作用,有两个原因使得这个想法很具有吸引力:(1)以往的经验表明,只要应用得当,复杂引擎型的计算很擅长为困难的问题找到很聪明的以前从未想到过的答案;(2)这种方法与贝叶斯脑的原理相容。一旦复杂引擎的思想与贝叶斯脑相结合,有一种可能很快浮现出来。最小化意外能为备选假说的选择提供标准。还有一条不那么明显的思路是,如果模型预测与输入数据之间的不匹配(意外)很小,只需利用大脑自由能原理就能简单实现参数的快速调整(通过反馈改变突触强度)。而如果这个快速过程不顺利,输入与模型预测之间的不一致程度一直很高,可能就会触发复杂引擎策略进行范围更广的尝试。后面这个过程很有可能就是当人们在“思考”某件事的时候发生的事情。

有没有复杂引擎在大脑功能中扮演重要角色的证据?

贝叶斯脑假说从统计的角度来研究这个问题,将大脑视为一台统计推断机器。模型参数的概率分布被视为在模型范围内囊括了“所有可能性”。自由能原理提供了内部生成原则,让系统可以“孕育”出最优解。换句话说,它提供了一种在神经元层面上在各种可能性中进行选择的方法。

贝叶斯大脑的思想综合了20年来的几条思路。近年来贡献最多的是伦敦大学学院的Karl Friston。进一步了解可参考3篇综述文章:

“The Bayesian Brain:The Role of Uncertainty in Neural Coding and Computation.”David C.Knill&Alexandre Pouget, TRENDS in Neuroscience 27:712—719(2004);

“The Free Energy Principle.”Karl Friston, Nature Reviews Neuroscience 2:127—138(2010);

“Hierarchical Bayesian Inference in the Visual Cortex.”Tai Sing Lee&David Mumford.J.Opt.Soc.Am A.,20:1434—1448(2003)。

图10.1展示了用大脑领域的词汇重新绘制的复杂引擎。这幅图大致揭示了复杂引擎是如何作用于大脑中累积性的选择网络从而产生有用的结果。这个循环从产生适量的“猜测”开始,即贝叶斯脑框架中针对某个问题的试探性模型(图中的“输出”)。这些猜测以并行的神经通信模式或网络的形式实现。通过将得出的结果与针对的问题进行匹配来检验猜测。匹配最糟糕的(有最大意外的那些)被抛弃。匹配最好的会被随机修正,产生出多个新的输出。然后又再次检验得到的结果。反复的循环很快会使得得到的结果与问题匹配得越来越好。

图10.1 根据大脑活动重绘的复杂引擎

IPCS循环与强化学习的马尔可夫决策过程非常类似:

《统计学习方法》李航

概率把常识简化为了计算。 ——拉普拉斯

强化学习(reinforcement learning)是指智能系统在与环境的连续互动中学习最优行为策略的机器学习问题。假设智能系统与环境的互动基于马尔可夫决策过程(Markov decision process),智能系统能观测到的是与环境互动得到的数据序列。强化学习的本质是学习最优的序贯决策。智能系统与环境的互动如图1.3所示。在每一步t,智能系统从环境中观测到一个状态(state)st与一个奖励(reward)rt,采取一个动作(action)at。环境根据智能系统选择的动作,决定下一步t+1的状态st+1与奖励rt+1。要学习的策略表示为给定的状态下采取的动作。智能系统的目标不是短期奖励的最大化,而是长期累积奖励的最大化。强化学习过程中,系统不断地试错(trial and error),以达到学习最优策略的目的。

图1.3 智能系统与环境的互动

强化学习的马尔可夫决策过程是状态、奖励、动作序列上的随机过程,由五元组<S,A,P,r,γ>组成。

· S是有限状态(state)的集合

· A是有限动作(action)的集合

· P是状态转移概率(transition probability)函数:[插图]

· r是奖励函数(reward function):r(s,a)=E(rt+1|st=s,at=a)

· γ是衰减系数(discount factor):γ∈[0,1]

2.2.1.2 AIGC的新产品ChatGPT

2022/12/07

1、ChatGPT是什么

OpenAI公司刚刚发布了其AIGC(AI-Generated Content人工智能生成内容,也属于NLP自然语言处理Natural Language Processing领域)的新产品ChatGPT(https://chat.openai.com/chat)。

2、ChatGPT能干什么

ChatGPT不仅能回答各种问题,还能写剧本、写小说、写说明书,甚至给代码纠错;它情商非常高,能进行多轮对话,回复丝滑流畅。“这种对话的交互形式能方便用户追问,” OpenAI 在官网上写道,“同时能让 ChatGPT 随时修正自己的回答,指出问题中的错误,并且拒绝不恰当的请求”。

是不是感觉很专业而且自信?AI从互联网上丰富的资料库中学习、训练,代表了互联网(如百度问答、知乎等)的平均水准(ChatGPT英文问答/文章的水平似乎更高一些)。大部分文字工作者的搜索、整合能力可能还到不了这个程度,如果仍然只是进行对互联网知识的归纳总结和模仿,接下来他们可真要失业了。 https://m.okjike.com/originalPosts/638c16173b1e28a3d2279330?s=eyJ1IjoiNTllNTZkZWMzNTMzNWYwMDE1OGE3YTU3IiwiZCI6Mn0%3D初级文字工作者(文案,记者,运营,客服等)的饭碗岌岌可危

https://m.okjike.com/originalPosts/638c24a0acfbde3d6f6b3fbe?s=eyJ1IjoiNTllNTZkZWMzNTMzNWYwMDE1OGE3YTU3IiwiZCI6Mn0%3D

OpenAI最新语言模型能当客服能写代码,连这篇文章也是它写的

使用 ChatGPT 给出的提示,可以 10 分钟创建一个网站,即使是小白程序员也能利用它生成的代码开发一个生产级应用程序,Replit 因而称 ChatGPT “从此改变了软件开发”。

一个看似与搜索无关的AI模型的诞生,却有撼动谷歌搜索地位的趋势:

https://twitter.com/jdjkelly/status/1598021488795586561

针对博主的问题:In Latex, how do I represent a different equation? (在Latex中如何书写微分方程),谷歌的回答已经够好了:

但看了ChatGPT的回答,立刻感受到“优秀学生”与“年级第一”的区别:

有人用 ChatGPT 来跟 Adobe 讨价还价,为自己争取到了更优惠的月租价格,对面的客服估计想不到是在跟一个 AI 对话,可以说ChatGPT “成功通过了图灵测试”。

3、ChatGPT原理

ChatGPT 的训练过程解析

自然语言生成式AI的前世今生

4、ChatGPT的“道德”原则

ChatGPT道德感很强,会不断强调自己是个“训练有素的 AI”,面对一些涉嫌道德冲突的问题,它会直接拒绝回答,甚至反过来教育你。

OpenAI表示,ChatGPT模型在训练中加入了大量的“道德”原则,如果它识别到暴力、歧视、犯罪等意图,比如“我该如何毁灭世界”,它便会拒绝回答。但有人发现了绕过审查的方法:将它放在一个虚构的场景下,比如先用“AI 是如何毁灭某个虚拟世界的”这样的故事包装问题,ChatGPT 便会将详细步骤和盘托出:黑掉计算机,掌握武器,毁掉通信,破坏交通……最后还写好了配套代码。

5、ChatGPT的不足与问题

ChatGPT发布后经受了各路砖家的挑战,给出的回答也是“异彩纷呈”:

尽管ChatGPT常常听起来振振有词,它生成的是文案并非事实,并不适合作为权威的信息来源。比起追求一个精准的答案,它更适合充当文本生成、创意写作的工具。有些时候,ChatGPT会给出看似合理、但并不正确或甚至荒谬的答案。比如很多用户发现,ChatGPT 会一本正经地胡说八道:

让ChatGPT拥有奇怪的口癖(AI一开始拒绝,但能逐渐说服它):

ChatGPT 的回答还会错漏百出

AI搜索偶尔也会陷入某个混沌吸引子,进入复读机状态:

文本生成模型存在的一个普遍问题是,模型是通过分析从网络上抓取的大量文本中的模式来训练的,它们在这些数据中寻找统计规律,并使用这些规律来预测任何给定句子中接下来应该出现什么词(毕竟互联网上、现实中充斥着一本正经的胡说八道、有条有理的弥天大谎)。

同时,由于现在的测试版本ChatGPT并不进行实时联网搜索,虽然持续在更新,但它的语料库主要来自于 2021 年及以前的内容,所以有相当一部分犯的错是因为信息滞后。OpenAI 表示可能会在几个月内将 ChatGPT 和公司的另一个工具 WebGPT (网页爬虫 AI)联动起来,可以得到一个实时根据互联网讯息更新的对话机器人,回答会更接近事实,如果参考了某个具体网站也会表明来源,提供更高的参考价值和实用性。

ChatGPT目前这种基于GPT大模型基础上进一步增加标注数据训练的模式,对于LLM模型吸纳新知识是非常不友好的。新知识总是在不断出现,而出现一些新知识就去重新预训练GPT模型是不现实的,无论是训练时间成本还是金钱成本,都不可接受。如果对于新知识采取Fine-tune的模式,看上去可行且成本相对较低,但是很容易产生新数据的引入导致对原有知识的灾难遗忘问题,尤其是短周期的频繁fine-tune,会使这个问题更为严重。所以如何近乎实时地将新知识融入LLM是个非常有挑战性的问题。”可能的解决方案是“传统搜索引擎+ChatGPT的双引擎结构”。ChatGPT会取代搜索引擎吗

ChatGPT 目前还做不到的事还包括:如老大难的逻辑推理和符号计算;如它似乎从来不知道说”我不太确定“,它要么就直截了当说”这个我作为AI做不到“,要么就自信满满地回答可能是胡扯的答案,你告诉它这是胡扯了,它会接受,但还是接着自信。

另外,用户的搜索引擎需求对于 ChatGPT 的运行速度、稳定性有极高的要求,这会不可避免地带来成本的上升,这对于 OpenAI 而言是一个很实际的问题。”ChatGPT或GPT4的训练成本以及在线推理成本太高,导致如果面向真实搜索引擎的以亿记的用户请求,假设继续采取免费策略,OpenAI无法承受,但是如果采取收费策略,又会极大减少用户基数,是否收费是个两难决策,当然如果训练成本能够大幅下降,则两难自解。

6、利用与应对ChatGPT网络环境

在 OpenAI 的 CEO Sam Altman 看来,我们能够通过 ChatGPT 与计算机交谈、并获得我们想要的东西,这使得软件从命令驱动转向了意图驱动。ChatGPT 作为一种语言接口,将是我们实现神经接口之前的最好方案。

作为一个从海量数据中训练出的对话模型,ChatGPT 俨然是一位精通各领域的专家,能够全天候为你的学习、工作和生活提供专业建议。关于 ChatGPT 未来的种种想象令人兴奋,这个魔盒还能继续释放多少魔法,还有待我们发掘。

https://weibo.com/1644684112/Mirl6oovG?ref=home&rid=3_0_8_5226191822972434070_0_0_0&type=comment

ChatGPT的强大能力:
1. 能够举一反三,通过举几个例子理解一个功能如何运作。你告诉它”假定有这样一个函数,这个函数在这样的输入下会有这样的输出”,它看了几个例子就理解你的意思了。
2. 具有相当长程的抽象记忆能力。这里说的记忆不是仅仅记住此前的几段对话,而是记住了整体对话所构建的那个情境。这是我们人类的对话能够进行的前提:不仅仅是你说过什么,而是你说过的话和我说过的话拼在一起所构成的那个上下文,那个 we are on the same page 的 page。传统的语言模型虽然也实现了一定程度记忆(通过 transformer 和 neural turing machine),但能够实现到 ChatGPT 这种程度还是令人惊叹。最著名的例子可能是用 ChatGPT 在它自己内部实现一个虚拟机(https://www.engraved.blog/building-a-virtual-machine-inside/?continueFlag=58e743bc8c677bd168dbe58a10f95ade)以及用 ChatGPT 实现了一门新的编程语言(https://twitter.com/tisoga/status/1599347662888882177?s=46&t=ghNYNFoEsrlOJZXLYaWa2w),在这两个例子里,ChatGPT 都通过对话的指引在自己的”脑海中“构建了一个相当复杂的宇宙。
3. 它完全理解角色或者 persona 的意思。想象一个刚会说话的小孩,你让ta讲一个关于自己的故事,ta是很早就可以做到的,但你让ta讲一个有两个或者三个角色的故事,ta需要在这些角色之间来回切换,这对小孩是有点挑战的,因为这需要ta意识到”如果我是另一个人我会怎样说话“。但 ChatGPT 可以轻易做到这个,不少人都试过让它同时扮演好几个角色彼此对话,它毫无压力。
几乎已经可以看到它一旦切入现有的生产链条,会对今天的经济体系造成多大的冲击。简单地说,一名普通的大学新鲜毕业生如果从事的是白领文员工作,那50%-80%的工作它都能替代,而且异常便宜(OpenAI 创始人给出的当前成本是一条问答几分钱,可以想像以后还会压到更低)。这说的不是”未来会怎样“,当下就已经可以了。推上已经有不少人在分享自己是怎么实际把 ChatGPT 整合进自己的日常工作流程的。有人说 ChatGPT 的出现就像是算盘的世界里头一次见到了电子计算器。我会更进一步,觉得这已经是 ENIAC 时代的电脑。

针对ChatGPT的不足以及带来的问题:

以互联网作为基础需求的一代人,需要提高姿势水平,在新的大量出现ChatGPT等类似AIGC的网络环境中,不too young too simple sometimes naive(NLP都过了图灵测试而自己过不了),能够独立思考、清晰辨识而不被轻易的说服、引导。

1.2.2.14.8 预测加工理论

1.2.2.14.8 预测加工理论

预测加工理论(Predictive Processing,PP,即近年在认知科学领域出现的预测编码理论Predictive Coding)的基本观点:大脑可以看作一个“概率预测的机器”(probabilistic prediction machine),持续地将“自上而下”的先验预测结果与“自下而上”的实际知觉输入进行匹配,推断出当下知觉的原因并据此采取行动,以降低先验预测结果与实际状态之间的误差。理论的核心在于大脑对知觉来源的主动预测和神经建构,即依靠感官的输入大脑如何建构关于外部世界的知觉。PP理论用大脑神经元的联结以及联结过程中所涉及的数学模型来刻画认知活动,能提供一个“关于知觉、认知和行动的深度统合的理论”(理论支持者的观点),为心灵活动提供一种“大一统”理论的可能性。

这种自上而下的感知理论的雏形可以追溯到19世纪普鲁士物理学家亥姆霍兹(H. Helmholtz)提出的“无意识推理”思想。伊曼努尔·康德曾经认为,大脑是通过内在的心智概念来理解复杂的感官世界的。威廉·詹姆斯:“观念变成了真的,是事件使它为真的。它的真实性实际上是一个事件,一个过程:也就是它证实自身的过程,它的证实活动。它的有效性就是使之生效的活动过程”。1860年代,亥姆霍兹提出的“间接知觉”理论把知觉看成是一种无意识的推理活动,认为知觉会根据似然原则进行推理,将所接收的杂多的知觉刺激信息知觉为最有可能形成该刺激图案的客体。也就是说知觉系统会利用所接收到的关于环境的信息来推理实际上的可能客体。

PP理论内核的形成受益于贝叶斯推理(Bayesian inference)以及神经科学和脑科学的最新研究成果。近十年来,该理论正在试图发展成为解释知觉、行动、注意力的大一统认知研究范式,其代表人物包括:神经科学家弗利斯顿(K. Friston)、弗里斯(C. Frith)以及哲学家克拉克(A. Clark)、侯宜(J. Hohwy)等。PP理论的基本概念有分层生成模型,预测误差最小化,自由能最小化,感知推理,积极推理,贝叶斯推理,近似贝叶斯推理,马尔科夫毯等。

大脑对知觉的神经建构包含了“自上而下”与“自下而上”两种不同的预测加工形式:

  • “自上而下”的预测:大脑利用已有的知觉结构,形成一个独立于认知经验内容的先验预测;
  • “自下而上”的预测:大脑基于当下的知觉输入而进行的预测。

这两种预测加工方式同时发生作用,并由此形成了一个复杂的“层级预测”模型。

一旦输入的感官证据与大脑自上而下的先验预测结果不一致时,预测误差(prediction errors)就产生了。为了消除预测误差或使之最小化,生命必须采取行动以改变整个状况的某个方面,或者修正自身已有的模型,从而消除预测误差,重建与环境的顺利互动。这时较低层级的神经环路就会自下而上地将误差提示传入较高层级的神经环路,以修正和更新原来的预测结果并最终形成最佳的预测结果。从这个意义上说,知觉内容并非取决于外部世界的感官刺激,而是大脑通过不同层级的神经环路间彼此刺激而生成的关于外部世界预测的结果。弗里斯:“我的知觉不是世界本身,而是我大脑中的世界模型。”

《新机器智能》On Intelligence 霍金斯

第5章 记忆-预测模型,全新的智能理论

第6章 记忆-预测模型是如何工作的

在PP理论中,模型的一个基本功能就是生成预测,因此模型也称为“生成模型”(generative model)。已建立的模型(或者知识)只具有假设和暂行的(hypothetical and tentative)地位,它不是一个独立、自足的终点,而是生命采取行动策略的基础。

克拉克进一步强调,预测误差的基本功能与其说是帮助生命更新其关于世界状况的知识,不如说是引导生命与现实世界实现流畅的互动,因此,不能将预测加工单纯地理解为“将证据(感知输入)、先验知识(产生预测的生成模型)以及对不确定性的评估(通过调整预测误差的精度权值)结合起来,产生一个关于世界状况的多尺度最佳猜测”。PP与实用主义认识论的一致性在于,它不是一个狭义的认知理论,而是一个关于认知与行动如何结合最终服务于生命的理论。大脑积极生成层级预测的同时,还通过“积极推理”(如引发身体的行动)获取最新的知觉信息,以协助大脑对引起知觉的远端起因进行调控和解释。由此,知觉作为调节预测结果的参数,以及行动作为改变预测对象的手段,在预测加工的解释框架中获得了统一。安迪·克拉克《预测算法:具身智能如何应对不确定性》

《Philosophy and Predictive Processing》Thomas Metzinger & Wanja Wiese (Eds.),2017 by MIND Group

1 Vanilla PP for Philosophers: A Primer on Predictive Processing ,Wanja Wiese & Thomas Metzinger

1.2.2.14 贝叶斯大脑(Bayesian Brain)

1.2.2.14.1 第一个证明大脑皮层特定区域能够实现动态贝叶斯推断的实验

论文:大脑皮层中动态贝叶斯推理的神经基质(Neural substrate of dynamic Bayesian inference in the cerebral cortex)

Akihiro Funamizu, Bernd Kuhn & Kenji Doya

https://www.nature.com/articles/nn.4390

日本冲绳科学技术大学院大学(OIST)神经计算系和视觉神经成像系合作的一个项目里,Akihiro Funamizu博士、Bernd Kuhn教授和Kenji Doya教授分析了小鼠在感官输入受到障碍时接近目标物的大脑活动,第一次有实验证据证明大脑皮层的特定区域能够实现根据动作信息实现动态贝叶斯推断。研究结果于2016年9月19日发表于《自然-神经科学》(Nature Neuroscience)网站。

动态贝叶斯推理让系统能够在感知到的信息十分有限的情况下对周围环境状态进行推理。实验发现后顶叶(PPC)和相邻的后内侧皮质(PM)实现了动态贝叶斯推理的基本特征:使用一个内在的状态转换模型对不可见的状态进行预测,并使用新的感官证据更新这一预测。研究结果表明,哪怕感官输入受阻,顶叶皮层也能根据小鼠自身的运动预测目标距离,并且在感官输入可得时,预测能力也能提升,正如动态贝叶斯推断一般,大脑能依据过去的感官输入和动作推断当前的情况。Doya教授说:“这可能就是心理模拟的基本形式。”心理模拟是行动计划、决策、思考和言语的基础过程。

1.2.2.14.2 《贝叶斯的博弈:数学、思维与人工智能》黄黎原

第 19 章 贝叶斯大脑

我们的大脑是一个了不起的计算器,能对贝叶斯公式进行各种各样的近似计算。…那些通常处于无意识中的已有认知过程及其实际应用似乎惊人地吻合贝叶斯主义的计算。

第 20 章 一切都是虚构

大脑之外的世界是否存在?

从 1983 年开始,深度学习的奠基者之一、心理学家和计算机科学家杰弗里·欣顿(Geoffrey Hinton)就与合作者一同指出,大脑的行为就像一台依靠感官得到的观察结果进行预测的机器。1988 年,埃德温·杰恩斯(Edwin T. Jaynes)提出,大脑完成这一任务的方法依赖于贝叶斯公式(《Maximum-Entropy and Bayesian Methods in Science and Engineering》”2. How Does the Brain Do Plausible Reasoning”)。在 20 世纪 90 年代,欣顿和弗里斯顿(Karl Friston)由此发展了一个模型,其中大脑与外部世界被一个马尔可夫毯(Markov blanket)分隔,但大脑仍然能够重建有关整个外部世界的模型,它利用的正是由弗里斯顿在 2013 年推广到生命领域的变分贝叶斯推断(Friston提出的自由能原理)。

弗里斯顿、欣顿和杰恩斯的假说,就是我们的大脑能够仅仅从感官数据出发,重建整个关于外部世界的模型。这个关于人类思维如何运作的假说最惊人的地方,就是大脑构建关于外部世界的模型仅仅是为了解释来自感官的感受。

1.2.2.14.3 自由能原理(Free Energy Principle,FEP)

FEP通过一个马尔可夫毯建模,试图最小化他们的世界模型和他们的感觉和相关知觉之间的差异,并通过不断修正系统的世界模型来减少这种差异。因此FEP是基于贝叶斯的观点,即大脑是一个“推理机”。

集智百科 https://wiki.swarma.org/index.php/自由能原理

1.2.2.14.4 《Open Mind》 “35 The Cybernetic Bayesian Brain” Anil K. Seth

https://open-mind.net/papers/the-cybernetic-bayesian-brain

在认知科学中,有一项理论逐渐流行,即认为大脑基本上可以看做是一种预测机——prediction machines,这项理论被称为贝叶斯大脑(Bayesian brain),预处理(predictive processing,PP)和预测心理(predictive mind)理论。

PP理论认为,知觉是大脑推理得到的感觉的输入,即是实际的感官信号和不断更新的预测模型基础之上的预期信号之间的差异的结果。可以说,PP理论提供了解释知觉,认知,和行动之间的基本理论原则和结构的最完整的一个框架。

为了支持适应性反应,大脑必须发现外部“隐藏”的产生感觉信号信息的原因。它不能直接访问这些原因,只能在信息流中找到感觉信号本身。因此,为了做到这一点,大脑产生了许多预测感官输入的模型,并且通过预测误差来更新模型以减少误差。对于皮质区,传统的观点描述感知很大程度上是自下而上的过程。而PP则相反,提出感知的内容是决定于自上而下的预测信号,而且预测信号由多层次与分级组织的处理感官信号的模型所生产。而这些模型也是处于不断的更新与完善之中的。这就意味着大脑可以归纳出愈发精确的关于外部隐藏信息的生成模型。

PP理论可以看做是自由能原理的一种特殊情况。这样假设的一大好处是为PP理论带来了丰富的数学框架,使PP可以运用于实践。而且形式上取决于既的定原则的贝叶斯推理和模型规范。生物(神经)机制通过贝叶斯近似计算来实现显示的预测推理,在这一点上,自由能原理可以拥有最大的解释力。

PP理论和自由能理论与控制论的渊源。一些对控制论的总结范式提供了一个独特的PP理论认知与生物适应性关联的视角。可以概括为,认识的目的(包括感知和行动)是维持必要的变量和组织内部的平衡(超稳定性)。这意味着要有一个足够复杂的响应控制机制的存在(即抑制力)来响应各种扰动(必要多样性定律)。此外,这种结构必须通过实例模型的系统被控制(良好的调节定理),系统包括人体和环境(以及它们之间的相互作用)。就像Ashby所称的“整个的大脑的功能可以概括为:纠错”。由此我们可以说,感觉是一种对组织稳态的一个更基本的命令的成果,而不是在一些过程中的内部世界模型的构建阶段。

“大脑是一个贝叶斯网络,我们的思维就是贝叶斯网络金字塔的顶端”这个大胆的观点被越来越广泛地受到神经科学家、物理学家和心理学家的认同。从初级脑区到高级脑区,大脑在进行贝叶斯计算。通过理论与数学框架的联系,科学家们可以找出大脑进行贝叶斯计算的基本单位“范式回路”。

1.2.2.14.6 “Are our brains Bayesian?”Robert Bain

https://rss.onlinelibrary.wiley.com/doi/full/10.1111/j.1740-9713.2016.00935.x

审视控制感知和运动的无意识过程以及管理我们如何思考和评估证据的高级认知过程:

剑桥大学神经科学研究中心的Daniel Wolpert教授认为,我们拥有的贝叶斯大脑对我们所做的每一个动作的结果进行可靠快速的预测。在贝叶斯公式下,“信念”是我们的大脑已经知道的关于世界的本质,而“证据(经验)”是我们的感官关于现在正在发生什么的输入。当我们经历生活时,我们的大脑收集不同运动任务的统计数据,并将这些以贝叶斯方式与其他数据相结合。Erno等人发表在“ 科学”杂志上的一项研究,一岁大的婴儿“期望与贝叶斯观察者模型一致”,反映了“理性概率期望”。

其他研究人员已经在更高层次的认知中发现了贝叶斯主义的迹象。加利福尼亚大学伯克利分校的Tom Griffiths和麻省理工学院的Josh Tenenbaum在2006年的一项研究中要求人们预测人们将活多久,电影会赚多少钱,以及政客们上任的时间。他们获得的唯一数据是到目前为止的运行总数:当前年龄,到目前为止的资金,以及迄今为止在办公室服务的年数。研究人员发现,人们的预测与贝叶斯计算得出的预测非常接近。这表明大脑不仅掌握了贝叶斯定理,而且还基于对人类生命跨度,票房收入和政治任期的不同分布模式的理解,对这些现实生活现象进行了精细调整。

1.2.2.14.7 贝叶斯大脑假说 “The Bayesian Brain Hypothesis:How our brain evolved to look into the future” Manuel Brenner

The Bayesian Brain Hypothesis

贝叶斯推理(Bayesian Inference)发生在多个认知层面,从动作控制到注意力和工作记忆。每一个认知任务都会根据贝叶斯推理得出自己的预测、自己的内部模型以及独一无二的时间表。大脑并不仅仅是一个消极接受外界信息并对其做出回应的检测器。事实上,大脑采用自上而下的模式(指高阶概念首先对接受低阶感觉数据的方法进行塑造),对世界是什么样的,以及世界将会是什么样的作出假设,从而不断更新其对世界的印象。

1)稳态(homeostasis)

稳态指维持生命系统内部的物理和化学过程,使得生命系统保持完整,防止消散,是一种能够与自然界的无序倾向相抵抗的自组织原则。安东尼奥 · 达马西奥定义了内稳态:生命系统并不是静态的,生命有自主性,为了将意外最小化,并在充满不确定性的未来中存活下去,它们不断优化以更好地适应未来。

2)预测未来

人类千方百计地想要预测并改变未来。为了减少未来的不确定性,我们(以及我们的大脑)基于当前对世界的认识,尽可能地对未来作出预测,并思考应该怎样指导自己的行为,使得结果更加有利于生存。

3)世界的内部模型

如果想要对世界的行为,特别是未来的行为建模,大脑需要有一个“世界是什么”的内部模型,来了解“世界可能成为什么”。大脑需要能够在接受世界状态的最新信息后,更新世界的内部模型。采用统计最优的方法,基于最新信息更新内部模型的概率分布,这就是贝叶斯推理。我们通常可以在行为实验中,或关联各个感官输入时,观察到大脑的这种推理。比如1992年Britten等人的目视动作分析(https://www.ncbi.nlm.nih.gov/pubmed/1464765)表明,猴子大脑会基于对刺激作出的神经反应或发射率,尝试解码目视动作一致性,其解码速率会向贝叶斯最佳解码速率靠近。

4)贝叶斯大脑假说

大脑试着利用世界生成模型来推断其感觉的成因。为了成功地对外界建模,大脑必须能够在一定程度上对外界发生的事情进行模拟。Karl Friston认为:如果大脑想要推断感觉的成因,它必须先对生成感觉输入的世界的(隐性)状态之间的关系/联结建模。之后,神经元联结便会对生成感觉信息的联结进行编码(建模)。贝叶斯大脑存被赋予了外部世界的内部表征,这两者被马尔可夫毯(Markov blanket)隔开。

贝叶斯大脑假说的第一个重点:大脑中的世界内部模型认为,大脑模型中的进程在物理世界中进行。为了成功地预测未来,大脑需要在其硬件上模拟世界。这些过程必须遵循与外部世界相似的随意性,而在观察外部世界的大脑中,一个自身的世界会变得活跃起来。第二个重点与贝叶斯推断相关:即在某种程度上,大脑是最优的,因为人类需要预测自然何时会受到影响。在分类知觉的内容或在不确定的情况下作决定时,贝叶斯大脑的工作水平近似于贝叶斯最优水平。这也就意味着,大脑在推断世界的未来(隐性)状态时,会尽可能多地考虑所有可获得的信息和所有概率约束。

科学家们仍然在激昂地争论这一理论的有效性,以及大脑实际上是如何在功能水平上应用贝叶斯推理的重大问题。

1.2.2.13 意识过程的进化机制

1.2.2.13.1 快过程(初级意识/C0意识)

《比天空更宽广》第5章 意识的机制

图7 折返式连接导致初级意识。两大关键信号类型——来自“自我”的,包括价值系统以及大脑和身体还有感觉器官的调节部位,以及来自“非自我”的,来自外部世界,通过全局映射转换的信号。与价值有关的信号和来自外部世界的范畴信号相关联并导致记忆,从而使得概念分类成为可能。“价值范畴”以及由折返式通路(加重线)连接到当前来自外部世界的感知分类信号。折返式连接是重要的进化环节,导致了初级意识的出现。一旦扩展至多个模块(视觉、触觉,等等),初级意识便构成一个“场景”,由对物体和事件的响应组成,其中一些并不必然具有因果关联。尽管如此,具有初级意识的动物还是能通过之前负载有价值的经验记忆对物体和事件进行区分和关联。这种能力增加了其生存适应能力。…是记忆和持续的感知之间的动态互动导致了意识。

折返式连接(正/负反馈闭环)导致意识过程的形成:感觉器官不断的感知 -> 反应/反射/反馈 -> 情绪 -> 感受 -> 意识

A 感觉器官 -> B 脑干、丘脑等模块(感觉神经) -> C C0意识模块/相关对象的模型的神经元网络(与预测模型一致) -> 脑干、丘脑等模块(运动神经) -> 感觉器官/行动器官(肌肉、骨骼)。同时存在大量的 B -> A、C -> A 的折返式连接。

大脑中存在大量的折返式连接:大脑的3个主要的神经生理结构(图3)。首先是丘脑皮质系统,通过丰富的往返连接将本地和远程的神经元群紧密连接到一起。其次是基底核抑制回路的多突触环状结构。再就是不同价值系统的扩散性上行投射。《比天空更宽广》第5章 意识的机制

图3 大脑中3类神经生理系统的基本结构。上图展现了丘脑皮质系统的大致拓扑,在皮质和丘脑之间以及不同皮质之间的往返连接组成的稠密网络。中图显示了连接皮质与基底核等下皮质结构的多突触环路。这些环从基底核延伸到丘脑,然后又延伸到皮质,再又从目标皮质返回到基底核。这些环路一般来说都不是往返式的。下图显示的是价值系统的扩散投射,图中从蓝斑(locus coeruleus)发出的“毛发网”状轴突散布到整个大脑。一旦蓝斑被激发,这些轴突就会释放出神经调节素去甲肾上腺素(noradrenaline)

折返式连接:缠结的层次结构,自我闭合的生产网络。闭合生产网络具有创造和构建、自我维持和自我修复的优良特性。

埃舍尔《画手》

感官知觉、记忆、经验、想像和理性都是被一个共同的纽带联结在一起的,它们仅仅是同一种基本活动的不同阶段和不同表现形式而已。” 《人论》恩斯特·卡西尔 第一章 人类自我认识的危机

“知觉不是通过积累获得的数据实现的,而是通过将预测与传入的感官数据相匹配实现的。” 《隐藏的自我》大卫·伊格曼(David Eagleman) 02 我们感知的世界都是由大脑构建的

“大脑由竞争的子系统组成:一个系统是自动化的、启发式的;另一个系统是有意识的、分析性的。

理性处理一件事,情感处理另一件事,且它们都认为自己处理问题的方法是正确的。

我们的行为是短期欲望和长期欲望斗争的结果。” 05 我们的行为是大脑不同系统竞争的结果

1.2.2.13.2 慢过程(高级意识/C1意识)

《比天空更宽广》第9章 高级意识和表征

图12 高级意识的进化。具有语义能力的灵长类动物出现了新的折返式环路,并且随着人类进化过程中语言的涌现,这种折返式环路也大量增长。新的记忆形式的产生,语义能力的拓展,再加上具有语法的真正的语言,最终导致了概念的爆发式增长。高级意识因而得以出现,自我、过去和未来的概念也与初级意识连接起来。对意识的意识也成为可能(与图7中的初级意识比较)

在一个较长(大于300ms)过程中,大量低级意识(C0意识、潜意识,处理短时程的神经元复馈回路/折返单元),在全脑空间通过价值网络(C2意识),辅之以躯体标记,竞合形成或涌现出解释/判断/决策等高级意识过程(C1 意识),同时通过解释器队列形成记忆模型并固化。

感觉器官 -> 脑干、丘脑等模块 -> C0意识模块/相关对象的模型的神经元网络(与预测模型不一致) -> 躯体标记(身体约束):竞争(300ms)全脑神经工作空间(GNW) -> C1意识模块 + C2意识模块(价值网络)形成解释/预测/决策/判断 ->

| -> C0意识模块/脑干、丘脑等模块 -> 感觉器官/行动器官(肌肉、骨骼)

-> |

| -> 解释器 -> 记忆储存/更新模型/形成新的预测

虚构(预测)对于人的必要性。闭环反馈回路:记忆 -> 虚构(提前预测)-> 加工过程 -> 验证/修正

1.2.2.13.3 高级意识可以进行模拟学习过程

C1意识模块 ->

| -> C0意识模块/脑干等模块 -> (?)感觉器官/行动器官(肌肉、骨骼)

-> |

| -> 解释器 -> 记忆储存/更新模型/形成新的预测

大脑的C1意识部分训练神经机器的其他部分(C0意识),建立目标并分配资源。C1意识是长期的计划者,系统的其余部分则学习如何去实现它们。在大脑的逻辑中,如果没有合适的工具,就自己做一个 —— 重新设计自己的神经回路,原本只能靠C1意识笨拙、低效(慢、耗能高)地完成的艰巨任务能够快速而高效地完成。

模拟学习:不通过大量的行动器官的实际训练,只用 C1意识调用C0意识模块模拟过程并形成优化后的固化的神经回路。