2.1.2.5 最顶端的目标来自自然选择,情绪是给大脑确立最高级别目标的机制

《心智探奇:人类心智的起源与进化》史蒂芬·平克
06心智能力3:情感
情感源于进化

智能是遇到障碍仍能继续追寻目标。如果没有目标,智能的概念就毫无意义。
但最顶端的目标来自哪里,那个其余部分的程序都试图获得的最终目标到底是什么?对有机体来说则是来自自然选择。大脑努力地将它的主人置于促使其祖先繁殖的同样的环境中去。(大脑的目标不是自身的繁殖;动物并不知道生命的事实,而知道生命事实的人类则愉快地用避孕的方式颠覆了这一目标。)预设在智人这个解决问题的社会种群中的目标不仅仅是“4个F”(神经科学家保罗·迈克·利恩Paul Mac Lean的著名但却不正确的三脑一体理论,底层是基底节或爬虫类脑驱动4个F:Feeding、Fighting、Fleeing和Fuck),其目标清单的顶端是了解环境和确保与他人合作。
这就是为什么我们具有情感的原因。动物不能同时追寻所有的目标。如果一个动物又饿又渴,它不会站在浆果丛和湖之间的中间位置,这个动物一定会在一段时间里将身体付诸一个目标,这个目标也必须与实现它们的最佳时刻相匹配。情绪是给大脑确立最高级别目标的机制。一种情绪一旦在恰当的时刻被引发,就会引出大量的子目标和再下一级的子目标,我们将其称为思考和行动。由于这些目标和手段被编织成了一个嵌套了多重子目标网状控制结构,所以思考和感觉之间并没有明确的区分界限,思考也并不必然先于感觉或反之(尽管心理学界对孰先孰后争论了一个世纪)。例如,恐惧是由一种迫在眉睫的伤害信号所引发的,如捕猎者、悬崖或一个口头威胁。它导致了逃跑、克服或改变危险的短期目标,并将此目标优先考虑,令我们产生一种紧迫感。它还引发了未来避免险境和记住我们从中获得教训的长远目标,这是由我们所感受到的压力解除状态引发出来的。许多人工智能研究人员相信,机器人要想做到自由行动(相对于那些拴在装配线上的机器人而言),就需要被设计加入一些类似情绪的程序,使它们在任何时候都知道下一步该怎么做。而这些机器人是否会感知到这些情绪则是另一个问题。
恐惧还触发了一个使我们的身体准备好行动的按钮,它被称之为“战斗或逃走”反应。每种情绪都会调动人的心智和身体,来应对认知生态中生存和繁衍的某个挑战。其中有一些挑战是以有形的方式提出的,情绪的应对也采取了明确的方式,如恶心、恐惧和对自然之美的欣赏。另一些挑战则是由人造成的。对付人的挑战,人们能以其人之道还治其人之身。情绪通过进化来应对其他人的情绪。


幸福跑步机

追求幸福是一项不可剥夺的权利,《独立宣言》将其列入不言自明的真理之列。杰里米·边沁(Jercemy Bentham)写到,最大多数人的最大幸福即是道德的基础。每个人都想快乐几乎是被循环论证过的废话,但它提出了一个关于人之所以为人的深刻问题:人们奋力争取的到底是什么。
起初,幸福对于生物合理性(更确切地说,是使得我们所演化环境合理的状态)来说似乎是锦上添花。当我们健康、衣食无忧、舒适、安全、运气好、博学、受人尊重、有人相伴和被爱时,我们会更幸福。另一方面,这些奋力争取的目标有助于繁衍。幸福的功能将是开动脑筋寻求达尔文式适应的密钥。当我们感到不幸福时,我们为这些会令我们幸福的东西而努力;当我们感到幸福时,我们保持现状。
问题是,多大程度的合理性值得人们去努力奋斗呢?冰川期的人们如果因为缺少野营火炉、青霉素和来福猎枪,或是为这些东西而不是为一个更好的洞穴和长矛努力奋斗的话,那他们就是在浪费光阴。即使对于现代的原始觅食人群而言,在不同的时间和地点也会有差异很大的生活标准。若能避免好高骛远,追求幸福应当根据当前环境中通过合理努力所能获得的回报而加以相应的调整。我们怎么知道什么就是能够被合理获得的呢?一个良好的信息来源就是看他人已经得到了什么。如果他们能得到,那么或许你也能得到。古往今来,许多致力于研究人类处境的观察者都会发现一项人间悲剧:当人们觉得自己比邻居更好时,他们就会觉得快乐;当觉得自己不如邻居时,就感觉不快乐。安布罗斯·比尔斯(Ambrose Bierce):“幸福,名词。一种缘于注视他人痛苦而产生的愉悦感受。”
关于目标可实现性的另一个重要线索是你现在的幸福程度。你现在所拥有的是可实现的(根据定义),还有可能做得更好一点。演化理论预测,一个人所能做到的应当超过他所掌握的,但不会超过太多。这就有了关于幸福的第二个悲剧:人们适应环境(无论好坏)的方式,就像他们的眼睛适应阳光或黑暗的方式一样。中立地看,改进就是幸福,丧失就是悲惨。一位同事:“有时我希望自己还年轻,然后我就记起来年轻时同样也没什么好的。”迈尔斯和蒂耶纳指出,财富就像健康:没有它会令你觉得悲惨,但拥有它并不保证幸福。
幸福的悲剧还有第三种表现:负面情绪(恐惧、悲伤、焦虑等)的数量通常是正面情绪的两倍,损失比相同程度的获得能被更敏锐地感觉到。这种不对称性已经在实验室中得到了证实,实验显示,人们愿意下更大的赌注来避免一个确定的损失,更甚于改善一个确定的获得,这体现在人们的情绪在想象一项损失(例如,在课程成绩上或与异性的关系上)时跌落的幅度,要比想象一个等价收获时情绪得到改善的幅度更大。心理学家蒂莫西·凯特勒(Timothy Ketelaar)指出,幸福显示着资源在提升身体健康方面的效果。随着情况变好,健康程度的提升显示出回报递减的效果:更多的食物是好的,但顶多只是好到某一点。但随着情况变糟,健康程度的下降会令你出局:食物不足的话,你就会死。让情况变得无限糟糕的方式有许多种(如感染、饿死、被吃掉、坠落等),却没有很多方式能够显著改善情况。这使得可能的损失比可能的收获更值得关注;令我们不高兴的事情要比令我们高兴的事情更多。
研究快乐心理学的早期演化心理学家唐纳德·坎贝尔(Donald Campbell)将人类描述为处在一个“幸福跑步机”上,福利的改进在长期上并没有令我们更加快乐。确实,对幸福的研究听起来往往只是对传统价值观的布道。有数据显示,快乐的人并不是那些富有的、有特权的、强壮的或相貌好看的,而是那些有配偶、有朋友、有宗教信仰和有一份具有挑战性且有意义的工作的。这一研究结果可能被过分强调了,因为他们只代表平均水平,而不能说明单个个体,况且原因和结果很难被分开:结婚可能会使你快乐,但快乐可能会使你结婚并维持婚姻状态。但坎贝尔在总结这项研究时总结了几千年来充满智慧的男男女女的状况:“对幸福的直接追逐会导致不幸的生活。”

1.2.2.14.9 视觉系统根据视网膜的映像计算出世界最有可能的状态

《心智探奇:人类心智的起源与进化》史蒂芬·平克
04心智能力1:视觉感知
光、影、形:景物转图像3法则

任何投映都可能来自无限多个物体,所以没办法只从一个映像来恢复其形状。我们的形状分析器在碰运气,在给定视网膜图像的情况下,令我们看到最有可能的世界的状态:贝叶斯定理(Bayes’ Theorem),也就是一种能由搜集到的证据进而计算出特定假设为真的概率的方法。

我们的三维线性分析器是如何使用贝叶斯定理的呢?要找出某一线段究竟是由哪一物件所产生的,它会先假设特定物件是真的出现在该场景里,再找出最有可能产生所见线段的物体——也就是计算出每个物件产生证据的可能性;此外该物件还得在一般的状况下最有可能出现才行——也就是事前概率够大。我们的三维线性分析器推测,正如爱因斯坦曾这样谈论上帝一样,这个世界是难以捉摸的,但它没有恶意。

因此,形状分析器一定具备了一些有关映像的概率信息(从各个角度物体如何显现)和一些有关世界的概率信息(这个世界有着什么样的物体)。一些关于映像的概率确实是非常好的。从理论上讲,一分硬币能够投映为很细的一条线,但只有从它边上看的时候才会这样。绝大多数视角会使这枚硬币投映出一个椭圆形。形状分析系统假设目前双眼所见的只是一个一般的场景并依此来估测各种假设为真的概率。一幅图像中的一堆线可以进一步缩小概率,例如,一组平行或近乎平行的线不可能是巧合。还有许多其他的经验法则告诉我们,真实世界里的哪些形状会投射出特定的影像标记。小T、Y、角、箭头、鱼尾纹状、平行弯曲线是各种直边、角、直角和对称形状的印记。一个机灵的形状分析器可以运用反向思维,来推测它们在真实世界中是什么。


为什么日常生活中人们似乎常常表现的是“概率盲”呢?
05心智能力2:推理
3个好工具:逻辑、算术和概率

生命每一轮都要掷骰子。结果很难做出预测,特别是对未来的预测。但在一个由所有规律构成的宇宙中,根据过去所做的决策要比随意做出的决策更好些。这一直是对的,所以我们估计有机体,特别是像人类这样偏好信息的物种,会进化出关于概率的敏锐直觉。概率论的创始者们,像逻辑学的创始者们一样,想象他们只是在将常识感觉形式化了而已。
但为什么用马西莫·皮亚泰里·帕尔马里尼(Massimo Piattelli-Palmarini)的话来说,人们似乎常常是“概率盲”呢?许多数学家和科学家总是悲叹,普通人在对风险推理时表现出数学盲。心理学家阿莫斯·特沃斯基和丹尼尔·卡尼曼积累了大量巧妙的事例,来展示人们对机遇的直觉把握似乎蔑视了概率理论的基本规则。人们对飞机的恐惧更甚于汽车,特别是在看(听)到一条残酷的飞机失事新闻之后,尽管统计数字表明,乘飞机要比坐汽车安全得多。人们害怕核能,尽管更多的人因煤炭而残疾或丧命。每年有1000名美国人死于意外触电,但摇滚明星们没有发起活动来降低家居电压。人们鼓噪着要禁止杀虫剂残余和食品添加剂,尽管它们与植物为了阻止虫子吃掉自己而进化出的数千种自然致癌物相比,致癌的风险微乎其微。人们觉得如果轮盘在一排中黑的那里已经停下过6次,它就该在红的那里停了,尽管轮子没有记忆,每次旋转也都是独立的。一大批自封的预言家形成一个产业,在股票市场的随机游走中产生幻觉倾向。许多社会心理学家都得出结论,认为心智并没有被设计为掌握概率法则,尽管这些法则和规律支配着宇宙。大脑能够处理有限量的信息,所以它没有来计算定理,而是使用粗略的经验法则。
一个法则是:一个事件越令人记忆深刻,它就越可能发生(我能记得最近一次恐怖的飞机失事,所以飞机不安全)。另一个是:一个人越类似于一种刻板印象,他就越可能属于那种类别(比较我对于银行出纳员心理意象的符合程度,琳达更符合我对于女权主义银行出纳员的心理意象,所以她就更可能是女权主义银行出纳员)。有着渲染性标题的畅销书籍对坏消息的传播更加推波助澜:《非理性:内心中的敌人》《注定的幻觉:理性的错误如何控制我们的心理》《我们如何知道不是如此:日常生活中人类理性的谬误》。我们作为直觉统计学家的不称职解释了人类愚蠢和偏见的沮丧历史。

在一个概率的世界中,人类心智真的对概率这么不在意吗?人们的理性不像它最初看起来的那么傻。
首先,许多风险选择不过就是选择,这毋庸置疑。心理学家格尔德·吉仁泽(Gerd Gigerenzer)、考斯迈德斯和托比指出,即使当人们对于概率的判断远离事实时,他们的推理也可能是有逻辑的。任何心理能力都不是万能的。以著名的“赌徒谬误”为例:期望硬币正面的连续出现会增加硬币反面出现的机会,仿佛硬币有记忆而且希望公平一样。许多事件有着一段有生命的历史,一个随时间推移而发生的变化着的概率,统计学家们称之为风险函数。一个精明的观察者应当犯赌徒谬误,并尝试根据事件现有的历史来预测它下一次的发生,这种统计被称为时间序列分析。所以在除了赌场之外的任何世界,赌徒谬误都几乎不是一个谬误。如果只是因为我们无法赢过赌博机器,就把我们对事物直觉式的预测能力称作谬误,这显然是一种因果倒置的说法。赌博机根据定义就是设计来击败我们直觉预测的。
其次,“概率”有许多含义。一个是长期的相对频率。表示单个事件概率的数字只是作为主观置信的估计才有意义,但心智或许进化成将概率认为是长期的相对频率,而不是对单个事件置信的数字表示。我们祖先最接近概率的含义是对未知有效性的传闻,再加上像“很可能”这样的粗糙标签。我们祖先可用的概率一定来自他们自身的体验,其意思是指频率:多年以来,长紫斑的人中8个有5个第二天就死掉了。吉仁泽、考斯迈德斯、托比和心理学家克劳斯·费尔德勒(Klans Fiedler)注意到,医疗决策问题和琳达问题询问的是单个事件概率:这个病人患病的可能性有多大,琳达是银行出纳员的可能性有多大。习惯于相对频率的概率本能会觉得这种问题超过它的势力范围了。只有一个琳达,她要么是银行出纳员,她要么不是。“她是银行出纳员的概率”是不可计算的。所以他们交给人们这个难解的问题,但表述方式确是以频率的方式,不是单个事件概率。1000个美国人中有一个患这种疾病;1000个健康人中有50个检验呈阳性;我们收集了1000个美国人;有多少个检验呈阳性的人们患有这种疾病?100个人符合对琳达的描述,有多少人是银行出纳员?有多少是女权主义银行出纳员?
许多概率理论家下结论说,单个事件的概率无法计算,这个过程都是毫无意义的。吉仁泽认为,因为频数是有讨论余地的,而人们在直觉上没有给单个事件赋予数字,它们有可能转换到第三种,非数学的概率定义,“由刚刚提供的信息确保的信念程度”。
概率概念最后一个令人费解的问题是一种认为世界是呈现稳定状态的信念。概率的推导是基于昨天搜集的频率而在今天做出的预测。但那是那时,这是现在。你怎么知道世界在这间歇中没有变化?在一个变化的世界中是否有任何概率的信念是真正理性的,概率哲学家对此进行着辩论。街上的路人更看重一件最近的逸闻,而不是一沓统计数据,这并不一定就是不理性。
一个没有概率本能的物种是学不会这门课程的,更不用说发明它了。当人们得到的信息格式与他们自然思考概率的方式相吻合时,他们可以做到惊人的准确。宣称我们的物种是概率盲的论断,是不大可能真实的。

2.2.1.3.9 AI的理解困境

《AI的理解困境:如何走出数据世界,触达生命的理解?》https://mp.weixin.qq.com/s/SflTQWcS3EcKKggL-bxTkw

大脑的基本功能并非积累知识,而是控制与世界的信息和能量交换。重要的不是知识的真实性,而是与世界交互形成的稳定性。生物系统的另一特征是在与世界进行互动之前,它们能够基于已掌握的关于动态世界的知识,做出行动预测。这种预测是主动推理(active inference)的基石。简单来说,主动推理认为,生命有机体的感觉行为根本上是预测性的,而非随机被动触发,它建立在能够提供可供性的世界模型之上。

成功的生成模型能够从数据中提炼出“潜在变量”,这些变量有助于解释和预测。主动推理的生成模型涉及理解,并将潜在变量作为概念形成的基础。沟通的意义不在于语音和语法,而在于由沟通所预测的社交互动。生成式AI只是继承了人类沟通所得的语言财产,却不会参与到赋予语词意义的互动过程中。生命有机体通过与环境的感觉运动互动来学习,这种互动不仅包括了统计规律的掌握,更重要的是,它们是形成知觉和对世界因果关系理解的基础。生命有机体的注意力涉及到主动选择,其目的是消除不确定性。

生物体在演化的过程中,面对自然选择的压力,发展出了独特的生成模型。例如,我们的情绪,根植于对某物“对我重要”的感觉,这为我们对世界的理解赋予了意义和目的。在主动推理的过程中,我们利用内感受预测(interoceptive prediction)来引导行动和决策,这种方式使我们能够更好地理解行动的原因和后果。这种内感受、外感受和本体感受的预测共同促进了生命体的生存。因此,与生成型AI不同,生物的主动推理模型自然形成,不需要像AI那样不断地学习细粒化的、繁复的任务。

真正的“理解”以能动性理解为基础,建基于有机体通过感觉运动与世界进行的互动,建基于生命有机体对环境的主动探索。更深层次的理解需要分离性表征的能力,即使这种能力仍然基于与世界的互动,但它能够超越当前情境,进行规划、想象和讨论抽象概念。这种理解不仅仅是对统计规律的掌握,而是对世界模型背后的因果结构的深入认识。

更可靠的方式可能是先让AI系统在与现实世界的互动中学习,然后再将这些经验与大型语言模型结合。

Pietro Perona:如果你是一个非实体,你所需要做的就是进行预测,而相关性对于预测来说是非常有用的。但是,如果你需要改变世界,也就是说你需要进行干预,那么你就需要理解事物的原因。因此,因果关系是至关重要的,它使得推理成为可能。

2.2.2.2.3 《当下的启蒙:为理性、科学、人文主义和进步辩护》

Enlightenment Now: The Case for Reason, Science, Humanism, and Progress
史蒂芬·平克
19 对人类生存的威胁
19.1 高估灾难本身就是一场灾难
一个弊端是,对于灾难风险的错误警报本身就是一种灾难。培植对于假想灾难的恐惧,不仅不能保卫人类的未来,反而更能使人类陷入危险境地。
第二个弊端在于人类的资源、脑力和焦虑是有限度的,我们不能为所有事情担忧。如果两个场景都可以同样地进行想象,它们发生的可能性或许就会被认为是相同的,那么人们对真正危害的担忧就不会高于对科幻情节的担忧。这就会导致最危险的事情发生,“这些残酷的事实会让任何通情达理的人都得出一个结论——人性糟糕透了。”如果人性真的糟糕透了,为何还要做出牺牲来减少潜在的风险呢?

19.4 人工智能是我们的末日吗?
“机器人启示录”(Robopocalypse)建立在对于智能的错误理解上,这种错误理解更多地应归因于“伟大的存在之链”以及尼采主义者的权力意志论,而非现代科学的理解。在该概念中,智能是一副全能的、能够实现各种愿望的药剂,各种生命体拥有的剂量不一。人类拥有的智能比动物多,并且未来的人工智能计算机或机器人(可以说“一个AI”,AI被当作可数名词)拥有的智能比人类多。由于我们人类使用了中等天赋剂量来驯养或铲除天赋剂量不如我们的动物,并且技术先进的社会已经奴役或毁灭了技术处于原始状态的社会,接下来超级聪明的人工智能也会这样对待我们。由于人工智能的思考速度比我们快上百万倍,并且可以使用超级智能来迭代提高自身的超级智能(意志的突然觉醒),从它启动的那一刻起,我们再也无法阻止它。
然而,这个情节就好比我们担心由于喷气飞机超越了鹰的飞行能力,有一天它就会从天上突然冲下来袭击牛羊一样。对人工智能的第一重误解在于混淆了智能与动机,也就是混淆了信仰与欲望、推断与目标、思考与渴望之间的区别。即便我们真的发明了超人类智能机器人,它们为何会想要奴役自己的主人或掌控世界?智能是使用创新手段达成目标的能力。但目标与智能并无关联:聪明不等于欲望。碰巧的是,智能在智人的系统里是达尔文自然选择的产品,是一种天然的竞争过程。在人类的大脑里,智能与统治对手、积累资源这样的目标是结合在一起的(不同人种的程度不同)。将某些灵长类动物边缘脑的回路与智能的特性进行混淆是错误的。
人工智能系统是设计而非进化而来,复杂系统中并没有什么规则认为智能必须转换为无情的征服者。
第二重误解在于将智能当作无穷无尽的能力,当作一种能够解决任何问题的神奇万能药。这个谬误会引发荒谬的问题,比方说人工智能什么时候能够“超越人类的智能”,并且人们还会幻想出一种终极的、拥有神一般全知全能的“通用人工智能”(AGI)。智能是一种奇巧的装置:它拥有在不同领域实现不同目标的知识,或者说拥有用这些知识进行编程的软件模块。
人类具有寻找食物、结交朋友、吸引配偶、养育孩子、去全世界旅行并且追求其他属于人类的爱好和消遣的能力。计算机或许被设计用于解决部分这些问题(例如识别人脸)但并非全部(例如吸引配偶),并且可以用于解决部分人类无法解决的问题(例如模拟气候或对数以百万计的账簿进行分类)。这些问题是不相同的,需要用来解决问题的知识也就不同。

现实生活中的认知者必须通过接触某个领域以获取关于混乱世界里物体和人类的信息。理解力并不遵从摩尔定律,知识是通过阐述解释并在现实中进行测试而得来的,并不是通过越来越快的运算速度就能得到。吸收互联网上的信息也不会获得无限的知识:大数据依然是有限的数据,而世界的知识是无限的。
即便通用人工智能试图锻炼掌控的意志,但若没有人类的合作,它仍将是无能的“缸中之脑”。真实世界不可能让数字天启顺利发生。

由于邪恶机器人的前景过于朦胧而不足以严肃对待,生存卫士们又发现了一个新的数字末日。这个故事情节不是以弗兰肯斯坦这个科学怪人或希伯来传说中的魔像为基础的,而是基于可以让我们许三个愿望的妖怪,第三个愿望必须使前两个失效,并且以迈达斯国王将他所碰触的一切(包括食物和家人)变为金子的故事为基础。这种危险性有时称为价值对齐问题(Value Aligment Problem),是指我们为人工智能设立了目标,然后只能站在一旁看它残酷而专心致志地执行它对目标的理解,而我们的利益可能将被摧毁。如果我们为人工智能设立目标,让它维持水坝后边的水位,它或许会让一个城镇被洪水淹没,却毫不关心溺水的人。如果我们让它完成制造回形针的目标,它或许会把一切触手可及的东西变成回形针,包括我们的财产和身体。如果我们要求它实现人类幸福的最大化,它或许会为我们静脉注射多巴胺,或重设我们的脑回路,让我们带着最幸福的状态坐在缸中;如果它在训练中获得了幸福等于笑脸照片的概念,它会在整个银河系铺上上万亿张纳米级别的笑脸照片。
幸运的是,这些情节是自相矛盾的。它们依赖于几个前提条件:(1)人类拥有极高的天赋,可以设计出全知全能的人工智能,但同时人类又非常白痴,以至于在未经测试的情况下赋予人工智能掌控世界的权力;(2)人工智能聪慧至极,懂得如何转化元素以及如何重设脑回路,但又愚笨到犯下误解的基本错误而造成极大的破坏。要想具备选择最能满足目标行动的能力,并不是工程师加上一个附件就行,这需要智能。根据语境解读说话者意图的能力也是智能。
如果我们能够抛开意识觉醒、数字傲慢、即时全知以及对宇宙间任何一个分子完美掌控的幻想,人工智能可以算作另外一种技术。它历经循序渐进的开发,能够满足多种情境,在应用前要经过测试,并且为了效率和安全性要不断进行调整。用人工智能专家斯图尔特·罗素的话来说,“在民用工程领域,没有人会谈论‘建造永不坍塌的大桥’,他们仅仅会说‘建造大桥’。同样,只有益处而没有危险的人工智能才是人工智能。”