2.2.1.4.1 AI与人类不是替代而是互补

《自然·机器智能》(Nature Machine Intelligence)上的研究《Aligning generalization between humans and machines》
https://mp.weixin.qq.com/s/oSVcz5QV0I8o0Bm-vxA1mA

“泛化”对AI和人类来说,意味着完全不同的事情。

人类的泛化,走的是一条“抽象”的路。我们看世界,会自动忽略掉那些不重要的细节,比如椅子的颜色、材质、高矮,然后抓住最本质的特征——“有个平面能支撑屁股”。这个过程,是概念思维。我们的大脑里形成了一个关于“椅子”的灵活框架,可以套用在任何新事物上。人类的学习是高效的。一个概念,看几个例子就通了。
AI的泛化,走的是一条“统计”的路。它没有“概念”,只有“模式”。在它眼里,椅子不是一个功能性的东西,而是一堆像素点的特定组合。它通过学习海量数据,记住哪些像素组合最可能被标记为“椅子”。这更像是暴力破解,而不是真正的理解。AI的学习是笨重的。一个概念,需要成千上万,甚至数百万个数据样本去喂养,才能勉强“记住”模式。
大脑还有一套非常聪明的“双过程系统”。系统1,是直觉系统,快、自动、不费脑子,凭感觉走。比如你一眼认出朋友,或者开车时下意识地踩刹车。系统2,是分析系统,慢、刻意、非常费劲,负责逻辑推理。比如你做一道复杂的数学题,或者规划一次长途旅行。人类能在这两个系统之间无缝切换,根据情况决定是“凭感觉”还是“过脑子”。
AI系统基本上只有一个“系统1”,而且还是个固化版的。它的模型在训练好之后,参数就基本固定了,形成一个固定的解决方案。遇到新问题,它不会灵活切换策略,最多就是在原有模式里找一个最像的答案。想让它真正适应,唯一的办法就是“回炉重造”——用新的数据重新训练一遍。
AI是个偏科严重的“天才书呆子”,在它擅长的领域能碾压人类,但综合素质和适应能力被人类吊打。在规则明确、环境可控的场景下,AI是神。比如自动驾驶,谷歌的Waymo系统在特定条件下,能把严重伤害事故减少91%,比人类司机稳多了。可一旦环境变得复杂多变,AI就立刻“拉胯”。比如语音识别,在安静的实验室里,AI的错误率可能极低,可一到嘈杂的马路边,它的错误率能飙升到50%以上,连话都听不清了。人类却没这个问题,我们在菜市场照样能聊天。因为AI的泛化是“域内”的,它只能处理和训练数据分布相似的情况。一旦遇到“域外”(Out-of-Domain)的情况,比如没见过的口音、突如其来的噪音,它的性能就会断崖式下跌。

AI取代不了人,它们根本就不是一个“物种”。

未来的方向,不是替代,而是互补。AI负责它擅长的:处理海量数据、执行重复性任务、在规则明确的领域里做决策。人类则负责我们擅长的:处理模糊和不确定的情况、进行创造性思考、做出涉及伦理和价值观的判断。

https://www.nature.com/articles/s42256-025-01109-4
https://neurosciencenews.com/human-ai-adaption-neuroscience-29689
https://techxplore.com/news/2025-09-machines-struggle-unknown-exploring-gap.html

1.2.2.15 意识问题为什么是困难问题

大卫·查尔莫斯提出了“意识的困难问题”(hard problem of consciousness)的概念:即便“意识相关神经区”能够证明大脑的某些区域可以生产意识的某些信息内容,它也无法解释“感受”所带来的主观体验。

因为存在双重衰减,所以研究意识是一个困难问题:
一、第一重衰减:事物从感知中抽象出来,形成第一次“地图”,造成信息的衰减、“盲点”。可能不仅仅是衰减、“盲点”(可能是不可知):
1、经验/感知——测量——模型——结论:

  • 测量:测量设备的精度问题;量子模糊(quantum blurriness)是粗粒化的极限;
  • 模型:“所有的模型都是错的”;

2、对事物的认识是一个漫长的、困难的、逐步发展的过程:亚里士多德——牛顿——相对论/量子力学——……;
3、康德“物自体”最核心的特性是不可知性,我们认识的只是物自体呈现给我们的样子;

二、第二重衰减:研究意识时存在的“解释鸿沟”。主观意识体验,或称“感受质”Qualia,丹尼尔·丹内特归纳了感受质的四个特征:

  • 不可言传性——只能被体验者本人直接知晓的;
  • 内在性——作为非关系性属性不因经验与其他事物的关联而改变;
  • 私密性——感受质的人际比较在系统上不可能;
  • 意识直接可把握性——体验感受质即意味着完全知晓该感受质。

问题的关键在于如何在不掺杂研究者主观判断的情况下客观地研究一个纯粹主观的现象,需要通过:
1)寻找意识的“神经相关物”(NCC):找到与特定意识体验可靠地相关联的神经活动;
2)利用第一人称报告作为数据;
3)研究意识的功能、与客观生理指标关联和行为表现;
等方法来间接的理解、研究它,是一种“从外到内”的映射,用客观的第三视角工具去绘制第一视角的主观世界地图。这张地图非常有用,但它永远不能完全等同于领土本身。

《何为科学》亚当·弗兰克 马塞洛·格雷斯 埃文·汤普森
第1章 悄然替代:盲点的哲学起源
自然两分
怀特海《自然的概念》:自然就是我们通过感官知觉觉知到的事物。然而,物理学家必须从感知中抽象出来,专注于自然的可数学化的方面,如时间、空间、运动、力和粒子。每当将这一抽象过程解释为自然由两种不同的事物构成,即实在中未被人感知的基本组成部分和被感知到的主观表象时,就会产生自然两分。当我们把自然分成“两个实在系统”时,我们就把自然分成了两个部分:在觉知中得到理解的自然和作为觉知原因的自然。
斯唐热:​“从解释到解释,从实验情境到实验情境,‘心灵’仍然在括号之中,因为实验关系的刻画并不包括对实验进行解释的人。声称能解释‘感知到的红色’,就是在声称会突然出现一个术语,就像魔术师从帽子里突然变出一只兔子一样。这个术语并不是指科学家成功感知到的东西,而是指他们所有预先成功设定出来的东西。​”尽管科学家正在实验被试者身上建立起神经元活动与意识知觉报告之间的相关性,而且这些相关性正变得越来越精确,但是这些成功预设了科学家自身的意识是整个科学事业的先决条件。如果认为用来研究大脑活动和意识经验主观报告之间相关性的方法,也可以反过来用于把意识设定为任何事物存在的前提条件(尤其是对科学而言)​,那就好比你以为魔术师真的可以从空帽子里变出一只兔子一样。
第5章 宇宙学
宇宙时间的出现
量子模糊(quantum blurriness)是粗粒化的极限。

《万物本源:生命、意识,以及存在意义的复杂科学》
第三部分 意识与万物本源
第九章 意识的来源
“困难问题”
哲学家大卫·查尔莫斯提出了“意识的困难问题”(hard problem of consciousness)的概念。该概念认为,即便“意识相关神经区”能够证明大脑的某些区域可以生产意识的某些信息内容,它也无法解释“感受”所带来的主观体验。
意识的转换
不要把大脑看成思想的生成器,而是把大脑看成思想的转换器。

《哲学家们都干了些什么?》
第十九章 干掉因果律—休谟
休谟认为只有两类知识是可靠的。一类是像逻辑和几何那样,既逻辑严谨又不依赖于外物存在的知识;一类是我们感官体验到的知识。因果律不符合第一类知识,同时因果律不可以靠经验总结出来(“相关性不代表因果性”)​。
第二十章 哲学遇到麻烦了
科学研究的前提是,世间万物必须存在着某种普遍规律。休谟问:科学家凭什么认为世间存在普遍规律?假如我们真认同了休谟,那就麻烦了。我们做科学实验还有什么意义呢?科学家们比较两个实验的数据,不管这两个实验条件有多像,其实也不过是在比较两个毫无关系的偶然事件,那怎么可能得出有意义的结论呢?
第二十二章 宅男拯救哲学
康德觉得休谟说得没错,理性主义属于独断论,经验主义又不能证明事物之间存在因果关系。康德认为,我们应该把主客观世界的关系颠倒过来:“先天认识形式”​、“物自体”​、“表象”​。人的意志受到了先天认识形式的严密保护,因果律不能穿透先天认识形式去控制人的内心意志,所以人有自由意志。这也意味着作为物自体的自我意识,是没法被我们察觉和把握,科学是永远无法研究人的自由意志的。

《我的哲学探索》
第三章 客观性和公共性
第四节 人体的结构稳定性:为什么有清醒的直观世界?
人类可重复的经验的核心组成部分必定是他和某一对象构成的认知结构内稳态。
一个结构稳定的认知系统中的内稳态一定是个人可以重复的,但某一个人认知结构中的内稳态不一定是结构稳定的,这就意味着并不是任何一个观察者个人可重复的经验,一定可以转化成社会普遍的公共经验的。

第五节 结构稳定性的扩张:科学以人为中心
“受控实验”原则在探索各个领域的自然现象时被应用:​“科学家必须在严格控制条件下进行实验,他在报告自己的实验成果时,必须准确刻画自己观察到某一现象的特定条件。​”图1-22 受控实验结构与科学的扩张
受控实验原则的关键在两点:第一,实验必须是结构稳定的系统,如果系统结构不稳定,观察到的新现象不能算是一个新现象;第二,条件必须是受控的,即可以脱离个别观察者而为其他观察者实现,也就是它必须是一群观察者原来已经确认过的(或可以确认的)内稳态。