2015年Edge年度问题:“你如何看待会思考的机器?”
演化心理学创始人之一,人类学家约翰·图比(John Tooby)
https://mp.weixin.qq.com/s/9lKvySUE5kIyXfwVg3aJnw
像人类一样思考的机器是可能的,人自己就是一台会思考的机器。制造类人智能需要理解现有的类人智能,即我们需要探明构成大脑计算架构的演化程序特征。对这种架构的研究让我们意识到存在一个无形的,阻碍我们向真正人工智能迈进的壁垒:智能的铁律。
一种错觉似乎是不言而喻的:量变产生质变。我们会认为智能是任何存在或多或少都拥有的、某种特殊物质,存在者越是智能,它们所知道的也就越多。增强智能的王道就是不断增加这种明显同质(但难以弄明白)的智能物质——更多的神经元、晶体管、神经形态芯片等等。智能的铁律指出,让你在某事上显得聪明的程序,会让你在其他事情上变得愚蠢。铁律带来的坏消息是,不可能有什么通用智能的主算法等着被发现——换句话说,当晶体管数量、神经形态芯片或网络化贝叶斯服务器足够多时,智能就会出现。好消息则是,它告诉了我们智能是如何被设计出来的:用“白痴专家”(idiot savants,指在某方面是专家、天才,但其他方面一塌糊涂的人),智力的增长是通过将性质不同的程序加到一起,形成一种更大的神经生物多样性。每个程序都会提供它在其专有领域的独特天赋 [空间关系、情绪表达、传染性(contagion)、物体力学、时间序列分析] 。通过以半互补的方式将不同的白痴专家捆绑在一起,集体智慧的区域就会扩张,同时集体愚蠢的区域则会缩小(尽管从未消失)。宇宙浩瀚无垠,充满无限层级的丰富结构;大脑(或计算机)相比之下微不足道。为了调和这种尺度上的差异,演化筛选出了一些小到足以适合大脑,但又能产生巨大归纳回报的方法——超高效压缩算法(不可避免是有损的,因为有效压缩的关键之一就是舍去几乎所有东西)。
人工智能和生物智能的铁律揭示了一系列不同的工程问题。例如,架构需要汇集的是聪明才智,而不是愚蠢;因此,对于每个白痴专家(以及每组白痴专家的组合),架构都需要确定激活程序(或组合)所能解决的问题范围,这样才能让你更好,而不是更糟。由于不同的程序通常都有自己专有的数据结构,因此整合来自不同白痴专家的信息,需要构建通用的格式、接口和通讯协定。此外,程序抢占的相容规则(mutually consistent rules of program pre-emption)并不总是容易设计,因为只爬到悬崖半山腰的人只能经历到由视觉引起的坠落恐惧,和安全到达目的地这一需求间的冲突。
演化破解了这些难题,因为神经程序被自然选择不断地评估为控制系统——正如数学家科尔莫戈罗夫(Kolmogorov)所说的,“能够接收、存储和处理信息,从而利用信息进行控制的系统”。自然智能是为了控制行为而出现的,这对于理解自然智能的本质、理解它们与人工智能的区别至关重要。神经程序是在特定的任务环境中为特定目的而演化的;它们被评估为集成包,被捆绑在调节行为以产生后代的范围中。为了生存,它们不必演化出能够解决所有假设上可能计算问题的方法——而这就像是诱人却又不可能实现的塞壬,至今仍然引诱着那些人工智能实验室触礁。这意味着,演化只是探索了所有可能程序中的一个微小而特殊的子集;在这个子集之外,还有无穷无尽的新白痴专家,等待着被构想和创造。我们正生活在一个关键的时代,处于一个精心设计的智能正不断扩张的浪潮伊始——如果我们努力增加专家智能的数量,并将它们联网,使之成为能发挥作用的、相互理解的集体。我们也能和非人类的白痴专家集体配合,利用交织着演化的天才和盲目的思想,令人兴奋地解决智能问题。
人工智能想要什么?它们危险吗?像我们这样的动物是能够采取行动的动机性智能(motivated intelligences capable of taking action, MICTAs)。幸运的是,人工智能目前还不是MICTA。它们最多只有微不足道的动机;它们的动机与全面的世界图景无关;它们只能采取一系列有限的行动。我们在演化过程中遇到了某些适应性问题,于是我们的想象力将由灵长类动物支配的戏剧投射到人工智能身上,而这些与人工智能的本质格格不入。我们可以把它们从佛陀——无欲无求、被动沉思的智慧导师——转变为“MICTA”,充满欲望,能够行动,但那将是疯狂的。可以预见的危险并不是来自人工智能,而是来自那些已经触发了掠夺性支配程序的人类,他们正在部署越来越多的军用技术工具,通过造成破坏来赢得冲突。
《超越控制:AI的权力意志》Beyond Control: Will to Power in AI
https://mp.weixin.qq.com/s/u14NuOcwgNYsLnsyRYMolw
https://www.researchgate.net/profile/Ines-Hipolito-2/publication/380892710_Beyond_Control_Will_to_Power_in_AI/links/6653d408479366623a164e0f/Beyond-Control-Will-to-Power-in-AI.pdf
AI之所以被感知为“缺乏控制”,其根源并非在于其所谓价值中立的“心智独立性”(mind-independence),而在于其内在嵌入的价值负载的社会文化权力动态。多种因素——如既得利益、 sensationalism( sensationalism,即刻意夸大渲染)、恐慌文化或认知误解——共同助长了“AI失控”的叙事,从而阻碍了AI监管工作的推进。
尽管普遍认知倾向于认为AI已脱离掌控,AI实际上始终处于被控制状态。诚然,AI可能引发合理的生存性忧虑,但这些担忧并非源于某种内在的“失控”状态,而是源于某些行为者对AI施加控制,而其动机与公共利益并不完全一致。有关AI控制的真实难题在于:其可控性本身仍受制于既有的权力结构——这些结构正是各种不公的根源;控制权高度集中于少数特权阶层之手,而这一事实却被掩盖着,并反过来维系着这种权力结构。