2.1.1.3《生命3.0》
07 目标
三个阶段:
- 第一阶段,所有物质似乎都在努力实现耗散的目标,即熵增;
- 第二阶段,其中一些物质拥有了生命,转而聚焦于子目标;
- 第三阶段,生物重新排列的物质越来越多,以实现自己的目标。
人工智能可以被设计来拥有任何目标,但是,几乎所有足够野心的目标都会带来一些共同的子目标,比如自我保护、获取资源、想要更理解世界的好奇心。前两个子目标可能会让超级智能为人类带来麻烦,最后那个可能会阻止人工智能保持我们赋予它的目标。
注:不管超级智能拥有什么样的终极目标,都会导致图7-2显示的这些子目标。不过,在“目标维持”和“改进世界模型”之间会产生一个冲突,使人怀疑随着超级智能变得越来越聪明,它是否真的会保持最初的终极目标。
古往今来,哲学家都希望能用清晰明白的原理和逻辑,从零开始推出伦理标准,也就是规定我们应当如何行事的原则。可惜,几千年过去了,人类唯一的共识就是:没有共识。虽然从目前来看,从零开始推导出共同伦理标准的尝试是失败的,但许多人都认同,一些伦理原则是从更基本的原则发展而来的,就像终极目标的子目标一样。总而言之,虽然人类今天还远未在伦理上达成共识,但在一些基本原则上已经达成了一些广泛的共识。大多数人的观点都可以归入以下4个原则:
- 功利主义:积极的意识体验应当被最大化,而痛苦应当被最小化;
- 多样化:多样化的积极体验比重复单一的积极体验更好,即使后者被认为是所有可能性中最积极的体验;
- 自主性:有意识的实体/社会应当拥有追寻自己目标的自由,除非与某些重要原则相违背;
- 遗产:符合当今大多数人认为幸福的情景,不符合当今几乎所有人认为糟糕的情景。
当今的人类真的想让1500年前的老古董决定今天的世界要如何运行吗?如果不是,我们为什么要试着把我们的伦理标准强加给可能比我们聪明千万倍的未来生命呢?
尼克·波斯特洛姆在他的著作《超级智能》中提出了“正交性论点”(orthogonality thesis)。他认为,一个系统的最终目标(final goal)可以独立于智能。根据定义,智能就是完成复杂目标的能力,而无论这些目标是什么。正交性论点是赋权的,宇宙的终极目标不是事先注定好的,我们有自由和力量去塑造。它认为,趋近于同一个特殊目标并不会发生在未来,而是已经发生在过去——正是在生命进化出“复制”这个单一目标时。随着宇宙时间的流逝,日益聪明的智能得以有机会反抗和摆脱“复制”这个平庸的目标,并选择自己的目标。从这个意义上讲,我们人类还没有达到完全的自由,因为我们追寻的许多目标都是被基因“硬连”到我们身上的,但人工智能却可以享受这种不受预定目标限制的终极自由。或许,这种不受进化偏差影响的自由度能使人工智能在某种深层次上比人类更为道德。
虽然人类有一些广为接受的伦理原则,但我们不知道如何将它们赋予其他实体,比如非人类的动物,以及未来的人工智能。我们不清楚如何才能赋予超级智能一个既可定义又不会导致人类灭绝的终极目标。