这里的“目的”/“意义”不是指通过一个阶段性的项目去实现的明确的、中短期的“目的”/“目标”,而是针对一个智能体的较长期的“目的”/“意义”,或者是“愿景”。
“目的论”致力于探讨事物产生的目的、本源和其归宿。目的论认为自然界的一切事物都有其存在的目的。
《自动化的一些道德和技术后果》诺伯特·维纳(Norbert Wiener)
如果我们为了达到目的而使用一种我们无法有效干预其运行的机器……我们最好确信我们想让机器达成的目标是我们真正想要实现的目标。
《如果人工智能对人类说“不”》 赵汀阳
《信睿周报》 第1期
人工智能在获得自我意识之后,有可能在存在论层面上彻底改变生命、人类和世界的存在性质。
害怕人工智能的能力,其实是一个误区。几乎可以肯定,未来的人工智能将在每一种能力上都远超人类,甚至在综合或整体能力上也远超人类。超越人类能力的机器人正是人工智能的价值所在,并不是威胁所在。
我们可以把自我意识定义为具有理性反思能力的自主性和创造性意识。任何智能的危险性都不在其能力,而在于意识。人类能够控制任何没有自我意识的机器,却难以控制哪怕仅仅有着生物灵活性而远未达到自我意识的生物,比如病毒、蝗虫、蚊子和蟑螂。到目前为止,地球上最具危险性的智能生命就是人类,因为人类的自由意志和自我意识在逻辑上蕴含了一切坏事。如果将来出现比人更危险的智能存在,那只能是获得自由意志和自我意识的人工智能。
我们无法排除人工智能获得自我意识的可能性,尽管它的出现尚有时日,但我们也有理由未雨绸缪。这种未雨绸缪的审慎态度基于一个极端理性的方法论理由:在思考任何问题时,如果没有把最坏可能性考虑在内,就等于没有覆盖所有可能性,那么这种思考必定不充分或有漏洞。从理论上说,要覆盖所有可能性,就必须考虑到最好可能性和最坏可能性之两极,但实际上只需要考虑到最坏可能性就够用了。好事多多益善,不去考虑最好可能性,对思想没有任何危害,就是说,好的可能性是锦上添花,可以无穷开放,但坏的可能性却是必须提前反思的极限。
就人工智能而言,假如人工智能永远不会获得自我意识,那么,人工智能越强,就越有用,然而假如人工智能有一天获得了自我意识,那就可能是人类最大的灾难——尽管并非必然如此,但有可能如此。在存在级别上高于人类的人工智能也许会漠视人类的存在,让人类得以苟活,但问题是,它有可能伤害人类。绝对强者不需要为伤害申请理由。这就是为什么我们必须考虑人工智能的最坏可能性的理由。 人工智能的自我意识何以可能?语言的出现正是形成人类自我意识的奇点。自我意识的关键在于意识的反思能力,而不在于处理数据的能力。
《Universal Intelligence: A Definition of Machine Intelligence》(https://doi.org/10.48550/arXiv.0712.3329)将通用智能定义为“智能体在各种环境中实现目标的能力”,那么AI能否形成自己的目的/意义呢?