2.2.2 AGI(Artificial General Intelligence)

2.2.2.1 定义

Artificial General Intelligence:AI systems that are generally smarter than humans。OpenAI:“Planning for AGI and beyond”

“Sparks of Artificial General Intelligence: Early experiments with GPT-4”
There is a rich and ongoing literature that attempts to propose more formal and comprehensive definitions of intelligence, artificial intelligence, and artificial general intelligence, but none of them is without problems or controversies. For instance, Legg and Hutter propose a goal-oriented definition of artificial general intelligence: Intelligence measures an agent’s ability to achieve goals in a wide range of environments. However, this definition does not necessarily capture the full spectrum of intelligence, as it excludes passive or reactive systems that can perform complex tasks or answer questions without any intrinsic motivation or goal. One could imagine as an artificial general intelligence, a brilliant oracle, for example, that has no agency or preferences, but can provide accurate and useful information on any topic or domain. Moreover, the definition around achieving goals in a wide range of environments also implies a certain degree of universality or optimality, which may not be realistic (certainly human intelligence is in no way universal or optimal). Another candidate definition of artificial general intelligence from Legg and Hutter is: a system that can do anything a human can do. However, this definition is also problematic, as it assumes that there is a single standard or measure of human intelligence or ability, which is clearly not the case. Humans have different skills, talents, preferences, and limitations, and there is no human that can do everything that any other human can do. Furthermore, this definition also implies a certain anthropocentric bias, which may not be appropriate or relevant for artificial systems.

有大量且正在进行的文献试图提出更正式和全面的智能、人工智能和通用人工智能的定义,但没有一个是没有问题或没有争议的。例如,Legg 和 Hutter 等人提出了一个面向目标的通用人工智能定义:智能代表了一个智能体在广泛环境中实现目标的能力。然而,这一定义并不一定涵盖智力的全部范围,因为它排除了那些可以在没有任何内在动机或目标的情况下执行复杂任务或回答问题的被动或反应性系统。人们可以想象一个人工智能,可以就任何主题或领域提供准确和有用的信息。此外,关于在广泛的环境中实现目标的定义也意味着一定程度的普遍性或最优性,这可能是不现实的(当然,人类智力绝不是普遍或最优的)。Legg 和 Hutter 等人对通用人工智能的另一个候选定义是:一个可以做人类能做的任何事情的系统。然而,这个定义也是有问题的,因为它假设有一个单一的标准能够衡量人类的智力或能力,这显然不是事实。每个人都有不同的技能、天赋、偏好和限制,没有人能做其他人能做的所有事情。此外,这一定义还暗示了某种以人类为中心的偏见,这可能与人工系统不合适或不相关。

《AI新生:破解人机共存密码:人类最后一个大问题》
通用人工智能将是一种适用于所有问题类型的方法,并且在做出很少假设的情况下,它能有效地处理大而难的实例。这就是人工智能研究的终极目标——一个不需要针对具体问题的工程学系统。它会从所有可用的资源中学习它需要学习的东西,在必要时提出问题,并开始制订和执行有效的计划。
Stuart Russell:“通用人工智能可以完成人类能够完成的所有任务。我们希望AGI能够做到人类无法做到的事情。为了研究通用人工智能,我们可以从具体任务的基准 (Benchmarks) 转向任务环境的一般属性,比如部分可观察性、长时程、不可预测性等等,并问自己是否有能力为这些属性提供完整的解决方案。如果我们有这种能力,通用人工智能就应该能够自动地完成人类可以完成的任务,并且还有能力完成更多的任务。

“Artificial General Intelligence — A gentle introduction” / 中文:“AGI的历史与现状”
“AGI”与“强AI(Strong AI)”、“类人AI(Human-Level AI)”、“完全AI”、“思维机器(Thinking Machine)”、“认知计算(Cognitive Computing)”等概念更加相似。AGI研究包括科学(理论)与工程(技术)两个方面。一个完整的AGI成果通常包括:
1.关于智能的理论
2.该理论的形式化模型
3.该模型的计算机实现

“腾讯研究院:通用人工智能时代科学研究的71个问题”
AI一般可以划分为:
– “狭义人工智能” Artificial Narrow Intelligence(ANI):也被称为弱人工智能,是擅长于单个方面的人工智能,如图像/语音识别系统、AlphaGO等,是在预定的环境中运行、执行特定任务的系统。
-“通用人工智能” Artificial General Intelligence(AGI):也被称为强人工智能,在各方面都能和人类比肩的人工智能,是为了执行广泛的智能任务、抽象思考并适应新环境的系统。Linda Gottfredson教授把智能定义为“一种宽泛的心理能力,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。”强人工智能在进行这些操作时和人类一样得心应手。
– 超人工智能 Artificial Super intelligence(ASI): NickBostrom把超级智能定义为“在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能。”

《哥德尔、埃舍尔、巴赫:集异璧之大成 Gödel, Escher, Bach: An Eternal Golden Braid》
CHAPTER XIX Artificial Intelligence: Prospects
Ten Questions and Speculations
Question: Will Al programs ever become “superintelligent”?
Speculation: I don’t know. It is not clear that we would be able to understand or relate to a “superintelligence”, or that the concept even makes sense. For instance, our own intelligence is tied in with our speed of thought. If our reflexes had been ten times faster or slower, we might have developed an entirely different set of concepts with which to describe the world. A creature with a radically different view of the world may simply not have many points of contact with us. I have often wondered if there could be, for instance, pieces of music which are to Bach as Bach is to folk tunes: “Bach squared”, so to speak. And would I be able to understand them? Maybe there is such music around me already, and I just don’t recognize it, just as dogs don’t understand language. The idea of superintelligence is very strange. In any case, I don’t think of it as the aim of Al research, although if we ever do reach the level of human intelligence, superintelligence will undoubtedly be the next goal-not only for us, but for our Al-program colleagues, too, who will be equally curious about Al and superintelligence. It seems quite likely that Al programs will be extremely curious about Al in general-understandably.


智能一般的定义是指解决问题的能力,而问题又可以按照其因果性及是否可重复来进行分类:
1、因果明确,可以重复:简单问题,推理、归纳均有效;如下棋
2、因果明确,不可重复:一般复杂问题,推理有效;如发射火箭
3、因果不明确,可以重复:复杂问题,归纳有效;如量子力学、混沌
4、因果不明确,不可重复:超复杂问题,推理、归纳均无效;如生命的进化
吴伯凡:把问题分为三类
AlphaGo能够打败棋类世界冠军(简单问题),GPT4能够处理大部分的一般复杂问题,AGI能够解决许多复杂问题,而超复杂问题会涉及大量的不可计算函数,是“使生活和数学真理不可预知,留有趣味”的范畴。

2.2.1.4 本手、妙手、俗手与AI

2022/06/21

今年高考Ⅰ卷作文题“本手、妙手、俗手”公布后,一众网红纷纷献上”零分”作文。caoz也在其公众号上发表了《妙手,本手,俗手,背后的逻辑是什么》的文章,提出“在AI面前哪有妙手可言”

人类从大量的对弈过程中总结经验,形成定式、本手、俗手、妙手等概念。AI通过大量经典对局样本或双手互搏不断复盘的深度学习形成决策网络,计算每一步胜率并选择胜率最高的一手,根本不会考虑这一手是俗手还是妙手。“本手、妙手、俗手”等概念是人类计算能力不足时的临时装置,属于思考方法中的“天钩”。由于围棋的计算空间远远大于人脑的思考范围,所以人类必须要使用天钩来分层锚定思维、决策过程。

丹尼尔·丹尼特在《直觉泵和其他思考工具》中对“天钩”有如下定义:

《牛津英语词典》对“天钩”的解释如下:天钩:源自飞行器驾驶员。一种想象中联结至天空的装置;一种想象中悬停在空中的方式。《牛津英语词典》记录该词最早出现于1915年:“一名飞行员被要求停留在原位置(高空处)一小时,飞行员答道:‘飞机未配备天钩。’”拥有天钩可能会是件美事,因为它非常适合在困难的情况下起吊笨重的物体,用以加快各类项目建设。不过,说来让人失望,它们是不可能的。

“本手、妙手、俗手”式的天钩,广泛存在于人类社会中。宗教、哲学等人文领域,由于难以进行量化研究,大量存在“天钩”式的概念、术语。即使科学领域也需要“天钩”来帮助我们思考,是知识增长、进步的必要过程,天文学的发展就是一个范例。“地心说”是基于早期人类大量朴素的天文观察结果而形成的“天钩”,到哥白尼发展出了“日心说”的天钩,再到开普勒的椭圆轨迹修正,然后是牛顿的万有引力、爱因斯坦的相对论。科学正是在不断证伪(或修正)前人天钩、建立新的天钩的基础上发展的。

AI的出现,在围棋这样目标明确(赢棋——比对手多占地盘)、规则清晰的领域,粉碎了人类长期积累出的天钩。2016年AlphaGo战胜李世石,新出现的许多招法颠覆了人们固有的围棋理解和概念,大量的定式甚至棋理都需要推倒重来。

樊麾是第一位与AlphaGo比赛的职业棋手,AlphaGo 5:0完胜。樊麾说:“跟AlphaGo对弈之后,我内心的围棋世界坍塌了。”其后樊麾参加了一项重要的欧洲比赛,加上被AlphaGo沉重打击的内心,他几乎没有信心参赛。“但非常奇怪的事情发生了,我非常轻易的赢了所有的比赛。我和AlphaGo的比赛使我找到了一个新的视角来看我自己的比赛。……如果你想打败大师,你必须忘记你之前学的所有的东西。因为你学的所有东西都像一个笼子一样,把你关在里面。和AlphaGo比完赛后,我建立起了新的东西,现在我下起棋来完全自由了。” 是不是想起了乔帮主的:“Stay hungry,Stay foolish”?

从樊麾的成长过程可以看出,在目标明确、规则清晰的领域,通过AI给出的近似“标准答案”可以帮助人类重新定义概念,梳理思维、决策的层次,建立起新的“天钩”。这也是人类学习、进步所必须经历的过程,通过AI可以加速这一过程,否则就需要等到下一个吴清源的出现,才能带来一些更高层次天钩的突破与创新。

在目标、规则不明确的领域,AI是否可以复现颠覆人类理念的过程(甚至有些人认为的奇点的到来)?

今年2月,Open AI首席科学家萨茨克维尔在社交媒体上称:“现在大型神经网络可能已经有微弱的自主意识了”。最新一波对AI意识觉醒的讨论,是由一名谷歌员工布雷克·莱莫伊引起的。布雷克在谷歌AI伦理部门工作,6月11日公开了一份《LaMDA是有意识的吗?》的文件,详细记述了近大半年来与LaMDA(谷歌2021年在I/O开发者大会上推出的一款专门用于对话的语言模型,能与人类进行符合逻辑常识的高质量交谈)的聊天记录,认为LaMDA已经产生了意识。

英国物理学家霍金、特斯拉创始人马斯克等人也都认为人工智能可以跟人类一样有情感、思维、跨领域思考能力及创造力,未来将对人类造成威胁。

人工智能不同于人类以生存发展为目标(人类是否是这个目标、是否有目标等问题还在争论探讨中),深度学习是针对某类人为给定的目标和大数据样本,实现最佳化的过程,现阶段的AI本身还没有生存的概念。除了经过一个较长期的,与环境、种群间生存竞争的过程,还看不到其他的使AI能够成为具有自主目标的实体的方式。即使未来某些AI能够通过某次图灵测试,也只是它的经过训练的计算系统对输入的直接反馈。由于AI的深度学习及决策的许多过程、结果都具有黑箱的属性,往往会被解释为呈现出人格、情绪等特点(人们有拟人化解释物体行为的倾向),并不等于AI具有了独立意识。

AI作为智能工具实现人类赋予的任务目标,能够取代大量相对重复性高的工作(即爱迪生说的“99%的汗水”的部分,但那1%的灵感在目标、规则不明确的领域还是需要人类来完成)。AI会在这些领域给人类带来巨大影响,在取得丰富成果的同时,给某些人群的冲击可能会比工业革命还剧烈。