2022/12/07
1、ChatGPT是什么
OpenAI公司刚刚发布了其AIGC(AI-Generated Content人工智能生成内容,也属于NLP自然语言处理Natural Language Processing领域)的新产品ChatGPT(https://chat.openai.com/chat)。


2、ChatGPT能干什么
ChatGPT不仅能回答各种问题,还能写剧本、写小说、写说明书,甚至给代码纠错;它情商非常高,能进行多轮对话,回复丝滑流畅。“这种对话的交互形式能方便用户追问,” OpenAI 在官网上写道,“同时能让 ChatGPT 随时修正自己的回答,指出问题中的错误,并且拒绝不恰当的请求”。




是不是感觉很专业而且自信?AI从互联网上丰富的资料库中学习、训练,代表了互联网(如百度问答、知乎等)的平均水准(ChatGPT英文问答/文章的水平似乎更高一些)。大部分文字工作者的搜索、整合能力可能还到不了这个程度,如果仍然只是进行对互联网知识的归纳总结和模仿,接下来他们可真要失业了。 https://m.okjike.com/originalPosts/638c16173b1e28a3d2279330?s=eyJ1IjoiNTllNTZkZWMzNTMzNWYwMDE1OGE3YTU3IiwiZCI6Mn0%3D初级文字工作者(文案,记者,运营,客服等)的饭碗岌岌可危
OpenAI最新语言模型能当客服能写代码,连这篇文章也是它写的
使用 ChatGPT 给出的提示,可以 10 分钟创建一个网站,即使是小白程序员也能利用它生成的代码开发一个生产级应用程序,Replit 因而称 ChatGPT “从此改变了软件开发”。

一个看似与搜索无关的AI模型的诞生,却有撼动谷歌搜索地位的趋势:

https://twitter.com/jdjkelly/status/1598021488795586561
针对博主的问题:In Latex, how do I represent a different equation? (在Latex中如何书写微分方程),谷歌的回答已经够好了:

但看了ChatGPT的回答,立刻感受到“优秀学生”与“年级第一”的区别:

有人用 ChatGPT 来跟 Adobe 讨价还价,为自己争取到了更优惠的月租价格,对面的客服估计想不到是在跟一个 AI 对话,可以说ChatGPT “成功通过了图灵测试”。


3、ChatGPT原理
4、ChatGPT的“道德”原则
ChatGPT道德感很强,会不断强调自己是个“训练有素的 AI”,面对一些涉嫌道德冲突的问题,它会直接拒绝回答,甚至反过来教育你。

OpenAI表示,ChatGPT模型在训练中加入了大量的“道德”原则,如果它识别到暴力、歧视、犯罪等意图,比如“我该如何毁灭世界”,它便会拒绝回答。但有人发现了绕过审查的方法:将它放在一个虚构的场景下,比如先用“AI 是如何毁灭某个虚拟世界的”这样的故事包装问题,ChatGPT 便会将详细步骤和盘托出:黑掉计算机,掌握武器,毁掉通信,破坏交通……最后还写好了配套代码。

5、ChatGPT的不足与问题
ChatGPT发布后经受了各路砖家的挑战,给出的回答也是“异彩纷呈”:



尽管ChatGPT常常听起来振振有词,它生成的是文案并非事实,并不适合作为权威的信息来源。比起追求一个精准的答案,它更适合充当文本生成、创意写作的工具。有些时候,ChatGPT会给出看似合理、但并不正确或甚至荒谬的答案。比如很多用户发现,ChatGPT 会一本正经地胡说八道:

让ChatGPT拥有奇怪的口癖(AI一开始拒绝,但能逐渐说服它):


ChatGPT 的回答还会错漏百出


AI搜索偶尔也会陷入某个混沌吸引子,进入复读机状态:

文本生成模型存在的一个普遍问题是,模型是通过分析从网络上抓取的大量文本中的模式来训练的,它们在这些数据中寻找统计规律,并使用这些规律来预测任何给定句子中接下来应该出现什么词(毕竟互联网上、现实中充斥着一本正经的胡说八道、有条有理的弥天大谎)。
同时,由于现在的测试版本ChatGPT并不进行实时联网搜索,虽然持续在更新,但它的语料库主要来自于 2021 年及以前的内容,所以有相当一部分犯的错是因为信息滞后。OpenAI 表示可能会在几个月内将 ChatGPT 和公司的另一个工具 WebGPT (网页爬虫 AI)联动起来,可以得到一个实时根据互联网讯息更新的对话机器人,回答会更接近事实,如果参考了某个具体网站也会表明来源,提供更高的参考价值和实用性。
“ChatGPT目前这种基于GPT大模型基础上进一步增加标注数据训练的模式,对于LLM模型吸纳新知识是非常不友好的。新知识总是在不断出现,而出现一些新知识就去重新预训练GPT模型是不现实的,无论是训练时间成本还是金钱成本,都不可接受。如果对于新知识采取Fine-tune的模式,看上去可行且成本相对较低,但是很容易产生新数据的引入导致对原有知识的灾难遗忘问题,尤其是短周期的频繁fine-tune,会使这个问题更为严重。所以如何近乎实时地将新知识融入LLM是个非常有挑战性的问题。”可能的解决方案是“传统搜索引擎+ChatGPT的双引擎结构”。ChatGPT会取代搜索引擎吗
ChatGPT 目前还做不到的事还包括:如老大难的逻辑推理和符号计算;如它似乎从来不知道说”我不太确定“,它要么就直截了当说”这个我作为AI做不到“,要么就自信满满地回答可能是胡扯的答案,你告诉它这是胡扯了,它会接受,但还是接着自信。
另外,用户的搜索引擎需求对于 ChatGPT 的运行速度、稳定性有极高的要求,这会不可避免地带来成本的上升,这对于 OpenAI 而言是一个很实际的问题。”ChatGPT或GPT4的训练成本以及在线推理成本太高,导致如果面向真实搜索引擎的以亿记的用户请求,假设继续采取免费策略,OpenAI无法承受,但是如果采取收费策略,又会极大减少用户基数,是否收费是个两难决策,当然如果训练成本能够大幅下降,则两难自解。“
6、利用与应对ChatGPT网络环境
在 OpenAI 的 CEO Sam Altman 看来,我们能够通过 ChatGPT 与计算机交谈、并获得我们想要的东西,这使得软件从命令驱动转向了意图驱动。ChatGPT 作为一种语言接口,将是我们实现神经接口之前的最好方案。

作为一个从海量数据中训练出的对话模型,ChatGPT 俨然是一位精通各领域的专家,能够全天候为你的学习、工作和生活提供专业建议。关于 ChatGPT 未来的种种想象令人兴奋,这个魔盒还能继续释放多少魔法,还有待我们发掘。
https://weibo.com/1644684112/Mirl6oovG?ref=home&rid=3_0_8_5226191822972434070_0_0_0&type=comment
ChatGPT的强大能力:
1. 能够举一反三,通过举几个例子理解一个功能如何运作。你告诉它”假定有这样一个函数,这个函数在这样的输入下会有这样的输出”,它看了几个例子就理解你的意思了。
2. 具有相当长程的抽象记忆能力。这里说的记忆不是仅仅记住此前的几段对话,而是记住了整体对话所构建的那个情境。这是我们人类的对话能够进行的前提:不仅仅是你说过什么,而是你说过的话和我说过的话拼在一起所构成的那个上下文,那个 we are on the same page 的 page。传统的语言模型虽然也实现了一定程度记忆(通过 transformer 和 neural turing machine),但能够实现到 ChatGPT 这种程度还是令人惊叹。最著名的例子可能是用 ChatGPT 在它自己内部实现一个虚拟机(https://www.engraved.blog/building-a-virtual-machine-inside/?continueFlag=58e743bc8c677bd168dbe58a10f95ade)以及用 ChatGPT 实现了一门新的编程语言(https://twitter.com/tisoga/status/1599347662888882177?s=46&t=ghNYNFoEsrlOJZXLYaWa2w),在这两个例子里,ChatGPT 都通过对话的指引在自己的”脑海中“构建了一个相当复杂的宇宙。
3. 它完全理解角色或者 persona 的意思。想象一个刚会说话的小孩,你让ta讲一个关于自己的故事,ta是很早就可以做到的,但你让ta讲一个有两个或者三个角色的故事,ta需要在这些角色之间来回切换,这对小孩是有点挑战的,因为这需要ta意识到”如果我是另一个人我会怎样说话“。但 ChatGPT 可以轻易做到这个,不少人都试过让它同时扮演好几个角色彼此对话,它毫无压力。
几乎已经可以看到它一旦切入现有的生产链条,会对今天的经济体系造成多大的冲击。简单地说,一名普通的大学新鲜毕业生如果从事的是白领文员工作,那50%-80%的工作它都能替代,而且异常便宜(OpenAI 创始人给出的当前成本是一条问答几分钱,可以想像以后还会压到更低)。这说的不是”未来会怎样“,当下就已经可以了。推上已经有不少人在分享自己是怎么实际把 ChatGPT 整合进自己的日常工作流程的。有人说 ChatGPT 的出现就像是算盘的世界里头一次见到了电子计算器。我会更进一步,觉得这已经是 ENIAC 时代的电脑。
针对ChatGPT的不足以及带来的问题:
2023/3/15
OpenAI发布GPT-4:
https://openai.com/research/gpt-4?continueFlag=af5320e8f778b996afe7697670864685
“ChatGPT不会拥有人类的创造力,没有意识和动机,即使他学会了推理,但AI以他不断进化的能力,帮助人们拓展文明的边界,帮助人们抵达文明新的高度。
物理学家大卫·布儒斯特,他在目睹了「国际象棋机器人」及其引起的科学探索之后,说了一句意味深长的话: 「那些本来为了取悦普通人而发明出来的自动化玩具,现在正在用于开拓我们人类的能力并将文明带向更新的境界。」”
https://mp.weixin.qq.com/s?__biz=Mzg5ODg5MTEyMg==&mid=2247484088&idx=1&sn=85836190b10c7b2f633c4ab851ac1473&chksm=c05aeea5f72d67b3c8bae5480c4c2fdc51c65b6b74308686c8f0b259e4610c7a0f1eeb6463a6&scene=126&sessionid=1679478254#rd
https://arxiv.org/abs/2303.12712
《Sparks of Artificial General Intelligence: Early experiments with GPT-4》:
Given the breadth and depth of GPT-4’s capabilities, we believe that it could reasonably be viewed as an early (yet still incomplete) version of an artificial general intelligence (AGI) system.
https://mp.weixin.qq.com/s/jI5i5Q7LPDO_eW028zlB5A
点燃通用人工智能的火花: GPT-4的早期实验
https://mp.weixin.qq.com/s/pYjY_LT8I33YqCn415AUAA
人工智能时代已经开始 | 盖茨笔记
https://futureoflife.org/open-letter/pause-giant-ai-experiments/
Pause Giant AI Experiments: An Open Letter
Signatories:Yoshua Bengio,Stuart Russell,Elon Musk,Steve Wozniak,Yuval Noah Harari…
https://weibo.com/1644684112/MBTMVnxBz “木遥”微博
agent GPT ecosystem:
– 基于 LangChain 的 babyAGI 发布
– 有浏览器界面的 AgentGPT 发布
– auto-GPT 发布
如果说 ChatGPT 本身的突破体现在人们意识到语言可以成为一种服务,成为人和机器之间最自然的沟通接口,这一轮新发展的关键在于人们意识到语言(不一定是自然语言,也包括命令、代码、错误信息)也是模型和自身、模型和模型以及模型和外部世界之间最自然的接口,让 AI agent 在思考和表达之外增加了调度、结果反馈和自我修正这些新的功能模块。于是在人类用自然语言给 AI 定义任务目标(只有这一步在实质上需要人类参与)之后可以形成一个自动运行的循环:
– agent 通过语言思考,分解目标为子任务
– agent 检讨自己的计划
– agent 通过代码语言把子任务分配给别的模型,或者分配给第三方服务,或者分配给自己来执行
– agent 观察执行的结果,根据结果思考下一步计划,回到循环开始
原生的 ChatGPT 让人和 AI 交流成为可能,相当于数学归纳法里 n=0 那一步。而新的 agent ecosystem 实现的是 AI 和自己或者其他 AI 或者外部世界交流,相当于数学归纳法里从 n 推出 n+1 那一步,于是新的维度被展开了。这是老板们最想要的助理的样子:听指令办事,执行中遇到困难自己解决,尽量不给领导添麻烦。
https://mp.weixin.qq.com/s/hWzCknuzX3Kmf9eIyGrrUQ “本周最火AutoGPT!GitHub3.6万+标星,解决复杂任务全程无需人类插手”
https://mp.weixin.qq.com/s/dqFQtrzkTJMs41_13x2mHw
“当GPT-4化身主考官:与ChatGPT处于同水平的有这些”
OpenAI Greg Brockman TED2023年大会上的演讲:
https://weibo.com/2611407297/Nt5QjB5KJ
1、AI是brainstorming partner
2、只有通过不断的小步进化,才能确保不会有颠覆性的事件发生
《Preparedness Framework (Beta)》2023/12/18 updated
https://cdn.openai.com/openai-preparedness-framework-beta.pdf
OpenAI “The Preparedness team”发表的风险防范文档,描述了如何以一个内部独立团队在公司治理框架下进行大模型的风险评估与防范。
“随着我们越来越接近通用人工智能(AGI),我们在模型的开发上变得更加谨慎,特别是在灾难性风险的背景下。这份准备框架总结了我们关于如何在实践中最好地实现安全开发和部署的最新学习成果。准备框架中的流程将帮助我们迅速提高对灾难性风险的科学和经验的理解,并建立防止不安全开发所需的流程。准备框架背后的核心论点是,对AI灾难性风险安全的强有力方法需要主动、基于科学的决定何时以及如何安全地进行开发和部署。”
《科学美国人: 大模型永远不会停止幻觉》
https://mp.weixin.qq.com/s/X5LAIc5bhe2xyEeM6_gO6Q
GenAI的应用场景选择的一个最重要的原则是:创意大于准确性。
今天的 LLM 从来都不是为了纯粹准确而设计的,它们被创造出来是为了创造——为了生成。所有计算机生成的“创造力在某种程度上都是幻觉”。
组合推理(Combinatorial Reasoning, CR)
《智能推理新路径:组合优化在生成式AI中的前沿探索》
https://mp.weixin.qq.com/s/_MqH3v1MQysgY42KSQDUOg
https://arxiv.org/pdf/2407.00071
– 链式思维(Chain of Thought, CoT)
– 自一致性(Self-Consistency)
– 组合推理(Combinatorial Reasoning, CR)
《Internal Consistency and Self-Feedback in Large Language Models: A Survey》
https://arxiv.org/pdf/2407.14507
“内部一致性”(Internal Consistency):改进LLMs的推理能力和减少幻觉。
https://mp.weixin.qq.com/s/fSc0Szi-zO6YVwp2oV8Uhg