查看原文
其他

ChatGPT凭什么替代你的工作?-带你探究AI的工作原理

柏粒先生 柏粒田 2024-04-11
 ChatGPT如何理解自然语言并能与我们沟通?AI背后模型和算法是什么?为什么ChatGPT能替代创造性的工作?AI的训练需要多少数据,又需要多强的算力?本文将以通俗易懂的方式,带你一探AI的究竟。
前言
在ChatGPT火爆的当下,很多人都开始担心自己的工作会被AI所取代。媒体也盘点了容易被取代的职业名单,其中不但包括客服、初级会计、法律助理等普通白领岗位,甚至还有程序员、记者、设计师等依赖创造性的工作也榜上有名。
对于ChatGPT的冲击,有两种不同的观点。悲观者认为,ChatGPT是一个跨时代的应用,已经侵入到人类创造型工作的领域,AI技术将在不久的未来达到“奇点”,会产生大比例甚至全面替代人类的可能性。乐观者则认为,AI的技术还不成熟,ChatGPT的回答也有不少漏洞,大面积取代人类的工作还很遥远,未来更多的还是被用作一种智能工具来辅助人类。未来总是充满不确定性的,以上这两种观点谁对谁错,我们只能交给时间去证明。

然而,知古可以鉴今,很多人并非IT等相关行业的从业者,对于AI技术的发展历史并不熟悉。本文就以ChatGPT为例,用科普的方式来阐述其背后AI技术的工作原理,借此来说明,它到底是如何进行文字创作的?它凭什么可以替代你的工作?
我们将AI的工作原理分为4个部分来讨论,分别是:一、大模型,二、机器学习的算法,三、创造性的来源,四、大数据、参数规模和成本。希望,这些背后的原理可以增进你对AI的理解,从一个看热闹的旁观者成为一个具备AI基础常识的圈内人。毕竟在未来的世界里,它不仅会与我们共存,还将扮演越来越重要的角色。
一、大模型
ChatGPT所依赖的技术是AIGC,即人工智能生成内容(artificial intelligence generated content),而目前AI能够生成的内容,已经覆盖文字、图片、音乐、视频等领域。ChatGPT作为智能聊天机器人,就是该技术在文字领域的典型应用。
文字的背后是人类的自然语言,它是一个包括了词语、语义、语法的动态体系,是人与人进行沟通和交流的主要媒介。而计算机技术的诞生,最初是以0和1的二进制为代表的逻辑运算过程。还有相关的通信、互联网、半导体、人工智能等技术,本质上都是以0和1作为最底层的构成单元(下文中我们将计算机技术的这一特征简称为“机器语言”)。如果对机器语言难以理解,你可以想象一下电影《黑客帝国》的宣传图片,一个由计算机和人工智能主导的世界,无论你看到、听到的是什么内容,他们都是由最底层的基本单元0和1经过交互、融合所产生的。

那么,ChatGPT既然可以利用自然语言和人类聊天甚至创作文字作品,那就说明AI技术可以做到自然语言和机器语言的融合,这又是怎么做到的?或者,换一个说法,只能读懂“0和1”的机器是怎么吸收、理解、学习自然语言并能模仿人类进行输出的?答案是:通过大规模预训练模型(简称为大模型)。大模型是AIGC技术的核心突破,有了它,AI就可以读懂、理解自然语言,并完成自然语言文本的输出。这样一来,AI就可以以自然语言与人类进行沟通和交流。
我们来看下图,简单说来,最左边是人类的自然语言数据,比如人类现有的词语、句子、段落、文章等,这些是自然语言,不是0也不是1,机器无法理解。所以,我们要先将他们转化成结构化数据(机器语言),然后把数据喂给中间的模型进行训练,训练后得到的结果再经过调试,这个过程可能要经过多次反复,最后形成一个成熟的模型。这个成熟的模型就类似我们看到的ChatGPT,它因此就具备了和人类在自然语言上沟通的能力,可以进行问答、聊天、写作文章等任务。

小结一下,大模型是AI技术打通机器语言和自然语言的核心工具,工程师将自然语言喂给大模型进行反复的训练和调试,得到一个成熟的模型,然后用它来和人类进行自然语言的沟通。以上就是大模型的工作原理。
二、机器学习算法
下面我们进入第二部分,机器学习算法。因为大模型中涉及到很多机器学习的算法,训练和调试都是靠这些算法所驱动的,但由于本文是科普的目的,并不会涉及到太多深层次的技术,仅会提及一些对ChatGPT而言比较重要的算法。你需要理解的核心思路是,工程师们为了建立人工智能的大模型,不断地思考和开发机器学习算法来解决训练和调试的问题,以此来提高AI的智能。

语义的理解是机器理解自然语言的主要障碍,我们就来看看针对这个障碍,2种机器学习算法是如何工作的。
比如我们想让机器理解并回答这种简单的问题:
问题1:苹果是一种植物还是动物?(A 植物;B 动物)
问题2:狗是植物还是动物?(A 植物;B 动物)
针对这样的问题,一种办法是使用非监督学习算法,我们来看它是怎样解决这个问题的。首先我们输入大量的文本信息给到机器,比如书籍、网页、邮件等,机器经过非监督学习算法得出训练后的模型。如果模型发现在这些输入的真实数据中,苹果和植物这2个单词同时出现的频率远高于苹果和动物同时出现的概率,而狗和动物同时出现的概率也更高。那么,面对这样的2个提问,模型会给出答案依次为A、B。但如果你故意提供错误的文本资料(假设在这些文本里苹果和动物同时出现的频率更高),那么训练后的模型自然也会因此给出错误答案。
这相当于机器学习了大量的书本资料,通过相关性、概率、频率等方式发现了规律,然后以此作为解答问题的方式。
另一种算法是监督学习算法。为了让机器理解这种问题的意思,我们会提供大量类似的问题和选项给到机器作为数据的输入,在监督学习算法中,我们通过人工标注的方式,告诉机器它的哪些选择是正确的,哪些事错误的。这样的训练会得到一个初步的模型。这时当机器遇到问题1和2时,它可以根据自己训练后的“经验”,来选择正确的答案。这相当于,机器通过刷了大量的有答案的题目,然后根据做题的经验来解答问题。
这时候,监督学习算法初步训练后的模型可能还不完美,这时我们就可以让机器不断回答问题,同时再让人工标注出正确和错误的答案,以此来不断增加它的题海库,不断完善这个模型。例如,一个银行可以使用这个模型来替代客服,在初期让不成熟的模型回答客户的问题,并让客户或员工来指正问答的对错,将标注后的结果反馈给模型,通过这样的重复来完善模型。这样一来,一个初期很笨的客服机器人,就可以不断积累“从业经验”,对客户的提问的回复也会越来越精确和老到。
小结一下,机器学习算法是大模型训练和调试的核心技术工具,针对如何理解自然语言的问题有着不同的算法,比如上文提及的非监督和监督学习算法,分别通过不同的方式来让机器积累经验、完善模型,以达到理解问题并作答的能力。当然机器学习算法远不止以上这些,而且未来随着技术的进步和更多问题的出现,还会有更新、更强大的算法来帮助AI提升功力。
三、创造性
第三部分是创造性。按道理来说,机器的学习过程都是依赖现有的自然语言库,而标注也是由人工标注的,那么这样训练出的模型必然是符合“常理”的,这和创造性是相违背的,因为创造性是要打破“常理”,这常常意味着随机性、不按常理出牌。而ChatGPT目前能体现出创作文本的能力,甚至被认为可以替代记者、作家等创意型的工作,这又是如何办到的?
这个问题的答案是扩散模型。它自2015年首次被提出,其背后的理论基础是马尔科夫链。有兴趣的读者可以自行百度,但在此你不需要了解这些专有名词,我想告诉你的是,作为统计学中的重要理论,马尔科夫链可以帮助AI生成随机性。正是扩散模型中的随机性,让以ChatGPT为代表的AIGC技术具备了开放性的创造力。

举个简单的例子,对于人类的历史,我们只有一种版本。但AI可以假设我们人类倒退回1万年前,以当时的所有信息为原始背景,利用扩散模型模拟在不同气候环境下人类社会的多种发展可能性,以此形成几十、上百个甚至万亿个不同的人类历史版本。比如在其中一个版本中面对极度炎热的气候,赤道附近都没有人类居住,这样的一个随机模拟出的历史,和我们所经历的人类历史截然不同。但这样的历史版本会给予AI不同的视角,它或许可以利用这些来进行社会学的科研工作,或写成小说,而AI的成果可能会超过正常的人类科研人员和作家。这,就是AI创造性的一种体现。
小结一下,以马尔科夫链为基础的扩散模型,可以帮助AI生成随机性,这样就能打破常规,从而具备创造性的能力。
四、大数据、参数规模与算力
第四个部分,是大数据、参数规模与算力,因为这3个要素是目前AI能取得一定成就的原因,也是未来AI的能力还将如何增强的来源。
大模型的训练首先需要输入大量的数据,而其次训练的过程又涉及到调整变量和优化参数(可以简单理解为这些变量和参数决定了AI的学习能力),只有数据量够大、参数够丰富,才能保证训练后的模型在与人类进行交互时具备一定的正确概率。如果它输入的数据量或使用的参数太少,模型对问答所给出的答案会漏洞百出,何谈智能?
例如,以参数而言,ChatGPT背后的二代技术GPT-2大概有15亿个参数,而GPT-3最多有1750亿个参数,预计GPT-4在未来可能会达到100万亿的参数规模,这就基本接近了人类大脑皮层的突触总数(大约100万亿个)。所以,从这个角度来看,现在你可能会觉得ChatGPT还不够厉害,但未来如果达到了GPT-4的水平,它的能力可就不能小看了。
其次,要把大量的数据和参数放在一起进行训练,本质上还是受运算能力的限制,也就是硬件的限制。正是过去几十年,半导体行业让运算的速度以摩尔定律的速度不断进步,同时成本也不断下降,使得近年来利用人工智能模型对大数据进行运算和训练成为了可能。
但即使这样,目前的运算能力所对应的成本还是比较高昂。根据媒体测算,对于ChatGPT来说,一次模型训练成本至少在1200万美元。这样的成本,无论是对OpenAI这样的初创公司还是对微软这样的大型企业来说,都是一笔巨额的投入。
小结一下,大数据、参数规模与算力,这3个要素决定了AI的学习能力和运算成本。以目前的计算机和半导体技术所支撑的ChatGPT已展现出惊人的沟通能力,相信未来模型所使用的数据量和参数会更多,而算力的成本也会进一步下降,这会使得AI所训练出的模型越来越智能,越来越强大。
总结
最后,本文可能有些技术词语生涩难懂,但我已尽量以通俗易懂的语言将ChatGPT运作的原理进行了阐述。回顾一下,你需要理解的是以下几点:
一、ChatGPT所依赖的是大模型来进行自然语言和机器语言(0和1)的交互和融合,使AI具备与人类沟通甚至创意写作的智能;
二、大模型的训练和调试由不同的机器学习算法来运作,例如非监督学习和监督学习的算法等;
三、以马尔科夫链为基础的扩散模型又将随机性加入了大模型中,让AI具备了打破常规,具备创造性的能力;
四、大数据、参数规模和算力,这3个要素决定了AI的学习能力和运算成本,未来AI会使用更大规模的数据和参数,同时匹配成本更低的算力,具备越来越强大的智能。
理解了这些基本原理,你就掌握了AI技术的常识。利用这些原理,你就不再是一个看热闹的旁观者,可以作为一个懂行的人,去理解AI领域很多正在发生和将来可能发生的事件。
Q1:例如,谷歌为什么那么害怕ChatGPT?因为ChatGPT的越发强大,会为人类的提问提供越来越合适的答案,这会彻底抹杀掉搜索引擎的存在意义。
Q2:那为什么很多人又很看好谷歌能在这场竞争中可以打败微软和ChatGPT?因为谷歌作为世界第一的搜索引擎公司,具备世界上最大规模、最优质量的数据集可以喂给AI做训练,它具备打造出更优化、更智能的模型的潜力。
Q3:为什么ChatGPT能替代作家、记者等创造型的工作?因为它有扩散模型所提供的随机性,进而获得了打破常规,进行创造的能力。
Q4:为什么马斯克、比尔盖茨等人都呼吁要警惕AI科技的负面影响,倡导科技向善?因为人工智能的学习过程是可以根据数据的输入和参数的改变进行调整的,这就意味着你可以把错误的、邪恶的信息输入给模型,这样训练出的AI不但会做出“狗是植物”这样指鹿为马的错误判断,甚至会做出指挥汽车撞上行人等犯罪活动。AI可以是我们的帮手,也可能会成为无情的野兽,野兽必须要被监管,科技必须向善。

Q5:为什么现在ChatGPT也会回答出很多愚蠢的问题?它未来可以接近甚至超过人类的智能吗?目前它的参数模型还不够多,训练的成本也影响了它迭代的速度和效果,这些是它还不完善的原因。但未来这些都会不断增强,越来越智能,当它达到GPT-4的水平,就具备了接近了人类的智能的可能性。
至于超过人类的智能,可以参考机器学习算法那部分的知识,有一种说法是,当技术的成熟让AI可以自我学习、甚至自我改进自己的算法时,人类作为帮手的角色就不需要了,AI会走向自我进化的新时代。换言之,这样的AI可能真的会具备超过人类智能的可能性。
好了,本文就到此结束,希望借助这些AI的常识,能帮助你更好地适应未来的不确定性。如果有内容难以理解,您可以深入学习相关知识,或再次阅读本文增进理解,也欢迎留言讨论。感谢您的阅读。
-END-
相关文章:

备注:图片来自网络

喜欢的话,请在右下角点击“在看”,谢谢!
继续滑动看下一个
向上滑动看下一个

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存