/ EN
首页 > 热门话题
ChatGPT的局限与未来改进方向
2023 年 03 月 01 日
ChatGPT的局限与未来改进方向

      近几年,自然语言处理技术逐渐发展成为了各个行业关键的创新驱动力。其中202211月公布的ChatGPT则是生成式人工智能技术(AIGC)的佼佼者,几乎可以赋能各个行业。随着人工智能技术的不断提高,ChatGPT作为一种先进的语言模型,受益于更大的模型尺寸、更先进的预训练方法、更快的计算资源和更多的语言处理任务。因此,它已被广泛应用于各行各业,并成为了全球热议的话题。虽然它的出现对企业的发展有着重要的意义,但它也存在一定的局限性,在未来依然需要继续改进。

01 ChatGPT对企业到底意味着什么?


基于聊天的人工智能带来的机遇


      像ChatGPT这样的工具可以为战略性利用技术的公司创造大好机会。基于聊天的人工智能可以通过自动处理重复性任务,同时提供与用户之间更有吸引力的互动,来改进人类的工作方式。


以下是公司可以使用ChatGPT等工具的几个方法:



      对许多公司来说,客户服务是大有机会的领域。企业可以使用ChatGPT技术为它们自己的客户服务聊天机器人生成响应,因此它们可以自动处理许多通常由人类完成的任务,并显著缩短响应时间。


      据Opus Research的报告显示,35%的消费者希望看到更多的公司使用聊天机器人,48%的消费者不关心是人类还是自动聊天机器人帮助自己处理客户服务查询。


      总的来说,ChatGPT对于需要根据输入数据生成听起来自然的文本的任何情况都很有用。


      另一方面,如果竞争对手成功利用了基于人工智能的聊天机器人,贵公司没有成功利用,这项技术带来的机会可能会变成威胁。



截屏2023-04-07 16.15.27.png





考虑清楚聊天人工智能的潜在危险


       对于企业来说,使用像ChatGPT这样的工具可以帮助增加公司收入和创造更好的客户体验,但这种技术也存在一些潜在的危险。


      在ChatGPT软件的测试版中,OpenAI承认了人工智能目前的局限性,包括可能偶尔生成不正确的信息或有偏见的内容。该公司还表示,基于训练模型的时间,人工智能对2021年后的事件或知识的了解可能有限。


     人工智能模型需要大量的训练和微调才能达到理想的性能水平。


     还有潜在的隐私问题。ChatGPT很容易受到网络安全攻击,因为它与互联网相连,有可能被用来传播恶意内容或病毒。恶意网络犯罪分子还可能利用聊天机器人操纵人们泄露个人信息,然后将这些信息用于欺诈或有针对性的网络钓鱼攻击。



基于人工智能的聊天机器人会取代工作吗?


      也有一些人预测,像ChatGPT这样的工具会威胁到人们的生计,因为它可以自动处理目前由人类完成的许多任务。


      基于人工智能的聊天机器人可以用来自动处理一些任务,但它们不具备人类擅长的许多技能,比如批判性思维、创造力或战略性决策。相反,聊天机器人可以用来辅助客服人员,让人们致力于处理更复杂、更人性化的任务。


      公司可以使用ChatGPT之类的工具来降低与培训和雇佣客服人员相关的成本,帮助公司节省资金,并保持竞争力。



大有潜力的技术


      总的来说,像ChatGPT这样的工具有潜力通过自动处理通常由人类执行的任务来提高各种业务环境下的效率和生产力。


      然而,ChatGPT仍然是一种比较新的技术,其功能可能会随着时间的推移而继续发展和改进。


nimg.ws.126.net.jpeg




02 ChatGPT的局限


      只要用户输入问题,ChatGPT 就能给予回答,是否意味着我们不用再拿关键词去喂 Google或百度,就能立即获得想要的答案呢?

尽管ChatGPT表现出出色的上下文对话能力甚至编程能力,完成了大众对人机对话机器人(ChatBot)从“人工智障”到“有趣”的印象改观,我们也要看到,ChatGPT技术仍然有一些局限性,还在不断的进步。


1)ChatGPT在其未经大量语料训练的领域缺乏“人类常识”和引申能力,甚至会一本正经的“胡说八道”。ChatGPT在很多领域可以“创造答案”,但当用户寻求正确答案时,ChatGPT也有可能给出有误导的回答。例如让ChatGPT做一道小学应用题,尽管它可以写出一长串计算过程,但最后答案却是错误的。

2)ChatGPT无法处理复杂冗长或者特别专业的语言结构。对于来自金融、自然科学或医学等非常专业领域的问题,如果没有进行足够的语料“喂食”,ChatGPT可能无法生成适当的回答。

3)ChatGPT需要非常大量的算力(芯片)来支持其训练和部署。抛开需要大量语料数据训练模型不说,在目前,ChatGPT在应用时仍然需要大算力的服务器支持,而这些服务器的成本是普通用户无法承受的,即便数十亿个参数的模型也需要惊人数量的计算资源才能运行和训练。,如果面向真实搜索引擎的数以亿记的用户请求,如采取目前通行的免费策略,任何企业都难以承受这一成本。因此对于普通大众来说,还需等待更轻量型的模型或更高性价比的算力平台。

4)ChatGPT还没法在线的把新知识纳入其中,而出现一些新知识就去重新预训练GPT模型也是不现实的,无论是训练时间或训练成本,都是普通训练者难以接受的。如果对于新知识采取在线训练的模式,看上去可行且语料成本相对较低,但是很容易由于新数据的引入而导致对原有知识的灾难性遗忘的问题。

5)ChatGPT仍然是黑盒模型。目前还未能对ChatGPT的内在算法逻辑进行分解,因此并不能保证ChatGPT不会产生攻击甚至伤害用户的表述。

当然,瑕不掩瑜,有工程师贴出了要求ChatGPT写verilog代码(芯片设计代码)的对话。可以看出ChatGPT水平已经超出一些verilog初学者了。



03 ChatGPT的未来改进方向


减少人类反馈的RLAIF


      2020年底,OpenAI前研究副总裁Dario Amodei带着10名员工创办了一个人工智能公司Anthropic。Anthropic 的创始团队成员,大多为 OpenAI 的早期及核心员工,参与过OpenAI的GPT-3、多模态神经元、人类偏好的强化学习等。


      2022年12月,Anthropic再次发表论文《Constitutional AI: Harmlessness from AI Feedback》介绍人工智能模型Claude。(arxiv.org/pdf/2212.0807)


1.jpeg


CAI模型训练过程


      

      Claude 和 ChatGPT 都依赖于强化学习(RL)来训练偏好(preference)模型。CAI(Constitutional AI)也是建立在RLHF的基础之上,不同之处在于,CAI的排序过程使用模型(而非人类)对所有生成的输出结果提供一个初始排序结果。


      CAI用人工智能反馈来代替人类对表达无害性的偏好,即RLAIF,人工智能根据一套constitution原则来评价回复内容。


2.jpeg




补足数理短板


      ChatGPT虽然对话能力强,但是在数理计算对话中容易出现一本正经胡说八道的情况。

计算机学家Stephen Wolfram 为这一问题提出了解决方案。Stephen Wolfram 创造了的 Wolfram 语言和计算知识搜索引擎 Wolfram | Alpha,其后台通过Mathematica实现。


333.jpeg


   ChatGPT与Wolfram | Alpha结合处理梳理问题   



      在这一结合体系中,ChatGPT 可以像人类使用 Wolfram|Alpha 一样,与 Wolfram|Alpha “对话”,Wolfram|Alpha 则会用其符号翻译能力将从 ChatGPT 获得的自然语言表达“翻译”为对应的符号化计算语言。在过去,学术界在 ChatGPT 使用的这类 “统计方法” 和 Wolfram|Alpha 的 “符号方法” 上一直存在路线分歧。但如今 ChatGPT 和 Wolfram|Alpha 的互补,给NLP领域提供了更上一层楼的可能。


      ChatGPT 不必生成这样的代码,只需生成常规自然语言,然后使用 Wolfram|Alpha 翻译成精确的 Wolfram Language,再由底层的Mathematica进行计算。



ChatGPT的小型化


      虽然ChatGPT很强大,但其模型大小和使用成本也让很多人望而却步。

      有三类模型压缩(model compression)可以降低模型的大小和成本。第一种方法是量化(quantization),即降低单个权重的数值表示的精度。比如Tansformer从FP32降到INT8对其精度影响不大。第二种模型压缩方法是剪枝(pruning),即删除网络元素,包括从单个权重(非结构化剪枝)到更高粒度的组件如权重矩阵的通道。这种方法在视觉和较小规模的语言模型中有效。第三种模型压缩方法是稀疏化。例如奥地利科学技术研究所 (ISTA)提出的SparseGPT (arxiv.org/pdf/2301.0077)可以将 GPT 系列模型单次剪枝到 50% 的稀疏性,而无需任何重新训练。对 GPT-175B 模型,只需要使用单个 GPU 在几个小时内就能实现这种剪枝。


444.jpeg


SparseGPT 压缩流程




04 ChatGPT的产业未来与投资机会


AIGC


      说到ChaGPT不得不提AIGC。AIGC即利用人工智能技术来生成内容。与此前Web1.0、Web2.0时代的UGC(用户生产内容)和PGC(专业生产内容)相比,代表人工智能构思内容的AIGC,是新一轮内容生产方式变革,而且AIGC内容在Web3.0时代也将出现指数级增长。

ChatGPT 模型的出现对于文字/语音模态的 AIGC 应用具有重要意义,会对AI产业上下游产生重大影响。


受益场景


        从下游相关受益应用来看,包括但不限于无代码编程、小说生成、对话类搜索引擎、语音陪伴、语音工作助手、对话虚拟人、人工智能客服、机器翻译、芯片设计等。从上游增加需求来看,包括算力芯片、数据标注、自然语言处理(NLP)等。


555.jpeg

大模型呈爆发态势(更多的参数/更大的算力芯片需求)



      随着算法技术和算力技术的不断进步,ChatGPT也会进一步走向更先进功能更强的版本,在越来越多的领域进行应用,为人类生成更多更美好的对话和内容。


Leithon Insights - Get our latest thinking on your iPhone, iPad, or Android device. 京ICP备2022022765号
© 1996-2024 Leithon & Company