一个产品经理对ChatGPT的思考

您所在的位置:网站首页 replace跳转后左侧目 一个产品经理对ChatGPT的思考

一个产品经理对ChatGPT的思考

#一个产品经理对ChatGPT的思考| 来源: 网络整理| 查看: 265

前言

之前一直在pmcaff隐身学了很多大佬的分享,这次chatgpt崛起,本人作为一个AI产品经理也是最早一批的使用者,在公司做了这方面的培训分享,去掉公司相关的内容后,把我的一些认知与思考也分享给大家。这篇文章主要是从技术能力、使用案例、未来影响三方面来介绍,为了方便很多还没体验的朋友感受效果,也是找了非常多的使用截图供大家参考。

作为一个NLP 从业者,对领域的变革既震惊又高兴又焦虑。经过2016年开始的智能音箱之战,当时nlp面对海量用户进行语言交流的不成熟暴露无遗。产业界对chatbot由无比期待转变为默认其为人工规则+有限领域智能。行业也进入内卷,不少人都转去了金融营销或推荐。

chatgpt的爆火让NLP技术重新站在了舞台中央。作为将人的语言与计算机连接起来的技术,他的进步带来了无限的想象空间。而这次gpt极其通用的能力也重燃了通用人工智能的展望。这对我们也提出了不小的挑战。过往的经验慢慢失效,新的技术带来了新的浪潮。是与浪同行还是被浪打下,就需要共勉了。这一阵也读了很多相关资料与采访,结合自身的思考给大家做一个简单的分享。本次介绍不涉及大量技术语言,目标是零门槛让大家了解这项技术与其带来的影响。

通过最近这几个月的学习和听各领域专业人士的访谈,越来越觉得这是每个人都要尽快了解的一次变革了,这次变革真的很可能会带来非常巨大且深远的意义,不论是对我们的工作、我们的教育还是我们每个人的存在。

注:由于引用源比较多,在做ppt时并没有标注在内容上,因此全部引用参考资料放在结尾。本文内容初稿与2月中旬完成,后面又有了新的发展,可能有的内容会有过时,不过对这个技术的思考什么时候都不过时,拐点可能真的要来了,不亚于互联网的兴起。

目录什么是ChatGPT?ChatGPT为何带来如此震撼ChatGPT可以怎样用ChatGPT带来的思考与影响分析参考及拓展资料一、什么是ChatGPT?1、ChatGPT自我介绍(由ChatGPT生成)

GPT (Generative Pretrained Transformer) 是 OpenAI开发的一种大规模的语言模型。它是基于 Transformer 模型的预训练语言模型,被训练在大量的文本数据上,以生成语言。

ChatGPT是 GPT 的一个特殊的实现,被特别设计用于对话生成。它学习了与人类对话的模式和语法,并可以生成与输入相关的回答。在对话中,ChatGPT能够根据上下文生成合理的回答,并且能够展示出一定的语言理解能力和生成能力。

GPT 和 ChatGPT的技术是一种强有力的工具,可以在很多领域中使用,包括自然语言处理、问答系统、对话生成、机器翻译等。

接下来我们会按照下面的顺序为大家介绍相关的概念,帮助大家理解ChatGPT:

自然语音处理——语言模型——大语言模型——NLP任务——chatbot——ChatGPT与GPT3

2、自然语音处理(NLP)0CFB57BA-CF80-4ce7-9997-ECEE69C71A5D.png

自然语言处理是人工智能中的一个研究分支。为了便于理解,我们可以拆分为自然语言+处理来分别解释。

自然语言:区分于计算机语言,自然语言是人类发展过程中形成的一种信息交流的方式,包括口语及书面语,反映了人类的思维,都是以自然语言的形式表达。现在世界上所有的语种语言,都属于自然语言,包括汉语、英语、法语等。可以这样说,我们人类日常生活中所有和语言相关的对话、文字等都属于自然语言的范畴。

图片1.jpg

处理:这个“处理”是用计算机去处理,计算机无法像人一样处理文本,需要有自己的处理方式。因此自然语言处理,简单来说即是计算机接受用户自然语言形式的输入,并在内部通过人类所定义的算法进行加工、计算等系列操作,以模拟人类对自然语言的理解,并返回用户所期望的结果。可以这样说,我们希望能够通过话语而非程序语言来直接与机器对话的愿景,就是自然语言处理去实现的。

图片2.jpg

正如机械解放人类的双手一样,自然语言处理的目的在于用计算机代替人工来处理大规模的自然语言信息。由于语言是人类思维的证明,NLP也被一些学者认为是强人工智能的必经之路。

3、语言模型

上面我们介绍了自然语言处理这样的研究分支主要是做什么的,下面我们来简单描述什么是自然语言处理中所用到的建模,语言模型。

语言模型:语言模型是根据语言客观事实而进行的语言抽象数学建模。(换一个通俗的理解,就是建立这样一种模型,当我们用语言表达出我们想问的问题后,模型收到该问题并通过语言模型计算出最像答案的一句话并生成)。语言模型本身是个比较深的领域,这方面可以看吴军老师的《数学之美》,会有很清晰且通俗的讲解。下面举一个简单的例子:

208E3612-1C6A-4d70-BF10-EB570FAC1FE6.png

语言模型背后,是数学百年的绽放。家英国数学家提出的贝叶斯公式,俄国数学家马尔可夫提出的马尔可夫链,与美国数学家香农提出的N-gram语言模型,奠定了自然语言处理任务的基石,让文本的合理性这种意识层面的概念可以被数学模型量化。这三位大神,搞互联网的朋友们应该都不陌生,可以去看更多与他们相关的文章或成就介绍,对现在依然有很深远的影响。

图片3.jpg           图片4.jpg     图片5.jpg

4、大语言模型

刚才讲了语言模型的基本概念,现在我们来简单说一下什么是大语言模型(LLM),也是ChatGPT的基石。大语言模型,简单理解,就是超级大的语言模型。语言模型中有一个参数的概念,我们可以理解为参数越多,包含的信息越多,计算难度也越大。Openai没有公布全部训练数据,GPT-3是1750亿的参数量,45TB训练数据。相对比,GPT-2(上一代模型)有15亿参数量,而对于我们日常工作中大部分使用的Bert任务模型,一般参数是百万到几亿的级别。可以看到,这个数量级的差距,可能相当于人脑对比蚂蚁脑子的差距了。

图片6.jpg         图片7.jpg

大模型架构也参数过大意味着难以调整优化,难以理解,并且难以保证效果,迭代一次成本也达到上千万美元,有人望而却步,有人没有足够重视,最终openai的量变引起了质变,出现了意外的强大效果。

5、大模型的门槛

上面说了,大模型增加参数后,效果出现了突变,达到了ChatGPT这种百聊不腻并且有用的效果,那么为什么不所有搞人工智能的全去做这个呢?

简单说,大多数公司搞不起。硬件、计算工程、数据,都是极高的门槛。

我们大部分中小公司中的AI团队,处理工作任务所进行的模型训练,大部分是监督学习。监督学习靠人工标注和算法调整,解决小规模领域任务是比较合适的选择。数据量难以做大,标注成本、标注质量、维护成本都会限制。

Openai所采用的是无监督学习结合强化学习,相比庞大的训练数据与模型参数只需要较少的人工标注和反馈,但其对硬件与计算工程的要求非常高,GPU成本就8000万美元。根本上来说,公司的定位是不同的,openai从创建起目标就是通用人工智能,而不是用人工智能解决具体问题任务。

下面是监督学习和无监督学习的示例。

图片8.png图片9.png

6、NLP技术之前都用在哪里?

由于NLP的属性:将人类的语言转变为计算机语言,因此其并不像图像识别、语音识别那样形象,容易接触和了解其应用。我们可以简单举四个例子:

翻译软件:将两种语言进行转换,涉及NLP技术中的机器翻译、文本纠错等。

智能客服:理解客户提问的问题意图,并生成准确的回答,涉及意图理解、实体抽取等。

内容推荐:对头条内容进行摘要生成与文本分类,分类输入到app的推荐系统来实现千人千面的内容分发。

舆情分析:对商品下的用户评论进行情感分析,得出全部用户对各个商品的情感来辅助进行决策。

图片10.jpg图片11.jpg图片12.png图片13.jpg

7、ChatGPT和之前的一些chatbot的差异

聊天机器人其实已经发展很久了,从智能客服到智能音箱、智能家居、早教机器人,背后都有聊天机器人的身影。由于之前的NLP模型更偏重用一个模型解决一类任务,chatbot背后是一套对话系统工程(如Siri)。用户的问题经过一系列模块(由对话系统的设计人员设计)后才会跑出一个结果,对模型的应用是间接的。如下图,一个NLP产品经理在构建一个聊天系统的时候需要设计一个很复杂的逻辑链路,并加入多种人工规则。

图片14.jpg

而ChatGPT背后的大模型GPT-3.5(GPT-3的优化版),则是一个庞大的通用语言模型,包含所有任务类型的数据,大力出奇迹。大模型出色的通用能力和对用户准确的指令理解,使其可以完美替代上图后面用虚线圈起来的各种处理模块。

8、ChatGPT就是大模型GPT-3的直接应用么,这俩有点乱

ChatGPT是基于GPT-3模型进行了基于人类反馈的强化学习,简称RLHF,并不是单纯使用GPT大模型的结果。他是大模型的基础加上了工程化的调优,具体的训练为下图流程。(相信大家都已经看过很多遍了)

图片15.jpg

上面的流程可以简单描述为下:

找一批人写了一些问题,然后让标注人员对问题写上合适的回答,然后把这个(问题,回答)数据输入大模型进行微调训练。再找人写一批问题(和1的相似一些),然后输入1调好的模型得到4个回答,然后标注人员把这4个按照一些标准来排序,最后用这些排序标注的数据来训练一个回报模型,用于给模型输出的回答打分。把2里面训练的回报模型和1里微调好的大模型搞在一起,随机抽取测试人员编的问题(不局限与1、2中的问题)给1,出的结果给2打分,根据分数来对1重新进行微调以提高分数。重复2,3多次来优化1,1越来越优秀了。

因此,ChatGPT并不是GPT-3模型的直接输出,即我们调用GPT-3的接口或者未来国内大模型接口也不会完全复现ChatGPT的效果,背后还有很多工程化的工作与试错。同时,对绝大多数没有能力从零开始大模型的公司来说,未来是自己优化开源大模型还是依赖大厂的api,是一个需要深思的问题。

9、第一节的总结

第一节应该是最偏技术的了,但是他对咱们后面的应用理解还是有很大帮助的。

ChatGPT是一个像小爱同学、Siri一样的对话程序。ChatGPT背后依赖大模型GPT-3,对人的问题的理解能力显著强于之前。大模型并不是随便能做的,也与公司定位有很大关系。GPT-3.5是一个通用语言模型,可以尝试解决所有语言任务。ChatGPT作为一个语言模型赋能的对话程序,所有的对话能力都是基于其训练数据,因此对于一些实时性问题,其训练数据没有则难以回答出来。ChatGPT是GPT的一个特殊实现,换句话说其背后的对话也做过设计和调优,并不是直接调用GPT-3就能达到同样的效果。大模型聚合了之前多个小模型在各自领域的能力,即今后很多语言处理任务可以直接通过大模型来解决。单纯的大模型还不足以达到ChatGPT效果,还需要一套微调方案来提高其可用性。二、ChatGPT为何带来如此震撼

ChatGPT的火爆让技术圈、投资圈、产业圈全部震惊,12月,在知乎上ChatGPT数次登上热榜。1月,注册用户破1亿。2月,ChatGPT开始在国内各媒体公众号上疯传。它聊天的实力可以在各种社交与媒体平台上见到。连大A的GPT指数都一个月涨了50%的样子。

使用后,程序员看到了ChatGPT极强的代码能力,内容工作者看到了ChatGPT极强的文案生产力,吃瓜群众发现它真的可以跟你聊天南海北而不是一问三不知了,甚至有时还有惊喜。

图片16.jpg图片17.jpg图片18.jpg

为何ChatGPT如此不同?

下面我们会从:大模型所带来的知识的充足,生成式AI与决策式AI的不同,应用门槛非常低,工具属性的意外好用,以及涌现出的一些令人惊讶的能力这几方面来分析。

1、模型参数的增加带来了知识的增加

下面是知乎张俊林大佬的知乎分享,链接在本文结尾,张俊林大佬可谓是NLP领域的真大佬了,很多前沿技术的国内详解都可以从他的知乎中找到。

图片19.jpg

大佬大致总结了几点:

A、模型参数增大后,对需要大量知识来解决的任务表现的越来越好。模型参数和训练数据的增加让模型学到了大量有效的知识。这个主要体现在a图,随着横坐标模型参数的指数增加,纵坐标任务表现效果越来越好。

B、当模型规模跨过一个阈值后,LLM模型对某些任务的效果就出现突然的性能增长,相当于突然学会了一个能力。(此方面研究人员还在研究为何出现)这个主要体现在b图,随着模型参数增加,对某些任务的解决效果从几乎为0突然竖起来,并且效果迅速攀升。

2、生成式AI和决策式AI的不同

决策式AI,如自动驾驶、医疗智能问诊、营销决策、摔倒检测等,甲方要求非常高,即使准确率99%,错一次就会带来很大影响。可以看下面的两个新闻例子。

3C1CB252-5BD0-4c8e-93B3-CF8F229261CB.png6C848300-7EEC-4938-9241-D4B0437389DD.png

而生成式的AI,人们的包容度非常的高。因为很多人应用他是辅助创造的,相当于锦上添花类型,并且ChatGPT还经常给人惊喜,只要它的准确率还可以,就能成为较大助力。不准的时候也是乐子的来源,毕竟问一句话不消耗什么时间。

图片20.jpg图片21.jpg

3、应用门槛非常低

只需要可以访问openai,一个短信验证就可以使用了,当然,国内的手机号和IP除外。

“我一生中从未见过,至少在我从事科技行业的30年中,美国西海岸的先进科技可以在几个月内以非常真实的方式出现在印度农村。我不认为在过往的工业革命中有过这种现象,对于知识型工作者来说,也许这一次完全等于工业革命。”在瑞士达沃斯举行的世界经济论坛的一场对话中,现任微软公司CEO、董事长萨蒂亚·纳德拉曾这样表示。

这句话其实言过其实。普通大众接触他的意愿并没有那么强。但确实大大降低了知识获取的门槛。让众多隐藏在多层目录下、隐藏在多重跳转下、隐藏在各种论文期刊书籍中的知识,可以被如此简单的提问触发。

漫布各行各业各民族的使用风潮,带来了巨大的流量和讨论量。便利是相互的,免费开放的同时也积累了每个领域的人对ChatGPT的需求。这种机会不常有,甚至可以认为各领域丰富且热情的聊天数据给openai在大模型领域挖掘了护城河。

4、语言工具的应用效果良好

Chatgpt对语言的处理能力,确实相当的出众,出众到真的可以大量节省和语言相关的工作时间。下面我们举三个例子简单说明其语言工具的效果。

下面两个例子中,左边我们让他去解读一篇论文,他解读的还算不错。不过要注意的是ChatGPT不连网,解读的论文只限于2020年及以前发表并存在与训练数据集中的论文。但是微软的新Bing可以解决这个问题,他集成了ChatGPT,并且可以解读在线文章,可以去读最新的论文。很多科研者已经用它去解读海量的期刊文章了,先用它过一遍解读或者概括,然后再挑自己感兴趣的细读。

右边是让他基于一个主题生成一个ppt大纲,他完成的非常好,同理也可以生成各种新闻、论文、文档等的大纲。实不相瞒本文的大纲也是这么生成的。

图片23.jpg图片24.jpg

第三个例子主要是给出一个主题,让他基于这个主题来扩展文章。并且生成后可以转为英文,这对很多因为语言门槛无法进外企工作的朋友来说,应该是利器了。

图片25.png

5、令人惊讶的能力——In Contect Learning

从这里开始,就是大模型固有的领域了,小模型没有这些能力,这也是让业内人士为之震惊,国内很多大佬决心转变路线的一些突现能力。

In Context Learning的能力可以理解为,描述某项任务,大模型就可以去执行。即给几个示例作为大模型参考的范本,大模型就可以自我学习范例去解决新问题了。

以往为了让模型解决某个任务,会把对应的任务示例数据作为训练数据输入,然后重新对原有模型进行训练调参,因此算法工程师常被称为调参师。而现在的大模型,对于其没学习过的任务领域,只需要通过语言输入示例,不再需要训练模型,他就可以自己学习示例然后去解决新的问题了。

大家仔细想,这是不是有点像我们小时候上学,老师讲完一个知识点,会先给一道例题然后讲解这个例题怎样应用知识点去解答,然后再给出练习题,让我们模仿例题的解题方法去做练习题。

下例左边是我的任务需求,先给出任务目标:写一篇通过买东西学习一元二次方程的小文章(我的老婆是数学老师,这个任务其实是她希望用于辅佐学生写小论文)。然后我在下面又给出了示例,示例就是网上的一篇初中生数学小论文。给出了任务目标,示例内容,右侧就是生成的答案。可以看出,基本符合一个学生的口吻,并且给出了不错的例子,凑满减优惠,可以说是非常惊艳的解决了我的任务。(有一个隐蔽的问题,就是我描述的是一元二次,他给出的是二元一次的应用,不过我仔细想了下是我的任务错了,超市买东西的例子本就是二元一次,他相当于还给我纠错了。)

图片26.jpg          图片27.jpg

再看下面两个例子,一个是写剧本(左边两图),我给出来剧本的前一段,然后描述清楚剧本的大纲,让他基于前段续写;另一个是我给出一个三元组(知识图谱领域中存放知识的单元),让他模仿这个三元组来找到更多相似的三元组。可以看出其任务完成的都挺好的。

图片28.jpg图片29.jpg图片30.jpg

6、令人惊讶的能力——Instruct理解这个能力可以理解为精准而自然的指令理解能力。大家应该都在这几年接触过很多的智能语音产品,绝大多数的使用体验都很一般,尤其是对指令的理解。比如智能音箱和智能电视,你只能按照固定的一些指令描述方式去发问,比如帮我定个xx的闹钟,找一个川菜馆等等。如果你拓展一下,比如我想找一个好吃的馆子,不要日料,他就很难完成任务。

而ChatGPT则对普通用户的指令理解表现的意外的好。他绝大多数都能理解你想要干什么。

下面两个例子,左边的是我让它去做一个视频制作大纲,它精准的理解了我的任务,抓住了视频制作这个关键,而不是写文章大纲。右边两图是我让他模仿一个算命先生,给别人算命。网络算命、星座八卦从互联网出现就有了,现在可以很简单的让它完成这种任务,他可以很准确的理解。

图片31.jpg图片32.jpg图片33.jpg

再看下面这个例子,可以说算是一个比较复杂的例子了,我给出了一本书的简介,然后让他推测这本书写了什么,再根据这本书的核心内容写个读后感,还要结合我是一个数学老师的身份。这里面每一项都算是一个重要信息,而他完全的理解了这项任务的全部信息,并给出了不错的回答。

图片34.jpg图片35.jpg图片36.jpg

7、令人惊讶的能力——推理能力与思维链

这项能力更加的让人惊叹了,并且极具诱惑力。因为推理能力在日常任务中是非常有用的,并且推理与人类的智慧非常的接近。不过大模型为何诞生推理能力,目前学界还在研究中。下面先举几个简单的推理能力。

下边的例子是让机器说假话,说假话的核心就是他需要知道何为真何为假,这其实是最简单的推理,但是大模型诞生之前这种任务效果都很一般。

图片37.png

下面两个例子,左边的是让他分析话语的主体,这个问题的核心是,比较A和B时,后一句因为它很辣/不辣代表了比较方式,他需要先根据比较方式推理出在比较什么(比较口味),然后再检索四川火锅和日料店口味属性,再进行大小比较,最后才能得出结论。

右边的例子是给他一个问题,他根据这个问题的性质,自己构造了一个二元一次方程,并解答了这个问题。这里注意,我在提问时并没有让他使用二元一次方程这个工具去解答。(当然这里也有可能是他训练过初中习题库数据,但是我更相信这是他使用推理工具的展现)

图片38.jpg图片39.jpg

再介绍一个更好玩的,思维链是这两年国外大模型推理能力研究的主要方向之一。为了教会LLM模型学会推理,给出一些人工写好的推理示例,示例里把得到最终答案前,一步步的具体推理步骤说清楚,而这些人工写的详细推理过程,就是思维链Prompting。最新一版的ChatGPT中,有些问题甚至只需要增加一句,你要一步一步的思考,就可以显著提升模型解决复杂问题的能力。

下面两个图是一个知乎用户的测试,先直接问一个数奇数偶数的问题,它回答错了,然后改了一下问法,先给了一个解决简单问题的解决步骤,然后再问他复杂问题,可以看到,他回答的就对了。

图片40.jpg

图片41.jpg

上面这个任务,我们仔细思考,是不是有点像咱们的工作流。一开始产品新人不知道该怎样解决问题,给他一个任务后往往做的不太行。这个时候我们老人就要交给他一些常用的工作流,比如先要xxx,再xxx,再去xxxx,最后xxx,再给一个之前业务的范例,新人通过学习这些,再遇到类似问题就可以很好的解决了。想象一下,大模型再进展几年或十几年,是不是大部分有规范可循的工作都可以被取代了。。。。

8、令人惊讶的能力——模型中的模型

再说一个更玄乎的,这是2月初MIT科学家做的一些研究。

前面所说的In Context Learning等能力,目前一些科学家正在研究这些方向,并取得了一些进展,研究人员将其命名为语境学习。在语境学习中,模型的参数并不会更新,所以看起来就像是模型在没有学习任何东西的情况下,就习得了一个新任务。这无疑是一种异常高效的学习现象,它意味着,只需为它提供一个输入,就能完成我们想要的东西。

通过对模型进行数学分析,研究院发现了一些有趣的可能。模型可以模拟并训练一个更小版本的自己。当需要完成一项新任务时,大模型可以仅仅使用已经包含在大型模型中的信息(固定的参数)来执行一个简单的学习算法,以达到训练那些更小的线性模型的目的。

看到这里,我想到了去年看到一本书《集异壁之大成》里提到的概念,自指与自复制,侯世达认为这可能与人类的认知智能有关。下面是书的一部分图。

图片42.jpg

侯世达认为,两个系统都有一个可以无限地往上叠加到任意的复杂度怪圈。让人想到智能的异层结构——一个足够复杂的底层基质导致高层的怪圈,而正是这种自己作用于自己的机制能使整体进入不同层次,让TNT可以谈论自己,让DNA可以复制自己。智能和生命的秘密就隐藏在这里面。

或许这一轮人工智能带来的革命,会重新激发数学、哲学、计算机等多学科的融合探索,为揭开认知与智能的秘密更进一步。这一节就在这里结束吧,后面就是未来的探索了。

三、ChatGPT可以怎样用

首先。这方面最好还是多尝试,大模型的边界确实很宽。这项技术今后的发展,建议是每个人都要了解。

国内目前也有一定的大模型能力积累,只不过之前产业界没有大量资金投入,未来一两年可用的产品应该也会出现。

如果不方便翻墙,多看别人的使用案例然后多思考也是比较好的方式。后续百度等国内大模型出来也可以去体验体验。

目微软必应也开通了申请,需要使用edge浏览器,申请加入候补,通过的人就可以不翻墙使用新必应聊天。不过目前测试新必应效果时好时坏,并且不翻墙的话智商会下降,因为回答引用源会变少。下面是csdn上的一个申请教程,B站上也有很多,大家都可以试试。

https://blog.csdn.net/weixin_49767895/article/details/129071748

图片43.png

下面我会根据我使用的一些不错的用法总结来举例,网上还有更加丰富的使用举例,就不穷举了。

1、信息检索

更高效的搜索引擎,所言非虚,但是现在还不一定能替代谷歌,因为搜索的目的各不相同,有人只想要一个结果,有人希望对比参考,有人希望拓展。

Chatgpt的搜索可以更加的聚焦,以往搜索结果的主体是文章,现在则更进一步,可以直达你问题所需。由于训练数据,chatgpt的事实性结果时效到21年,22年及以后的他并不知道,不过这不是大问题。目前新必应整合chatgpt后已经初步解决了时效性问题,只不过聊天效果有时会飘。

图片44.jpg

2、语言处理工具

语言大模型对语言处理的任务基本上是信手拈来。

包括但不限于:实体抽取、关键词抽取、事件抽取、语言推理、翻译、情绪识别等等等

下面四个例子,分别是:从一段话中抽取行业相关名词、提取一篇文章的关键、抽取一篇文章的关键事件、根据话语事实进行推理。

图片45.jpg图片46.jpg

图片47.jpg图片48.jpg

3、文案编写工具

语言模型,最会处理的就是文案了。比如写个周报、写一些介绍性质的文本、工作总结、课题小论文、专利描述、应聘简历、游戏剧本、读后感、新闻摘要、论文速读等等等。这方面国外已经有很多落地的应用了,可以想到国内很多辅助办公软件马上会跟进的。大家应该很快能见到。

先来个写周报:

图片49.png

再来个写产品介绍:

图片50.png

再来个润色简历:

图片51.png

再来个论文大纲,写产品专利同理:

图片52.png

4、思维拓展工具

Chatgpt很大的优势在于其聚集了相当多的文本数据,可以说在很多有文本记录的场景中都能有不错的经验。这样,就可以用它来进行思维的拓展,毕竟我们没有人是所有领域的精英,而它可以是大部分有文字记载领域的百事通。这里我就举个产品的例子,大家比较好理解,如果你是和产品新人或者是领域新人,他应该可以给你提供不错的思路。

用户调研:

图片53.png

设计个推荐系统:

图片55.png

设计个风控系统(我曾经待过一年金融风控,自学了一个月才搞清楚产品怎么设计):

图片55.png

5、家庭教师

不知有多少人苦于孩子的辅导,毕竟我们当年学习的知识太久不用都被大脑埋葬了。但对于ChatGPT,他反而可能在这方面大展其力。因为教育中实时性的东西并不多,并且有很多知识都是有一定历史沉淀和课本、书籍文字积累的。因此可以相信,在未来这方面的数据与数学能力更多的加入模型训练后,一个好用的因材施教的教育助手应该是落地的,这方面我比较看好科大讯飞。

同时,大家应该能隐约感觉到,这项技术会给教育带来极大的变革,尤其是对我们国家这种应试教育、死记硬背刷题的方式,我国相比国外高中生牛的地方就是基础扎实,但是当基础知识或者说范式知识可以从一个庞大模型中随时获取时,我们千锤百炼的基础知识记忆和应用的优势将不复存在,而创新,才是未来新的能力。未来如何教育培养孩子,真是需要深思了。这方面我听的一个播客可以推荐。

刘嘉:AI全面超越人类大概率是确定的事|清华大课间004

下面也来几个例子,先是教育辅助,给低领儿童举例教学:

图片56.png

再来物理:

图片57.jpg

再来语文:

图片58.png

再来英语:

图片59.png

再来个数学:

图片60.png

可以看出来,文科上大体满意,数学上还是有所缺陷,他提供的思路可以,但是算着算着就自己错了。不过数学我觉得倒是不担心,语言模型解决数学这种逻辑巅峰还是比较难,不过用计算机解决数学问题已经很成熟了,比如matlab,后续语言模型只需要学会怎样调用这些成熟工具即可。

6、行业领域任务完成

在具体公司业务中怎样合理应用chatgpt或今后其他类似的大模型,目前我们认为浅层应用主要是前面的文本处理能力,深层应用则主要通过prompt工程(就是说合适的话来让大模型给出好的答案)来使用其任务处理、推理能力。这要跟每家公司的业务形态、业务数据情况等等来综合考虑,最终发现大模型可以在哪些环境实现自动化或者半自动化。

行业prompt未来的价值可能很大,也可能很小。但是有一点,prompt是业务理解与语言结构的结合,需要算法与业务人员一起探索好的领域prompt,优质prompt可能意味着在语言结构层面对业务有着深入的理解,也可以沉淀为业务经验。

下面有几个示例,简单讲述这个方式。就是先构建好一个比较标准的任务问题描述,然后任务的具体内容可以不断替换,这样就可以自动批量产生问题并获取回答了,生成的回答在用到业务中的具体环境中。

第一个例子是给出一定的文案格式和模仿示例,让他批量生成内容,这个方向比较常见的应用是虚拟人、情感陪伴聊天等。

图片61.png

第二个示例是根据简单要求生成调查问卷,这方面可以赋能问卷星等一些办公辅助工具。

image.png

第三个示例是通过简单的产品性质描述生成介绍,这方面可以应用在商品介绍、商家介绍等的快速编辑,感觉还是不错的。

图片65.png

第四个是智能客服领域的问题分类,对于没有NLP技术的小企业来讲,现在只需要做好业务问题描述的文字,就可以让开发将用户的问题拼在下面,批量去进行问题分类,分好的类让开发去答案库调取答案回复即可。相当于以前几个人或者需要一个saas平台做的事情现在一个开发搞定。

图片66.png

7、ChatGPT无所不能?

很明显不是,事实是现在他在很多方面都不行,并且有时候还很有危险。

数据更新的问题,目前还是21年及以前的数据,虽然后续会迭代,但是要考虑到,知识的时效性有时是很致命的。回答的真实性问题,因为目前没有开放置信度的调整,所获得的回答有可能是模型以假乱真。这方面有个专业名词叫模型幻觉,感兴趣的可以搜这方面的文章。模型事实错误的更新纠错,目前从新必应的效果上看,还是个任重道远的工程探索过程,新必应的上线并没有让其同时具备实时信息又有精准的理解,反而出现了各种稀奇古怪的问题。长尾知识的数据训练缺失,在一些垂直领域它只能发挥其语言理解的能力,无法更进一步的结合垂直业务发挥能力。模型运行成本较高,目前大牛们的看法是随着硬件升级会不断降低,不过一般工业革命需要的是能源应用效率的指数提高,因此智能革命可能还需要能源革命来点燃最后的火,这方面相关的可以看一下《能量与文明》这本书。语言模型只发挥了语言的工具属性,并不清楚现实的映射,而人是多维度的接收信息,因此人与chatbot对话时,如果问的问题需要考虑语言的现实指代与更多维度的信息,可能难以得到想要的结果,但是用户是很难意识到维度上的变化的。因此,如果希望大模型可以解决现实问题,实现真正的现实助理而不只是语言助理,多模态是跨不过去的坎。大模型知识的更改,很难像知识图谱直接变更错误节点那样简单,而现实中很多语言场景数据本身就充满了矛盾和循环,数据量越大可能越难以控制,如果使用时误入这些场景,有可能会让模型陷入逻辑深渊。目前大模型还是有很多谜团没有解开,包括其为什么有那些强大的泛化能力、推理能力等,一切还需要等待更理论层面的解密,才有可能确认我们是真正踏上AGI(通用人工智能)的大路,而不是沼泽前的绿洲。智能、智慧、灵魂、思维,到底是啥,人对自己还是未知,甚至人可能永远无法了解自己。爱因斯坦说:我们面对的重大问题永远不能在产生问题本身的层次上被解决。(哥德尔不完备定理)。或许AI的进展会推进哲学、数学、生物学的探索?或许这才是当前发展AI真正的历史意义?四、ChatGPT带来的思考与影响分析

首先,我们可以思考一个网上热议的问题,ChatGPT所代表的生成式AI是否会超越人?

图片62.jpg图片63.jpg

上面左图是西部世界大家都知道,右图是一个比较冷门的前苏联电影,叫飞向太空(推荐一看,佳作,其原著小说索拉里斯星也很不错)。

这两部作品所代表的是两种智能,一种是机器通过接触外界的反馈产生的自我意识;另一种是单纯的复制人的一些思想意识,只有复制。未来,智能到底是哪种目前还未知的。

那么,怎么定义超越人呢?如果是超越人思维的上限,那么可以说,还远远没有达到。如果是定义创新,那么在不同人的眼中,创新的含义不同,在一些人眼中的创新可能在另一些人眼中是常识。

因此,说超越整体意义的人的思维上限目前还是虚无缥缈的,但是超越个体人在某些领域的能力,则是可见而有星火燎原之势的,比如阿尔法狗二代。

图片64.jpg

1、语言工作的替代

舆论中一个主流的观点是,ChatGPT最多只能替代一些重复性的语言/文字工作者,对大多数人不影响。这个观点前一半没错,但是很多人忽略了一点,语言工作的范围究竟有多大。

仔细想,一切可以被语言进行传递、分发的工作,一切需要通过某种语言/符号转化为另一种语言/符号的工作,严格意思上来说都有被替代的机会。当然这个过程可能是缓慢的,但技术的浪潮不可小觑。

说到语言和符号,这本身就和人的哲学、人的认知、人的思想息息相关。语言学中的维根特斯坦、乔姆斯基这些大牛本身也是哲学、心理学、认知学家,而符号学大家看过丹布朗的书(十年前写的数字城堡、达芬奇密码、天使与魔鬼感觉比这几年的好看些)的人应该都了解一些。

图片67.jpg

各种符合指代、语言指代等等,相当于语言和符号是三维世界的降维映射(或者说信息的压缩),然后大语言模型是找这些语言与符合之间的相关性。这些相关性能否代表了人类的认知呢?换句话说,人类的认知是不是就是把世界转化为大脑的符号然后建立相关性呢?这方面不能再说了,说多了自己会晕。

2、回归人自身的价值

刚才我们的讨论下,替代创新性的人,是不太可能的;但是替代失去创新能力、长期陷入范式工作的人,则真是有危险的。其实像我自己现在就深刻感受到危险,产品经理大部分工作在于整合(当然也有少部分牛逼的产品创新能力很强),产品一般学的会多而杂但不深,这种善于整合和找关联、什么场景都懂一些的能力,不就是可以被ChatGPT方便替代么?!或者说,今后其他人也可以快速拥有类似能力。我去护城河被挖了,今后也是应该专精一些领域提升创新能力了。

图片71.png

目前效果看来,大模型对长尾性的知识、能力是很难解决的,长尾能力包括创新能力和一线能力(解决实际问题的能力)。

因此,替代的出现很可能是从各行各业的中部开始,即收到顶层需求后,进行整合或分发的分工部分。这部分包括很多高端脑力劳动者如数据分析师、商业计划师等等。这可能带来各行各业的再一次扁平化。(观点来自翻转电台)

替代不了的是决策者和底层执行者,比如市场分析中实地考察记录数据的不会被替代,而使用这些数据写分析报告的会被替代。会面对实际情况果断解决问题、不断思考与创新提出新问题和开拓领域、以及遇见复杂问题难以两全时果断拍板决策的能力是重点。

图片69.jpg图片70.jpg

3、人类自身的一面镜子

作为第一个使用自然语言如此流畅的人造物,ChatGPT可以称之为一个人工艺术体。而承载了如此多的文本数据,可以认为它是人类在语言中的一面真实的镜子。他说的话本身都是人类思维的语言投影。(观点来自翻转电台)

当与AI进行对话时,思考人之所以为人。当一个人完全满足于灌输而停止思考,他是否还应该被称为智慧的人?

一个有意思的事:现在社交媒体上,很多人借ChatGPT对话进行p图,可以称之为假AI流,借助ChatGPT来表达观点,这也是后面的一个影响。

图片72.jpg

4、模型的未来

以往说商业模式,都是说xxx即服务,今后可能的一个改变会是,商业模式变成模型即xx。

Model as a service。现在的状态,模型就是服务,人脸识别提供登录服务,语音识别提供录入服务等。

Model as a platform。通用大模型作为一个平台来提供,成为无数底层应用的知识源泉。

Model as a  electricity。包含众多领域知识的大模型,未来将会像电力一样融入万物,所有的设备运转、服务计算都需要大模型提供接口。

技术和市场的突破都是来源于某个产品真正引爆了需求,让大家看到了这个世界原来还可以这样,类似于iPhone,通用模型的起步和应用落地也带动了人们的想象力。而随着问题的不断解决和技术的不断演进,未来一切皆有可能。5G+大模型+云计算+自动化,万物互联真不是梦了。(AI股、通信股、服务器股、自动化股可能长牛哈哈)

图片73.jpg

5、模型玩家的分化

随着GPT、谷歌不再开源,加上大模型硬件、人才和运转的高成本,意味着未来大模型很可能只能是少数玩家的领土。

而随着生态的分化,模型领域后续也可能会产生几种完全不同的方向,形成新的分工模式:图片74.jpg

1、最大的公司,汇聚人才、硬件、模型参数与经验,做通用大模型;

2、中型公司,有一定的人才与硬件,基于开源、行业数据加自研来做定制化大模型和垂直领域大模型;

3、下游公司,依靠对大模型与自然语言的理解,结合市场机会,使用大模型能力做出一个一个的场景应用。

4、模型在不同领域应用的可用性评估方式,目前的模型评估都还很主观。同时未来用AI评估也会是一个方向。

5、prompt工程的聚合平台,聚合解决各种问题的提问方式。这类似于聚合站点或聚合API服务。

6、模型找茬与模型优化,类似于现在的标注公司并且很有可能由标注公司演进而成。

同时,技术、产品在这个领域也会相应的分化,大模型和模型应用两个方向,未来可能会产生完全不同的技术栈和产品思维。

6、模型领域prompt的汇聚,究极通用诞生的可能

我们首先回首一下prompt,需要你知道你要获得什么,也需要知道你为了获得这个答案要做的步骤框架,有了这个才可以更精准更有条理的获得好的回答。

图片75.jpg

这其实就是每个人职业的工作范式,或者叫经验套路(工作流程),按照这个套路你可以去解决很多工作上的问题。那么今后,各行各业的人为了让大模型更好的解决自己的问题,将行业套路交给模型。那么长远看来,无数行业的人输入了自己行业的prompt,大模型收集到这些行业思维链通过学习后,就逐渐可以对各行各业有了认知。最终,有可能孵化出一个认知领域的庞然大物。(未来AI真比我会做产品)

7、超大规模神经网络的研究

有科学研究推测人脑的突触大概是10的14次方,即100万亿。类比与模型的参数。具GPT自己说,gpt3拥有1.75万亿个参数,gpt的参数量再有50倍就可以赶上大脑,那时再研究gpt的推理等能力,应该会对推动生命科学的研究具有较大借鉴意义。虽然人脑和算法神经网络不能完全等同,但是也是一个很有价值的参考。

图片76.jpg图片77.jpg

8、工作替代,经验抹平的思考

自从去年AI绘画风行以来,很多人就一直认为大模型会把一个人长期在某个领域的学习努力投入抹平,无意义化。

这确实是每个人的损失,多年积累一朝乌有。比如我自己,之前做了多年的对话系统、自然语言理解等工作,大部分经验都不能再用了,经验门槛快速失效。但是换个角度想,你也可以以更便利的方式快速了解进入其他领域。而你在自己领域的深刻理解叠加对其他领域的前沿认知,有可能会碰撞出更大的火花。

过去的历史,一个人在一个领域达到中等水平至少几年,导致大多数人都不会精通多个领域,而一个未来人,可能会不需要花很多时间做重复的工作,而可以专精多个领域,并且在精通多领域的基础上结合几十个领域的基础知识来进行创新。历史的车轮滚滚向前,不要尝试去阻挡他。

9、深层的思考-工业革命的借鉴

很多大佬都发言说这是第四次工业革命的开始,因此我们也可以借古鉴今。

历次工业革命的都会出现:通用新技术的出现和广泛应用。生产关系与生产力的变更。社会生活的缓慢巨变。最终带来世界格局的剧变。

蒸汽时代——电力时代——新科学技术时代——信息/智能时代

农耕文明——资本主义的产生与积累——世界殖民体系的形成——世界生产关系的变化,跨国资本体系。

在这个过程中,机器生产时代替代农耕。农耕时代农民日出而作日落而息,投入的生产精力完全变为所得的庄稼。农民掌握着自己的生产节奏。机器生产时代,劳动者与生产工具分离。劳动者不再掌握自己的生产,劳动时间被定价,生产的产品价值与劳动价值脱钩。

可以说,分工的方式论证了资本的积累。机器的出现则提供了分工的具体形态。分工意味着整个体系对各环节熟练的要求。

大模型今后有机会汇聚了各领域通用能力的知识,也就意味着,其汇聚了各环节的生产技能知识,即大模型今后会成为打破分工体系的利器。一个人使用大模型,完全可以作为一个个体生产创新者,重新掌握全部的生产工具。

可以想象,中间的环节被AI替代,每个人都可以拥有完整的生产线,也即每个人都是创造者。大大解放生产力。

图片79.png

历史变化真的太快了,最后不得不再感慨一下教员的气魄和远见:

惜秦皇汉武,略输文采;唐宗宋祖,稍逊风骚。

一代天骄,成吉思汗,只识弯弓射大雕。

俱往矣,数风流人物,还看今朝。

结尾

长文结束,最后,这篇文章有一般内容是ChatGPT搞定的,给大家分享下创作的一些问法:

1、我想介绍xxx,给我出一个大纲

2、如何给一个技术小白介绍xxx

3、查一下某某数据/某某知识

4、将这一段话改为更通俗的表达方式

5、简述这一段话/一篇文章的中心思想,减少其中技术词汇的表述

6、读一读这篇文章并谈谈你的感受。

7、参考历史中的某件事,如果出现xxx,推理一下会导致什么变化

8、检查并修改这句话中的错别字、病句。

9、我在讲一个xxx内容,帮我想一个可以应用在此处的插图,并给我返回图片下载链接。(配图查找效果不好,图源太少)

参考及拓展资料链接

1、语言模型:过去、现在、未来   

2、怎样用非数学语言讲解贝叶斯定理 

3、如何用简单易懂的例子解释隐马尔可夫模型   

4、ChatGPT会不会有一天突变成强人工智能 

5、 ChatGPT 数据集之谜 

6、对NLP以及推荐系统未来发展趋势的看法 

7、放弃幻想,全面拥抱Transformer  

8、transformer机制/ 

9、通向AGI之路:大型语言模型(LLM)技术精要

10、ChatGPT/InstructGPT详解  

11、chatgpt为什么这么强  

12、chatgpt有哪些神奇的使用方式  

13、和chatgpt的有趣对话

14、prompt方法综述 

15、浅谈prompt前生今世 

16、对话大模型中的事实错误 

17、ChatGPT、教育和人类的未来  

18、黑手套、体制转轨与原始积累 

19、复旦赵斌尝鲜ChatGPT合集 

20、ChatGPT与生成式AI的技术演进与商业未来  

21、ChatGPT替代谷歌搜索? 

22、人与ChatGPT的终极对比  

23、论增进劳动生产力的因素及分配劳动。-《国富论》

24、卖时间的劳动者、资本的历史。-《资本论的读法》

25、谈谈数学模型的重要性-《数学之美》

26、自指和自复制-《集异壁之大成》



【本文地址】


今日新闻


推荐新闻


CopyRight 2018-2019 办公设备维修网 版权所有 豫ICP备15022753号-3