今天分享的AIGC系列深度研究报告:《AIGC专题报告:ChatGPT纪要分享》。
(报告出品方:久谦中台)
报告共计:135页
? GPT-3 是一种大型语言模型,被训练用来在给定上下文中预测下一个单词,使用 Transformer 架构
1 它很灵活,可以用于翻译、摘要、分类和问答等任务。GPT-3 的优势在于它的简 单性和不需要专门训练数据集就能表现良好的能力。
2 GPT-3 可以用于翻译任务,方法是提供比如“德语:英语”对的翻译样例(如果 是德英翻译),或者像问人一样要求模型翻译给定的句子。
3 尽管 GPT-3 主要是在英语数据上训练的,但仍然能够在翻译任务中表现良好,因 为它能够通过提供的样例中的模式,并利用自己的一般语言能力产生翻译。
4 PeterWelinder 现任 OpenAI 产品与合作伙伴副总裁,负责 GPT-3 的运行和其他业 务,在此之前,他曾是 OpenAI 的研发主管。使用 GPT-3 解决现实世界的问题。
? 你觉得你和所有使用 GPT-3 进行自然语言任务的每个人之间的区别是模型本身的质量和性能吗?还是其他原因?是关于集成,还是生产中的监控,或者类似的东西?
1 当然,我们在构建 API 时所关注的关键事情是最重要的是模型的能力。
2 其次,你需要有快速的推理能力。在我们创建 API 之前,对于语言模型,没有人 关心推理。每个人都关心你能多快地训练他们,因为这才是最重要的。
3 因此,你可以在一天结束时解决基准测试问题。我们做了大量的工程设计来让推 理超级超级快。我还记得在最初的几个月里,我们将 API 的第一个原型交付客户 开始使用,我们将推理速度提高了 200 倍之类的。
4 事实证明,当安全和能力齐头并进时,当你能更好地控制它时,它就会变成一个更好的产品。这些肯定是我们一直关注的事情,我认为我们在这方面做得比现有 的其它替代方案要好得多。
5 最后,我们非常关注的事情是让它使用起来非常简单,事实上,你不需要加载模型,你只需要调用一个微调模型,只需要一行 Python 来调用 API,这也是我们的 核心,我们希望每个人都能轻松使用它。
? 事件
1 根据公开新闻报道,百度对标 ChatGPT 的 AI 产品中文名字叫做文心一言,英文名 ERNIEBot,3 月完成测试,对公众开放。
2 目前还在做上线前的冲刺,时间有可能提前。百度集团-SW 涨幅超 15%,此外其他百度系公司表现亮眼,应用公司表现亮眼,行情正往两头演绎,优秀的大模型+ 基于大模型的创新应用场景。
? 百度 ToC 产品的进度如何,使用体验如何?
1 百度有文心大模型的基础,去年 ChatGPT 刚发布后,他们基于对话的语料,做了 一个类似的新模型,是多轮对话的模型和百度搜索引擎相结合——用户问一个问题 AI 会给一个答案,同时搜索引擎会基于这个问题做一些相关的补充,比如答案 的来源和链接。
2 如果和搜索引擎结合起来后,整体使用效果还是可以的,因为结合后,不涉及到特别多轮对话,一般我问一句,它回一句,就结束了。至于多轮对话容易遗忘的 问题,可能需要在后续的优化过程中,重点考虑怎么捕捉更远的信息,怎么捕捉 用户长期讲话的意图。
? 字节内部目前在类 ChatGPT 产品方面的规划?
1 从我们看字节对搜索的重视程度,搜索现在也是一级部门,对搜索的重视程度很 高,因为搜索在现在在抖音、今日头条的重要性上很高,本次也是集合了几个核 心的部门,组成小团队来做模型。
2 目前来说可能还没有产品的计划,虽然是比百度晚一些,但后续要看产品的效果 和用户的体验,先发后发的影响不是很大,需要看后续的发展。
? 未来的发展方向
1 目前它的商业应用的场景是非常广泛的,只要它能够有效的克服以上提到那些制约因素,它在众多行业上都是可能会产生这种变革性的影响的,特别是在客戶服务、教育、家庭的陪护等等这些领域可能会率先落地。
2 以及它在一些领域的适配程度。另一方面很多企业讲应用 ChatGPT 也是会受制于 它目前的一个高成本的使用成本,所以在商业化上还是一个比较谨慎的观望态度。
? 目前国内相比于我们海外的差距到底有多少?是否有追赶的机会?
1 目前国内其实做这种 ChatGPT 类似的公司,也主要集中在大公司,或者是一些有 国家政策资金支持的一些机构,学术机构,比如我们的百度,微软小冰。
2 再包括阿里还有腾讯可能也在做。主要是这几个大的玩家可能会有成本去训练这 么一个 ChatGPT 这样的超大模型,这样的玩家相比于海外的差距,目前还是有一 定差距的。
3 目前的差距主要集中在我们的预训练模型,它的回复能力确实自然程度上,还有 包括回复的专业度上,以及内容的表述方面,相比于国外的 ChatGPT 模型相比还 是有一定差距的。
4 还是我们清华提出的超大规模的预训练模型,他们的参数量上的差距已经是接近差不多了。所以我们都国内外,国内和国外都具备训练这种超大规模模型参数量模型的能力。
5 我们在这个成本可以拉到可以降低到可以大规模使用的个时间点的时候,我们也是可以跟海外的这些竞争对手去 PK 的一个机会。目前使用成本还是比较高,所以导致还有一个可以追赶的时间可以让我们国内的这些公司去追赶。
? 从训练的数据集、模型的体量来看,国内达到 ChatGPT3.5,模型能力、数据能力、标注能力,2 年之内有没有可能形成对标的类似产品?
1 国内从 NLP 角度来看,百度、华为、清华、鹏程实验室的大模型数据量、参数规 模不亚于 GPT3.5,达到千亿级数据,甚至数据量和模型都会更多。下一步要解决 的问题还是要更好地和知识做接入。
2 从目前来看,两年对国内信心较足,算力、数据量没有差距,追赶较快。未来做 教练模型、强化学习、经验模型,不一定要由少数大公司来做,可以由既掌握深 度学习大模型的核心技术、又有行业理解的公司来做,形成生态的丰富化,对于 本身有 AI 布局的公司来说都是机会 3 云从在计算机视觉、语音、NLP 上遵从模型和知识相结合、再做教练模型、再做 经验模型的思路推进,国内头部企业都会按照 CHATGPT 验证成功的这个范式来推进。
? GPT3.0 和 GPT3.5 的差别很大,对于知识点的回应比较全面,ChatGPT3.5 距离通 用型人工智能还有多远的距离?
1 通才是一件比较困难的事情,目前 GPT3.5 总是在讲“正确的废话”,具备了语言 组织的框架和逻辑,但是对于某个特定领域的回应不够深,内行人会觉得有所欠 缺,教练模型就是为了提升专业性,可以通过数据和知识(行业 KNOWHOW)来训练。
2 如果想让通用型人工智能在某个方面做的非常专业是比较容易的,能解决某个领 域已经具备很大的现实意义。
报告共计:135页