现在的人可以有多懒?啊,不,是多聪明?(毕竟人和动物的根本区别在于能否制造和使用工具。)
遇到任何事情,可以随时大小问。你甚至都不需要手动输入,因为语言输入已经帮你简化了这个步骤。
编写代码、写演讲稿、制作PPT、制定旅游攻略、甚至是脑筋急转弯、情感问题......它都可以帮你解决。
一切的一切,你都只需要一款AI!
话说到这儿,我们知道是ChatGPT彻底将大语言模型的AI送上大热门,但是,你不会只知道ChatGPT吧?用一句过时的话说:那真是OUT了。
先简单铺垫一下,何谓大语言模型?(啰嗦一下,了解的可以自行略过。)
常规来讲,大语言模型又称LLM,是指尺寸超过一定量级的预训练语言模型,基于海量无标注文本数据的深度学习模型。通俗简洁来讲,就是通过大量的参数训练,然后在你的指令下将它学到的内容调整、反馈给你。(输入→学习、整合→输出)
由ChatGPT“抛玉引砖”,国内外其他大语言模型可谓是层出不穷,本文一起来看看三款较为知名的大语言模型AI如何“上场厮杀、各显神通”。
谈到大语言模型,ChatGPT“首当其冲”。
还记得,那是2022年11月30日的一个夜晚,天降紫微星,重整互联网。
短短5天内就有百万用户注册,”现象级走红“它当之无愧。
你以为只是昙花一现?no,no,no!绝对是种子选手,简直狂转酷炫牛炸天好不喽?!(hhh~稍显夸张啦)
1.语言处理能力极强
当你使用或者了解到它时,你真的不得不感慨:!这么牛?它可以做到近乎人类的语言理解和生成能力,很大程度上是无障碍沟通,而且对话反馈是高质的。语义、语法、语用均达到了很高的水平,对话逻辑清晰、上下文协调,并且能完成指令输出下不断优化的多轮对话,记忆力很强。
2.交互方式便捷
恰如其名:"chat"。通过对话的方式完成与用户之间的交互,会有一定的趣味性(比如,有时候你可能觉得在戏耍一只猴子)。随时、随地线上访问,有问必答,消息秒回,态度诚恳又亲切,提供的解决方案多数靠谱管用——打着灯笼都难找!
3.涉及领域内容极广
ChatGPT依托大语言模型,而大语言模型的大,不仅在于训练数据巨大而且参数数量巨大(可理解为模型在训练过程中学到的知识)。其训练的语料覆盖的范围更是广,从书籍、新闻文章、科学论文到维基百科、社交媒体,它无不涉猎。也就是说,它类似于一个百科全书,大到编程专业活儿,小到情感纠葛处理等问题,它都能帮你解答。
4.高度智能化
在用户意图、知识链接等方面遥遥领先,能够模拟人类智能,虽然仍是弱人工智能,但你不会觉得它太弱智。
5.绘画功能强大
对比其他AI,ChatGPT在绘画上的水平可以说是降维打击。只要输出简单的语句指令,就能为你绘制较为高质的图画。不过,有时候会因为语言习惯差异,找不到合适的对应词。比如,饺子——dumplings指令,可能会被理解为包子。
1.“幻觉”现象和可靠性问题
何为“幻觉”现象?
——AI做出似乎不符合其训练数据的自信反应,常见症状为:一本正经地胡说八道。心理学术语为:虚构症。
它可能会捏造事实、生成虚假信息,真实性和可靠性无法保证,很多时候答案仅供参考,还需自己认真辨别再做斟酌。
2.逻辑推理能力仍然较弱
作为走在前面的老大哥,我们还是肯定ChatGPT的推理能力的。但是,面对复杂逻辑推理或模糊问题,它同样会吃瘪。
3.敏感、偏激甚至有害的言论
好比网上的信息鱼龙混杂,未成年人可能会接收到不良信息,ChatGPT在无监督学习下同样面临这样的问题。预训练语料中含有的敏感、偏激、有害信息可能会被收集并被放大后反馈给用户。引发思想上、行为上的偏激,危害社会稳定。(emm...稍微放大了一点)
4.部署困难
作为千亿参数级别的超大模型,ChatGPT真的非常烧钱,开发、运行成本高,训练、部署对算力的要求极高。不然,带不动啊~
此外,毕竟作为国外应用,国内使用相对麻烦,普适性不强。
5.法律问题——知识产权、隐私权
ChatGPT的回答并未注明信息出处,而且数据经过加工处理,对知识产权有一定的侵犯,并且法律目前针对相关领域的立法保障还不够完善。
此外,为了进一步优化ChatGPT,OpenAI可能会在交互过程中过度搜集用户个人信息与资料,则可能侵犯到个人隐私。
6.社会伦理问题——取代性恐慌
最开始的时候,ChatGPT横空出世,不少人都在担心自己会不会被其取代,从底层法务人士到程序员群体,仿佛大家都感受到了危险。其实,总的来说,目前还不用过于焦虑,毕竟它仍处于弱人工智能阶段。能做到的只是搜集、整合资料,还未上升到创造阶段。
好比,程序员知道ChatGPT写的程序漏洞百出很鸡肋并不会完全依赖它,可见,目前的它还只能作为一个辅助工具。不过,如果完全不试着去使用AI,不免会丧失竞争力,面临被取代的风险。毕竟,人和AI都能做到的情况下,AI可能更有性价比哦~资本选谁,不必多说。而且,就算AI不会取代你,使用AI的人也会。大家理性客观看待。
2023年3月16日,百度正式发布“文心一言”,8月30日向全社会全面开放。AI界,百度是中国大厂投资最多的,还是备受关注的,当时,所有人都在等着这款对标ChatGPT的产品。无论是期待着它出丑还是出彩,我们始终抱着看热闹不嫌事大的心态隔岸观火。
简单来讲,它拥有人工智能最基本的素质。前面提到的ChatGPT的一些优点,它也有,不过水平高低可以说是相形见绌。目前已升级至4.0版,为高贵的会员所专享,每3h内畅享100次问答。下面补充一些它的个性化优点。
1.常规渠道,平易近人
文心一言,更适合中国宝宝体质的国内平台。一个直接现实的点在于,它的进入渠道便捷,普适性强。一般人,使用ChatGPT可能还需要一波操作找到渠道,但是文心一言轻轻松松就可以拿下。登录百度官方页面即可,比较省事儿。
2.五大模块,广泛实用
文学创作、商业文案创作、数理推算、中文理解、多模态生成为其五大使用场景。日常生活、工作需要都可以满足。符合国人习惯,使用操控无技巧障碍。
3.扎根中国,中文理解能力强大
一方水土养一方人,一款AI利一款人。作为本土市场的大语言模型,在中文语言和中国文化上,拥有自身优势。既没有语言隔阂,也没有文化差异。举个例子,你用文心一言,不用担心它会将“饺子”理解为“包子”。即使是生僻的汉字理解起来也不在话下下。在诗歌方面可以说是完胜国外的AI,还是土生土长的才知道中国人的审美意旨。
4.实时性强,紧跟生活
能够支持实施热搜问答,时效性强。而且,可以回答当天某城市的天气状况、当下的股价情况等最新的内容。这是ChatGPT所不具有的优势,毕竟互联网环境不同,还是占了国内的优势。
5.敏感词屏蔽,避免争议
文心一言会自动拦截提交的敏感词,像不合时宜的人物、语词等内容均会受到限制。
6.实时协作,助力高效团队
多人在线协作是可以在文心一言上得到实现的,极大程度地便利了团队成员之间的沟通修改,使得团队使用拥有可能性。
1.记忆力较差
语句记忆能力较差,在多轮问答中,有时候会记不住前面的内容。因此很多人更愿意将其作为一个搜索引擎。
2.绘画能力较弱
和ChatGPT并肩,还任重而道远(emm....看图说话吧,画质感人,人物抽象度较高,可能是3.5的版本过低了吧)
此外,经常get不到你点,画非所要,也是一个重要的改进点。
当然,所有AI的通病它也有,前面对ChatGPT的总结也部分适用于文心一言。
OriginOS 4中的蓝心小V,不再局限于小小的聊天框,而是融合了AI和系统,这在AI应用中绝对是实用度最高的。它最大的特点就是内嵌于手机系统,打破了权限墙。侧边栏、浮悬图标、小组件三大唤醒方式,随叫随到——你的贴心智慧助手!
1.打通了系统权限墙
拥有管理本地文件的权限,可以在小V的窗口操控手机,搜索相册里的图片、甚至是发到朋友圈,你只需要告诉小V就好。(语音输入的话为云端完成,还需要一键发送)好比一个操控台,类似于指挥中心。
前面提到它打破了系统权限墙,也就是说简化了操作。那么便捷性则是大大提高,哪怕是家里的老人也能轻松操作。自此等待不再成为遗憾,科技不再形成鸿沟~老少咸宜!
2.一键式服务,方便快捷
一键P图、一键配文发送朋友圈,一键查找APP权限、一键查找相册照片、一键总结文档内容。手机使用,通通一站式搞定。
3.关键性总结,省时省力
思维导图、SWOT分析针对网页、论文等内容,比起自己慢慢看,小V可以轻轻松松帮你划重点。紧急情况下使用真的实用,当然,偷懒也是个不错的选择。
4.翻译转换功能较强
可以实时外翻汉,打破语言屏障,解决语言理解问题,不需要翻译、不需要频繁操作,你只需要一个蓝心小V。
1.受限于手机系统
成也萧何、败也萧何。蓝心小V落地于手机系统,获得了实际性广泛应用。但是其受众可能相对于前两者而言,就要小很多了,入口较为狭窄。
2.参数较小
蓝心小V的云端主力模型,只有700亿个参数,远远小于ChatGPT4公开资料显示的17600亿个参数。可以说是小巫见大巫了,当然,确实是一场不公平的比较,同时也不完全在一个赛道上。
3.整体水平有待提升
毕竟是手机端内置,要求也不能太高,针对手机智慧助手的定位,它确实还不错,很有性价比。但是,完全看大语言模型的身份,蓝厂还有很远的路要走。
想讲的内容很多,但篇幅有限,匆匆落笔至此。
众多AI哪家强?空口无凭,实践才出真知。
ChatGPT4目前可以说是打遍天下无敌手,遥遥领先。可能国内的一些语言模型还是难以望其项背,但是从大局来讲,还是希望国产AI能如同雨后春笋般发展起来并穷追不舍。再者,相信各位大厂的程序员们也不是吃素的!国内的AI虽仍差火候,假以时日,也能有更大的成就!
参考资料
[1]夏润泽,李丕绩.ChatGPT大模型技术发展与应用[J].数据采集与处理,2023,38(05):1017-1034.DOI:10.16337/j.1004-9037.2023.05.002.
[2]胡泳.当机器人产生幻觉,它告诉我们关于人类思维的什么?[J].文化艺术研究,2023(03):15-26+112.
https://www.bilibili.com/video/BV12N411x7FL?vd_source=4946c22c3e9ea21a30dfcc2879c02755
https://www.bilibili.com/video/BV1fu4y1F7fD?vd_source=4946c22c3e9ea21a30dfcc2879c02755
https://www.bilibili.com/video/BV1w