👀日报&周刊合集 | 🎡生产力工具与行业应用大全 | 🧡 点赞关注评论拜托啦!
https://www.theverge.com/2023/12/15/24003151/bytedance-china-openai-microsoft-competitor-llm
周末各群讨论的热点话题之一,就是「字节跳动使用OpenAI API研发自家大模型」被海外科技媒体爆了出来。日报梳理了事情发展时间线,并盘一盘业内观点。
补充一份背景:字节跳动 (ByteDance) 是抖音、今日头条、TikTok 等知名应用的母公司,最近几个月陆续推出了飞书 My AI、豆包聊天机器人、Cici聊天机器人等生成式AI应用。
12月15日,海外科技媒体 The Verge 副主编 Alex Heath 发文表示,一些内部文件和 Lark (飞书海外版) 聊天记录表明,字节跳动正在秘密使用 OpenAI 大模型技术「抄近道」,开发自己名为「Project Seed (种子计划)」的基础大语言模型。
内部文件显示,字节跳动在「种子计划」早期阶段使用了 OpenAI API 帮助推进研发进程。几个月前,字节命令停止使用 GPT 生成的文本,不过团队并没有停下,这些行为违反了 OpenAI 和微软「不能用于开发任何形成竞争的AI模型」这一服务条款。
文章发出后被迅速传播。
字节跳动发言人 Jodi Seth 对此回应称,「种子计划」早期使用了 GPT生成的数据进行模型注解,不过年中已经从训练数据中删除了。字节跳动获得了微软的 GPT API 使用许可,用以驱动非中国市场的产品和功能。但豆包基于的是自主研发的大模型,且只在中国提供。
OpenAI 发言人 Niko Felix 随后表示“虽然字节跳动使用的 OpenAI API 很少,但其账户已经被暂停权限并等待进一步调查。一旦发现有不遵守条款的行为,OpenAI 将要求进行必要整改或者将账户完全封掉”(见👆上方链接)。
12月17日,字节跳动相关负责人再度回应称,公司在使用 OpenAI 相关服务时,强调要遵守其使用条款,也正与 OpenAI 联系沟通以澄清外部报道可能引发的误解。
逛了一圈社交媒体和论坛,Alex Heath (The Verge 文章作者) 推特评论区、Reddit讨论贴观点很典型,那就拿来拆解下各方观点。
字节跳动使用 GPT API 做了什么?
不是「套壳」,不是训练,而是标记数据。也就是使用 OpenAI 大模型进行数据标注,然后将其作为小型网络的训练数据。如果 LLM 标注的数据准确度可以达到 90%,那么这个小型网络也可以达到同等准确度,关键这个过程不再需要人工参与标注,也就节省下了庞大的标注人员招募、培训、工作等的费用。
字节跳动这一行为是特例么?
不是。很多AI公司 (尤其是AI初创公司) 和个人开发者都在做类似的事情。在达到同等效果的情况下,调用 OpenAI API 是更便宜的解决方案。
以及,今天有开发者发现,在没有任何前置提示的情况下,谷歌 Gemini 直接表示自己是百度大语言模型「文心一言」,创始人是李彦宏……
「读库」是由张立宪主编的一本综合性人文社科读物,每两月出版一期,内容包括传记、书评、影评、历史事件等非虚构文章。
「读库」出版始于2006年,已经成为很多精英知识分子和爱书族们收藏的「私房书」,具有相当高的品牌认知,而且在从文艺青年聚集且要求苛刻的豆瓣持续拿下超高评分。
前几天,主编张立宪 @读库老六 在回应读者对扉页的赞美时,转发说「24年的扉页都是AI画的」,并在评论里面回复到「我们一直在用,但也应该拿出一定篇幅让大家看看AI可以把活儿干成什么样」。
以「文艺」和「精品」为独特气质的读库,最新一期「2401」的扉页竟然全都是AI绘制的……这让评论区破大防了,失望、批评和攻讦的声音占了绝大多数,只夹杂着零星的肯定和鼓励。
眼尖的读者表示,这张插图里的细节逻辑存在很多问题,比如腿和椅子接触的下半部分,以及远处的房子歪歪扭扭。竟然没有人工参与后期的完善,这种「妥协」更令人难以接受。更有评论尖锐地指出,既然AI帮着省钱了,那为什么不降价……
这件事可以跟前段时间闹得沸沸扬扬的「春晚吉祥物龙辰辰」事件对照着看。春晚发布今年的吉祥物后,被网友发现了明显的AI生成痕迹,比如爪子、面部光影、龙鳞处理等等。
春晚的微博小编对此进行了否认,并放出了部分原始物料录屏,结果被扒出更多「猫腻」,比如文件过小、甚至有抄袭博主往年作品的嫌疑。
各平台的绘画专业博主不断出来科普,基本坐实了这个吉祥物是由AI生成的,且没有经过细致的后期加工就匆匆发布了。大家对此的反应是:AI生成怎么了,承认了也不会怎么样……
对比两件事的网友反应,可见我们其实处在一个对AI态度非常割裂的时期,想有所坚持又明知无法抗拒,看着眼前的「AI预制菜」,不知道从何处下筷
补充一份背景:Channel 1 是一家美国AI初创企业,成立于 2023 年,由制片人兼导演 Scott Zabielski 和技术企业家 Adam Mosam 创立,目前有大约 11 名员工。
最近比较「炸裂」的一条消息是,美国初创公司 Channel 1 宣布推出 AI 主播 7x24 小时不间断播新闻,并在官网放出了一段 20 分钟的效果视频。
视频里出镜的主播形象各异、个性鲜明、发音流畅、嘴唇动作和面部表情严丝合缝,甚至还可以一秒钟切换语种!然而这些主播全!都!不!是!真人! 可想而知,传统新闻媒体从业者,受到了多大的震撼。
虽然 Channel 1 表示会确保新闻源值得信赖,并且会对使用AI生成的画面进行标注,但是公众依然对其安全性保持怀疑。Channel 1 的创始人对此倒是比较乐观,他表示当Channel 1 成为新闻频道里的 TikTok,为每名用户量身推荐新闻内容时,大家会对「假新闻」有新的定义。
Channel 1 的AI 新闻节目将于2024年2月份上线 X 等流媒体服务平台,也会同步在 FAST 和其他传统平台推出,届时每天产出的AI新闻片段将多达 500~1000个。
https://research.runwayml.com/introducing-general-world-models
补充一份介绍:Runway 是全球备受关注的AI一家人工智能公司,专注于图片、音频和视频编辑领域,广为人知的「文本生成视频」产品 Gen-1 和 Gen-2 就是 Runway 公司的核心产品。
12月11日,Runway 官网宣布将围绕通用世界模型 (General World Models) 开展长期研究,目标是表现并模拟与现实世界中一致的广泛互动,相信AI的下一个重大进步将来自理解视觉世界及其动态的系统。
Runway称,当前 Gen-2 等视频生成系统可以看作是非常早期的通用世界模型,对物理和运动有一定的了解,但在处理复杂的摄像机或物体运动等问题上仍有困难。
为了建立通用的世界模型,Runway 正在进行几项公开的研究,包括生成环境地图、在环境中导航和交互、捕捉世界和世界中居民的动态、建立逼真的人类行为模型等。
Runway 已经建立了专门的团队来应对这些挑战。感兴趣加入可以戳 👆 上方链接了解更多~
补充一份背景:原告李某使用AI生成涉案图片后发布于小红书平台;被告刘某在百家号发文配图时使用了原告该AI生成的图片,并截掉了署名水印。原告起诉要求被告道歉并进行经济赔偿。
案件经历了四次开庭审理,最后一次进行了公开直播,吸引了17万网友围观 (庭审录播见👆上方链接)。
北京互联网法院对这个AI绘画图片著作权侵权纠纷作出一审判决:涉案AI绘画图片具备「独创性」要件,受到著作权法保护,被告就被诉侵权行为向原告赔偿经济损失 500 元,并在平台创作账号向原告道歉以消除影响 ? 点击这里查看完整版判决书
这个案件的原告李昀锴,上周接受了「头号AI玩家」的深度采访,聊了聊这个案件背后的准备过程、主要争议,以及带来的行业影响。
这篇采访非常值得一读,李昀锴本人是一名律师和新媒体人,他的分享带来了创作者视角和原告视角的丰富细节,也带领我们思考「如何判断AI生成内容的独创性」「维权操作的详细过程」「案件对整个AI行业带来的积极或消极影响」? 推荐阅读采访原文
补充一份背景:Trik是小红书在今年4月推出的AI绘画产品;7月开始限时内测,号称专注于中国风图像创作;8月被平台画师发现未经同意使用了自己上传的画作进行了AI模型训练。
随后,@正版青团子、@画画的云淡风轻 多名画师决定维权,把国内滥用AI技术的公司第一次推向了被告席。案件的最新进展是,北京互联网法院已立案,相关的四则案件为AIGC训练数据集侵权首批案件。
画师们表示,已经约定好不接受任何调解和封口费,一定要让这个案子白纸黑字留在判决书上,成为以后AI绘图侵权维权时的案例参考。
可以 Follow 👆上方链接,关注博主 @正版青团子 获知此案件的最新进展~
https://platform.openai.com/docs/guides/production-best-practices
OpenAI 继「Prompt engineering」后又出新教程了!作为最了解大模型和用户的团队 (没有之一),官方的教程有非常多「精华」值得认真研读~
这份「Production best practices」教程全面介绍了如何将产品原型发布到生产环境,并提供了最佳案例。不论你是资深的机器学习工程师还是刚入门的技术爱好者,都能在这份教程里找到实用的各类工具和技能。
- 设置你的组织 / Setting up your organization
了解组织设置、组织名称和组织ID
学会管理计费限制和使用API密钥
了解分阶段账户的概念,以便在开发和生产环境之间进行有效分离
- 扩展您的解决方案架构 / Scaling your solution
考虑水平扩展 (增加服务器或容器数量) 和垂直扩展 (提升单个节点的资源) 以应对流量增长
使用缓存技术 (如数据库、文件系统或内存缓存) 提高响应速度
采用负载均衡技术 (如负载均衡器或DNS轮询) 确保请求在服务器间均匀分配
- 管理请求限制 / Managing rate limits
- 了解并规划好请求限制,以便在实际使用中避免问题
- 降低延迟 / Improving latencies
延迟主要受模型选择和生成Token数量的影响
改善延迟的方法包括:减少最大Token数、使用停止序列、减少生成的补全数量、使用流式处理、优化基础设施和批处理
- 成本管理 / Managing costs
根据使用量付费,关注Token使用量以有效监控支出
降低成本的方法包括:使用较小的模型、减少所需的Token数量、使用更简短的提示和模型微调
- MLOps策略 / MLOps strategy
- 制定数据与模型管理、模型监控、模型重训练和模型部署等方面的策略
- 安全与合规 / Security and compliance
遵循安全操作最佳实践,确保应用程序的安全性
了解商业考量,确保AI项目与企业核心业务紧密相连
补充一份背景:Mistral AI 是欧洲最强模型团队,核心成员是来自 DeepMind 和 Meta 的三位年轻大佬。公司成立后不久就成功推出 Mistral-7B 开源模型,近期推出的 Mixtral-8x7B-MoE 开源模型更是凭借超强性能吸引了全世界的目光。
为什么 Mixtral-8x7B 的模型性能这么强呢?因为它用到了 Mixture of Experts (MoE) 技术,中文将其翻译为「混合专家」。
大多数报道将其描述得神乎其神,混杂着论文、术语和翻译腔,实在是难看懂。
逛B站时发现 @良睦路程序员 更新了,讲的正好是近期很火的 MoE,内容包括:MoE的网络架构细节、MoE是否具备彻底颠覆LLaMa的潜力、MoE 与传统 LLaMa 架构的区别是什么……
那就非常值得看一看了~ 跟着 UP 主用30分钟的时间,对 MoE 一探究竟!! (莫慌,UP可以把很技术的内容讲成大!白!话!
为了帮助大家理解 MoE (Mixture of Experts) 的工作原理,@良睦路程序员 举了一个非常生活化的例子:将「Expert」理解成「工具」,8个 MoE 就像我们吃饭时的8个工具,比如锅铲、筷子、叉子、剪刀、手……
在吃手撕羊肉时,想吃爽的话首选的2个工具是「手」和「叉子」;而喝汤的时候,最合适的2个工具就变成了「勺子」「筷子」。
这其实就对应着 MoE 的调度机制:在不同的维度里,从8个 MoE 里选择最合适的2个,然后把二者输出的权重相加,然后无限次重复。这样解释就可以轻松理解上方这张原理图了,更多讲解细节请看原视频吧!
虽然是对着源码直接讲,但UP的视频对于「非技术」背景的同学也非常友好,有很多奇妙的比喻和关键知识点的总结~
ShowMeAI知识星球资源编码:R201
扫描上方二维码,前往星球下载完整版报告
泛函是一位非常活跃的 AIGC 内容创作者,在「即刻」社区有很多热门帖。他最近制作了一套幻灯片「高效能内容创作者-全链路AI解决方案」,用整整101页PPT来总结自己的思考理解和摸索心得。
日报整理了内容框架和关键内容页面,整份报告非常值得拿出15分钟的时间看一看,小技巧、小工具、小套路总结得都非常到位~
这是目录页,整份报告围绕「已有业务的产能提升 - 开辟新的业务方向」「个人场景效能提升 - 协作场景效能提升」两个维度,拆成了四个板块:
从0到1策划新的内容栏目 - 工作流拆解
用已有内容资产获取新媒介的品牌增量 - 内容流转系统
内容创作全流程效能提升 - 结构化内容创作
内容资产全链路沉淀与管理 - 利用私有笔记增强文本模型的输出能力
感谢贡献一手资讯、资料与使用体验的 ShowMeAI 社区同学们!
? 点击 👀日报&周刊合集,订阅话题 #ShowMeAI日报,一览AI领域发展前沿,抓住最新发展机会!
? 点击 🎡生产力工具与行业应用大全,一起在信息浪潮里扑腾起来吧!