发布日期:2023-11-15
面壁智能打造首个“大模型+Agent” SaaS级产品ChatDev
主要内容:面壁智能已经推出了基于群体智能和其新一代千亿参数大模型 "CPM-Cricket" 的智能软件开发平台 "面壁智能 ChatDev"。这个平台是行业内首次使用 AI Agents 技术进行群体智能协作的 SaaS 平台产品,能够让软件开发者和创新创业者更高效地完成软件开发工作,并且成本和门槛更低。此外,面壁智能还对其 CPM 系列基座模型进行了升级,使其具有更强的逻辑推理和语言理解能力。根据权威测试,"CPM-Cricket" 在多个方面的能力都超过了 Llama 2,在公考行测和 GMAT 试题上的表现也与 GPT-4 相当。
ChatDev申请试用地址:ChatDev
发布日期:2023-11-14
AI 初创公司 Silo AI 面向欧洲推出开源语言模型“Poro”,涵盖欧盟 24 种语言_腾讯新闻
主要内容:Poro是一个新开源大型语言模型,由Silo AI公司推出,旨在提升欧洲语言多语言人工智能能力,计划覆盖欧盟所有24种官方语言。该模型使用跨语言训练方法,解决为欧洲低资源语言训练性能卓越的核心挑战。Silo AI公司将通过Poro Research Checkpoints计划记录Poro的训练进展,提供模型训练的透明度。
发布日期:2023-11-14
终结扩散模型,IGN单步生成逼真图像!UC伯克利谷歌革新LLM,美剧成灵感来源-腾讯云开发者社区-腾讯云
主要内容:谷歌和UC伯克利提出的IGN是一种自对抗模型,与传统GAN不同,单步生成图像,颠覆了传统生成模型的范式。IGN旨在成为全局映射器,能够将任何输入数据映射到目标数据分布,提高推理效果,显示出在医学图像修复等领域的潜力。虽然IGN的生成结果目前无法与先进模型竞争,但在推理方面更有效,能输出一致性更高的结果,为医学图像修复等应用打开可能性。
论文地址:https://arxiv.org/abs/2311.01462
发布日期:2023-11-14
用意念操控机器人成真!斯坦福李飞飞团队发布机器人方向最新研究成果 - 知乎
主要内容:斯坦福大学领导的一个多学科联合团队研发出了一种通用型的智能BRI系统“NOIR”,能够将人类脑电波中的信号转换为机器人可以执行的技能集,使人类通过大脑信号指挥机器人执行日常活动。该系统适用于所有年龄层,展示了在20种家庭活动中的功能。与现有的专门化脑机接口系统相比,NOIR具有任务多样性和易用性,并具备智能和适应能力。此外,机器人能够在与人类的协作过程中学习人类的意图目标。脑机接口技术与机器人技术的融合正在迅速发展,直接利用神经信号进行交流是最激动人心也是最具挑战性的方式。脑控机器人是其中的一种应用,通过读取人脑中的神经信号,并将其转化为机器人的动作。脑机接口技术在医疗机器人领域也有广泛应用。
论文链接:https://openreview.net/pdf?id=eyykI3UIHa
项目地址:NOIR: Neural Signal Operated Intelligent Robots for Everyday Activities
发布日期:2023-11-14
https://www.science.org/content/article/ai-churns-out-lightning-fast-forecasts-good-weather-agencies
主要内容:谷歌DeepMind的研究团队在《科学》(Science)杂志上发表了一篇论文,介绍了一种名为GraphCast的天气预报模型。该模型能够在一分钟内预测全球0.25°分辨率下10天内的数百个天气变量。在1380个验证目标中,GraphCast在90%的目标上优于欧洲中期天气预报中心(ECMWF)的高分辨率预报(HRES),后者被认为是全球最准确的天气预报模型之一。研究团队还将GraphCast与基于ML的顶级天气预报模型盘古大模型进行了比较,发现GraphCast在252个目标中的99.2%上都表现更佳。
论文地址:https://www.science.org/doi/10.1126/science.adi2336
发布日期:2023-11-14
主要内容:英伟达发布了H200 Tensor Core GPU,这是一款新一代的AI芯片。作为首款搭载HBM3e内存的GPU,H200具有更大的内存容量和更快的速度,为生成式AI和大型语言模型(LLM)的加速提供了强大的性能,并推动了高性能计算(HPC)中的科学计算工作负载。借助HBM3e技术,H200拥有每秒4.8 TB的内存带宽和141GB的内存容量,相较于A100,内存容量翻倍,带宽增加2.4倍。在处理Llama 2等LLM时,H200的推理速度比H100提高了2倍。全球的服务器制造商和云服务提供商预计将在2024年第二季度开始提供搭载H200的系统。首批采用H200的云服务提供商包括CoreWeave、Lambda、Vultr、AWS、谷歌云、微软Azure和甲骨文等。
发布日期:2023-11-14
阿里前副总裁贾扬清吐槽国产大模型“套壳”,李开复公司回应称有借鉴公开成果_零一_万物_训练
主要内容:前阿里巴巴副总裁、知名 AI 框架专家贾扬清昨日在朋友圈发文,感慨做小公司不容易,并希望国内企业如果要使用开源的模型结构,不要做换名伪装,以免小公司做一些多余的适配工作。消息一经传开,一些基于 Llama 框架的国产大模型相继受到质疑。贾扬清也特意留言辟谣称这并非来自他的老东家阿里巴巴。目前还不清楚“大厂”指的是哪些公司,有多种猜测。但被提名最多的怀疑对象是上周发布首款预训练大模型 Yi-34B 的 AI 2.0 公司零一万物。零一万物由李开复创立,成立于今年 7 月,李开复也担任 CEO。该公司开源发布的 Yi-34B 模型目前在Hugging Face 的 Open LLM Leaderboard 开源大语言模型排行榜上排名第一。而就在 8 天前,有人在Hugging Face 社区的 Yi-34B 项目讨论区留言,指出该团队的项目除了两个张量重新命名外,完全使用了Llama 的架构。
发布日期:2023-11-14
零一万物回应大模型争议:尊重开源社区的反馈,将更新代码|实验|插件功能_网易订阅
主要内容:零一万物是李开复旗下的AI企业,他们的开源大模型被指责完全使用了Llama的架构,只对两个张量(Tensor)名称进行修改。对此,零一万物回应道:GPT是一个业内公认的成熟架构,Llama在GPT上做了总结。零一万物研发大模型的结构设计基于GPT成熟结构,并借鉴了行业顶尖水平的公开成果。由于大模型技术发展还在非常初期,与行业主流保持一致的结构,更有利于整体的适配与未来的迭代。同时,零一万物团队对模型和训练的理解做了大量工作,并在持续探索模型结构层面本质上的突破。