摘要:12月14日至17日,第十二届全球软件案例研究峰会(简称TOP100summit)在北京国际会议中心成功举办,亚马逊云科技资深开发者布道师郑予彬、亚马逊云科技解决方案研发中心应用科学家肖宇、可以科技产品负责人曹临杰、亚马逊云科技解决方案架构师莫梓元、PingCAP TiDB Serverless 研发负责人孙晓光、亚马逊云科技资深技术讲师魏星作为《亚马逊云科技 re:Invent re:Cap专场》讲师,在生成式AI方面给予了分享和实践的启发。
?
首先由郑予彬为大家带来了《生成式AI驱动以开发者为中心的AIOps优化》的干货分享。她分别从DevOps的发展和实践、AIOps的机遇和挑战、利用re:Invent 推出的AI新技术全面实现AIOps、AIOps的未来展望等四个方面进行了详述。
亚马逊云科技资深开发者布道师 郑予彬
如今,企业拥有广泛的模型选项来为其生成式 AI 应用程序提供支持。在具体应用场景中,为了在准确性和性能之间取得适当的平衡,企业必须有效地比较模型并根据其首选指标找到最佳选择。对于每个新场景模型,这些通过主观比较所需的时间、专业知识和资源限制了企业对生成式 AI 的使用。
生成式AI技术栈包括三层架构,自下而上有基础设施层、基础模型服务层、AI应用层。最下层的基础设施层有大家熟悉的GPU的使用,还有亚马逊专门为训练和推理自研的芯片,还有其他的一些基础设施。
亚马逊自研的模型Amazon Bedrock 可从 AI21 Labs、Amazon、Anthropic、Cohere、Meta 和 Stability AI 等行业领先的基础模型中选择最适合模型,同时它具备跨组织系统和数据源执行多步骤任务,兼顾安全保障,可以帮助客户使用自动或人工评估来评估、比较和选择适合其特定应用场景的最佳模型。借助Agents for Amazon Bedrock,客户可以提升准确性,加速生成式AI应用程序的开发。
谈到今年re:Invent 在工具方面的更新,郑予彬介绍了可以用于代码核审和观测Amazon CodeWhisperer 和用于优化和提升效率,专为业务量身定制的、生成式人工智能工作助手Amazon Q,它可以解读代码逻辑,还可以帮助开发人员完成日常的软件开发任务。只需点击几下,就能从问题中的一个想法转变为经过完整测试、准备合并、运行的应用代码,并且可以使用自然语言输入。
分享的最后,郑予彬表示,AIOps未来将以通过预测性维护、数据驱动的开发、运维决策支持来改变开发者的工作方式。
亚马逊云科技解决方案研发中心应用科学家肖宇为大家带来了《为扩散模型AI生图打造云上引擎,聚焦业务创新》的精彩话题。
亚马逊云科技解决方案研发中心应用科学家?肖宇
肖宇首先为大家分享了一个案例,客户希望通过引入生成式AI技术,快速扩展现有App的功能,从而实现更多业务创新。为此,尝试采用了Stable Diffusion模型生成风格化图像的功能,以增加App的吸引力和互动性。但遇到了本地算力资源有限,自建成本高 (硬件成本 + 维护成本)、基于开源项目搭建稳定性不够,无法保证业务正常运转、缺乏后端API调用弹性资源的能力,2C业务难开展、很难跟上开源社区功能迭代的速度等挑战。
为了帮助更多企业生图业务落地,亚马逊开发了生图云上的解决方案(将本地的模型调优、推理等工作负载低迁移成本的无感上云;云上CloudFormation模版一键部署;满足UI和API两种调用模式,满足两种用户需求;提供弹性云上资源;提供多用户权限管理和资源隔离)。并通过一个扩展、一个中间件拓展到云上,将SageMaker作为计算平台,通过此方法可以节省80%的部署时间,提升10X工作效率。
然后,肖宇详细的介绍了亚马逊解决方案中包含的核心功能、多用户权限配置、计算资源弹性配置、数据资产管理、底层AI生图框架(支持UI与API直接调用两种方式,灵活多样;支持多用户功能支持客户更便捷搭建内部媒资系统;适合2B/2C多种场景),并通过聚焦业务需求,加速GenAI创新;亚马逊云科技中国峰会GenAI展位“皮影随形”的案例,为大家分享了AI生图的成功实践,希望这些落地实践可以帮助企业更好的加快客户AI 生图业务的前期调研和模型验证的速度、提升客户搭建自有 AI 生图平台和工具的效率、降低客户开展 AI 生图业务的硬件要求、助力客户规范地管理同生成式 AI 业务相关的资产。
紧接着,可以科技产品负责人曹临杰、亚马逊云科技解决方案架构师莫梓元共同为大家带来了《爆款云原生儿童陪伴机器人背后的AI技术揭秘》的主题分享,话题主要围绕初识可以科技爆款云原生儿童陪伴机器人、可以科技智能萌宠产品化过程中遇到的挑战、借助亚马逊云科技产品,可以科技通过AI让机器人自由地表达情感、技术赋能,优化迭代,持续提升产品体验四部分展开。
可以科技产品负责人?曹临杰
亚马逊云科技解决方案架构师 莫梓元
可以科技推出了能够带动用户长期价值,又能让大众消费者接受的Loona产品,它具备五位一体的机器人新品类(人机多元深度交互,流畅灵活的运动,富有“生命感”的 设计,全方位、智能化的感知可拓展的多样化功能)。
在开发Loona项目中,遇到了几个关键挑战,一是机器人的工程设计开发,二是情感交互模型设计开发,三是全球各地市场的布局(安全合规完善、开发运维方便、全球覆盖保障、产品智能化、合作伙伴助力)。结合大模型的对话能力、交互能力以及生成能力,如何能够让Loona去实现风格化对话、情绪理解和丰富功能。亚马逊云科技解决方案架构师莫梓元给出了解决方案,但在这过程中也遇到了诸多技术挑战。
针对这些难题,莫梓元表示,为了让Loona能够听得见,利用基于Alexa技术堆栈的Amazon Lex ,以云原生的方式提供了ASR语音转文本、NLU语义理解能力,并且使用Bedrock生成式AI大语言模型辅助Lex意图快速开发,原生集成无服务器Lambda服务,极大提升了开发人员的效率,在短短一个月内完成了 Loona 对话式交互功能的研发、部署,全球交付;同时Amazon Kinesis Video Streams 支持的 Loona 双向音视频实时通话功能,使得 Loona 除了给人以情感陪伴以外,还具有符合安全隐私标准的远程监控功能;此外还加入了 Amazon Polly 服务完成TTS文本转语音,让机器人不仅“听得懂“,还可以通过自然语言在语音交互中回应用户;未来也将基于亚马逊云科技的大语言模型能力探索更多的智慧萌宠场景。
PingCAP TiDB Serverless 研发负责人孙晓光为大家带来的《TiDB Serverless 的云原生架构进化:从0到2万+集群的极速狂奔》话题火爆全场。
PingCAP TiDB Serverless 研发负责人?孙晓光
随着云原生开发模型的日渐流行,serverless 服务正在成为越来越多开发者技术选型时的第一选择。借助 serverless 服务,在不绑定某种具体技术架构的前提下。用户能够不再关心基础设施,以高投入产出比的状态服务各种场景的多样化工作负载要求。
TiDB Serverless 是 TiDB Cloud 上全面服务化的数据库产品。在正式发布之后短短的 400 天即收获了大量用户,当前正在为超过两万个用户集群持续提供高质量的服务。
TiDB Serverless 用户高速增长背后的一个原因是始终遵循着 serverless 产品目标客户的核心诉求,在产品能力和设计理念上紧跟这个明确客户群体的诉求。得益于 TiDB 过去打下的扎实基础。TiDB Serverless 能够全面兼容 MySQL,让用户继续使用熟悉的技术栈和工具;?具备无缝的弹性,随时应对业务增长和流量激增; 以天然的高可用能力保障业务连续性,提供零停机时间的服务能力;?还可以借助内置的 HTAP 能力助力企业实时洞察业务。在拥有这一切优势的前提下,仍然以按需按量付费的方式极大的降低了用户的使用成本。此外,TiDB Serverless 在商业上还采用了有限免费的策略。这为大量处于起步阶段的创新产品提供了?0 成本的数据库服务,助力更多创新的诞生。
从客户视角看 serverless 的数据库虽然有各种美好。然而,对于服务供应商来说,在线交易数据库的 serverless 化道路却并非一帆风顺。孙晓光提到,Serverless 数据库面临着自动化弹性扩展和冷启动等等挑战。在应对这些挑战中,孙晓光强调,亚马逊云科技的创新领导地位,包括其在弹性资源服务和 serverless 产品上的先进技术,为 TiDB Serverless 提供了坚实的基础。利用亚马逊云科技的产品和服务(如 Amazon EKS 和 Amazon S3),PingCAP 成功重构了云上的 TiDB 架构,使其成为一个真正的 serverless 数据库服务。此外,亚马逊云科技Marketplace 的渠道优势也为 TiDB Serverless 的客户快速增长做出了重要的贡献。
最后,孙晓光认为,serverless 数据库是云原生技术步入下一发展阶段时云产品矩阵的关键组成部分。随着产品的持续迭代和成熟 serverless 数据库将拥有更广泛的应用场景。
亚马逊云科技资深技术讲师魏星分享了《面向业务/技术决策者的生成式 AI 入门》话题,话题围绕生成式人工智能 (AI) 简介:可能性的艺术、规划生成式 AI项目、构建生成式 AI 就绪型企业三方面阐述。
亚马逊云科技资深技术讲师 魏星
魏星对生成式AI和机器学习进行了介绍,对于二者的区别,他表示,“生成式 AI 是深度学习的一个子集,因为它可以调整使用深度学习构建的模型,但无需进行重新训练或微调。而深度学习使用神经元和突触的概念,类似于我们大脑的连接方式。生成式 AI 是一种 AI,可以创建新的内容,包括对话、故事、图像、视频、音乐和代码。”
亚马逊云科技实现生成式AI,主要分四层,最底层是芯片层,一个是称之为加速器的Trainium,以及可以按照浮点数租用芯片的能力的Inferentia,第二层是帮助实现几乎所有机器学习场景的平台级服务SageMaker,第一层是Bedrock。
当下,应用大语言模型商用使用案例包括医护、生命科学、金融服务、制造、零售、媒体和娱乐。但是它也存在法律、社会、隐私问题等风险。接着,他还介绍了与生成式 AI 相关的技术基础知识和术语,规划了生成式 AI 项目(定义范围、选择模型、调整模型、使用模型)。
最后,他介绍到,想要在企业构建大语言模型项目,需要先从文化入手、保证团队成员理解生成式AI、解决就业问题。还要为生成式 AI 的成功定位团队、为生成式 AI 建立监管模型。
本专场论坛在热烈的讨论和意犹未尽中落下帷幕。未来,亚马逊云科技将始终从客户需求出发,持续深耕人工智能和机器学习技术,不断创新重构,致力于为企业提供负责任的 AI 应用,助力企业应对挑战,重塑业务并加速生成式 AI 之旅。