数据正以前所未有的速度重塑产业新格局,驱动经济发展新方向。12月22-24日,备受瞩目的第十七届中国大数据技术大会在广州盛大举办。大会围绕“大数据、算力、大模型”举办1场主论坛和18场分论坛,覆盖基础大模型、多模态大模型、司法大模型、开源云计算、AI for Science、智慧城市、大数据与算力基础设施等时下最受关注的技术议题,融合政产学研用各方力量,促进技术创新与产业融合。
在开源云计算分论坛中,九州未来联合创始人章津楠发表《大模型时代下的开源AI基础设施》主题分享。
章津楠谈到,在这个竞争激烈的时代,特别是在ChatGPT的推动下,国内已形成“百模大战”局面。开源大模型可以预见的将应用越来越广泛,如何使用好开源大模型及其生态中开源项目的重要性日益凸显。企业在百模大战中如何有效管理和治理开源基础设施?通过开源软件构建大模型时代的底层基础设施面临的机遇和挑战?这些都是值得进一步关注、探讨的问题。
以大模型、生成式AI为发展里程碑的技术革新,促进智能算力爆发式增长并加速迈入全面应用时代,需要全新的基础设施来实现更好地支撑,而开源在生成式AI基础设施中将起到重要作用。
九州未来凭借多年的技术积累、实践沉淀以及开源优势,打造开放、异构、一站式的“软件+硬件+服务”一体化AIGC解决方案,深度集成NVIDIA AI Enterprise,以大模型为基础、轻量化微调的MaaS服务作为核心服务之一,整合多种开源大模型(如ChatGLM、LLaMA)和行业大模型(如白玉兰科学大模型),使用相关行业数据进行微调或知识检索能力的导入,再通过Tensorrt-LLM+Triton作为推理套件的推理优化后,帮助用户快速且低成本训练出更加适应特定行业和场景需求的大模型。
九州未来MaaS服务以操作简单、界面简洁为特色,仅需三个步骤,即可开启模型训练,在线体验模型效果。点击进入某模型的详情页,即可与大语言模型进行丝滑交互。对于选择好基础模型的用户,提供全流程的向导式服务,训练过程中的训练数据实时可查,用户可轻松基于数据集、使用最好的超参数完成微调任务,帮助用户加速AI应用部署周期,降低大模型服务的多方面成本。
九州未来将持续发挥自身优势,携手合作伙伴打造有利于人工智能创新发展的开源生态,为企业客户提供算力及基础设施服务,共同推进生成式AI与各行业的深度融合、规模化落地。