大模型技术栈全览
发布时间:2024年01月21日
?幕布地址:https://www.mubu.com/doc/48pGz9X_0Lb
- 第一部分:算法与原理
- 第一章 概览与前置任务
- tokenizer训练
- tokenizer原理与算法:BPE,ByteBPE,wordpiece,unilm,sentence-piece
- tokenizer训练:sentence-piece
- 注意力机制与transformer架构
- 其他注意力机制
- Mamba,H3,Hyena,RetNet,RWKV,Linear attention,Sparse attention
- 第二章 训练
- 分布式并行训练技术
- 模型并行
- pipeline parellelism
- GPipe,1F1B,interleaved 1F1B
- 上下文扩展技术
- streaming-llm(Streaming LLM那个保留开头几个token的思想,印象中hansong在他MIT公开课讲大模型剪枝时提到了他们研究的一篇论文,大意就是开头几个token注意力权重始终很高,保留了一些全局重要信息;随着序列推理长度增加,保留开头和当前时间步近处的token,剪枝掉中间也能保住模型性能)
- 第三章 推理
- 调度优化技术
- continuous/interative-level batching
- 采样及解码加速
- blockwise parallel decoding
- 算子融合及其他优化:no padding,高性能算子...
- 第四章 应用
- RAG
- RAG的基本组件
- 向量数据库
- 索引:NSW,NSG,HNSW,DiskAnn,LSH,IVF
- 第二部分:框架
- 训练框架
- trlx,deepspeed-chat,colossal-chat
- 推理加速框架
- text-generation-inference
- TensorRT-LLM(原FasterTransformer)
- 应用框架
- Autogen
- AutoGen 是一个支持使用多个代理来开发 LLM 应用程序的框架,这些代理可以相互对话来解决任务。 AutoGen 代理是可定制的、可对话的,并且无缝地允许人类参与。 他们可以采用LLM、人力投入和工具组合的各种模式运作。
- chameleon
- Chameleon的核心在于通过LLM规划器生成自然语言程序,找到最佳工具组合,以达到精确推理的目的。该框架在科学问答任务和表格数学推理任务上表现卓越,特别是在表格数学推理任务上,准确率达到了惊人的98.78%。其工具箱支持LLM模型、视觉模型、网络搜索引擎、Python函数以及基于规则的模块,实现了多种工具之间的自然语言通信。相较于现有工作,Chameleon模型允许以类似自然语言的方式生成不同工具的调用组合,无需复杂的程序设计,增加了用户友好性。
- 第三部分:开源模型
文章来源:https://blog.csdn.net/lichunericli/article/details/135648980
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。
如若内容造成侵权/违法违规/事实不符,请联系我的编程经验分享网邮箱:chenni525@qq.com进行投诉反馈,一经查实,立即删除!