大模型相关术语汇总
1.大模型:具有大规模参数和复杂计算结构的机器学习模型。
2.LLM 大语言模型(large language model ):基于海量文本数据训练的深度学习模型。
3.AGI 通用人工智能(artifical general intelligence):指具有高效的学习和泛化能力、能够根据所处的复杂动态环境自主产生并完成任务的通用人工智能体。
4.prompt:“提示词”,在AI大模型中,Prompt的作用主要是给AI模型提示输入信息的上下文和输入模型的参数信息。
5.RNN:循环神经网络,RNN是一种神经网络模型,它的基本结构是一个循环体,可以处理序列数据,RNN的特点是能够在处理当前输入的同时,记住前面的信息,这种结构使得RNN非常适合用于自然语言处理、语音识别等任务,因为这些任务需要处理具有时序关系的数据。
6.CNN:卷积神经网络,CNN是一种神经网络模型,它的基本结构是由多个卷积层和池化层组成,卷积层可以提取图像中的局部特征,而池化层可以减少特征的数量,提高计算效率。CNN的结构使得它非常适合用于计算机视觉任务,如图像分类、物体检测等。和RNN相比,CNN更擅长处理图像数据。
7.transformer:是一种基于自注意力机制的神经网络模型,他的基本结构是由多个编码器和解码器组成的,编码器可以将输入序列转化为向量表示,而解码器则可以将该向量表示转换回输出序列。
8.BERT(Bidirectional Encoder Representations form Transformners)双向Transformer编码器和预训练微调:是一种基于Transformer的预训练语言模型,它的最大创新是引入了双向Transformer编码器,这使得模型可以同时考虑输入序列的前后上下文信息。BERT通过在大量文本数据上进行预训练,学习到了丰富的语言知识,然后在特定任务上进行微调,如文本分类、情感分析等。
9.GPT 生成式预训练模型 (Generative Pre-trained Models ):是一种基于Transformer的预训练语言模型,它的最大创新之处在于使用了单向Transformer编码器,这使得模型可以更好地捕捉输入序列的上下文信息。通过学习大量文本数据的统计模式,获得对语言的深层理解和生成能力。
10.xxB:在人工智能领域中,提到xxB这样的术语时,通常指模型的参数个数,B是billion的意思,即10亿,如175B代表1750亿个参数。
11.强化学习(Reinforcement Learning)是人工智能的一种学习方法,它通过让算法与环境交互并试图最大化某种奖励信号来学习如何在环境中实现目标。在强化学习过程中,学习主体或智能体(agent)不断从环境中获取状态,采取行动,接收奖励(或惩罚)并调整其策略。通过这种方式,智能体学习如何根据环境状态选择最佳行动以最大化累积奖励。---通过外部获得激励来校正学习方向从而获得一种自适应的学习能力。可用于自动驾驶、游戏、机器人技术、供应链优化、电力系统管理等场景
12.RLHF基于人类反馈的强化学习(Reinforcement Learning from human feedback)构建人类反馈数据集,训练一个激励模型,模仿人类的偏好对结果打分给予激励校正学习方向。RLHF的训练主要分成3个阶段:监督微调(supervised fine-tune, SFT),奖励模型训练,强化学习训练。