04. BI - LightGBM vs CatBoost,具体实现分析

发布时间:2024年01月10日

本文专辑: 茶桁的 AI 秘籍 - BI 篇

茶桁的AI秘籍 核心BI 04


Hi,你好。我是茶桁。

那今天我们是来讲解另外两个Boosting的工具,首先是微软出品的LightGBM。

LightGBM

LightGBM 是微软提出来的, 是属于XGBoost的升级版,也曾经是Kaggle里面使用模型最多的机器学习的神器。当然,目前LightGBM 之外,BERT以及GPT都越来越受关注,但是LightGBM 这么久了,依然还是占据一席之地,依然还是某些性质及任务要求下的首选。

Light的概念就是轻和快,GBM 全称为 Gradient Boosting Machine,这个GBM就把它理解成就是GBDT,所以它其实就是轻量级的GBDT,而且是升级版本。所以我们看一看,它到底做了哪些轻量级的一些操作。

常用的机器学习算法,例如神经网络等算法,都可以以mini-batch的方式训练,训练数据的大小不会受到内存限制。

GBDT 在每一次迭代的时候,都需要遍历整个训练数据多次。如果把整个训练数据装进内存则会限制训练数据的大小,如果不装进内存,反复地读写训练数据又会消耗非常大的时间。对于工业级海量的数据,普通的 GBDT 算法是不能满足其需求的。

LightGBM 的提出是为了解决 GBDT 在海量数据遇到的问题,让 GBDT 可以更好更快地用于工业场景。

我们看整个的例子,先让大家有个直观的感受。

我找了四个数据集,然后用 XGBoost, XGBoost_approx 以及 LightGBM 来做一个比较. 其中 XGBoost_approx 是2016年左右提出来的 XGBoost 的近似版.

20231118000026

一共做了两种对比,一种对比是它的内存消耗,看谁的内存占用更小。可以看到 LightGBM 明显比 XGBoost 的内存会更小一点。同样的数据集只有大约 1/6 左右。

指标除了内存以外还是要关注一下评价结果,结果上LightGBM 和XGBoost差别并不大,甚至有些情况下还会更好。所以在结果差别不大的情况下,内存只有原来的1/6.

除此之外,训练速度上还做了一个对比

在这里插入图片描述

这里seconds代表的是时长,这四种训练集里面,XGBoost的2016版比原来2014版速度要快,因为它是近似方法,还记得上节课说的直方图吧?LightGBM 明显还比它所有的这些版本都要快,大概快了有1/10。

所以我们用了 1/10 的速度,用了 1/6 的内存,得到了一个还不错的结果,这两个模型也比较相当。这两个模型还可以帮我们来自动处理一些特征的确认值,XGBoost是不支持类别特征的,而LightGBM 支持类别特征。

那么问题来了, 为什么 LightGBM 会更快呢?

让我们稍微拆解了一下模型复杂度的流程

模型复杂度 = 树的棵数 × 每颗树的叶子数量 × 每片叶子生成复杂度 模型复杂度 = 树的棵数 \times 每颗树的叶子数量 \times 每片叶子生成复杂度 模型复杂度=树的棵数×每颗树的叶子数量×每片叶子生成复杂度

树的个数越多就会越复杂,每棵树的叶子的数量越多应该也越复杂。然后再乘上每个叶子节点的生成的复杂度,这个生成的复杂度又会等于特征数量乘上候选的分裂点的数量以及样本的数量。

LightGBM 看到的这样的一个特点,就想要从这三个维度做一些简化。

第一个简化,减少分裂点的数量。采用 Histogram 算法。

这个其实跟 2016 年的版本是完全一致的。采用了直方图的方式先减少分类节点数量。

然后第二个,GOSS 算法。

这个方法基于梯度的单边采样算法,减少了样本的数量。

还记得上节课咱们使用 XGBoost 时给大家讲的 subsample 吗?XGBoost 里面用的是 0.5,比如原来是有 1 万个样本就用 50%,也就是说只用了 5,000 个样本来进行训练。如果是随机的选择 5,000 个样本来做训练,对于精度来说是有损失的。目的是希望更快,但是会损失一定的进度。

第三, EFB 算法。

它使用互斥特征捆绑算法,减少特征的数量。原来有100个特征,现在随机抽取80个特征,对精度也是有一定损失。

XGBoost的预排序( pre-sorted )算法是将样本按照特征取值排序,然后从全部特征取值中找到最优的分裂点位。预排序算法的侯选分裂点数量 = 样本特征不同取值个数减1。

20231118133706

这是一个排序的方法,我们可以按照切分的方式来进行一个顺序的切分。原来的切分的方式每一个地方都可以进行切分,而现在分成了三个桶,就只有两种切分的方法, 如下:

20231118134058

这样每一个桶就当成了一个整体和一个集合,相对来说,分裂节点的数量就减少了。这种方式其实就是 Histogram 算法,2016年的XGBoost就是采用的这种算法。这种方式替代了XGBoost原先的 pre-sorted 算法。

因为做了合并,原来是三个样本的gi, 现在变成了一个GiGi是求和,这里的Gi就把三个里面一阶导数的梯度做为个累加,就等于0.1Hi二阶梯度相加就等于0.29。这样就是第一个桶的一个特征,合并以后 Histogram 变成了三个样本。整体的一阶导数是0.1,二阶导数是0.29,以它来完成运算。

第二个桶也有三个样本,一阶的导数之和是0.79,二阶导数之和是0.12。第三个桶是两个样本,一阶和二阶导数分别是0.670.06

那么未来做分割的时候,我们就只要在这个基础上来做分割就好了。因为它前面已经合并成了一个整体,这种方式候选的节点的数量变成了 桶的个数-1 ,也就是k-1

它的思想就是连续的浮点特征值离散化成k个整数,同时构造一个宽度为k的直方图,即将连续特征值离散化到kbins上。当遍历一次数据后,直方图累积了需要的统计量,然后根据直方图的离散值,遍历寻找最优的分割点。

XGBoost是需要遍历所有离散化的值,LightGBM 就只需要遍历k个直方图的值。其侯选分裂点数量就等于k-1

除了这种方法以外,LightGBM 还有两种优化策略。GOSS 算法的全称是Gradient-based One-Side Sampling, 基于梯度的单边采样算法。

在这里插入图片描述

刚才是用 subsample ,XGBoost里面专门有一个参数,可以把它设成0.5,也就是50%,它会有精度的下降,会有损失。

那我们现在来思考一个问题,样本的梯度是大好还是小好呢?我们在机器学习过程中是通过什么来去更新我们的参数?

机器学习有一种方式叫做梯度下降,梯度下降证明了你学习的方向。如果方向梯度越大,就代表我学习方向越明确。如果梯度已经变成了0.00001,就不好学习到内容。所以对于样本的梯度来说,其实希望它大一点好,可以持续降低。梯度越大就证明学习方向是非常明确的,更容易学到内容。

GOSS 方法它想到,之前 50% 随机采样,舍弃了 50%,如果舍弃的是那些梯度比较大的样本在精度上更容易有损失。所以GOSS 就希望先保留那些梯度大的样本,给它设了一个阈值。比如说图例中阈值设为 0.1,梯度大于0.1我们就全部保留,因为这些样本它是属于好的样本。

好样本的梯度怎么理解?

20231118145053

我们来看这张图,红色的点是一个样本点。我们的样本在这里,预测出来的值是 y ′ y' y,实际值是 y y y。所以它们之间是有一个方向, y y y y ′ y' y 之间有个方向。用 MSE 的话,我们都知道 M E S = ( y ′ ? y ) 2 MES = (y' - y)^2 MES=(y?y)2,所以它的梯度就代表了是我要学习下降的一个方向。如果方向越明显其实就更容易去前进,我们再看绿色的点 2,其实在后面已经不容易学到内容了。点 1 明显梯度会更大一点。

回到上面那张数据的图上,67 的的gi一个是0.7, 一个是0.6,都大于0.1,所以这两个是必须要留下来,因为它还没有学好。剩下的小于0.1的样本,我们就保留了 1/3。这是一个随机性的,假设现在选中的是24这两个。因为8减去67之后还剩下六个样本,六个样本里面的 1/3,就是保留两个,我们随机保留了 24

最后结果是我们也保留了 50% 的样本进行采样,但是这 50% 是使用了 GOSS 算法计算之后的结果。

前面的直方图我们是已经计算好了的,所以有三个bin。对于第一个bin的计算, 做了1/3的采样, 选中的2。可以想成是人大代表,代表3个人。因为是从3个人里面选举出来的这一个人作为代表,这也是3个人的情况。

那么对于第一个桶来说,里面只抽出来了样本 22 是一个代表,所以它相当于是 1 × 3 1 \times 3 1×3,3个样本。样本 2gi原来是 0.03 0.03 0.03,它的代表相当于是 0.03 × 3 0.03 \times 3 0.03×3hi0.04,同理就是 0.04 × 3 = 0.12 0.04 \times 3 = 0.12 0.04×3=0.12

那对于第二个桶,是一样的计算方法。6 是全部保留,4 代表了3个,所以是 1 × 3 1 \times 3 1×3 个,那就是 1 + 1 × 3 1+1\times 3 1+1×3Gi 就是 6 加上 43, 那就是 0.7 + 0.05 × 3 = 0.85 0.7 + 0.05 \times 3 = 0.85 0.7+0.05×3=0.85Hi 也是一样的算法, 0.02 + 0.02 × 3 = 0.08 0.02+0.02 \times 3 = 0.08 0.02+0.02×3=0.08

那最后一个桶,bin3 里也是这么计算得来的。

GOSS 算法的思想是通过样本采样,减少目标函数增益 Gain 的计算复杂度。单边采样,只对梯度绝对值较小的样本按照一定比例进行采样,而保留了梯度绝对值较大的样本。因为目标函数增益主要来自于梯度绝对值较大的样本 => GOSS 算法在性能和精度之间进行了很好的权衡。

那最后,LightGBM 内还包含了一个 EFB 算法。刚才咱们的采样可以理解为行采样,就是从10,000个样本减到5,000个采样, EFB 是列采样。 EFB 其实是互斥特征绑定法,Exclusive Feature Bunding

机器学习过程中,有的时候会用 one-hot 编码把类别特征转化成为 0-1 特征。 one-hot 就是将你要的特征变为 1,其它变为0。比如说,在一个星期中,我要星期三,那么这组特征就会变成 0010000

如果用了 one-hot 编码会出现大量稀疏特征。什么叫稀疏,0 代表没有,大量为 0 的叫稀疏。这个过程放眼望去肯定是 0 多,0 代表空,1 代表有价值有数据,所以它是大量的稀疏特征。

EFB 就发现了这样的一个逻辑:XGBoost有很多人提前做了 one-hot 编码,就会有大量稀疏特征。那能不能把这个大量稀疏特征给它合并到一起?这也就是 EFB 的思想。特征中包含大量稀疏特征的时候,减少构建直方图的特征数量,从而降低计算复杂度。

20231120160537

比如说第一个 feature0 这个代表为空没有含义,12 有10个值,这是有价值的。

第二个特征也是一个稀疏特征,有95个是没有的意义,只有 12 是有价值的。

那作者就想到,能不能把 12 这两个特征合并成一个新的特征,叫 feature 1'。怎么合并?首先 feature 1 里的 12 依然把它作为 12feature 2 里的 12feature 1 里的 12 不是一个概念,所以我们要把它做一个新的编码,把它称为 34 。这里的 3 对应出来是原来 feature 2 里的 14 对应的是 feature 2 里的 2

原来 feature 1 里面是有100个特征的,现在增加了 34 ,一个是4个,一个是1个,所以匀了5个特征给后面补进来的部分,整个特征数是不能变的,所以最前面的 0 特征,就从90个里面减去了5个,变成了 90 ? 5 = 85 90-5 = 85 90?5=85个。这样就把两个特征列合二为一变成一个新的特征列,而且精度没有损失,因为把原来的做成一个等价的还原。

如果用 EFB 方法把两个特征捆绑到一起合成一个新的特征,这个特征没有损失,是可以完全唯一的还原。因为它能发现有大量 one-hot 稀疏特征很容易进行合并,合并之后就可以让特征的数量大大减少,就不需要用刚才说的设置 100 自动的抽 80 列,那样其实信息是有损失的,但是 EFB 不会有损失。

LightGBM的使用

LightGBM的用法也是从引入包开始import lightgbm as lgb,其参数也基本上差不多,我们来看下:

  • boosting_type,训练方式,gbdt
  • objective,目标函数,可以是binary,regression
  • metric,评估指标,可以选择auc, mae,mse,binary_logloss, multi_logloss
  • max_depth,树的最大深度,当模型过拟合时,可以降低max_depth
  • min_data_in_leaf,叶子节点最小记录数,默认20
  • lambda,正则化项,范围为0~1
  • min_gain_to_split,描述分裂的最小 gain,控制树的有用的分裂
  • max_cat_group,在 group 边界上找到分割点,当类别数量很多时,找分割点很容易过拟合时
  • num_boost_round,迭代次数,通常 100+
  • num_leaves,默认 31
  • device,指定cpu 或者 gpu
  • max_bin,表示 feature 将存入的 bin 的最大数量
  • categorical_feature,如果 categorical_features = 0,1,2, 则列 0,1,2是 categorical 变量
  • ignore_column,与 categorical_features 类似,只不过不是将特定的列视为categorical,而是完全忽略

Bagging参数:bagging_fraction + bagging_freq(需要同时设置)

  • bagging_fraction,每次迭代时用的数据比例,用于加快训练速 度和减小过拟合
  • bagging_freq:bagging的次数。默认为0,表示禁用bagging,非零值表示执行k次bagging,可以设置为3-5
  • feature_fraction,设置在每次迭代中使用特征的比例,例如为0.8时,意味着在每次迭代中随机选择80%的参数来建树
  • early_stopping_round,如果一次验证数据的一个度量在最近的 round中没有提高,模型将停止训练

那我们比较常见的参数配置如下:

params = {
    'boosting_type': 'gbdt',
    'objective': 'binary', 
    'eta': 0.01,
    'max_depth': 15,
    'num_leaves': 31,  # 根据需要调整
    'colsample_bytree': 0.8,
    'subsample': 0.9,
    'subsample_freq': 8,
    'alpha': 0.6,
    'lambda': 0,
    'device_type': 'cpu', # 我是M1电脑,所以使用的是CPU
}

现在咱们还是用之前员工离职预测的来做一个代码示例,在进行模型训练的时候,这里有一个和 XGBoost 类似的地方,之前 XGBoost 用的是自己的数据结构DMatrix,在 LightGBM 里也有一个 Dataset,也是几乎一样的用法,除了用官方的Dataset 方式进行封装之外,训练的时候要用 train 来进行训练, 那这是一个官方的版本,不过我们这里用 sklearn 提供的版本来使用。为什么要用它而不是官方版本,这是因为sklearn 的参数名称都比较统一,比如说我们的机器学习里面有个参数都叫 n_estimators, 而官方的 XGBoost 和LightGBM 都称作 num_boost_round。为了和其他机器学习方式统一避免麻烦,所以我建议大家还是使用 sklearn 里的方式来使用。

那我们这次为了看 LightGBM 的实际效果,还是使用官方的方法:

trn_data = lgb.Dataset(X_train, label=y_train)
val_data = lgb.Dataset(X_valid, label=y_valid)

model = lgb.train(params, trn_data, num_boost_round=100, valid_sets=[val_data], feature_name='auto', categorical_feature='auto', keep_training_booster=False)

---
[LightGBM] [Info] Number of positive: 153, number of negative: 787
[LightGBM] [Info] Total Bins 1128
[LightGBM] [Info] Number of data points in the train set: 940, number of used features: 30
[LightGBM] [Info] [binary:BoostFromScore]: pavg=0.162766 -> initscore=-1.637790
[LightGBM] [Info] Start training from score -1.637790

训练好之后,来看看结果:

# 使用训练好的模型进行预测
y_pred = model.predict(X_valid, num_iteration=model.best_iteration)

# 将概率值转换为类别标签
threshold = 0.5  # 设置阈值
y_pred_binary = np.where(y_pred > threshold, 1, 0)

# 计算准确率
accuracy = accuracy_score(y_valid, y_pred_binary)
print(f"准确率:{accuracy}")

---
准确率:0.864406779661017

20231120221520

CatBoost

后面还有一种方法叫 CatBoost。https://arxiv.org/pdf/1706.09516.pdf

这个方法只要知道它的一个大概使用情况就好。cat 不是猫,应该叫做 catgorical,就是分类的概念。所以它是专门针对分类特征多的情况下提出来的 boosting 的算法。这个方法不一定效果好,但是它有可能对于分类特征多的数据集有奇效,所以你可以把这个方法作为一个备选,也可以尝试着去用一用,尤其是分类特征比较多的情况。

这里有一个数据集,是 kaggle 上的一个数据集。2015 年航班延误数据,包含分类和数值变量:https://www.kaggle.com/usdot/fight-delays/data。这个数据集大约有 500 万条记录,使用 10% 的数据,即 50 万条记录。

在这里插入图片描述

这里有 XGBoost,LightGBM 和 CatBoost, 我们可以看一下大家可以看一看,XGBoost 和 LightGBM 训练集非常好,但是测试集差很多,这种我们都知道,就是过拟合了。

但是 CatBoost 对于这个航班延误的数据集的训练结果是 84%、88%,测试结果跟它相差不是很大,相比于 XGBoost 和 LightGBM 来说,CatBoost 的过拟合程度是最小的,这是它的特点。此外时间最快是 LightGBM,其次是 CatBoost,最后是 XGBoost。

在这里插入图片描述

这三种模型我们还对比了一下精度,还是来先看训练时间,最快的依然是 Light, Cat 次之,最慢的依然是 XGBoost。那从训练的精度上来看,XGBoost 和 LightGBM 差不多,但是 Cat 稍微差一点。不过不要认为 CatBoost 就不行,就如之前说的,在一些特殊的分类特征更多的情况下,CatBoost 的表现反而是最好的那一个,当然,80%以上的情况下,它的效果都会较差一点。

CatBoost 的使用

CatBoost 工具的 Github 地址: https://github.com/catboost/catboost,还有 https://catboost.ai/en/docs/

我们还是可以直接调包去使用,它的模型包跟前面的模型包基本上差别也不是很大。

构造函数:

  • learning_rate,学习率
  • depth, 树的深度
  • l2_leaf_reg,L2正则化系数
  • n_estimators,树的最大数量,即迭代次数
  • one_hot_max_size,one-hot编码最大规模,默认值根据数据和训练环境的不同而不同
  • loss_function ,损失函数,包括Logloss,RMSE,MAE,CrossEntropy,回归任务默认RMSE,分类任务默认Logloss
  • eval_metric,优化目标,包括RMSE,Logloss,MAE,CrossEntropy,Recall,Precision,F1,Accuracy,AUC,R2

fit函数参数:

  • X,输入数据数据类型可以是:list; pandas.DataFrame; pandas.Series
  • y=None
  • cat_features=None,用于处理分类特征
  • sample_weight=None,输入数据的样本权重
  • logging_level=None,控制是否输出日志信息,或者其他信息
  • plot=False,训练过程中,绘制,度量值,所用时间等
  • eval_set=None,验证集合,数据类型list(X, y)tuples
  • baseline=None
  • use_best_model=None
  • verbose=None

那对于员工离职预测这个问题,我做了一版,大家可以看我下面的代码自己进行尝试:

model = cb.CatBoostClassifier(
    iterations=1000, 
    depth=7, 
    learning_rate=0.01, 
    loss_function='Logloss', 
    eval_metric='AUC',
    logging_level='Verbose', 
    metric_period=50
)

# 得到分类特征的列号
categorical_features_indices = []
for i in range(len(X_train.columns)):
    if X_train.columns.values[i] in attr:
        categorical_features_indices.append(i)
print(categorical_features_indices)

---
[0, 1, 3, 5, 6, 9, 13, 15, 19, 20]

然后:

model.fit(X_train, y_train, eval_set=(X_valid, y_valid), cat_features=categorical_features_indices)

---
0:	test: 0.6390374	best: 0.6390374 (0)	total: 58.3ms	remaining: 58.2s
...
999:	test: 0.8101059	best: 0.8123977 (700)	total: 2.9s	remaining: 0us

bestTest = 0.8123976863
bestIteration = 700

Shrink model to first 701 iterations.

好,那到这里,关于 Boosting 的几种工具就都给大家介绍完了,来简单总结一下,这三种工具,LightGBM 效率是最高的,在 Kaggle 比赛中应用多, CatBoost 对于分类特征多的数据,可以高效的处理,过拟合程度小,效果好。XGBoost,LightGBM 和 CatBoost 的参数都比较多,调参需要花大量时间。 Boosting 集成学习包括了AdaBoosting 和 Gradient Boosting, 那 Boosting 就只是集成学习中的一种,还有 Bagging 和 Stacking。

最后留一些问题啊给大家去思考一下,那这些问题大家最好自己去梳理一下,然后写上自己的答案,把你的答案写到本文留言框里,我们来看看谁梳理的最好。

  • Thinking 1: XGBoost 与 GBDT 的区别是什么
  • Thinking 2: XGBoost 与 LightGBM 的区别是什么

那除此之外,还有一个问题

  • Thinking3:举一个你之前做过的预测例子(用的什么模型,解决什么问题,比如我用 LR模型,对员工离职进行了预测,效果如何… 你可以在下面留言来说一下。)

那我们要做的题目:Action1,用我之前给大家使用过的:男女声音识别的数据集: voice.csv

链接: https://pan.baidu.com/s/1UgXmDZLOpVeXz21-Ebddog?pwd=5t4e 提取码: 5t4e
–来自百度网盘超级会员v7的分享

20231120233241

这个数据集中有 3168 个录制的声音样本,采集的频率范围是 0hz-280hz, 已经对数据进行了预处理。

一共有 21 个属性值,请判断该声音是男还是女。

最后,使用 Accuracy 作为评价标准。

那我们之前在 BI 第二课的时候用的是 SVM 的方法进行预测,在这个 Action1 中,大家试试用 XGBoost 和 LightGBM 的方式来进行。

那这个 Action1 就是留给大家的一个实操作业,可以去我的代码库中找相关的示例,但是我还是希望大家能自己去做一下,不要一上来就去看参考。

文章来源:https://blog.csdn.net/ivandoo/article/details/135504288
本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任。