应用背景介绍:??????
????? ?如果有一个包含数十个甚至数百个特征的数据集,每个特征都可能对你的机器学习模型的性能有所贡献。但是并不是所有的特征都是一样的。有些可能是冗余的或不相关的,这会增加建模的复杂性并可能导致过拟合。特征重要性分析可以识别并关注最具信息量的特征,从而带来以下几个优势:
前期相关回顾:
【Python特征工程系列】8步教你用决策树模型分析特征重要性(源码)
【Python特征工程系列】利用随机森林模型分析特征重要性(源码)
本期相关知识:
????? ?梯度提升模型是一种集成学习方法,通过迭代地训练多个弱学习器(通常是决策树),并将它们组合成一个强学习器。梯度提升(Gradient Boosting)模型可以通过分析特征重要性来帮助我们理解数据中各个特征的相对重要程度。在Scikit-learn库中,模型提供了一个属性feature_importances_,用于获取特征的重要性分数。通过分析特征重要性,我们可以了解哪些特征对于模型的预测结果有更大的影响。重要性分数越高的特征,对模型的预测结果影响越大。这样的分析可以帮助我们进行特征选择、特征工程和模型优化等任务。需要注意的是,特征重要性分数的解释和计算方式可能会因模型和数据的不同而有所差异。因此,在实际应用中,应该根据具体的情况和需求来解释和使用特征重要性分数。
import pandas as pd
from sklearn.model_selection import train_test_split
from sklearn.ensemble import GradientBoostingRegressor
import matplotlib.pyplot as plt
import seaborn as sns
data = pd.read_csv(r'dataset.csv')
df = pd.DataFrame(data)
target = 'target'
features = df.columns.drop(target)
?特征变量如下:
X_train, X_test, y_train, y_test = train_test_split(df[features], df[target], test_size=0.2, random_state=0)
?X_train如下:
model = GradientBoostingRegressor(n_estimators=100, max_depth=10)
model.fit(X_train, y_train)
feature_importance = model.feature_importances_
feature_names = features
?feature_importance如下:
importance_df = pd.DataFrame({'Feature': feature_names, 'Importance': feature_importance})
?importance_df如下:
importance_df = importance_df.sort_values(by='Importance', ascending=False)
排序后的 importance_df如下:
plt.figure(figsize=(10, 6))
sns.barplot(x='Importance', y='Feature', data=importance_df)
plt.title('Feature Importance')
plt.xlabel('Importance')
plt.ylabel('Feature')
plt.show()
?可视化结果如下:
本期内容就到这里,我们下期再见!需要数据集和源码的小伙伴可以关注私信作者或者底部公众号添加作者微信!
作者简介:
读研期间发表6篇SCI数据挖掘相关论文,现在某研究院从事数据算法相关科研工作,结合自身科研实践经历不定期分享关于Python、机器学习、深度学习、人工智能系列基础知识与应用案例。致力于只做原创,以最简单的方式理解和学习,关注我一起交流成长。