星驰编程网

免费编程资源分享平台_编程教程_代码示例_开发技术文章

Python机器学习实战-特征重要性分析方法(6):XGBoost

实现功能

计算一个特性用于跨所有树拆分数据的次数。更多的分裂意味着更重要。

实现代码

import xgboost as xgb
import pandas as pd
from sklearn.datasets import load_breast_cancer
import matplotlib.pyplot as plt

X, y = load_breast_cancer(return_X_y=True)
df = pd.DataFrame(X, columns=range(30))
df['y'] = y

model = xgb.XGBClassifier()
model.fit(X, y)

importances = model.feature_importances_
importances = pd.Series(importances, index=range(X.shape[1]))
importances.plot.bar()
plt.style.use('ggplot')
plt.figure(figsize=(10, 8))
plt.show()

实现效果

本人读研期间发表5篇SCI数据挖掘相关论文,现在某研究院从事数据挖掘相关科研工作,对数据挖掘有一定认知和理解,会结合自身科研实践经历不定期分享关于python、机器学习、深度学习基础知识与案例。

致力于只做原创,以最简单的方式理解和学习,关注我一起交流成长。

邀请三个朋友关注V订阅号:数据杂坛,即可在后台联系我获取相关数据集和源码,送有关数据分析、数据挖掘、机器学习、深度学习相关的电子书籍。

控制面板
您好,欢迎到访网站!
  查看权限
网站分类
最新留言