AI 大模型之 回归 树基算法 决策树回归 / 随机森林回归 实战

AI人工智能阿木 发布于 2025-07-13 4 次阅读


决策树回归与随机森林回归实战教程

在机器学习领域,回归分析是一种预测连续值的常用方法。决策树回归和随机森林回归是两种基于树模型的回归算法,它们在处理非线性关系和复杂特征时表现出色。本文将围绕这两个主题,通过实战案例展示如何使用Python中的scikit-learn库来实现决策树回归和随机森林回归。

环境准备

在开始之前,请确保您已经安装了以下Python库:

- scikit-learn

- pandas

- numpy

- matplotlib

您可以使用以下命令安装这些库:

bash

pip install scikit-learn pandas numpy matplotlib


决策树回归

1. 数据准备

我们需要准备一个数据集。这里我们使用著名的波士顿房价数据集。

python

import pandas as pd

加载数据集


data = pd.read_csv('boston.csv')

选择特征和目标变量


X = data.drop('MEDV', axis=1)


y = data['MEDV']


2. 决策树回归模型

接下来,我们创建一个决策树回归模型。

python

from sklearn.tree import DecisionTreeRegressor

创建决策树回归模型


dt_regressor = DecisionTreeRegressor(random_state=42)


3. 模型训练与评估

使用训练集来训练模型,并使用测试集来评估模型性能。

python

from sklearn.model_selection import train_test_split


from sklearn.metrics import mean_squared_error

划分训练集和测试集


X_train, X_test, y_train, y_test = train_test_split(X, y, test_size=0.2, random_state=42)

训练模型


dt_regressor.fit(X_train, y_train)

预测测试集


y_pred = dt_regressor.predict(X_test)

计算均方误差


mse = mean_squared_error(y_test, y_pred)


print(f"Decision Tree Regression MSE: {mse}")


4. 可视化结果

使用matplotlib库来可视化决策树。

python

import matplotlib.pyplot as plt


from sklearn.tree import plot_tree

绘制决策树


plt.figure(figsize=(20,10))


plot_tree(dt_regressor, filled=True)


plt.show()


随机森林回归

1. 数据准备

与决策树回归相同,我们使用波士顿房价数据集。

2. 随机森林回归模型

创建一个随机森林回归模型。

python

from sklearn.ensemble import RandomForestRegressor

创建随机森林回归模型


rf_regressor = RandomForestRegressor(n_estimators=100, random_state=42)


3. 模型训练与评估

使用训练集训练模型,并使用测试集评估模型性能。

python

训练模型


rf_regressor.fit(X_train, y_train)

预测测试集


y_pred_rf = rf_regressor.predict(X_test)

计算均方误差


mse_rf = mean_squared_error(y_test, y_pred_rf)


print(f"Random Forest Regression MSE: {mse_rf}")


4. 可视化结果

随机森林的树结构无法直接可视化,但我们可以查看每棵树的平均贡献。

python

import numpy as np

计算每棵树的预测误差


tree_errors = np.mean([tree.predict(X_test) - y_test for tree in rf_regressor.estimators_], axis=0)

绘制每棵树的平均贡献


plt.bar(range(len(tree_errors)), tree_errors)


plt.xlabel('Tree Index')


plt.ylabel('Average Error')


plt.title('Average Contribution of Each Tree')


plt.show()


总结

本文通过实战案例介绍了决策树回归和随机森林回归的基本原理和实现方法。通过使用scikit-learn库,我们可以轻松地构建和评估这些模型。在实际应用中,这些算法可以有效地处理非线性关系和复杂特征,为我们的预测任务提供有力的支持。

注意事项

- 在实际应用中,需要对数据进行预处理,如缺失值处理、异常值处理等。

- 调整模型参数(如决策树的最大深度、随机森林的树数量等)可以显著影响模型的性能。

- 可以使用交叉验证等方法来评估模型的泛化能力。

希望本文能帮助您更好地理解决策树回归和随机森林回归,并在实际项目中应用这些算法。