决策树 Decision_trees - Ex 1: Decision Tree Regression

优质
小牛编辑
139浏览
2023-12-01

决策树/范例一: Decision Tree Regression

http://scikit-learn.org/stable/auto_examples/tree/plot_tree_regression.html

范例目的

此范例利用Decision Tree从数据中学习一组if-then-else决策规则,逼近加有杂讯的sine curve,因此它模拟出局部的线性迴归以近似sine curve。
若决策树深度越深(可由max_depth参数控制),则决策规则越复杂,模型也会越接近数据,但若数据中含有杂讯,太深的树就有可能产生过拟合的情形。
此范例模拟了不同深度的树,当用带有杂点的数据可能造成的情况。

(一)引入函式库及建立随机数据资料

引入函式资料库

  • matplotlib.pyplot:用来绘制影像。
  • sklearn.tree import DecisionTreeRegressor:利用决策树方式建立预测模型。

特征资料

  • np.random():随机产生介于0~1之间的乱数
  • RandomState.rand(d0,d1,..,dn):给定随机乱数的矩阵形状
  • np.sort将资料依大小排序。

目标资料

  • np.sin(X):以X做为径度,计算出相对的sine值。
  • ravel():输出连续的一维矩阵。
  • y[::5] += 3 * (0.5 - rng.rand(16)):为目标资料加入杂讯点。
  1. import numpy as np
  2. from sklearn.tree import DecisionTreeRegressor
  3. import matplotlib.pyplot as plt
  4. rng = np.random.RandomState(1)
  5. X = np.sort(5* rng.rand(80, 1), axis=0) #0~5之间随机产生80个数值
  6. y = np.sin(X).ravel()
  7. y[::5] += 3 * (0.5 - rng.rand(16)) #每5笔资料加入一个杂讯

(二)建立Decision Tree迴归模型

建立模型

  • DecisionTreeRegressor(max_depth = 最大深度)DecisionTreeRegressor建立决策树回归模型。max_depth决定树的深度,若为None则所有节点被展开。此范例会呈现不同max_depth对预测结果的影响。

模型训练

  • fit(特征资料, 目标资料):利用特征资料及目标资料对迴归模型进行训练。

预测结果

  • np.arrange(起始点, 结束点, 间隔)np.arange(0.0, 5.0, 0.01)在0~5之间每0.01取一格,建立预测输入点矩阵。
  • np.newaxis:增加矩阵维度。
  • predict(输入矩阵):对训练完毕的模型测试,输出为预测结果。
  1. regr_1 = DecisionTreeRegressor(max_depth=2) #最大深度为2的决策树
  2. regr_2 = DecisionTreeRegressor(max_depth=5) #最大深度为5的决策树
  3. regr_1.fit(X, y)
  4. regr_2.fit(X, y)
  5. X_test = np.arange(0.0, 5.0, 0.01)[:, np.newaxis]
  6. y_1 = regr_1.predict(X_test)
  7. y_2 = regr_2.predict(X_test)

(三) 绘出预测结果与实际目标图

  • plt.scatter(X,y):将X、y以点的方式绘制于平面上,c为数据点的颜色,label为图例。
  • plt.plot(X,y):将X、y以连线方式绘制于平面上,color为线的颜色,label为图例,linewidth为线的宽度。
  1. plt.figure()
  2. plt.scatter(X, y, c="darkorange", label="data")
  3. plt.plot(X_test, y_1, color="cornflowerblue", label="max_depth=2", linewidth=2)
  4. plt.plot(X_test, y_2, color="yellowgreen", label="max_depth=5", linewidth=2)
  5. plt.xlabel("data") #x轴代表data数值
  6. plt.ylabel("target") #y轴代表target数值
  7. plt.title("Decision Tree Regression") #标示图片的标题
  8. plt.legend() #绘出图例
  9. plt.show()

Ex 1: Decision Tree Regression - 图1

(四)完整程式码

  1. print(__doc__)
  2. # Import the necessary modules and libraries
  3. import numpy as np
  4. from sklearn.tree import DecisionTreeRegressor
  5. import matplotlib.pyplot as plt
  6. # Create a random dataset
  7. rng = np.random.RandomState(1)
  8. X = np.sort(5 * rng.rand(80, 1), axis=0)
  9. y = np.sin(X).ravel()
  10. y[::5] += 3 * (0.5 - rng.rand(16))
  11. # Fit regression model
  12. regr_1 = DecisionTreeRegressor(max_depth=2)
  13. regr_2 = DecisionTreeRegressor(max_depth=5)
  14. regr_1.fit(X, y)
  15. regr_2.fit(X, y)
  16. # Predict
  17. X_test = np.arange(0.0, 5.0, 0.01)[:, np.newaxis]
  18. y_1 = regr_1.predict(X_test)
  19. y_2 = regr_2.predict(X_test)
  20. # Plot the results
  21. plt.figure()
  22. plt.scatter(X, y, c="darkorange", label="data")
  23. plt.plot(X_test, y_1, color="cornflowerblue", label="max_depth=2", linewidth=2)
  24. plt.plot(X_test, y_2, color="yellowgreen", label="max_depth=5", linewidth=2)
  25. plt.xlabel("data")
  26. plt.ylabel("target")
  27. plt.title("Decision Tree Regression")
  28. plt.legend()
  29. plt.show()