通俗易懂的机器学习——根据CART算法使用python构建决策树
off999 2024-11-26 07:23 15 浏览 0 评论
前言
之前曾经实现过可以应用在离散取值区间的简易决策树,前天突发奇想仿照sklearn的实现效果写了一个取值范围可以是连续区间的通用决策树。 如果对之前的简易决策树了解不深可以先复习一下:简易决策树地址
代码介绍
依赖包
import numpy as np
from collections import Counter
from math import log2
import matplotlib.pyplot as plt
from sklearn import datasets
复制代码
在这里我们为了方便直接选用了sklearn里面的数据集(仅选用数据集,算法具体实现不依赖于sklearn)。 对于依赖包的解释也可以翻阅之前的简易决策树一文。
计算损失
def entropy(y_label):
counter = Counter(y_label)
ent = 0.0
for num in counter.values():
p = num / len(y_label)
ent += -p * log2(p)
return ent
复制代码
在本博客中我们选用的是信息熵,也可以选用基尼系数。
树结点
class TreeNode:
def __init__(self, acc, imin=None, minD=None):
self.acc = list(acc) # 不同类别的精度
self.imin = imin # 最小分割的特征
self.minD = minD # 分割点
复制代码
树的结点中包含的信息有:在当前结点不同类别的精度、该结点损失最小分割特征、和按照损失最小分割特征分割的损失最小的分割值。
决策树类
class DecisionTree:
def __init__(self, maxentropy=1e-10, max_depth=20, min_samples=0.1):
self.tree = {}
self.maxentropy = maxentropy # 最大信息熵(分割条件:小于这个信息熵可以分割)
self.max_depth = max_depth # 递归树深度
self.min_samples = min_samples # 最小样本数
# 训练决策树
def fit(self, X, y):
if self.min_samples < 1 and self.min_samples > 0:
# 如果min_samples是小数则按照输入数据的数据量的比例确定min_samples,如果>1则给定的数值作为min_samples
self.min_samples *= len(X)
cols = list(range(X.shape[1]))
# 对X得每一列数据,计算分割后得信息熵
ylen = len(set(y))
self.tree = self._genTree(cols, X, y, ylen, 1)
# 递归生成决策树
def _genTree(self, cols, X, y, ylen, depth):
# 计算最小信息熵得特征
imin = cols[0] # 最下熵得列
leftemin = 100 # 最小左熵值
rightemin = 100 # 最小右熵值
minD = None
for i in cols:
coli = X[:, i] # 拿到第i个特征数据
sortedcoli = coli
sorted(sortedcoli)
divide = []
divide.append(coli[0])
for j in range(len(sortedcoli)):
# 划分分界线
if j == len(sortedcoli) - 1:
divide.append(sortedcoli[j])
else:
divide.append((sortedcoli[j] + sortedcoli[j+1]) / 2)
for d in divide:
# 选择不同特征的不同值所产生的最小信息熵
leftenti = entropy(y[coli < d])
rightenti = entropy(y[coli >= d])
if leftenti + rightenti < leftemin + rightemin:
imin = i
leftemin = leftenti
rightemin = rightenti
minD = d
# 求划分精度
coli = X[:, imin]
Acc = np.zeros(ylen)
leftAcc = np.zeros(ylen)
rightAcc = np.zeros(ylen)
for idx in set(y):
# print(y[coli < minD] == idx)
leftAcc[idx] = np.sum(y[coli < minD] == idx) / len(y[coli < minD])
rightAcc[idx] = np.sum(y[coli >= minD] == idx) / len(y[coli >= minD])
Acc[idx] = np.sum(y == idx) / len(y)
# print("acc:", Acc, leftAcc, rightAcc)
# 创建树
newtree = {}
# print(imin, end=":")
if leftemin < rightemin:
# 新建左叶子
Node = {}
# print(leftAcc)
Node[0] = (0, TreeNode(list(leftAcc), 0))
# print("<", minD, leftAcc, 0)
if rightemin > self.maxentropy and len(X) >= self.min_samples and depth < self.max_depth:
# 裁剪数据集
DataIndex = X[:, imin] > minD
Xcopy = X[DataIndex].copy()
ycopy = y[DataIndex].copy()
# 新建右子树
# cols.remove(imin)
Node[1] = (1, self._genTree(cols, Xcopy, ycopy, ylen, depth+1))
else:
# print(rightAcc)
Node[1] = (0, TreeNode(list(rightAcc), 0))
# print(">", minD, rightAcc, 0)
else:
# 新建右叶子
Node = {}
Node[1] = (0, TreeNode(list(rightAcc), 0))
# print(rightAcc)
if leftemin > self.maxentropy and len(X) >= self.min_samples and depth < self.max_depth:
# 裁剪数据集
DataIndex = X[:,imin] <= minD
Xcopy = X[DataIndex].copy()
ycopy = y[DataIndex].copy()
# 新建左子树
# cols.remove(imin)
Node[0] = (1, self._genTree(cols, Xcopy, ycopy, ylen, depth+1))
else:
Node[0] = (0, TreeNode(list(leftAcc), 0))
print(leftAcc)
newtree[TreeNode(list(Acc), imin, minD)] = Node
return newtree
# 预测新样本
def predict(self, X):
X = X.tolist()
# print(X)
y = [None for i in range(len(X))]
for i in range(len(X)):
tree = self.tree
while True:
node = list(tree.keys())[0] # 获取结点
acc = node.acc
imin = node.imin
minD = node.minD # 获取结点中数据
tree = tree[node] # 获取左右子节点
# print(imin)
if X[i][imin] < minD:
# 选择左节点
tree = tree[0]
if tree[0] == 0:
# 当前为叶子结点,停止查找
y[i] = np.argmax(tree[1].acc)
break
else:
tree = tree[1] # 将树根更新成右子树
else:
# 选择右节点
tree = tree[1]
if tree[0] == 0:
# 当前为叶子结点,停止查找
y[i] = np.argmax(tree[1].acc)
break
else:
tree = tree[1] # 将树根更新成右子树
return y
复制代码
决策树类的代码较多,下文将按照函数详细讲解
作图函数
def plot_decision_boundary(model, X, y):
x0_min, x0_max = X[:, 0].min() - 1, X[:, 0].max() + 1
x1_min, x1_max = X[:, 1].min() - 1, X[:, 1].max() + 1
x0, x1 = np.meshgrid(np.linspace(x0_min, x0_max, 100), np.linspace(x1_min, x1_max, 100))
Z = model.predict(np.c_[x0.ravel(), x1.ravel()])
Z = np.array(Z)
Z = Z.reshape(x0.shape)
plt.contourf(x0, x1, Z, cmap=plt.cm.Spectral)
plt.ylabel('x1')
plt.xlabel('x0')
plt.scatter(X[:, 0], X[:, 1], c=np.squeeze(y))
plt.show()
复制代码
按照数据集生成大量的数据并对生成的数据进行预测,画出预测结果的等高线,从而得到决策树划分结果
加载数据集
下面以make_circle、make_moons、iris为例,测试生成树的时候任选其一就行 make_circles:
X,y=datasets.make_circles(n_samples=1000,factor=0.5,noise=0.1)
复制代码
make_moons:
X,y = datasets.make_moons(n_samples=500,noise=0.3,random_state=42)
复制代码
iris:
iris = datasets.load_iris()
X = iris["data"][:, 2:]
y = iris["target"]
复制代码
为了方便画二维图像,这里的iris数据集只选用了两个特征
主程序
if __name__ == "__main__":
# X,y=datasets.make_circles(n_samples=1000,factor=0.5,noise=0.1)
# X,y = datasets.make_moons(n_samples=500,noise=0.3,random_state=42)
iris = datasets.load_iris()
X = iris["data"][:, 2:]
y = iris["target"]
dt = DecisionTree()
dt.fit(X, y)
print(dt.tree)
print(dt.predict(X))
X = np.array(X)
y = np.array(y)
plot_decision_boundary(dt, X, y)
复制代码
效果演示
make_circles数据集划分结果
make_moons数据集划分结果
iris数据集划分结果
决策树类中函数解释
init函数
def __init__(self, maxentropy=1e-10, max_depth=20, min_samples=0.1):
self.tree = {}
self.maxentropy = maxentropy # 最大信息熵(分割条件:小于这个信息熵可以分割)
self.max_depth = max_depth # 递归树深度
self.min_samples = min_samples # 最小样本数
复制代码
初始化树、最大信息熵、递归树的最大深度、划分需要的最小样本数
fit函数
def fit(self, X, y):
if self.min_samples < 1 and self.min_samples > 0:
# 如果min_samples是小数则按照输入数据的数据量的比例确定min_samples,如果>1则给定的数值作为min_samples
self.min_samples *= len(X)
cols = list(range(X.shape[1]))
# 对X得每一列数据,计算分割后得信息熵
ylen = len(set(y))
self.tree = self._genTree(cols, X, y, ylen, 1)
复制代码
(1)如果初始化的最小样本数min_samples<1说明min_samples表示的是最小样本数应该占总样本数的比例,应该乘以样本数获取实际最小样本数。如果初始化的最小样本数>1说明初始化的最小样本数参数即为实际最小样本数。 (2)cols代表的是每个特征的编号 (3)ylen代表数据集能够分类的最大标签数 (4)通过self._genTree函数建立决策树
_genTree函数
def _genTree(self, cols, X, y, ylen, depth):
# 计算最小信息熵得特征
imin = cols[0] # 最下熵得列
leftemin = 100 # 最小左熵值
rightemin = 100 # 最小右熵值
minD = None
for i in cols:
coli = X[:, i] # 拿到第i个特征数据
sortedcoli = coli
sorted(sortedcoli)
divide = []
divide.append(coli[0])
for j in range(len(sortedcoli)):
# 划分分界线
if j == len(sortedcoli) - 1:
divide.append(sortedcoli[j])
else:
divide.append((sortedcoli[j] + sortedcoli[j+1]) / 2)
for d in divide:
# 选择不同特征的不同值所产生的最小信息熵
leftenti = entropy(y[coli < d])
rightenti = entropy(y[coli >= d])
if leftenti + rightenti < leftemin + rightemin:
imin = i
leftemin = leftenti
rightemin = rightenti
minD = d
# 求划分精度
coli = X[:, imin]
Acc = np.zeros(ylen)
leftAcc = np.zeros(ylen)
rightAcc = np.zeros(ylen)
for idx in set(y):
# print(y[coli < minD] == idx)
leftAcc[idx] = np.sum(y[coli < minD] == idx) / len(y[coli < minD])
rightAcc[idx] = np.sum(y[coli >= minD] == idx) / len(y[coli >= minD])
Acc[idx] = np.sum(y == idx) / len(y)
# print("acc:", Acc, leftAcc, rightAcc)
# 创建树
newtree = {}
# print(imin, end=":")
if leftemin < rightemin:
# 新建左叶子
Node = {}
# print(leftAcc)
Node[0] = (0, TreeNode(list(leftAcc), 0))
# print("<", minD, leftAcc, 0)
if rightemin > self.maxentropy and len(X) >= self.min_samples and depth < self.max_depth:
# 裁剪数据集
DataIndex = X[:, imin] > minD
Xcopy = X[DataIndex].copy()
ycopy = y[DataIndex].copy()
# 新建右子树
# cols.remove(imin)
Node[1] = (1, self._genTree(cols, Xcopy, ycopy, ylen, depth+1))
else:
# print(rightAcc)
Node[1] = (0, TreeNode(list(rightAcc), 0))
# print(">", minD, rightAcc, 0)
else:
# 新建右叶子
Node = {}
Node[1] = (0, TreeNode(list(rightAcc), 0))
# print(rightAcc)
if leftemin > self.maxentropy and len(X) >= self.min_samples and depth < self.max_depth:
# 裁剪数据集
DataIndex = X[:,imin] <= minD
Xcopy = X[DataIndex].copy()
ycopy = y[DataIndex].copy()
# 新建左子树
# cols.remove(imin)
Node[0] = (1, self._genTree(cols, Xcopy, ycopy, ylen, depth+1))
else:
Node[0] = (0, TreeNode(list(leftAcc), 0))
print(leftAcc)
newtree[TreeNode(list(Acc), imin, minD)] = Node
return newtree
复制代码
(1)遍历各个特征的各个分割点(分割点是按照数据集两个临近数据的均值决定),记录信息熵最小的分割特征以及其对应的分割点。 (2)求当前结点对应的每个标签的精度以及按照信息熵最小的分割特征以及其对应的分割点划分后的左节点和右节点对应的每个标签的精度。 (3)根据决策树划分的特性,每次运用得到的分割点划分后总会有一个结点可以将一部分数据完全划分出来。 (4)如果小于分割点的部分可以完全被划分出来,左子树为叶子节点。在去除小于分割点的数据之后递归建立右子树。 (5)如果大于分割点的部分可以完全被划分出来,右子树为叶子节点。在去除大于分割点的数据之后递归建立左子树。 (6)返回值是树的根节点
结点数据解释
结点的数据为一个元组,元组第0位表示该结点是叶子结点还是子树的根节点,第一位表示叶子结点或子树的根节点。
这样做的目的是为了方便使用predict函数进行预测。
predict函数
def predict(self, X):
X = X.tolist()
# print(X)
y = [None for i in range(len(X))]
for i in range(len(X)):
tree = self.tree
while True:
node = list(tree.keys())[0] # 获取结点
acc = node.acc
imin = node.imin
minD = node.minD # 获取结点中数据
tree = tree[node] # 获取左右子节点
# print(imin)
if X[i][imin] < minD:
# 选择左节点
tree = tree[0]
if tree[0] == 0:
# 当前为叶子结点,停止查找
y[i] = np.argmax(tree[1].acc)
break
else:
tree = tree[1] # 将树根更新成右子树
else:
# 选择右节点
tree = tree[1]
if tree[0] == 0:
# 当前为叶子结点,停止查找
y[i] = np.argmax(tree[1].acc)
break
else:
tree = tree[1] # 将树根更新成右子树
return y
复制代码
对于每个待预测数据按照决策树每个结点的特征以及特征对应的分隔值不断遍历决策树,直到遍历到叶子结点为止。选取叶子结点中精度最高的标签作为该数据的预测结果
相关推荐
- 面试官:来,讲一下枚举类型在开发时中实际应用场景!
-
一.基本介绍枚举是JDK1.5新增的数据类型,使用枚举我们可以很好的描述一些特定的业务场景,比如一年中的春、夏、秋、冬,还有每周的周一到周天,还有各种颜色,以及可以用它来描述一些状态信息,比如错...
- 一日一技:11个基本Python技巧和窍门
-
1.两个数字的交换.x,y=10,20print(x,y)x,y=y,xprint(x,y)输出:102020102.Python字符串取反a="Ge...
- Python Enum 技巧,让代码更简洁、更安全、更易维护
-
如果你是一名Python开发人员,你很可能使用过enum.Enum来创建可读性和可维护性代码。今天发现一个强大的技巧,可以让Enum的境界更进一层,这个技巧不仅能提高可读性,还能以最小的代价增...
- Python元组编程指导教程(python元组的概念)
-
1.元组基础概念1.1什么是元组元组(Tuple)是Python中一种不可变的序列类型,用于存储多个有序的元素。元组与列表(list)类似,但元组一旦创建就不能修改(不可变),这使得元组在某些场景...
- 你可能不知道的实用 Python 功能(python有哪些用)
-
1.超越文件处理的内容管理器大多数开发人员都熟悉使用with语句进行文件操作:withopen('file.txt','r')asfile:co...
- Python 2至3.13新特性总结(python 3.10新特性)
-
以下是Python2到Python3.13的主要新特性总结,按版本分类整理:Python2到Python3的重大变化Python3是一个不向后兼容的版本,主要改进包括:pri...
- Python中for循环访问索引值的方法
-
技术背景在Python编程中,我们经常需要在循环中访问元素的索引值。例如,在处理列表、元组等可迭代对象时,除了要获取元素本身,还需要知道元素的位置。Python提供了多种方式来实现这一需求,下面将详细...
- Python enumerate核心应用解析:索引遍历的高效实践方案
-
喜欢的条友记得关注、点赞、转发、收藏,你们的支持就是我最大的动力源泉。根据GitHub代码分析统计,使用enumerate替代range(len())写法可减少38%的索引错误概率。本文通过12个生产...
- Python入门到脱坑经典案例—列表去重
-
列表去重是Python编程中常见的操作,下面我将介绍多种实现列表去重的方法,从基础到进阶,帮助初学者全面掌握这一技能。方法一:使用集合(set)去重(最简单)pythondefremove_dupl...
- Python枚举类工程实践:常量管理的标准化解决方案
-
本文通过7个生产案例,系统解析枚举类在工程实践中的应用,覆盖状态管理、配置选项、错误代码等场景,适用于Web服务开发、自动化测试及系统集成领域。一、基础概念与语法演进1.1传统常量与枚举类对比#传...
- 让Python枚举更强大!教你玩转Enum扩展
-
为什么你需要关注Enum?在日常开发中,你是否经常遇到这样的代码?ifstatus==1:print("开始处理")elifstatus==2:pri...
- Python枚举(Enum)技巧,你值得了解
-
枚举(Enum)提供了更清晰、结构化的方式来定义常量。通过为枚举添加行为、自动分配值和存储额外数据,可以提升代码的可读性、可维护性,并与数据库结合使用时,使用字符串代替数字能简化调试和查询。Pytho...
- 78行Python代码帮你复现微信撤回消息!
-
来源:悟空智能科技本文约700字,建议阅读5分钟。本文基于python的微信开源库itchat,教你如何收集私聊撤回的信息。[导读]Python曾经对我说:"时日不多,赶紧用Python"。于是看...
- 登录人人都是产品经理即可获得以下权益
-
文章介绍如何利用Cursor自动开发Playwright网页自动化脚本,实现从选题、写文、生图的全流程自动化,并将其打包成API供工作流调用,提高工作效率。虽然我前面文章介绍了很多AI工作流,但它们...
- Python常用小知识-第二弹(python常用方法总结)
-
一、Python中使用JsonPath提取字典中的值JsonPath是解析Json字符串用的,如果有一个多层嵌套的复杂字典,想要根据key和下标来批量提取value,这是比较困难的,使用jsonpat...
你 发表评论:
欢迎- 一周热门
- 最近发表
- 标签列表
-
- python计时 (73)
- python安装路径 (56)
- python类型转换 (93)
- python自定义函数 (53)
- python进度条 (67)
- python吧 (67)
- python字典遍历 (54)
- python的for循环 (65)
- python格式化字符串 (61)
- python串口编程 (60)
- python读取文件夹下所有文件 (59)
- java调用python脚本 (56)
- python操作mysql数据库 (66)
- python字典增加键值对 (53)
- python获取列表的长度 (64)
- python接口 (63)
- python调用函数 (57)
- python人脸识别 (54)
- python多态 (60)
- python命令行参数 (53)
- python匿名函数 (59)
- python打印九九乘法表 (65)
- python赋值 (62)
- python异常 (69)
- python元祖 (57)