# DecisionTree **Repository Path**: TastSong/DecisionTree ## Basic Information - **Project Name**: DecisionTree - **Description**: 决策树算法实现 - **Primary Language**: Python - **License**: Not specified - **Default Branch**: master - **Homepage**: None - **GVP Project**: No ## Statistics - **Stars**: 0 - **Forks**: 1 - **Created**: 2021-08-22 - **Last Updated**: 2022-10-08 ## Categories & Tags **Categories**: Uncategorized **Tags**: None ## README DecisionTree ======================= 决策树算法的优点 ----------------------- * 分类精度高; * 生成的模式简单; * 对噪声数据有很好的健壮性。 基本思想 ----------------------- * 树以代表训练样本的单个结点开始。 * 树以代表训练样本的单个结点开始。 * 否则,算法选择最有分类能力的属性作为决策树的当前结点. * 根据当前决策结点属性取值的不同,将训练样本数据集tlI分为若干子集,每个取值形成一个分枝,
有几个取值形成几个分枝。匀针对上一步得到的一个子集,重复进行先前步骤,递4'I形成每个划分样本上的决策树。
一旦一个属性出现在一个结点上,就不必在该结点的任何后代考虑它。 * 递归划分步骤仅当下列条件之一成立时停止: * 给定结点的所有样本属于同一类。 * 没有剩余属性可以用来进一步划分样本.在这种情况下.使用多数表决,将给定的结点转换成树叶,
并以样本中元组个数最多的类别作为类别标记,同时也可以存放该结点样本的类别分布, * 如果某一分枝tc,没有满足该分支中已有分类的样本,则以样本的多数类创建一个树叶。