""

"""

import numpy as np

from math import log

import operator

import json

#生成海洋生物数据

def createData():

data = [[1,1,'yes'],

[1,1,'yes'],

[1,0,'no'],

[0,1,'no'],

[0,1,'no']]

labels=['不浮出水面可生存','脚蹼']

return data, labels

#生产西瓜数据

# =============================================================================

# 色泽: 浅白 青绿 乌黑

# 根蒂: 蜷缩 稍蜷 硬挺

# 敲声: 浊响 沉闷 清脆

# 纹理: 清晰 稍糊 模糊

# 脐部: 凹陷 稍凹 平坦

# 触感: 硬滑 软粘

# =============================================================================

def createWatermelonData():

data = [['青绿','蜷缩','浊响','清晰','凹陷','硬滑','好'],

['乌黑','蜷缩','沉闷','清晰','凹陷','硬滑','好'],

['乌黑','蜷缩','浊响','清晰','凹陷','硬滑','好'],

['青绿','蜷缩','沉闷','清晰','凹陷','硬滑','好'],

['浅白','蜷缩','浊响','清晰','凹陷','硬滑','好'],

['青绿','稍蜷','浊响','清晰','稍凹','软粘','好'],

['乌黑','稍蜷','浊响','稍糊','稍凹','软粘','好'],

['乌黑','稍蜷','浊响','清晰','稍凹','硬滑','好'],

['乌黑','稍蜷','沉闷','稍糊','稍凹','硬滑','坏'],

['青绿','硬挺','清脆','清晰','平坦','软粘','坏'],

['浅白','硬挺','清脆','模糊','平坦','硬滑','坏'],

['浅白','蜷缩','浊响','模糊','平坦','软粘','坏'],

['青绿','稍蜷','浊响','稍糊','凹陷','硬滑','坏'],

['浅白','稍蜷','沉闷','稍糊','凹陷','硬滑','坏'],

['乌黑','稍蜷','浊响','清晰','稍凹','软粘','坏'],

['浅白','蜷缩','浊响','模糊','平坦','硬滑','坏'],

['青绿','蜷缩','沉闷','模糊','稍凹','硬滑','坏']]

labels=['色泽','根蒂','敲声','纹理','脐部','触感']

return data, labels

#计算熵

def calcEnt(data):

num = len(data)

labelCounts = {}

for item in data:

label = item[-1]

if label not in labelCounts.keys():labelCounts[label] = 0

labelCounts[label] += 1

ent = 0

for key in labelCounts:

prob = labelCounts[key]*1.0/num

ent -= prob * log(prob,2)

return ent

#划分数据 根据某一特征axis 取出该特征某一特定值value的数据

def splitData(dataSet,axis,value):

retData=[]

for item in dataSet:

if item[axis]==value:

newItem = item[:axis]

newItem.extend(item[axis+1:])

retData.append(newItem)

return retData

#从特种中选择最好的方式 增益最高

def chooseBestFeature(dataSet):

numFeat = len(dataSet[0]) - 1

## 初始化 信息熵 最佳信息增益 最佳特征

baseEnt = calcEnt(dataSet)

bestGain = 0

bestFeat = -1

for i in range(numFeat):

##获取第i个特征的所有取值

uniFeats = set([item[i] for item in dataSet])

newEnt = 0

##计算按第i个特征分类的熵

for value in uniFeats:

##第i个特征值 外汇常见问题的概率

subData = splitData(dataSet,i,value)

prob = float(len(subData))/len(dataSet)

newEnt += prob * calcEnt(subData)

gain = baseEnt - newEnt

if gain>bestGain:

bestGain = gain

bestFeat = i

return bestFeat

## 返回类别最高的分类

def majorityCnt(classList):

classCount={}

for vote in classList:

if vote not in classCount.keys():

classCount[vote]=0

classCount[vote]+=1

sortedClassCount = sorted(classCount.items(),key=operator.itemgetter(1),reverse=True)

return sortedClassCount[0][0]

#建立表

def createTree(dataSet,labels):

classList = [item[-1] for item in dataSet]

##只包含一种分类 返回该分类

if len(set(classList))==1:

return classList[0]

if len(dataSet[0])==1:

return majorityCnt(classList)

bestFeat = chooseBestFeature(dataSet)

bestFeatLabel = labels[bestFeat]

##以最佳分类标签为节点 以字典形式保存

myTree={bestFeatLabel:{}}

del(labels[bestFeat])

uniFeats = set([item[bestFeat] for item in dataSet])

for value in uniFeats:

subLabels = labels[:]

##根据不同的value 继续建立子分支

myTree[bestFeatLabel][value] = createTree(splitData(dataSet,bestFeat,value),subLabels)

return myTree

data,labels = createWatermelonData()

ret=createTree(data,labels)

print(json.dumps(ret,sort_keys=True, indent=2,ensure_ascii=False))

{

"纹理": {

"模糊": "坏",

"清晰": {

"根蒂": {

"硬挺": "坏",

"稍蜷": {

"色泽": {

"乌黑": {

"触感": {

"硬滑": "好",

"软粘": "坏"

}

},

"青绿": "好"

}

},

"蜷缩": "好"

}

},

"稍糊": {

"触感": {

"硬滑": "坏",

"软粘": "好"

}

}

}

}

原文链接:https://blog.csdn.net/zkt286468541/article/details/103372686

决策树(Decision Tree)算法 python简单实现的更多相关文章

  1. 机器学习算法实践:决策树 (Decision Tree)(转载)

    前言 最近打算系统学习下机器学习的基础算法,避免眼高手低,决定把常用的机器学习基础算法都实现一遍以便加深印象.本文为这系列博客的第一篇,关于决策树(Decision Tree)的算法实现,文中我将对决 ...

  2. 数据挖掘 决策树 Decision tree

    数据挖掘-决策树 Decision tree 目录 数据挖掘-决策树 Decision tree 1. 决策树概述 1.1 决策树介绍 1.1.1 决策树定义 1.1.2 本质 1.1.3 决策树的组 ...

  3. GBDT(Gradient Boosting Decision Tree)算法&协同过滤算法

    GBDT(Gradient Boosting Decision Tree)算法参考:http://blog.csdn.net/dark_scope/article/details/24863289 理 ...

  4. (ZT)算法杂货铺——分类算法之决策树(Decision tree)

    https://www.cnblogs.com/leoo2sk/archive/2010/09/19/decision-tree.html 3.1.摘要 在前面两篇文章中,分别介绍和讨论了朴素贝叶斯分 ...

  5. 决策树decision tree原理介绍_python sklearn建模_乳腺癌细胞分类器(推荐AAA)

    sklearn实战-乳腺癌细胞数据挖掘(博主亲自录制视频) https://study.163.com/course/introduction.htm?courseId=1005269003& ...

  6. 用于分类的决策树(Decision Tree)-ID3 C4.5

    决策树(Decision Tree)是一种基本的分类与回归方法(ID3.C4.5和基于 Gini 的 CART 可用于分类,CART还可用于回归).决策树在分类过程中,表示的是基于特征对实例进行划分, ...

  7. 机器学习方法(四):决策树Decision Tree原理与实现技巧

    欢迎转载,转载请注明:本文出自Bin的专栏blog.csdn.net/xbinworld. 技术交流QQ群:433250724,欢迎对算法.技术.应用感兴趣的同学加入. 前面三篇写了线性回归,lass ...

  8. 决策树Decision Tree 及实现

    Decision Tree 及实现 标签: 决策树熵信息增益分类有监督 2014-03-17 12:12 15010人阅读 评论(41) 收藏 举报  分类: Data Mining(25)  Pyt ...

  9. 机器学习-决策树 Decision Tree

    咱们正式进入了机器学习的模型的部分,虽然现在最火的的机器学习方面的库是Tensorflow, 但是这里还是先简单介绍一下另一个数据处理方面很火的库叫做sklearn.其实咱们在前面已经介绍了一点点sk ...

随机推荐

  1. json书写格式

    1.数组方式 [ ] [{ "id" : 1 , "name" : "xiaoming" },{ "id" : 2 , ...

  2. 解决分布式事务基本思想Base和CPA理论、最终一致性|刚性事务、柔性事务

    在学习解决分布式事务基本思路之前,大家要熟悉一些基本解决分布式事务概念名词比如:CAP与Base理论.柔性事务与刚性事务.理解最终一致性思想,JTA+XA.两阶段与三阶段提交等. 如何保证强一致性呢? ...

  3. Spring开发总结

    自动装载配置开启: spring.factories内容: org.springframework.boot.autoconfigure.EnableAutoConfiguration=\ com.b ...

  4. js 对象属性和使用方法学习笔记

    对象的引用 在ECMAScriipt中,不能访问对象的物理表示,只能访问对象的引用.每次创建对象,存储在变量中的都是对象的引用,而不是对象本身. 对象的废除 ECMASript拥有无用存储单元收集程序 ...

  5. SCP-bzoj-1057

    项目编号:bzoj-1057 项目等级:Safe 项目描述: 戳这里 特殊收容措施: 首先枚举最左上角的点(记为(1,1))是黑点还是白点,这样就可以把与(1,1)不在同一对角线系的格点颜色翻转(形式 ...

  6. Xcode5 统计单元测试覆盖率(仅限XCTest)

    概要 通过本篇文章,你将学会如何在Xcode5下使用统计XCTest测试代码的覆盖率,以及如何快速得到测试覆盖率的图形化报表. 为什么要特别说明Xcode5下的代码覆盖率统计,原因是,以前的方法在新环 ...

  7. python自动化之函数封装

    函数最重要的目的是方便我们重复使用相同的一段程序. 将一些操作隶属于一个函数,以后你想实现相同的操作的时候,只用调用函数名就可以,而不需要重复敲所有的语句. 前面一些记录了selenium的各种API ...

  8. (9)C++ 对象和类

    一.类 1.访问控制 class student { int age;//默认私有控制 public: string name; double weight; }; 2.成员函数 定义成员函数时,使用 ...

  9. PAT_A1104#Sum of Number Segments

    Source: PAT A1104 Sum of Number Segments (20 分) Description: Given a sequence of positive numbers, a ...

  10. The Preliminary Contest for ICPC Asia Shanghai 2019 (B L )

    B. Light bulbs 思路:差分 + 离散化, 好不容易懂了差分却没想到离散化,还是要罗老板出马..... AC代码: #include<bits/stdc++.h> using ...