- 决策树
1.1 从 LR 到决策树
相信大家都做过用 LR 来进行分类,总结一下 LR 模型的优缺点:
优点
适合需要得到一个分类概率的场景。
实现效率较高。
很好处理线性特征。
缺点
当特征空间很大时,逻辑回归的性能不是很好。
不能很好地处理大量多类特征。
对于非线性特征,需要进行转换。
以上就是 LR 模型的优缺点,没错,决策树的出现就是为了解决 LR 模型不足的地方,这也是我们为什么要学习决策树的原因了,没有任何一个模型是万能的。
决策树的优点
模拟人的直观决策规则。
可以处理非线性特征。
考虑了特征之间的相互作用。
其实用一下图片能更好的理解 LR 模型和决策树模型算法的根本区别,我们可以思考一下一个决策问题:是否去相亲,一个女孩的母亲要给这个女海介绍对象。
大家都看得很明白了吧!LR 模型是一股脑儿的把所有特征塞入学习,而决策树更像是编程语言中的 if-else 一样,去做条件判断,这就是根本性的区别。
1.2“树” 的成长过程
决策树基于 “树” 结构进行决策的,这时我们就要面临两个问题 :
“树” 怎么长。
这颗 “树” 长到什么时候停。
弄懂了这两个问题,那么这个模型就已经建立起来了,决策树的总体流程是 “分而治之” 的思想,一是自根至叶的递归过程,一是在每个中间节点寻找一个 “划分” 属性,相当于就是一个特征属性了。接下来我们来逐个解决以上两个问题。
这颗 “树” 长到什么时候停
当前结点包含的样本全属于同一类别,无需划分;例如:样本当中都是决定去相亲的,属于同一类别,就是不管特征如何改变都不会影响结果,这种就不需要划分了。
当前属性集为空,或是所有样本在所有属性上取值相同,无法划分;例如:所有的样本特征都是一样的,就造成无法划分了,训练集太单一。
当前结点包含的样本集合为空,不能划分。
1.3“树” 怎么长
在生活当中,我们都会碰到很多需要做出决策的地方,例如:吃饭地点、数码产品购买、旅游地区等,你会发现在这些选择当中都是依赖于大部分人做出的选择,也就是跟随大众的选择。其实在决策树当中也是一样的,当大部分的样本都是同一类的时候,那么就已经做出了决策。
我们可以把大众的选择抽象化,这就引入了一个概念就是纯度,想想也是如此,大众选择就意味着纯度越高。好,在深入一点,就涉及到一句话:信息熵越低,纯度越高。我相信大家或多或少都听说过 “熵” 这个概念,信息熵通俗来说就是用来度量包含的“信息量”,如果样本的属性都是一样的,就会让人觉得这包含的信息很单一,没有差异化,相反样本的属性都不一样,那么包含的信息量就很多了。
一到这里就头疼了,因为马上要引入信息熵的公式,其实也很简单:
Pk 表示的是:当前样本集合 D 中第 k 类样本所占的比例为 Pk。
信息增益
废话不多说直接上公式:
看不懂的先不管,简单一句话就是:划分前的信息熵 — 划分后的信息熵。表示的是向纯度方向迈出的 “步长”。
1.3.1ID3 算法
解释:在根节点处计算信息熵,然后根据属性依次划分并计算其节点的信息熵,用根节点信息熵 — 属性节点的信息熵 = 信息增益,根据信息增益进行降序排列,排在前面的就是第一个划分属性,其后依次类推,这就得到了决策树的形状,也就是怎么 “长” 了。
如果不理解的,可以查看我一下分享的示例,结合我说的,包你看懂:
1.www.wailian.work/images/2018…
2.www.wailian.work/images/2018…
3.www.wailian.work/images/2018…
4.www.wailian.work/images/2018…
不过,信息增益有一个问题:对可取值数目较多的属性有所偏好,例如:考虑将 “编号” 作为一个属性。这就引出了另一个 算法 C4.5。
1.3.2C4.5
为了解决信息增益的问题,引入一个信息增益率:
属性 a 的可能取值数目越多 (即 V 越大),则 IV(a) 的值通常就越大。 信息增益比本质: 是在信息增益的基础之上乘上一个惩罚参数。特征个数较多时,惩罚参数较小;特征个数较少时,惩罚参数较大。 不过有一个缺点:
- 缺点:信息增益比偏向取值较少的特征。
使用信息增益比:基于以上缺点,并不是直接选择信息增益率最大的特征,而是现在候选特征中找出信息增益高于平均水平的特征,然后在这些特征中再选择信息增益率最高的特征。
1.3.3CART 算法
数学家真实聪明,想到了另外一个表示纯度的方法,叫做基尼指数 (讨厌的公式):
表示在样本集合中一个随机选中的样本被分错的概率。举例来说,现在一个袋子里有 3 种颜色的球若干个,伸手进去掏出 2 个球,颜色不一样的概率,这下明白了吧。Gini(D) 越小,数据集 D 的纯度越高。
举个例子
假设现在有特征 “学历”,此特征有三个特征取值: “本科”,“硕士”, “博士”,
当使用 “学历” 这个特征对样本集合 D 进行划分时,划分值分别有三个,因而有三种划分的可能集合,划分后的子集如下:
划分点: “本科”,划分后的子集合 : {本科},{硕士,博士}
划分点: “硕士”,划分后的子集合 : {硕士},{本科,博士}
划分点: “硕士”,划分后的子集合 : {博士},{本科,硕士}}
对于上述的每一种划分,都可以计算出基于 划分特征 = 某个特征值 将样本集合 D 划分为两个子集的纯度:
因而对于一个具有多个取值(超过 2 个)的特征,需要计算以每一个取值作为划分点,对样本 D 划分之后子集的纯度 Gini(D,Ai),(其中 Ai 表示特征 A 的可能取值)
然后从所有的可能划分的 Gini(D,Ai)中找出 Gini 指数最小的划分,这个划分的划分点,便是使用特征 A 对样本集合 D 进行划分的最佳划分点。到此就可以长成一棵 “大树” 了。
1.3.4 三种不同的决策树
ID3:取值多的属性,更容易使数据更纯,其信息增益更大。
训练得到的是一棵庞大且深度浅的树:不合理。
C4.5:采用信息增益率替代信息增益。
CART:以基尼系数替代熵,最小化不纯度,而不是最大化信息增益。
1.4 随机森林 (Random Forest)
Bagging 思想
Bagging 是 bootstrap aggregating。思想就是从总体样本当中随机取一部分样本进行训练,通过多次这样的结果,进行投票获取平均值作为结果输出,这就极大可能的避免了不好的样本数据,从而提高准确度。因为有些是不好的样本,相当于噪声,模型学入噪声后会使准确度不高。
举个例子:
假设有 1000 个样本,如果按照以前的思维,是直接把这 1000 个样本拿来训练,但现在不一样,先抽取 800 个样本来进行训练,假如噪声点是这 800 个样本以外的样本点,就很有效的避开了。重复以上操作,提高模型输出的平均值。
随机森林
RandomForest(随机森林) 是一种基于树模型的 Bagging 的优化版本,一棵树的生成肯定还是不如多棵树,因此就有了随机森林,解决决策树泛化能力弱的特点。(可以理解成三个臭皮匠顶过诸葛亮)
而同一批数据,用同样的算法只能产生一棵树,这时 Bagging 策略可以帮助我们产生不同的数据集。Bagging 策略来源于 bootstrap aggregation:从样本集(假设样本集 N 个数据点)中重采样选出 Nb 个样本(有放回的采样,样本数据点个数仍然不变为 N),在所有样本上,对这 n 个样本建立分类器(ID3\C4.5\CART\SVM\LOGISTIC),重复以上两步 m 次,获得 m 个分类器,最后根据这 m 个分类器的投票结果,决定数据属于哪一类。
总的来说就是随机选择样本数,随机选取特征,随机选择分类器,建立多颗这样的决策树,然后通过这几课决策树来投票,决定数据属于哪一类 (投票机制有一票否决制、少数服从多数、加权多数)
优点:
在当前的很多数据集上,相对其他算法有着很大的优势,表现良好。
它能够处理很高维度(feature 很多)的数据,并且不用做特征选择 (因为特征子集是随机选择的)。
在训练完后,它能够给出哪些 feature 比较重要。
训练速度快,容易做成并行化方法 (训练时树与树之间是相互独立的)。
在训练过程中,能够检测到 feature 间的互相影响。
对于不平衡的数据集来说,它可以平衡误差。
如果有很大一部分的特征遗失,仍可以维持准确度。
缺点:
随机森林已经被证明在某些噪音较大的分类或回归问题上会过拟合。
对于有不同取值的属性的数据,取值划分较多的属性会对随机森林产生更大的影响,所以随机森林在这种数据上产出的属性权值是不可信的。
1.5Python 代码
.
.
.
.
欢迎添加微信交流!请备注 “机器学习”。