冲量网络 | 决策树

之前介绍了机器学习相关的内容,实际上机器学习从本质上来说是在模拟人类本身的行为,在现实生活中,我们会遇到各种选择,不论是选择男女朋友,还是挑选水果,都是基于以往的经验来做判断。如果把判断背后的逻辑整理成一个结构图,你会发现它实际上是一个树状图,实际上,这就是本期要提到的决策树。


决策树(Decision Tree)是在已知各种情况发生概率的基础上,通过构成决策树来求取净现值的期望值大于等于零的概率,评价项目风险,判断其可行性的决策分析方法,是直观运用概率分析的一种图解法。由于这种决策分支画成图形很像一棵树的枝干,故称决策树。在机器学习中,决策树是一个预测模型,他代表的是对象属性与对象值之间的一种映射关系。


决策树是一种树形结构,其中每个内部节点表示一个属性上的测试,每个分支代表一个测试输出,每个叶节点代表一种类别。如果按分类来说,其可以被归类为监督学习,也就是在训练时,训练样本数据有对应的目标值。通过对数据样本因子和已知的结果建立联系,提取特征值和映射关系,通过已知的结果和数据样本不断的学习和训练,对新的数据进行结果的预测。


相比于传统的线性模型,决策树所对应的树形模型更加接近人的思维方式,可以产生可视化的分类规则,产生的模型具有可解释性。树形模型是一个一个特征进行处理,之前线性模型是所有特征给予权重相加得到一个新的值。逻辑回归只能找到线性分割,而利用决策树,可以找到非线性分割。


当我们想种植一颗完整的决策树的时候,简单来说,构造的过程就是选择什么属性作为节点的过程,其中,有三类的节点会出现:


决策节点

当我们构建决策树的时候,实际上每个分支都是对几种可能方案的选择,即最后选择的最佳方案。一般来说,再多级决策中,决策树的中间可以有多个决策点,以决策树根部的决策点为最终决策方案。


状态节点

其代表备选方案的最终效果,通过各状态节点的经济效果的对比,按照一定的决策标准就可以选出最佳方案。由状态节点引出的分支称为概率枝,概率枝的数目表示可能出现的自然状态数目每个分枝上要注明该状态出现的概率。


叶节点

就是树最底部的节点,也就是决策结果。其也被称为决策节点。


除了本身的结构外,决策树最重要的组成部分便是“剪枝”。剪枝就是给决策树瘦身,这一步想实现的目标就是,不需要太多的判断,同样可以得到不错的结果。防止出现结果过于完美导致分类错误的情况。在这种情况下,一旦停止分支,使得某个节点默认成为了叶节点,断绝了其后面的节点进行分支操作的任何可能性。


易懂

在之前的描述中我们也提到了相关的内容,利用决策树会使得整个过程更直观,人们在在学习过程中不需要使用者了解很多的背景知识,只要通过解释后都有能力去理解决策树所表达的意义。


效率高

由于在决策树中,数据的准备往往是简单或者是不必要的,因此利用决策树,能够同时处理数据型和常规型属性,在相对短的时间内能够对大型数据源做出可行且效果良好的结果。


可信度高

由于决策树是一种静态的状态,因此可以比较容易地来对模型进行评测,可以测定模型可信度


决策树计算量相对较小,且容易转化成分类规则.。只要沿着树根向下一直走到叶,沿途的分裂条件就能够唯一确定一条分类。而且其挖掘出来的分类规则准确性高,便于理解,因此在机器学习中,决策树的应用范围也越来越广。其可以处理连续和种类字段,并能在高纬度的数据中起到独特的作用。


冲量网络将融合聚类、分类、神经网络、决策树等人工智能算法进行多方联合建模,挖掘数据价值,同时也将结合区块链技术,从而实现数据计算全流程和全要素的可认证、公开、透明、可追溯,保护各参与方的权益。