风险分析

用决策树的方法进行决策风险分析

决策树学习是机器学习方法中的一种。这种方法将习得的训练集函数表示成树结构,通过它来近似离散值的目标函数。这种树结构是一种有向树,它以训练集的一个属性作节点,这个属性所对应的一个值作边。决策树一般都是自上而下的来生成的。每个决策或事件(即自然状态)都可能引出两个或多个事件,导致不同的结果,把这种决策分支画成图形很像一棵树的枝干,故称决策树。选择分割的方法有好几种,但是目的都是一致的:对目标类尝试进行最佳的分割。从根到叶子节点都有一条路径,这条路径就是一条“规则”。决策树可以是二叉的,也可以是多叉的。对每个节点的衡量:1) 通过该节点的记录数2) 如果是叶子节点的话,分类的路径3) 对叶子节点正确分类的比例。有些规则的效果可以比其他的一些规则要好。决策树对于常规统计方法的优缺点优点:1) 可以生成可以理解的规则。2) 计算量相对来说不是很大。3)可以处理连续和种类字段。4)决策树可以清晰的显示哪些字段比较重要缺点:1) 对连续性的字段比较难预测。2) 对有时间顺序的数据,需要很多预处理的工作。3) 当类别太多时,错误可能就会增加的比较快。4) 一般的算法分类的时候,只是根据一个字段来分类。