"DecisionTree" (机器学习方法)

详细信息与子选项

  • 决策树是一个流程图,每个内部结点表示一个特征上的测试,每个分支表示测试的输出,每片叶子表示一个类分布,值分布或概率密度.
  • 对于 ClassifyPredict,树是使用 CART 算法构建的.
  • 对于 LearnDistribution, 分裂是使用信息标准折衷似然性和模型的复杂性来决定的.
  • 可以给出以下选项:
  • "DistributionSmoothing" 1正则化参数
    "FeatureFraction" 1用于培训的随机选择的特征比例(只在 ClassifyPredict 中)

范例

打开所有单元关闭所有单元

基本范例  (3)

在标记的范例上培训预测器函数:

查询预测器的信息:

提取可用于重新培训的选项信息:

预测一个新范例:

产生某些数据并可视化:

在上面培训预测器函数:

比较数据和预测值,查看标准差:

使用方法 "DecisionTree" 学习分布:

可视化获取的 PDF:

获取关于分布的信息:

选项  (4)

"DistributionSmoothing"  (2)

使用 "DistributionSmoothing" 选项培训分类器:

使用 "DistributionSmoothing" 的默认值和蘑菇培训集训练分类器:

使用大的 "DistributionSmoothing" 培训第二个分类器:

比较测试集中的例子的概率:

"FeatureFraction"  (2)

使用 "FeatureFraction" 选项培训分类器:

使用蘑菇培训集和 "FeatureFraction" 的不同值培训两个分类器:

查看测试集上这些分类器的精确度: