预览加载中,请您耐心等待几秒...
1/10
2/10
3/10
4/10
5/10
6/10
7/10
8/10
9/10
10/10

亲,该文档总共24页,到这已经超出免费预览范围,如果喜欢就直接下载吧~

如果您无法下载资料,请参考说明:

1、部分资料下载需要金币,请确保您的账户上有足够的金币

2、已购买过的文档,再次下载不重复扣费

3、资料包下载后请先用软件解压,在使用对应软件打开

第2章模型评估与选择2.1经验误差与过拟合 2.2评估方法 2.3性能度量 2.4比较检验 2.5偏差与方差2.1经验误差与过拟合2.2评估方法2.2.3自助法 “自助法”是针对上述缺点的一个比较好的解决方案,它直接以自助采样法为基础。给定包含m个样本的数据集D,我们对它进行采样产生数据集D’:每次随机从D中挑选一个样本,将其拷贝放入D’,然后再将该样本放回初始数据集D中,使得该样本在下次采样时仍有可能被采到;这个过程重复执行m次后,我们就得到了包含m个样本的数据集D’,这就是自助采样的结果。 于是我们可将D’用作训练集,D\D’用作测试集;这样,实际评估的模型与期望评估的模型都使用m个训练样本,而我们仍有数据总量约1/3的、没在训练集中出现的样本用于测试。2.2.4调参与最终模型 现实中常见的做法,是对每个参数选择一个范围和变化步长,例如在[0,0.2]范围内以0.05为步长,则实际要评估的候选参数值是5个,最终从这5个值中产生选定值。 2.3性能度量 衡量模型泛化能力的评价标准 2.3.1错误率与精度 错误率是分类错误的样本数占样本总数的比例 精度是分类正确的样本数占样本总数的比例 “平衡点”(Break-EventPoint,简称BEP),就是查准率与查全率时的取值。2.3.3ROC和AUC ROC全名“受试者工作特征”曲线,以“真正例率”为纵轴,以“假正例率”为横轴。 真正例率TPR:真正例样本数/真实情况是正例的样本数(查全率) 假正例率FPR:假正例样本数/真实情况是是反例的样本数2.3.4代价敏感错误率与代价曲线 在现实任务汇总常会遇到这样的情况:不同类型的错误所造成的后果不同。为权衡不同类型错误所造成的的不同损失,可为错误赋予“非均等代价”(unequalcost)。如下图所示,正确判断的代价显然应该为0,错误判断的代价之间的比值会影响我们对学习器的改造。 在非均等代价下,ROC曲线不能直接反映出学习器的期望总体代价,而“代价曲线”则可以达到目的。代价曲线的横轴是正例概率代价P(+)cost,纵轴是归一化代价cost—norm 2.4比较检验 2.4.1假设检验 假设检验的基本思想是小概率反证法思想。小概率思想是指小概率事件(P<0.01或P<0.05)在一次试验中基本上不会发生。反证法思想是先提出假设(检验假设H0),再用适当的统计方法确定假设成立的可能性大小,如可能性小,则认为假设不成立,若可能性大,则还不能认为不假设成立。2.4.2交叉验证t检验 基本思想:若两个学习器的性能相同,则使用相同的训练/测试集得到的测试错误率应相同。 假设检验的前提:测试错误率均为泛化错误率的独立采样。 k折交叉验证产生的K对测试错误率:先对每对结果求差,若两个学习器性能相同则差值均值应为0。因此根据差值对“学习器AB性能相同”做t检验,计算差值的均值和方差,在显著度确定条件下,判断变量是否小于临界值,若小于则无显著差别,否则可判断平均错误率较小的学习器性能较优。 因样本有限,加查验证不同轮次训练集有重叠,测试错误率实际上不独立,会导致过高估计假设成立的概率。 2.4.3McNemar检验 McNemar主要用于二分类问题,与成对t检验一样也是用于比较两个学习器的性能大小。主要思想是:若两学习器的性能相同,则A预测正确B预测错误数应等于B预测错误A预测正确数,即e01=e10,且|e01-e10|服从N(1,e01+e10)分布。 2.4.4Friedman检验和Nemenyi后续检验 上述的三种检验都只能在一组数据集上,F检验则可以在多组数据集进行多个学习器性能的比较,基本思想是在同一组数据集上,根据测试结果(例:测试错误率)对学习器的性能进行排序,赋予序值1,2,3…,相同则平分序值,如下图所示: 若学习器的性能相同,则它们的平均序值应该相同,且第i个算法的平均序值ri服从正态分布N((k+1)/2,(k+1)(k-1)/12),则有: 2.5偏差与方差 偏差-方差分解(bias-variancedecomposition)是解释学习算法泛化性能的一种重要工具。 算法的期望泛化误差进行分解,得到 E(f;D)=bias^2(x)+var(x)+€^2 泛化误差可分解为偏差、方差与噪声之和。 偏差度量了学习算法的期望预测与真实结果的偏离程度 方差度量了同样大小的训练集的变动所导致的学习性能的变化 噪音表示了在当前任务上任何算法所能达到的期望泛化误差的下界 回 顾此课件下载可自行编辑修改,供参考! 感谢您的支持,我们努力做得更好!