引言:

最近开始学习“机器学习”,早就听说祖国宝岛的李宏毅老师的大名,一直没有时间看他的系列课程。今天听了一课,感觉非常棒,通俗易懂,而又能够抓住重点,中间还能加上一些很有趣的例子加深学生的印象。
视频链接(bilibili):李宏毅机器学习(2017)
另外已经有有心的同学做了速记并更新在github上:李宏毅机器学习笔记(LeeML-Notes)
所以,接下来我的笔记只记录一些我自己的总结和听课当时的困惑,如果有能够帮我解答的朋友也请多多指教。

一、误差来自哪里?该如何处理这些误差?

从第一课可以知道,越复杂的模型并不一定会带来越低的误差(error)。误差来自两方面:

  • 偏差(bias)
  • 方差(variance)
    如果可以诊断误差的来源,就可以选择适当的方法来改进自己的模型。
    看到这里我有一些困惑,误差、偏差、方差听起来太像了,到底有什么区别呢?
    图1 偏差、方差的区别
    【此处与机器学习无关:图1真的挺难得,不知不觉有一种管理方面感触的代入感,左上角图表示好的领导(战略决策层)与好的员工(战术执行层)的配合,右上角图表示好的领导(战略决策层)与差的员工(战术执行层)的配合,左下角图表示差的领导(战略决策层)与好的员工(战术执行层)的配合,右下角图表示差的领导(战略决策层)与差的员工(战术执行层)的配合。从这方面可以看出,一个好的战略决策有多么重要!】
    图2 模型复杂度、误差、偏差、方差的关系
    图3 机器学习的过程是寻找到合适的f^
    简单的模型(如一次方程)所带来的方差比复杂模型(如五次方程)所带来的方差要小如图4。
    图4 简单的模型有助于控制模型空间,从而控制方差大小
    虽然简单的模型有助于控制方差,但如果一开始选定的范围并没有包含f^,那么f*所带来的偏差也有很大可能带来误差。如图5。
    图5
  • 如果误差来自于偏差,那么往往在训练集上欠拟合(underfitting)
  • 如果误差来自于方差,那么往往在训练集上过拟合(overfitting)
    图6
    机器学习需要弄清楚一件事情:误差来自哪里?如果是偏差,那么该怎么办?如果是方差,那么又该怎么办?如图7。
  • 当欠拟合的时候(数据无法很好拟合f),那就来自偏差,这时应该重新设计模型,因为f^没有被f所包含
  • 当过拟合的时候,那误差就来自方差,这时候有两种办法:
    • 增加数据:几乎是万灵丹,不会伤害偏差,但有一个缺点是成本太高
    • 正则化:可以使曲线变得平滑
      图7

二、选择模型的过程中需要注意的事情

通常我们都可以在偏差和方差之间找到一个平衡,从而找到合适的模型。但一定不要做这样的事情:
直接用全部训练集直接选择模型,这样你在测试集上得到的误差并不能反映真实测试集上的误差。如图8。
图8 选择模型的时候不要做什么
那么应该怎么做?

  • 交叉验证:将训练集分为训练集和验证集(validation set),先用这两个集合选择出误差比较小的模型,然后拿自己的测试集来比较误差的大小。如果觉得第一步本身训练集并不大还要再分的话,可以在选好模型后在整个训练集上再确认一下。这样你的测试集基本上可以反映出模型在真正测试集的误差。如图9。
    图9
    如果你担心自己分的测试集可能带来偏差的话,可以做N次交叉验证,将训练集分为多组小训练集1,小训练集2,小验证集,得到误差最小的模型后再在全量的训练集上继续训练即可。如图10。
    图10
    在这里李宏毅老师特别提到,在训练集上选好模型后,如果测试集上表现偏差比较大,不要再返回去选择那些误差表现大的模型,因为他们可能在private测试集上表现出的误差可能会更大。
内容来源于网络如有侵权请私信删除

文章来源: 博客园

原文链接: https://www.cnblogs.com/leogoforit/p/12597650.html

你还没有登录,请先登录注册
  • 还没有人评论,欢迎说说您的想法!