Lazy loaded image
读书笔记
5️⃣UML Chapter 5
Words 550Read Time 2 min
2025-3-2
2025-3-3
type
status
date
slug
summary
tags
category
icon
password
📖
本博客是知名 Learning Theory 教材 ”Understanding Machine Learning: From Theory to Algorithms” 第五章的读书笔记

📝 The Bias-Complexity Tradeoff

🗺️ Big Picture

本章主要探讨 Prior Knowledge 在学习算法中的体现形式。
No-Free-Lunch theorem 表明如果没有任何先验知识,任何学习算法都会失败。
因此,可以通过两种途径来利用先验知识:
  • 对于分布 来说,可以知道哪些分布的相关性质
  • 对于假设类 通过预定义一个确定的类来进行约束
而对于第二点,有两个指标来度量选择的假设类 :
  • approximating error:
  • estimation error:
    • the error due to overfitting, which depends on the size or the complexity of the class
       

No-Free-Lunch Theorem

证明思路为取一个大小为2m的subset,然后取一个大小为m的sample S作为训练集,运行算法A,证明在分布D上的L的期望是大于1/4的。
这一步需要先证明对于一个不在S中的 来说,对于所有T种sample的选择,预测错误的平均值等于 1/2.
然后通过书中的转换即可得到1/4的结论
至此之后,再通过Markov不等式的推论(在appendix B.1中)可以得到
推论
Let X be an infinite domain set and let H be the set of all functions from X to {0, 1}. Then, H is not PAC learnable.
如果对假设类H不加限制,那么一定不是PAC可学的。
因此解决方法为 约束假设类

Error Decomposition

realizability assumption表述的就是
因此,在减小total Loss的时候面临一个tradeoff,如果H过于复杂,estimation error会增加,容易造成overfitting;而如果H过于简单,approximation error会增加,造成underfitting.
Learning theory studies how rich we can make H while still maintaining reasonable estimation error.

🤗 Summary

📖
The No-Free-Lunch theorem states that there is no universal learner. Every learner has to be specified to some task, and use some prior knowledge about that task, in order to succeed.

📎 参考文章

  • Understanding Machine Learning: From Theory to Algorithms
 
上一篇
UML Chapter 2
下一篇
UML Chapter 6