我们有两种假设:
h1: 我们是从{0,2,4,6,8,...,98}中抽取的,即从偶数中抽取
h2: 我们是从{2n}中抽取的
根据上文给出的公式进行计算,我们发现Pr(D|h1)远大于Pr(D|h2...),即我们相信D={2,4,8,16,32}从h1:{2n}中产生的可能更大,但是h2:{0,2,4,6,8,...,98}似乎也能解释我们的结果。...集成学习的思想无处不在,比较著名的有随机森林等。从某种意义上说,神经网络也是一种集成学习,有兴趣小伙伴可以想想为什么…
相信敏锐的读者已经发现,集成学习似乎和前面提到的奥卡姆剃刀定理相违背。...明明一个分类模型就够麻烦了,现在为什么要做更多?这其实说到了一个很重要观点,就是奥卡姆剃刀定理并非不可辩驳的真理,而只是一种选择方法。
从事科学研究,切勿相信有普遍真理。...如果我们的目标是参数估计,那么有一个无法回避的问题…参数到底存不存在?换句话说,茫茫宇宙中是否到处都是不确定性(Uncertainty)。
频率学派相信参数是客观存在的,虽然未知,但不会改变。