除了传统的监督学习、无监督学习、半监督学习的三分类方法,机器学习算法还可以分为参数学习和非参数学习两类。
从典型特征上看,
1.参数学习算法:具有固定数目的参数、计算更快。但是,参数学习算法的建模具有更强的假设,如果假设是正确的,参数学习算法表现会很好;相反,如果假设是错误的,算法表现会很差。对于训练数据的需求量相对非参数学习算法更少,模型更简单也更具有可解释性。比如线性回归算法。
2.非参数学习算法:具有灵活数目的参数,计算更慢。对于算法对应模型具有更少、甚至没有假设,依赖数据构建模型,所以训练数据的需求量会更大。一般而言,随训练数据的增长,算法参数数量同步增长,算法性能会提升。但是模型的解释性弱于参数学习算法。比如随机森林算法。
领取专属 10元无门槛券
私享最新 技术干货