最近看到对机器学习各种算法从另一个角度的分类,觉得很有意思,于是画了几张图,把它们重新整理了一下。
首先依然是有监督地学习,而有监督地学习又能分为回归和分类两种算法:
回归算法用于处理连续变量,比如预测房价、股价什么的这种走势连续的变量。
分类算法则用于处理离散变量,它们在高维空间可表征为一个一个的离散点。其实分类算法往往有一种回归算法与之对应,因为是同一种方法用于处理不同类型的数据而发展出来的,比如回归树和分类树就都属于决策树(decision tree),随机森林算法其实也是久仰大名了,小姐姐甚至在网上闲逛的时候发现了一篇发表在SIGGRAPH的论文研究怎么用随机森林求解纳维-斯托克斯方程(Navier-Stokes equations),开玩笑自己的理论架构都还没有搞明白呢就敢去动流体力学。
而小姐姐做的计算机视觉(其实就是自以为聪明版的图像处理)呢,就在这个分支之下。
那么无监督地学习呢,从想要解决的任务这个角度来划分,可以分为聚类和降维。
聚类的意思就是一堆没有规律的数据散布在空间中,硬要给它们套上一些规律使之产生相关性然后抱团。K均值聚类就还蛮实用的,就算是只做深度学习,也是经常要使用一些有效的机器学习的算法用以辅助改进整个模型(就好像YOLO9000在选择anchor box的时候,用了K均值聚类代替手选边框)。
我之前一直以为降维是搞数学的人研究的事情,原来人家早已是机器学习的一部分了。。。真是孤陋寡闻,不好意思
虽然小姐姐完全不知道隐马尔可夫模型是什么,但是传说中鸡汤大王李开复就是第一个将隐马尔科夫模型融入自动语音识别系统的人,而且在他之前,隐马尔科夫模型根本不是机器学习的主流模型,他也算是开创自动语音识别时代奠基人之一——你以为我想说年轻时有真才实学,老了也可能变鸡汤吗?图样图森破,小姐姐想说的是,你别听他灌鸡汤就以为喝多了鸡汤就能成,鸡汤没毛用,有用的还是隐马尔科夫模型
在这些分类之外,其实还有一支,自成一派,叫增强学习(或者强化学习):
它的工作原理是基于来自环境的反馈,强化学习分析和优化智能体的行为,让机器尝试不同的策略,从而发现哪种行为能产生最大的回报,因此智能体不是被告知应该采取哪种行为,试错和延迟的reward是将强化学习与其他技术区分的特点。
哎这段太不说人话了,简单说就是你想让一只狗吃屎,但是你不直接告诉它我想让你吃屎,而是每当它吃一口你就奖它一块排骨,不吃就揍他一棒子,通过这种训练来强化它的学习,久而久之,它就知道应不应该吃屎了。。。。。哦对了,那只狗就是阿法狗。
做人要豁达一点,就算调不出代码,起码我还会写公众号是不,不会没饭吃的。。。
我觉得我真幽默。
领取专属 10元无门槛券
私享最新 技术干货