对于机器学习,我们经常会使用到scikit-learn库,但是有时候对这些库不怎么熟悉,所以我们很有必要对python机器学习中的常用概念做些解释,这样也好做到心中有底,不再是满头雾水的去使用。
首先我们来解释下机器学习中常用的学习概念。
有监督学习:其目标是从有标签训练数据中学习简历模型,并允许对未知的数据进行预测。
无监督学习:处理无标签数据,其目标是在数据中发现隐含模式,以抽取有用信息。
强化学习:强化学习是开发一个系统,基于该系统与其使用环境的相互作用,提高系统性能。其中通常会引入奖赏信号,与有监督学习相似,但是没有标签训练集,强化学习使用奖赏函数来持续改进其性能。
分类:分类是机器学习中常见的任务类型,主要因为他相对容易,很好理解并且能够解决很多常见问题。分类给予特征对一组实力赋予类别,分类是监督学习方法,它依赖标签训练集来建立模型参数。建立好的模型可以应用于无标签数据,用来预测每个实力所属的类别。一般分类分为两种,二分类和多分类。
回归:在某些情形下,我们所关心的事物并非是离散的类别,而是连续的变量,如概率,这类问题我们诚挚为回归。回归分析的主要目的是,理解自变量的变化如何影响因变量的变换,最简单的回归问题就是线性问题,为了进行预测,我们需要将一组数据近似为一条直线,这就是线性回归,这种方法通常需要最小化训练集中每个实力的误差平方和。典型的回归问题有,通过给定的症状范围和严重程度,评估疾病的可能性,或者根据过往表现来预测测试得分。
神经网络:一种基于传统统计学的模型,由大量的神经元与其关系构成。常用来对复杂的输入和输出关系进行建模
误差反向传递:给出信号,得到经过神经网络算法之后的结果(信号正向传播),再根据结果来修改神经网络中的神经元强度(信号反向传播)
通过正向和反向传播来更新神经元,从而形成更好的神经系统
每一个神经元都有属于它的激活函数,在训练过程中可以通过调整不同神经元的激活参数来调整模型
输入层:负责信息的传入
输出层:权衡、中转、输出信息
隐藏层:负责传入信息的加工处理
领取专属 10元无门槛券
私享最新 技术干货