总有热心人在替平凡人想着更远大的事儿,比如最近的又火的硅谷新一任扛把子/现实版钢铁侠埃隆·马斯克,一直在思考哪些事情最有可能影响到人类未来;机器学习大佬Chris Albon绘制了一系列关于机器学习的卡片图,他用简洁明了的图文解释ML枯燥的推导,极大解放了诸多深陷ML数学公式理解的ML-er。总而言之:不要尝试记忆,而要尝试去理解;如果你理解了,就自动记住了;空闲的时候看看,你或许就懂了。
下面就选取其中69张卡片进行解读。
范数正则/惩罚
条件概率
如何避免算法过拟合(欠拟合,过拟合,刚刚好)
约定1(符号约定)
trick核(向量机,用核取代点乘)
典型的丢弃率(dropout是指在深度学习网络的训练过程中,对于神经网络单元,按照一定的概率将其暂时从网络中丢弃)
偏导数(一个多变量的函数的偏导数,就是它关于其中一个变量的导数而保持其他变量恒定(相对于全导数,在其中所有变量都允许变化))
验证曲线
Out-of-bag误差
多项式的逻辑回归
类比均值漂移
F1打分
最大值正则
铰链损失(用于支持向量机分类)
决策边界
反向传播
损失函数(代价函数,误差函数)
预处理步骤(训练,测试)
稀疏性
准确率
多重共线性
闵式距离
曼哈顿距离
超平面
one-hot编码
卡方分布(独立同分布于标准正态分布)
线性整流函数(Rectified Linear Unit, ReLU)激活函数
F检验统计量
特征选择中方差
偏置
k最近邻
核主成分分析(Principal components analysis,PCA)
线性判别式分析(Linear Discriminant Analysis, LDA)
基于半径的最近邻分类
前向传播
损失函数的由来
置信区间
vif
T检验统计量
自然对数
感知器
r2
梯度下降
随机森林的随机性
布莱尔分数
岭回归(一种改良的最小二乘估计法,通过放弃最小二乘法的无偏性,以损失部分信息、降低精度为代价获得回归系数更为符合实际、更可靠的回归方法)
0-1损失函数
k最近邻
平方根
常用数学记号
PCA
参数模型的论据
softmax归一化
感知器学习
监督与非监督
过拟合与欠拟合
bagging算法
原生贝叶斯分类
异方差性
单元阶跃激活函数
避免过拟合
贝叶斯定理
克里克语
数据中心分布
L2规范化
模型复杂性
噪声线性整流
支持向量
相关网站:
https://chrisalbon.com/
https://www.reddit.com/user/chrisalbon
https://machinelearningflashcards.com/
领取专属 10元无门槛券
私享最新 技术干货