各位小伙伴们大家好,好久不见,今天让我们来一起聊一聊现代神经网络中必不可少的一个组成部分激励函数以及我们在机器学习中为什么少不了激励函数.
那首先第一个问题,什么是激励函数呢?...,现在就算女生再漂亮,女生再漂亮,也不会有无穷多的男生去喜欢他,所以,在这个时候,这个问题就变成了一个非线性问题.再说,女生也不可能是无穷漂亮的吧,(对于我们男生来说,这个问题有时间我们好好的讨论下)...,因为W提出来的是一个固定的数,但是这样似乎并不能符合我们想让这个直线扭动起来成为非线性方程的一个结果,这个时候,就需要我们这个文章的主人公激励函数了,这个时候激励函数就拔刀相助,出来说,让我来掰弯他吧...其实这个激励函数AF()并不是什么高深的东西,本质上他也是一个非线性的方程,大概有relu,sigmoid,tanh这样的非线性方程,将这些掰弯利器强行把原有的数据结果给掰弯了,这样线性结果Y也就有了非线性的特征...想要恰当的使用这些激励函数还是有窍门的,比如当你的神经层不是很多的时候,比如只有两三次四五层的时候.这个时候使用任意的激励函数去掰弯这个时候都是可行的,都不会有很大的影响,但是当你的神经网络层数很多的时候