这里考虑人工神经网络具有一个隐藏层,两个输入和输出。
输入为 x1 和 x2。
两个权重乘以各自的权重 w1 和 w2。
然后将偏差添加到总和中,并将其称为 z1。
z1 = x1 * w1 + x2 * w2 +b1
然后应用sigmoid的公式。
隐藏层的输出将成为其右侧下一层的输入。这等于
sigmoid激活函数的公式和图形
隐藏层的第二个节点也以这种方式运行。
x1 和 x2 输入对于 H1 和 H2 将具有相同的值。但是,H1和H2的权重可能不同,也可能相同。而且,偏差也可以不同,即b1和b2可以不同。
乘以各自的权重w3 和w4。然后将偏差添加到总和中,并将其称为z2。
然后应用sigmoid的公式。此层的输出将是
然后,我们转到下一层。
(输出来自 H1。我们称之为 z1。输出来自 H2,我们称之为 z2。它们进入O1。权重像以前一样乘以相应的输入。
并且,我们选择sigmoid激活函数。因此,O1 的输出为
这里,y1 = z1 * W5 + z2 * W6 + B1
同样,对于O2 的输出,我们再次考虑sigmoid激活函数。
我们将此过程称为前向传播,因为我们总是从左到右。我们从不倒退。
在本教程中,您将学习如何在R中创建神经网络模型。
神经网络(或人工神经网络)具有通过样本进行学习的能力。人工神经网络是一种受生物神经元系统启发的信息处理模型。它由大量高度互连的处理元件(称为神经元)组成,以解决问题。它遵循非线性路径,并在整个节点中并行处理信息。神经网络是一个复杂的自适应系统。自适应意味着它可以通过调整输入权重来更改其内部结构。
该神经网络旨在解决人类容易遇到的问题和机器难以解决的问题,例如识别猫和狗的图片,识别编号的图片。这些问题通常称为模式识别。它的应用范围从光学字符识别到目标检测。
本教程将涵盖以下主题:
神经网络是受人脑启发执行特定任务的算法。它是一组连接的输入/输出单元,其中每个连接都具有与之关联的权重。在学习阶段,网络通过调整权重进行学习,来预测给定输入的正确类别标签。
人脑由数十亿个处理信息的神经细胞组成。每个神经细胞都认为是一个简单的处理系统。被称为生物神经网络的神经元通过电信号传输信息。这种并行的交互系统使大脑能够思考和处理信息。一个神经元的树突接收来自另一个神经元的输入信号,并根据这些输入将输出响应到某个其他神经元的轴突。
树突接收来自其他神经元的信号。单元体将所有输入信号求和以生成输出。当总和达到阈值时通过轴突输出。突触是神经元相互作用的一个点。它将电化学信号传输到另一个神经元。
x1,x2 .... xn是输入变量。w1,w2 .... wn是各个输入的权重。b是偏差,将其与加权输入相加即可形成输入。偏差和权重都是神经元的可调整参数。使用一些学习规则来调整参数。神经元的输出范围可以从-inf到+ inf。神经元不知道边界。因此,我们需要神经元的输入和输出之间的映射机制。将输入映射到输出的这种机制称为激活函数。
人工神经网络主要有两种类型:前馈和反馈人工神经网络。前馈神经网络是非递归网络。该层中的神经元仅与下一层中的神经元相连,并且它们不形成循环。在前馈中,信号仅在一个方向上流向输出层。
反馈神经网络包含循环。通过在网络中引入环路,信号可以双向传播。反馈周期会导致网络行为根据其输入随时间变化。反馈神经网络也称为递归神经网络。
激活函数定义神经元的输出。激活函数使神经网络具有非线性和可表达性。有许多激活函数:
我们创建数据集。在这里,您需要数据中的两种属性或列:特征和标签。在上面显示的表格中,您可以查看学生的专业知识,沟通技能得分和学生成绩。因此,前两列(专业知识得分和沟通技能得分)是特征,第三列(学生成绩)是二进制标签。
#创建训练数据集# 在这里,把多个列或特征组合成一组数据test=data.frame(专业知识,沟通技能得分)
让我们构建神经网络分类器模型。
首先,导入神经网络库,并通过传递标签和特征的参数集,数据集,隐藏层中神经元的数量以及误差计算来创建神经网络分类器模型。
# 拟合神经网络nn(成绩~专业知识+沟通技能得分, hidden=3,act.fct = "logistic", linear.output = FALSE)
这里得到模型的因变量、自变量、损失函数、激活函数、权重、结果矩阵(包含达到的阈值,误差,AIC和BIC以及每次重复的权重的矩阵)等信息:
$model.list$model.list$response[1] "成绩"$model.list$variables[1] "专业知识" "沟通技能得分"$err.fctfunction (x, y) { 1/2 * (y - x)^2}$act.fctfunction (x) { 1/(1 + exp(-x))}$net.result$net.result[[1]] [,1][1,] 0.980052980[2,] 0.001292503[3,] 0.032268860[4,] 0.032437961[5,] 0.963346989[6,] 0.977629865$weights$weights[[1]]$weights[[1]][[1]] [,1] [,2] [,3][1,] 3.0583343 3.80801996 -0.9962571[2,] 1.2436662 -0.05886708 1.7870905[3,] -0.5240347 -0.03676600 1.8098647$weights[[1]][[2]] [,1][1,] 4.084756[2,] -3.807969[3,] -11.531322[4,] 3.691784$generalized.weights$generalized.weights[[1]] [,1] [,2][1,] 0.15159066 0.09467744[2,] 0.01719274 0.04320642[3,] 0.15657354 0.09778953[4,] -0.46017408 0.34621212[5,] 0.03868753 0.02416267[6,] -0.54248384 0.37453006$startweights$startweights[[1]]$startweights[[1]][[1]] [,1] [,2] [,3][1,] 0.1013318 -1.11757311 -0.9962571[2,] 0.8583704 -0.15529112 1.7870905[3,] -0.8789741 0.05536849 1.8098647$startweights[[1]][[2]] [,1][1,] -0.1283200[2,] -1.0932526[3,] -1.0077311[4,] -0.5212917$result.matrix [,1]error 0.002168460reached.threshold 0.007872764steps 145.000000000Intercept.to.1layhid1 3.058334288专业知识.to.1layhid1 1.243666180沟通技能得分.to.1layhid1 -0.524034687Intercept.to.1layhid2 3.808019964专业知识.to.1layhid2 -0.058867076沟通技能得分.to.1layhid2 -0.036766001Intercept.to.1layhid3 -0.996257068专业知识.to.1layhid3 1.787090472沟通技能得分.to.1layhid3 1.809864672Intercept.to.成绩 4.0847555221layhid1.to.成绩 -3.8079690871layhid2.to.成绩 -11.5313215341layhid3.to.成绩 3.691783805
让我们绘制您的神经网络模型。
# 绘图神经网络plot(nn)
创建测试数据集:专业知识得分和沟通技能得分
# 创建测试集test=data.frame(专业知识,沟通技能得分)
使用计算函数预测测试数据的概率得分。
## 使用神经网络进行预测Pred$result
0.99282020800.33355439250.9775153014
现在,将概率转换为二进制类。
# 将概率转换为设置阈值0.5的二进制类别pred <- ifelse(prob>0.5, 1, 0)pred
101
预测结果为1,0和1。
神经网络更灵活,可以用于回归和分类问题。神经网络非常适合具有大量输入(例如图像)的非线性数据集,可以使用任意数量的输入和层,可以并行执行工作。
还有更多可供选择的算法,例如SVM,决策树和回归算法,这些算法简单,快速,易于训练并提供更好的性能。神经网络更多的是黑盒子,需要更多的开发时间和更多的计算能力。与其他机器学习算法相比,神经网络需要更多的数据。NN仅可用于数字输入和非缺失值数据集。一位著名的神经网络研究人员说: “神经网络是解决任何问题的第二好的方法。最好的方法是真正理解问题。”
神经网络的特性提供了许多应用方面,例如:
最受欢迎的见解
1.r语言用神经网络改进nelson-siegel模型拟合收益率曲线分析
3.python用遗传算法-神经网络-模糊逻辑控制算法对乐透分析
4.用于nlp的python:使用keras的多标签文本lstm神经网络分类
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。
原创声明:本文系作者授权腾讯云开发者社区发表,未经许可,不得转载。
如有侵权,请联系 cloudcommunity@tencent.com 删除。