首页 > 代码库 > 神经网络
神经网络
让我们研究一下如何用神经网络表示一个假设函数。在一个非常简单的层次上,神经元基本上是计算单元,它把输入(树突)作为电输入(称为“尖峰”),引导到输出(轴突)。在我们的模型中,我们的树突就像输入特征X1?xn,而输出则是我们的假设函数的结果。在这个模型中我们X0输入节点有时被称为“偏差”。它总是等于1。在神经网络中,我们使用与分类相同的逻辑函数,然而,我们有时称之为逻辑(logistic)激活函数。在这种情况下,我们的“θ”参数有时称为“权重”。
视觉上,一个简单的表示看起来像:
我们的输入节点(第1层),也称为“输入层”,进入另一个节点(第2层),最后输出假设函数,称为“输出层”。
我们可以在输入层和输出层之间设置中间层,称为“隐藏层”。
在这个例子中,我们把这些中间或隐藏层节点,称他们为“激活单位。”
=在第j层的激活
=从层j到层j+1控制函数映射的权重矩阵
如果我们有一个隐藏层,它看起来像:
每个“激活”节点的值如下所获得:
这是说我们计算我们的激活节点采用3×4矩阵参数。我们将参数的每一行应用到我们的输入中,以获得一个激活节点的值。我们假设输出为逻辑函数应用到我们的激活节点的值的总和,它已乘以另一个参数矩阵Θ(2)含量的第二层节点。
每一层都有自己的矩阵的权重,Θ(j)。
这些权重矩阵的尺寸如下所示:
如果网络有Sj节点在J层和有Sj+1节点在J+1层,然后Θ(j)将变成sj+1*(sj+1)。
示例:第1层有2个输入节点,第2层有4个激活节点。维Θ(1)将4×3 SJ = 2 + 1 = 4,SJ,SJ 1×(SJ + 1)= 4×3。
神经网络
声明:以上内容来自用户投稿及互联网公开渠道收集整理发布,本网站不拥有所有权,未作人工编辑处理,也不承担相关法律责任,若内容有误或涉及侵权可进行投诉: 投诉/举报 工作人员会在5个工作日内联系你,一经查实,本站将立刻删除涉嫌侵权内容。