原创译文 | 从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

栏目: 编程工具 · 发布时间: 6年前

内容简介:原创译文 | 从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

原创译文 | 从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

作者:灯塔大数据

人工智能,深度学习和机器学习,不论你现在是否能够理解这些概念,你都应该学习。否则三年内,你就会像灭绝的恐龙一样被社会淘汰。

——马克·库班(NBA小牛队老板,亿万富翁)

马克·库班的这番话可能听起来挺吓人的,但道理是没毛病的!我们正经历一场大革命,这场革命就是由大数据和强大电脑计算能力发起的。

让我们花几分钟回想一下20世纪初的景象。那个时候很多人都不懂什么是电,在过去几十年,甚至几百年的时间里,人们一直沿用一种方式去做某件事情,但是突然间,好像身边的一切都变了。

以前需要很多人才能做成的事情,现在只需要一个人应用电力就能做成。而我们现在就正在经历相似的变革过程,今天这场变革的主角就是机器学习和深度学习。

如果你现在还不懂深度学习的巨大力量,那你真的要抓紧时间开始学啦!这篇文章就为大家介绍了深度学习领域常用的一些术语和概念。现在就从神经网络开始讲起。

神经网络基础概念:

(1)神经元——正如神经元是大脑的基本单位一样,在神经网络结构中,神经元也是一个小单位。大家不妨想象一下当我们接触到新的信息时,大脑是如何运作的。

首先,我们会在脑中处理这个信息,然后产生输出信息。在神经网络中也是如此,神经元接收到一个输入信息,然后对它进行加工处理,然后产生输出信息,传输到其他神经元中进行进一步信息处理。

原创译文 | 从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

(2)权重——当输入信息到达神经元时,它就会乘上一个权重。举例来说,如果一个神经元包含两个输入信息,那么每个输入信息都被赋予它的关联权重。我们随机初始化权重,并在模型训练过程中更新这些权重。

接受训练后的神经网络会赋予它认为重要的输入信息更高的权重值,而那些不重要的输入信息权重值则会相对较小。权重值为零就意味着这个特征是无关紧要的。

我们不妨假设输入信息为a,其关联权重为W₁,通过节点后,输入信息变为a*W₁:

原创译文 | 从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

(3)偏置 —— 除了权重之外,输入还有另一个线性分量,被称为偏置。输入信息乘上权重后再加上偏置,用来改变权重乘输入的范围。加上偏置之后,结果就变为a*W₁+bias,这就是输入信息变换的最终线性分量。

(4)激活函数——线性分量应用可以到输入信息,非线性函数也可以应用到输入信息。这种输入信息过程是通过激活函数来实现的。

激活函数将输入信号翻译成输出信号。激活函数产生的输出信息为f(a*W₁+b),其中f(x)就是激活函数。

在下面的图表中,我们可以看到,输入信息数量为n,表示为X₁到Xn,相应的权重为Wk₁到Wkn。将偏置设为bk。权重乘以输入信息,再加偏置,我们设所得的值为u:u=∑w*x+b

将u带入激活函数中,最后我们就可以得到从神经元输出的yk=f(u)

原创译文 | 从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

常用激活函数

最常用的激活函数有Sigmoid、ReLU 和softmax。

Sigmoid——Sigmoid是最常用的激活函数之一。 它的定义为:sigmoid(x)=1/(1+e∧-x)

原创译文 | 从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

Sigmoid函数会生成0到1之间的更平滑的取值范围。我们可能需要观察输出值的变化,同时输入值也会略有变化。而平滑的曲线更方便我们观察,因此它优于阶梯函数(step functions)。

ReLU(线性修正单位)——不同于sigmoid函数,现在的网络更倾向于使用隐层ReLu激活函数。该函数的定义是:f(x)=max(x,0)

当X> 0时,函数的输出为X,X <= 0时为0。该函数如下所示:

原创译文 | 从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

使用ReLU的好处主要是它对于大于0的所有输入值都有对应的不变导数值。而常数导数值可以加快对网络的训练。

Softmax——Softmax激活函数常用于输出层的分类问题。 它与sigmoid函数类似,唯一的区别是在Softmax激活函数中,输出被归一化,总和变为1。

如果我们遇到的是二进制输出问题,就可以使用Sigmoid函数,而如果我们遇到的是多类型分类问题,使用softmax函数可以轻松地为每个类型分配值,并且可以很容易地将这个值转化为概率。

这样看可能更容易理解一些——假设你正在尝试识别一个看起来像8实际为6的数。该函数将为每个数字赋值,如下所示。我们可以很容易地看出,最高概率被分配给了6,下一个最高概率则分配给8,依此类推…

原创译文 | 从神经网络说起:深度学习初学者不可不知的25个术语和概念(上)

(5)神经网络 ——神经网络是深度学习的主干之一。神经网络的目标是找到未知函数的一个近似值。它由相互联系的神经元组成。

这些神经元具有权重,并且会根据出错情况,在网络训练期间更新偏置值。激活函数将非线性变换置于线性组合,之后生成输出。被激活的神经元组合再产生输出。

对神经网络的定义中,以Liping Yang的最为贴切:

“神经网络由许多相互关联的概念化的人造神经元组成,这些人造神经元之间可以互相传递数据,并且具有根据网络‘经验’调整的相关权重。

神经元具有激活阈值,如果结合相关权重组合并激活传递给他们的数据,神经元的激活阈值就会被解除,激活的神经元的组合就会开始‘学习’。”

End.


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

乔布斯离开了,马斯克来了

乔布斯离开了,马斯克来了

[日]竹内一正 / 干太阳 / 中信出版社 / 2015-11

在电动汽车的创新上,特斯拉抓住了一个群体的独特需求,外形很酷,不烧油,智能化控制。所有的颠覆式创新都不是敲锣打鼓来的,而是隐藏在一片噪声里,马斯克给我们带来的特斯拉虽然不尽完美,但他做产品的思维和执着于未来的勇气,值得学习。埃隆•马斯克创办公司也不是为了赚钱,而是为了拯救人类和地球,电动汽车、太阳能发电、宇宙火箭,不管是哪一项都足以令一个国家付出巨大的代价去研究开发,但埃隆•马斯克却一个人在做这些......一起来看看 《乔布斯离开了,马斯克来了》 这本书的介绍吧!

JSON 在线解析
JSON 在线解析

在线 JSON 格式化工具

SHA 加密
SHA 加密

SHA 加密工具

UNIX 时间戳转换
UNIX 时间戳转换

UNIX 时间戳转换