AlexNet论文阅读

栏目: 数据库 · 发布时间: 4年前

论文下载

这篇论文的背景作者在参加2010年的ImageNet比赛,当时作者取得了第二名的成绩

AlexNet论文阅读 摘要主要介绍了其神经网络的结构—— 5个卷积层 (每个卷积层($convolutional\ layers$)后面都跟有池化层($max-pooling\ layers$))和 三个全连接层 ,最后是一个1000维的softmax。然后作者还提到一个比较有意思的想法: "为了避免全连接层的过拟合,我们采用一种名为$dropout$的正则化方法"

引言和数据集的部分都不重要,这里就略过了

AlexNet论文阅读 第三部分开始简略介绍了AlexNet的 架构 ,其实就和摘要说的是一样,然后作者说他会把他网络中新奇的点接下来按照重要程度(重->轻)依次说明

AlexNet论文阅读 首先作者认为他网络最重要的部分是激励函数的选取。传统的激励函数是$tanh(x)$,他认为$tanh(x)$模型收敛太慢,所以改用收敛更快的 $Relu$函数 ,右边的图中虚线是$tanh(x)$函数,实线是$Relu$函数。使用$Relu$的四层神经网络比$tanh$在达到25%的误差时快6倍

AlexNet论文阅读 接着作者认为他们 多CPU并行计算 很重要,这一块主要是硬件,我个人感觉不是很重要,所以略过

AlexNet论文阅读 局部响应归一化 。" Relu不需要将输入层的数据进行归一化防止其饱和 "(这里我暂时不是很懂,先放一放)

AlexNet论文阅读 重叠池化 。传统池化的窗口大小$z*z$中的$z$等于池化的步长$s$。作者设置$z

AlexNet论文阅读 AlexNet论文阅读 整体架构 。文章中GPU部分我就直接略过了,直接看这个图很好理解。

第1卷积层使用96个核对224 × 224 × 3的输入图像进行卷积,核的大小是11 × 11 × 3,步长是4

第2卷积层使用用第1卷积层的输出(响应归一化和池化)作为输入

未完待续...


以上就是本文的全部内容,希望对大家的学习有所帮助,也希望大家多多支持 码农网

查看所有标签

猜你喜欢:

本站部分资源来源于网络,本站转载出于传递更多信息之目的,版权归原作者或者来源机构所有,如转载稿涉及版权问题,请联系我们

如何把事情做到最好

如何把事情做到最好

乔治·伦纳德 / 张乐 / 中国青年出版社 / 2014-2 / 29.90元

•改变全球9800万人的人生指导书 •全美第一本系统阐述学习与成功之道的经典著作 •长期盘踞全美畅销书榜单 •21年后,这本传奇之书终于在中国震撼上市 •把事情做到最好,第一不强求天赋,第二不介意起步的早晚,你要做的就是“起步走”并“不停地走” 《如何把事情做到最好》出 版于1992年,经久不衰,经过一代又一代的读者口碑相传后,畅销至今。作者以其独特的视角告诉人们,如......一起来看看 《如何把事情做到最好》 这本书的介绍吧!

HTML 压缩/解压工具
HTML 压缩/解压工具

在线压缩/解压 HTML 代码

HSV CMYK 转换工具
HSV CMYK 转换工具

HSV CMYK互换工具