池化层是CNN中一个隐藏层,池化层的作用是缩减模型的大小,提高计算速度,同时减小噪声提高所提取特征的稳健性。池化理解为抽象化特征,提取特征,还有补偿卷积过程中消失的特征信息作用。池化有最大池化和平均池化。直观理解看下图3。图3为最大池化,将卷积后的图像进行缩小,提取或抽象化特征,没有足够的证据证明这种直观解释的正确性,而最大池化被使用的主要原因是它在很多实验中的效果都很好。一次卷积运算难以提取出全局的特征,因此需要在一层卷积基础上继续做卷积计算,提取脸上鼻子、嘴等特征信息,这就是多层卷积。通过卷积池化这样构建网络,每层输出会相应减少权重偏置的参数,简化训练难度,有些CNN模型并没池化层也能对图像分类有很好的效果,所以池化层(Pool)是可选项。
图3 (图片来源于网络/侵删)
下图4进行CNN图片分类任务中,CONV表示进行卷积,RELU表示卷积层的激活函数,POOL表示池化层,FC(Fully Connect)表示全连接层用于将识别到特征进行分类后输出,CNN网络是在隐藏层进行合理堆叠卷积池化层(不断提取特征)、全连接层进行分类实现图像识别的。
图4(图片来源于网络/侵删)
CNN更多内容请点击相关链接:吴恩达《深度学习》系列课程笔记
②、循环卷积网络(RNN,Recurrent Neural Network),RNN主要是对有序列模型进行处理,如输入法输入关联词时,能预测后续输出,此前较热门应用有使用RNN写实时新闻稿,写论文等,其中可让程序猿高效办公的Deep TabNine插件自动预测代码输出更是让RNN大放异彩。
RNN更多内容请点击相关链接:吴恩达《深度学习》系列课程笔记
三、使用Keras构建网络模型
TensorFlow2.0 Beta版本已经整合Keras库,使构建神经网络变得简单快速。目前JetPack4.2.1支持TensorFlow 1.14.1,下一个更新版本为2.0,当前版本也可用tf.kera.layer简单地构建复杂神经网络。
利用models模块API快速构建网络,Sequential是系列意思,按照神经网络从左往右经典结构堆叠神经层。由下面例子发现,使用keras构建一个神经网络不用10行代码,输入层使用Flatten函数将28*28数据平铺成784输入,隐藏层使用512个神经元的全连接层,激活函数为RELU,由于是全连接相当于无脑的隐藏层,参数训练量大,使用dropout训练网络过程每次回传随机忽略其中20%的权重和偏置参数调整,输出层有10个神经元,激活函数为softmax。
池化层是CNN中一个隐藏层,池化层的作用是缩减模型的大小,提高计算速度,同时减小噪声提高所提取特征的稳健性。池化理解为抽象化特征,提取特征,还有补偿卷积过程中消失的特征信息作用。池化有最大池化和平均池化。直观理解看下图3。图3为最大池化,将卷积后的图像进行缩小,提取或抽象化特征,没有足够的证据证明这种直观解释的正确性,而最大池化被使用的主要原因是它在很多实验中的效果都很好。一次卷积运算难以提取出全局的特征,因此需要在一层卷积基础上继续做卷积计算,提取脸上鼻子、嘴等特征信息,这就是多层卷积。通过卷积池化这样构建网络,每层输出会相应减少权重偏置的参数,简化训练难度,有些CNN模型并没池化层也能对图像分类有很好的效果,所以池化层(Pool)是可选项。
图3 (图片来源于网络/侵删)
下图4进行CNN图片分类任务中,CONV表示进行卷积,RELU表示卷积层的激活函数,POOL表示池化层,FC(Fully Connect)表示全连接层用于将识别到特征进行分类后输出,CNN网络是在隐藏层进行合理堆叠卷积池化层(不断提取特征)、全连接层进行分类实现图像识别的。
图4(图片来源于网络/侵删)
CNN更多内容请点击相关链接:吴恩达《深度学习》系列课程笔记
②、循环卷积网络(RNN,Recurrent Neural Network),RNN主要是对有序列模型进行处理,如输入法输入关联词时,能预测后续输出,此前较热门应用有使用RNN写实时新闻稿,写论文等,其中可让程序猿高效办公的Deep TabNine插件自动预测代码输出更是让RNN大放异彩。
RNN更多内容请点击相关链接:吴恩达《深度学习》系列课程笔记
三、使用Keras构建网络模型
TensorFlow2.0 Beta版本已经整合Keras库,使构建神经网络变得简单快速。目前JetPack4.2.1支持TensorFlow 1.14.1,下一个更新版本为2.0,当前版本也可用tf.kera.layer简单地构建复杂神经网络。
利用models模块API快速构建网络,Sequential是系列意思,按照神经网络从左往右经典结构堆叠神经层。由下面例子发现,使用keras构建一个神经网络不用10行代码,输入层使用Flatten函数将28*28数据平铺成784输入,隐藏层使用512个神经元的全连接层,激活函数为RELU,由于是全连接相当于无脑的隐藏层,参数训练量大,使用dropout训练网络过程每次回传随机忽略其中20%的权重和偏置参数调整,输出层有10个神经元,激活函数为softmax。
举报