Podcast
Questions and Answers
下面关于池化的描述中,错误的是哪个?
下面关于池化的描述中,错误的是哪个?
下面关于CNN的描述中,错误的说法是哪个?
下面关于CNN的描述中,错误的说法是哪个?
下面关于深度学习网络结构的描述,正确的说法是哪个?
下面关于深度学习网络结构的描述,正确的说法是哪个?
假设输入是一个300×300的彩色(RGB)图像,使用全链接神经网络。如果第一个隐藏层有100个神经元,那么这个隐藏层一共有多少个参数(包括偏置参数)?
假设输入是一个300×300的彩色(RGB)图像,使用全链接神经网络。如果第一个隐藏层有100个神经元,那么这个隐藏层一共有多少个参数(包括偏置参数)?
Signup and view all the answers
假设输入是一张300×300彩色图像,第一个隐藏层使用了100个5×5卷积核做卷积操作,这个隐藏层有多少个参数(包括偏置参数)?
假设输入是一张300×300彩色图像,第一个隐藏层使用了100个5×5卷积核做卷积操作,这个隐藏层有多少个参数(包括偏置参数)?
Signup and view all the answers
有一个44x44x16的输入,并使用大小为5x5的32个卷积核进行卷积,步长为1,无填充,输出是多少?
有一个44x44x16的输入,并使用大小为5x5的32个卷积核进行卷积,步长为1,无填充,输出是多少?
Signup and view all the answers
对于65x65x6的输入特征图,用32个5×5的卷积核(过滤器)进行卷积,步幅为2,padding值为2,得到的特征图大小是哪个?
对于65x65x6的输入特征图,用32个5×5的卷积核(过滤器)进行卷积,步幅为2,padding值为2,得到的特征图大小是哪个?
Signup and view all the answers
对于32x32x6的输入特征图,使用步长为2,核大小为2的最大池化,请问输出特征图的大小是多少?
对于32x32x6的输入特征图,使用步长为2,核大小为2的最大池化,请问输出特征图的大小是多少?
Signup and view all the answers
假设一个卷积神经网络,第一个全连接层前的池化层输出为1212250,其展开的向量长度为?
假设一个卷积神经网络,第一个全连接层前的池化层输出为1212250,其展开的向量长度为?
Signup and view all the answers
假设某卷积层的输入和输出特征图大小分别为63636和313112,卷积核大小是5*5,步长为2,那么Padding值为多少?
假设某卷积层的输入和输出特征图大小分别为63636和313112,卷积核大小是5*5,步长为2,那么Padding值为多少?
Signup and view all the answers
假设某卷积层的输入特征图大小为36326,卷积核大小是5*3,通道为20个,步长为1,没有padding,那么得到的特征图大小为?
假设某卷积层的输入特征图大小为36326,卷积核大小是5*3,通道为20个,步长为1,没有padding,那么得到的特征图大小为?
Signup and view all the answers
对于神经网络而言,哪个不是输入的标准化的作用?
对于神经网络而言,哪个不是输入的标准化的作用?
Signup and view all the answers
以下有关卷积神经网络的说法,哪些是错误的?
以下有关卷积神经网络的说法,哪些是错误的?
Signup and view all the answers
下面有关卷积神经网络的说法哪些是正确的?
下面有关卷积神经网络的说法哪些是正确的?
Signup and view all the answers
以下哪些方法能改进卷积神经网络的训练质量?
以下哪些方法能改进卷积神经网络的训练质量?
Signup and view all the answers
下面关于池化的描述中,正确的的说法有哪些?
下面关于池化的描述中,正确的的说法有哪些?
Signup and view all the answers
以下有关卷积核的说法正确的是哪些?
以下有关卷积核的说法正确的是哪些?
Signup and view all the answers
Study Notes
CNN 池化层错误描述
- 池化在CNN中,可以减少计算量,加快模型训练。
- 池化常用方法包括最大化池化、最小化池化、平均化池化和全局池化。
- 池化方法不是自定义的。
- 在人脸识别中使用池化,是为了提取人脸的高层特征。
CNN 卷积层错误描述
- SAME 填充(padding)通常在图像边缘添加 0 值。
- 卷积核有厚度(通道),通道越多,特征图(Feature map)越多。
- 局部感知使网络提取局部特征。权值共享降低了网络训练难度。
- 卷积是对图像窗口数据和滤波矩阵进行内积操作,在训练过程中滤波矩阵的大小和值不变。
深度学习网络结构描述
- 网络层数越深,训练时间越长。五层网络的训练时间比四层网络更长。
- 不同网络结构中,层数和神经元数量不一定是正相关的。层数越多,神经元数量不一定越多。
- 网络层数越深,学习到的特征越多。十层结构优于五层结构。
- 深层网络结构中学习到的特征通常与神经元参数量相关,也与样本特征数量相关。
全链接神经网络参数计算
- 输入 300x300 彩色图像,隐藏层有 100 个神经元,则隐藏层参数(包括偏置)数量为 27,000,100。
卷积神经网络参数计算
- 输入 300x300 彩色图像,第一隐藏层使用 100 个 5x5 卷积核,则隐藏层参数(包括偏置)数量为 7600。
卷积神经网络输出计算
- 输入 44x44x16,卷积核大小 5x5 数量 32,步长 1,无填充(nopadding),输出 29x29x32。
输入特征图大小计算
- 输入 65x65x6,卷积核 5x5,32 个,步幅 2,padding 2,输出 33x33x32。
最大池化层输出计算
- 输入 32x32x6,步长 2,核大小 2 的最大池化,输出 16x16x6。
卷积神经网络展开向量长度计算
- 卷积层输出 12x12x250,展开向量长度 36000。
卷积层输入输出特征图大小计算
- 输入 63x63x6 输出 31x31x12 ,卷积核 5x5,步长 2,padding 1,输出 31x31x12。
卷积层大小计算
- 输入 36x32x6,卷积核 5x3,通道 20,步长1,无 padding,输出 32x30x20。
卷积神经网络有效卷积计算
- 输入 227x227x3,96 个卷积核 11x11,步长为 4,输出 55x55x96。
SAME 卷积输出计算
- 输入 224x224x3,64 个 3x3 卷积核,SAME 卷积,步幅 1,输出 224x224x64,再进行步幅为2,大小为2x2 的最大值池化,输出 112x112x64。
卷积、池化区别
- 卷积和池化都能产生特征,卷积核需要估计参数,池化不引入参数,通过平均或最大值计算特征。
Studying That Suits You
Use AI to generate personalized quizzes and flashcards to suit your learning preferences.
Related Documents
Description
本测验探讨了CNN的池化层和卷积层的常见错误理解,以及深度学习网络结构和参数计算的误区。通过分析这些误区,帮助学习者更深入地理解深度学习的核心概念和运作机制。