Podcast
Questions and Answers
下面关于池化的描述中,错误的是哪个?
下面关于池化的描述中,错误的是哪个?
- 池化在CNN中可以减少较多的计算量,加快模型训练
- 池化方法可以自定义
- 池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化 (correct)
- 在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征
下面关于CNN的描述中,错误的说法是哪个?
下面关于CNN的描述中,错误的说法是哪个?
- 卷积核一般是有厚度的,即通道(channel),通道数量越多,获得的特征图(Feature map)就越多
- 卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变 (correct)
- 局部感知使网络可以提取数据的局部特征,而权值共享大大降低了网络的训练难度
- SAME填充(padding)一般是向图像边缘添加0值
下面关于深度学习网络结构的描述,正确的说法是哪个?
下面关于深度学习网络结构的描述,正确的说法是哪个?
- 网络结构的层次越深,其学习的特征越多,10层的结构要优于5层的
- 深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关 (correct)
- 在不同的网络结构中,层数与神经元数量正相关,层数越多,神经元数量一定越多
- 网络的层次越深,其训练时间越久,5层的网络要比4层的训练时间更长
假设输入是一个300×300的彩色(RGB)图像,使用全链接神经网络。如果第一个隐藏层有100个神经元,那么这个隐藏层一共有多少个参数(包括偏置参数)?
假设输入是一个300×300的彩色(RGB)图像,使用全链接神经网络。如果第一个隐藏层有100个神经元,那么这个隐藏层一共有多少个参数(包括偏置参数)?
假设输入是一张300×300彩色图像,第一个隐藏层使用了100个5×5卷积核做卷积操作,这个隐藏层有多少个参数(包括偏置参数)?
假设输入是一张300×300彩色图像,第一个隐藏层使用了100个5×5卷积核做卷积操作,这个隐藏层有多少个参数(包括偏置参数)?
有一个44x44x16的输入,并使用大小为5x5的32个卷积核进行卷积,步长为1,无填充,输出是多少?
有一个44x44x16的输入,并使用大小为5x5的32个卷积核进行卷积,步长为1,无填充,输出是多少?
对于65x65x6的输入特征图,用32个5×5的卷积核(过滤器)进行卷积,步幅为2,padding值为2,得到的特征图大小是哪个?
对于65x65x6的输入特征图,用32个5×5的卷积核(过滤器)进行卷积,步幅为2,padding值为2,得到的特征图大小是哪个?
对于32x32x6的输入特征图,使用步长为2,核大小为2的最大池化,请问输出特征图的大小是多少?
对于32x32x6的输入特征图,使用步长为2,核大小为2的最大池化,请问输出特征图的大小是多少?
假设一个卷积神经网络,第一个全连接层前的池化层输出为1212250,其展开的向量长度为?
假设一个卷积神经网络,第一个全连接层前的池化层输出为1212250,其展开的向量长度为?
假设某卷积层的输入和输出特征图大小分别为63636和313112,卷积核大小是5*5,步长为2,那么Padding值为多少?
假设某卷积层的输入和输出特征图大小分别为63636和313112,卷积核大小是5*5,步长为2,那么Padding值为多少?
假设某卷积层的输入特征图大小为36326,卷积核大小是5*3,通道为20个,步长为1,没有padding,那么得到的特征图大小为?
假设某卷积层的输入特征图大小为36326,卷积核大小是5*3,通道为20个,步长为1,没有padding,那么得到的特征图大小为?
对于神经网络而言,哪个不是输入的标准化的作用?
对于神经网络而言,哪个不是输入的标准化的作用?
以下有关卷积神经网络的说法,哪些是错误的?
以下有关卷积神经网络的说法,哪些是错误的?
下面有关卷积神经网络的说法哪些是正确的?
下面有关卷积神经网络的说法哪些是正确的?
以下哪些方法能改进卷积神经网络的训练质量?
以下哪些方法能改进卷积神经网络的训练质量?
下面关于池化的描述中,正确的的说法有哪些?
下面关于池化的描述中,正确的的说法有哪些?
以下有关卷积核的说法正确的是哪些?
以下有关卷积核的说法正确的是哪些?
Flashcards
Pooling in CNNs
Pooling in CNNs
Reduces computation and increases model training speed while extracting higher-level features. Techniques include max, min, average, and global pooling.
Convolutional Kernel
Convolutional Kernel
A matrix used in a convolution operation, filtering an image to extract features. It has a size defined by the height and width of the kernel and a number of channels.
SAME padding
SAME padding
Adding padding to image borders to maintain the output size consistent with the input size with convolution.
Depth/Channels
Depth/Channels
Signup and view all the flashcards
Local Perceptron
Local Perceptron
Signup and view all the flashcards
CNN Parameter Count (Fully Connected)
CNN Parameter Count (Fully Connected)
Signup and view all the flashcards
CNN Parameter Count (Convolutional)
CNN Parameter Count (Convolutional)
Signup and view all the flashcards
Output Size (Convolution)
Output Size (Convolution)
Signup and view all the flashcards
Output Size (Pooling)
Output Size (Pooling)
Signup and view all the flashcards
Feature Vector Length
Feature Vector Length
Signup and view all the flashcards
Padding
Padding
Signup and view all the flashcards
Input Normalization
Input Normalization
Signup and view all the flashcards
Convolutional Kernel Size
Convolutional Kernel Size
Signup and view all the flashcards
Pooling Methods
Pooling Methods
Signup and view all the flashcards
Network Depth
Network Depth
Signup and view all the flashcards
Dropout
Dropout
Signup and view all the flashcards
Study Notes
CNN 池化层错误描述
- 池化在CNN中,可以减少计算量,加快模型训练。
- 池化常用方法包括最大化池化、最小化池化、平均化池化和全局池化。
- 池化方法不是自定义的。
- 在人脸识别中使用池化,是为了提取人脸的高层特征。
CNN 卷积层错误描述
- SAME 填充(padding)通常在图像边缘添加 0 值。
- 卷积核有厚度(通道),通道越多,特征图(Feature map)越多。
- 局部感知使网络提取局部特征。权值共享降低了网络训练难度。
- 卷积是对图像窗口数据和滤波矩阵进行内积操作,在训练过程中滤波矩阵的大小和值不变。
深度学习网络结构描述
- 网络层数越深,训练时间越长。五层网络的训练时间比四层网络更长。
- 不同网络结构中,层数和神经元数量不一定是正相关的。层数越多,神经元数量不一定越多。
- 网络层数越深,学习到的特征越多。十层结构优于五层结构。
- 深层网络结构中学习到的特征通常与神经元参数量相关,也与样本特征数量相关。
全链接神经网络参数计算
- 输入 300x300 彩色图像,隐藏层有 100 个神经元,则隐藏层参数(包括偏置)数量为 27,000,100。
卷积神经网络参数计算
- 输入 300x300 彩色图像,第一隐藏层使用 100 个 5x5 卷积核,则隐藏层参数(包括偏置)数量为 7600。
卷积神经网络输出计算
- 输入 44x44x16,卷积核大小 5x5 数量 32,步长 1,无填充(nopadding),输出 29x29x32。
输入特征图大小计算
- 输入 65x65x6,卷积核 5x5,32 个,步幅 2,padding 2,输出 33x33x32。
最大池化层输出计算
- 输入 32x32x6,步长 2,核大小 2 的最大池化,输出 16x16x6。
卷积神经网络展开向量长度计算
- 卷积层输出 12x12x250,展开向量长度 36000。
卷积层输入输出特征图大小计算
- 输入 63x63x6 输出 31x31x12 ,卷积核 5x5,步长 2,padding 1,输出 31x31x12。
卷积层大小计算
- 输入 36x32x6,卷积核 5x3,通道 20,步长1,无 padding,输出 32x30x20。
卷积神经网络有效卷积计算
- 输入 227x227x3,96 个卷积核 11x11,步长为 4,输出 55x55x96。
SAME 卷积输出计算
- 输入 224x224x3,64 个 3x3 卷积核,SAME 卷积,步幅 1,输出 224x224x64,再进行步幅为2,大小为2x2 的最大值池化,输出 112x112x64。
卷积、池化区别
- 卷积和池化都能产生特征,卷积核需要估计参数,池化不引入参数,通过平均或最大值计算特征。
Studying That Suits You
Use AI to generate personalized quizzes and flashcards to suit your learning preferences.
Related Documents
Description
本测验探讨了CNN的池化层和卷积层的常见错误理解,以及深度学习网络结构和参数计算的误区。通过分析这些误区,帮助学习者更深入地理解深度学习的核心概念和运作机制。