深度学习与CNN误区分析
17 Questions
0 Views

Choose a study mode

Play Quiz
Study Flashcards
Spaced Repetition
Chat to Lesson

Podcast

Play an AI-generated podcast conversation about this lesson

Questions and Answers

下面关于池化的描述中,错误的是哪个?

  • 池化在CNN中可以减少较多的计算量,加快模型训练
  • 池化方法可以自定义
  • 池化的常用方法包括最大化池化、最小化池化、平均化池化、全局池化 (correct)
  • 在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征

下面关于CNN的描述中,错误的说法是哪个?

  • 卷积核一般是有厚度的,即通道(channel),通道数量越多,获得的特征图(Feature map)就越多
  • 卷积是指对图像的窗口数据和滤波矩阵做内积的操作,在训练过程中滤波矩阵的大小和值不变 (correct)
  • 局部感知使网络可以提取数据的局部特征,而权值共享大大降低了网络的训练难度
  • SAME填充(padding)一般是向图像边缘添加0值

下面关于深度学习网络结构的描述,正确的说法是哪个?

  • 网络结构的层次越深,其学习的特征越多,10层的结构要优于5层的
  • 深层网络结构中,学习到的特征一般与神经元的参数量有关,也与样本的特征多寡相关 (correct)
  • 在不同的网络结构中,层数与神经元数量正相关,层数越多,神经元数量一定越多
  • 网络的层次越深,其训练时间越久,5层的网络要比4层的训练时间更长

假设输入是一个300×300的彩色(RGB)图像,使用全链接神经网络。如果第一个隐藏层有100个神经元,那么这个隐藏层一共有多少个参数(包括偏置参数)?

<p>27,000,100 (D)</p> Signup and view all the answers

假设输入是一张300×300彩色图像,第一个隐藏层使用了100个5×5卷积核做卷积操作,这个隐藏层有多少个参数(包括偏置参数)?

<p>7600 (D)</p> Signup and view all the answers

有一个44x44x16的输入,并使用大小为5x5的32个卷积核进行卷积,步长为1,无填充,输出是多少?

<p>40<em>40</em>32 (D)</p> Signup and view all the answers

对于65x65x6的输入特征图,用32个5×5的卷积核(过滤器)进行卷积,步幅为2,padding值为2,得到的特征图大小是哪个?

<p>33<em>33</em>32 (C)</p> Signup and view all the answers

对于32x32x6的输入特征图,使用步长为2,核大小为2的最大池化,请问输出特征图的大小是多少?

<p>16<em>16</em>6 (B)</p> Signup and view all the answers

假设一个卷积神经网络,第一个全连接层前的池化层输出为1212250,其展开的向量长度为?

<p>36000 (D)</p> Signup and view all the answers

假设某卷积层的输入和输出特征图大小分别为63636和313112,卷积核大小是5*5,步长为2,那么Padding值为多少?

<p>1 (B)</p> Signup and view all the answers

假设某卷积层的输入特征图大小为36326,卷积核大小是5*3,通道为20个,步长为1,没有padding,那么得到的特征图大小为?

<p>32<em>30</em>20 (A)</p> Signup and view all the answers

对于神经网络而言,哪个不是输入的标准化的作用?

<p>降低网络的计算量 (D)</p> Signup and view all the answers

以下有关卷积神经网络的说法,哪些是错误的?

<p>卷积核中的取值都是事先人工设计的,在网络的训练过程中不变化 (B), 卷积核越大,即感受野越大,网络需要优化的参数越少,训练速度越快 (D)</p> Signup and view all the answers

下面有关卷积神经网络的说法哪些是正确的?

<p>卷积神经网络的输出层不一定用全连接网络,也可能得到比较好的性能 (A), 卷积核的高和宽不一定是相等的,且一般大小取奇数 (B), 在特征图padding时,各方向的填充像素数不一定相同(不对称填充),也不一定补0 (C)</p> Signup and view all the answers

以下哪些方法能改进卷积神经网络的训练质量?

<p>batch normalization (A), dropout (B), 权重归一化 (D)</p> Signup and view all the answers

下面关于池化的描述中,正确的的说法有哪些?

<p>在人脸识别中采用较多池化的原因是为了获得人脸部的高层特征 (A), 池化方法也可以自定义 (B), 池化在CNN中没有增加可训练的参数,但减少较多的计算量,加快模型训练时间 (D)</p> Signup and view all the answers

以下有关卷积核的说法正确的是哪些?

<p>使用小卷积核可以减少参数量。 (B), 使用多层小卷积堆叠可以增加网络的非线性映射能力。 (C), 堆叠多层小卷积核的操作可以等同于大卷积核的操作。 (D)</p> Signup and view all the answers

Flashcards

Pooling in CNNs

Reduces computation and increases model training speed while extracting higher-level features. Techniques include max, min, average, and global pooling.

Convolutional Kernel

A matrix used in a convolution operation, filtering an image to extract features. It has a size defined by the height and width of the kernel and a number of channels.

SAME padding

Adding padding to image borders to maintain the output size consistent with the input size with convolution.

Depth/Channels

Number of filters applied in subsequent layers in convolution. More channels mean more feature maps.

Signup and view all the flashcards

Local Perceptron

A fundamental principle in CNNs that focuses on extracting local features in the input data.

Signup and view all the flashcards

CNN Parameter Count (Fully Connected)

Determining the total parameters in a fully connected layer given the input image dimensions and the hidden layer's neuron count.

Signup and view all the flashcards

CNN Parameter Count (Convolutional)

Calculating the total parameters in a convolutional layer, considering the kernel size, number of kernels, and input features.

Signup and view all the flashcards

Output Size (Convolution)

Calculating the dimensions of the output feature map based on input size, kernel size, stride, and padding.

Signup and view all the flashcards

Output Size (Pooling)

Calculating how pooling changes the size of an image by examining the kernel size and stride applied in the pooling operation.

Signup and view all the flashcards

Feature Vector Length

Determining the length of a flattened feature vector from an output feature map in a convolutional neural network.

Signup and view all the flashcards

Padding

Adding extra pixels to the image border in CNN to control output size.

Signup and view all the flashcards

Input Normalization

Standardizing input values to improve network training by reducing the impact of different scales in features.

Signup and view all the flashcards

Convolutional Kernel Size

The height and width dimensions of a convolutional kernel. Odd values are often used for various reasons.

Signup and view all the flashcards

Pooling Methods

Various techniques for down-sampling input data, such as max, min, average, and global pooling.

Signup and view all the flashcards

Network Depth

The number of layers in a deep learning neural network.

Signup and view all the flashcards

Dropout

A regularization technique in neural networks that randomly deactivates neurons during training, reducing overfitting

Signup and view all the flashcards

Study Notes

CNN 池化层错误描述

  • 池化在CNN中,可以减少计算量,加快模型训练。
  • 池化常用方法包括最大化池化、最小化池化、平均化池化和全局池化。
  • 池化方法不是自定义的。
  • 在人脸识别中使用池化,是为了提取人脸的高层特征。

CNN 卷积层错误描述

  • SAME 填充(padding)通常在图像边缘添加 0 值。
  • 卷积核有厚度(通道),通道越多,特征图(Feature map)越多。
  • 局部感知使网络提取局部特征。权值共享降低了网络训练难度。
  • 卷积是对图像窗口数据和滤波矩阵进行内积操作,在训练过程中滤波矩阵的大小和值不变。

深度学习网络结构描述

  • 网络层数越深,训练时间越长。五层网络的训练时间比四层网络更长。
  • 不同网络结构中,层数和神经元数量不一定是正相关的。层数越多,神经元数量不一定越多。
  • 网络层数越深,学习到的特征越多。十层结构优于五层结构。
  • 深层网络结构中学习到的特征通常与神经元参数量相关,也与样本特征数量相关。

全链接神经网络参数计算

  • 输入 300x300 彩色图像,隐藏层有 100 个神经元,则隐藏层参数(包括偏置)数量为 27,000,100。

卷积神经网络参数计算

  • 输入 300x300 彩色图像,第一隐藏层使用 100 个 5x5 卷积核,则隐藏层参数(包括偏置)数量为 7600。

卷积神经网络输出计算

  • 输入 44x44x16,卷积核大小 5x5 数量 32,步长 1,无填充(nopadding),输出 29x29x32。

输入特征图大小计算

  • 输入 65x65x6,卷积核 5x5,32 个,步幅 2,padding 2,输出 33x33x32。

最大池化层输出计算

  • 输入 32x32x6,步长 2,核大小 2 的最大池化,输出 16x16x6。

卷积神经网络展开向量长度计算

  • 卷积层输出 12x12x250,展开向量长度 36000。

卷积层输入输出特征图大小计算

  • 输入 63x63x6 输出 31x31x12 ,卷积核 5x5,步长 2,padding 1,输出 31x31x12。

卷积层大小计算

  • 输入 36x32x6,卷积核 5x3,通道 20,步长1,无 padding,输出 32x30x20。

卷积神经网络有效卷积计算

  • 输入 227x227x3,96 个卷积核 11x11,步长为 4,输出 55x55x96。

SAME 卷积输出计算

  • 输入 224x224x3,64 个 3x3 卷积核,SAME 卷积,步幅 1,输出 224x224x64,再进行步幅为2,大小为2x2 的最大值池化,输出 112x112x64。

卷积、池化区别

  • 卷积和池化都能产生特征,卷积核需要估计参数,池化不引入参数,通过平均或最大值计算特征。

Studying That Suits You

Use AI to generate personalized quizzes and flashcards to suit your learning preferences.

Quiz Team

Related Documents

深度学习-测试3 PDF

Description

本测验探讨了CNN的池化层和卷积层的常见错误理解,以及深度学习网络结构和参数计算的误区。通过分析这些误区,帮助学习者更深入地理解深度学习的核心概念和运作机制。

More Like This

CNN Concepts Quiz
5 questions

CNN Concepts Quiz

ValiantTundra6433 avatar
ValiantTundra6433
CNN Website User Experience Feedback Quiz
5 questions
CNN Ad Relevance and Technical Issues Quiz
1 questions
Introduction to CNN Image Challenges Quiz
30 questions
Use Quizgecko on...
Browser
Browser