합성곱 신경망 (CNN) 아키텍처

Choose a study mode

Play Quiz
Study Flashcards
Spaced Repetition
Chat to Lesson

Podcast

Play an AI-generated podcast conversation about this lesson
Download our mobile app to listen on the go
Get App

Questions and Answers

ResNet 아키텍처에서 잔차 연결(skip connection)을 도입한 주된 이유는 무엇인가?

  • 메모리 사용량을 줄이기 위해
  • 과적합을 방지하기 위해
  • 매우 깊은 네트워크에서 발생하는 기울기 소실 문제를 해결하기 위해 (correct)
  • 네트워크의 파라미터 수를 줄이기 위해

GoogLeNet(Inception)은 네트워크의 마지막 부분에 완전 연결 계층을 사용하여 최종 분류를 수행한다.

False (B)

EfficientNet은 네트워크의 깊이, 너비, 해상도를 조정하기 위해 어떤 방법을 사용하는가?

합성 스케일링(compound scaling)

MobileNet은 계산 비용을 줄이기 위해 ______(을)를 사용한다.

<p>depthwise separable convolution</p> Signup and view all the answers

다음 CNN 아키텍처를 그 특징과 연결하시오:

<p>LeNet-5 = 초기 CNN 아키텍처, 손글씨 숫자 인식에 사용 AlexNet = ReLU 활성화 함수와 Dropout 사용 VGGNet = 전체 아키텍처에 걸쳐 작은(3x3) convolutional filter를 균일하게 사용 GoogLeNet (Inception) = 병렬 convolutional pathway와 다양한 filter 크기 사용</p> Signup and view all the answers

Convolutional layer 내에서 filter의 주요 기능은 무엇인가?

<p>입력에서 특정 특징(예: 모서리, 질감)을 감지함 (C)</p> Signup and view all the answers

Pooling layer는 항상 feature map의 공간적 크기를 증가시킨다.

<p>False (B)</p> Signup and view all the answers

Batch Normalization layer의 주요 목적은 무엇인가?

<p>학습 가속화 및 네트워크 초기화에 대한 민감도 감소</p> Signup and view all the answers

Dropout layer는 훈련 시간 동안 입력 유닛의 일부를 무작위로 ______으로 설정하여 과적합을 방지한다.

<p>0</p> Signup and view all the answers

다음 활성화 함수를 그 특징과 연결하시오:

<p>ReLU (Rectified Linear Unit) = 단순성과 기울기 소실 문제 극복에 효과적 Sigmoid = 출력을 0과 1 사이의 값으로 변환 Tanh = 출력을 -1과 1 사이의 값으로 변환</p> Signup and view all the answers

CNN 훈련 시 데이터 증강(data augmentation)을 사용하는 주요 이유는 무엇인가?

<p>모델의 견고성 및 일반화 능력을 향상시키기 위해 (D)</p> Signup and view all the answers

전이 학습(transfer learning)은 항상 무작위로 초기화된 가중치를 사용하여 CNN 모델을 훈련하는 것을 포함한다.

<p>False (B)</p> Signup and view all the answers

가중치 초기화 방법 중 Xavier 초기화는 어떤 원리에 기반하는가?

<p>입력 및 출력 분산의 균형</p> Signup and view all the answers

최적화 알고리즘 중 Adam은 ______ 및 ______의 아이디어를 결합한 것이다.

<p>모멘텀, RMSprop</p> Signup and view all the answers

다음 평가 지표를 그 정의와 연결하시오:

<p>정확도 (Accuracy) = 전체 예측 중 올바르게 예측된 비율 정밀도 (Precision) = 양성으로 예측된 것 중 실제 양성의 비율 재현율 (Recall) = 실제 양성 중 양성으로 올바르게 예측된 비율 F1-score = 정밀도와 재현율의 조화 평균</p> Signup and view all the answers

CNN에서 'valid' padding은 출력 feature map의 크기에 어떤 영향을 미치는가?

<p>입력 크기를 감소시킨다. (D)</p> Signup and view all the answers

CNN 레이어에서 stride가 1보다 크면 이미지 크기가 증가한다.

<p>False (B)</p> Signup and view all the answers

이미지 데이터 세트를 normalization 할 때 일반적으로 사용하는 방법 두 가지를 쓰시오.

<p>Min-Max Scaling, Z-Score Standardization</p> Signup and view all the answers

손실 함수는 예측된 출력과 ______ 간의 차이를 정량화한다.

<p>ground truth labels</p> Signup and view all the answers

다음 CNN 아키텍처를 목표 애플리케이션과 연결하세요:

<p>MobileNet = 모바일 및 임베디드 비전 애플리케이션 EfficientNet = 더 나은 정확도와 효율성을 요구하는 다양한 이미지 처리 작업 ResNet = 매우 깊은 네트워크가 필요한 복잡한 이미지 인식 작업</p> Signup and view all the answers

Flashcards

CNN이란?

시각적 이미지를 분석하는 데 가장 일반적으로 사용되는 심층 신경망 클래스입니다.

CNN 설계 목적

입력 이미지에서 특징의 공간적 계층을 자동으로, 적응적으로 학습하도록 설계되었습니다.

LeNet-5 특징

합성곱 계층, 서브샘플링 계층 및 완전 연결 계층을 특징으로 합니다.

AlexNet

LeNet-5보다 훨씬 깊으며 2012년 ImageNet Large Scale Visual Recognition Challenge (ILSVRC)에서 획기적인 성능을 달성했습니다.

Signup and view all the flashcards

VGGNet

네트워크 깊이의 영향을 탐구하여 전체 아키텍처에서 매우 작은 (3x3) 합성곱 필터를 균일하게 사용했습니다.

Signup and view all the flashcards

GoogLeNet (Inception)

더 효율적인 컴퓨팅 리소스 사용을 허용하고 더 깊은 네트워크를 가능하게 하도록 설계된 Inception 모듈을 도입했습니다.

Signup and view all the flashcards

ResNet

매우 깊은 네트워크에서 기울기 소실 문제를 해결하기 위해 잔차 연결 (skip connections)을 도입했습니다.

Signup and view all the flashcards

DenseNet

각 레이어를 피드 포워드 방식으로 다른 모든 레이어에 연결하여 ResNet의 아이디어를 더욱 확장합니다.

Signup and view all the flashcards

MobileNet

효율성에 중점을 두고 모바일 및 임베디드 비전 애플리케이션을 위해 설계되었습니다.

Signup and view all the flashcards

EfficientNet

일련의 스케일링 계수를 사용하여 깊이/너비/해상도의 모든 차원을 균일하게 스케일링하는 복합 스케일링 방법을 사용합니다.

Signup and view all the flashcards

합성곱 계층

CNN의 핵심 구성 요소입니다.

Signup and view all the flashcards

활성화 함수

각 합성곱 계층의 출력에 비선형 변환을 적용합니다.

Signup and view all the flashcards

풀링 계층

특징 맵의 공간적 크기를 줄여 매개변수 수와 계산 복잡성을 줄입니다.

Signup and view all the flashcards

배치 정규화 계층

각 미니 배치에 대해 이전 계층의 활성화를 정규화합니다.

Signup and view all the flashcards

완전 연결 계층

하나의 계층에 있는 모든 뉴런을 다음 계층의 모든 뉴런에 연결합니다.

Signup and view all the flashcards

드롭아웃 계층

훈련 시간 동안 각 업데이트 시 입력 유닛의 일부를 무작위로 0으로 설정합니다.

Signup and view all the flashcards

패딩

이미지 테두리에 0 레이어를 추가합니다.

Signup and view all the flashcards

스트라이드

필터가 한 번에 이동하는 픽셀 수를 결정합니다.

Signup and view all the flashcards

데이터 준비

이미지의 크기 조정, 정규화 및 데이터 증가를 포함하여 이미지를 전처리합니다.

Signup and view all the flashcards

하이퍼파라미터 튜닝

학습률, 배치 크기 및 에포크 수와 같은 네트워크의 하이퍼파라미터를 최적화합니다.

Signup and view all the flashcards

Study Notes

  • Convolutional Neural Networks (CNNs) are a class of deep neural networks, most commonly applied to analyzing visual imagery.
  • CNNs are designed to automatically and adaptively learn spatial hierarchies of features from input images.
  • CNNs are used in various applications, including image and video recognition, image classification, object detection, and medical image analysis.

CNN Architectures

  • LeNet-5: One of the earliest CNN architectures, designed for handwritten digit recognition.
    • Featured convolutional layers, subsampling layers, and fully connected layers.
  • AlexNet: Significantly deeper than LeNet-5, it achieved breakthrough performance in the ImageNet Large Scale Visual Recognition Challenge (ILSVRC) in 2012.
    • Used ReLU activation functions and dropout for regularization.
  • VGGNet: Explored the impact of network depth, using very small (3x3) convolutional filters uniformly throughout the entire architecture.
    • VGGNet comes in variants such as VGG16 and VGG19, where the number indicates the weight layers in the network.
  • GoogLeNet (Inception): Introduced the Inception module, designed to allow for more efficient use of computing resources and enable deeper networks.
    • Used parallel convolutional pathways with varying filter sizes.
    • Did not employ fully connected layers at the end, relying instead on average pooling.
  • ResNet: Introduced residual connections (skip connections) to address the vanishing gradient problem in very deep networks.
    • Allows training of networks with hundreds or even thousands of layers.
  • DenseNet: Further extends the idea of ResNet by connecting each layer to every other layer in a feed-forward fashion.
    • Enhances feature reuse and reduces the number of parameters.
  • MobileNet: Designed for mobile and embedded vision applications, focusing on efficiency.
    • Uses depthwise separable convolutions to reduce the computational cost.
  • EfficientNet: Employs a compound scaling method to uniformly scale all dimensions of depth/width/resolution with a set of scaling coefficients.
    • Achieves better accuracy and efficiency than previous models.

CNN Layers

  • Convolutional Layer: The core building block of a CNN.
    • Performs a convolution operation on the input, using a set of learnable filters.
    • Filters detect specific features in the input, such as edges, corners, or textures.
    • Multiple filters are applied to each location in the input, creating a feature map.
  • Activation Function: Applies a non-linear transformation to the output of each convolutional layer.
    • Examples include ReLU (Rectified Linear Unit), sigmoid, and tanh.
    • ReLU is commonly used due to its simplicity and effectiveness in overcoming the vanishing gradient problem.
  • Pooling Layer: Reduces the spatial size of the feature maps, reducing the number of parameters and computational complexity.
    • Max pooling selects the maximum value from each patch of the feature map.
    • Average pooling computes the average value from each patch.
  • Batch Normalization Layer: Normalizes the activations of the previous layer for each mini-batch.
    • Helps to accelerate training and reduce sensitivity to network initialization.
  • Fully Connected Layer: Connects every neuron in one layer to every neuron in the next layer.
    • Typically used in the final layers of a CNN for classification tasks.
    • Maps the learned features into the final output classes.
  • Dropout Layer: Randomly sets a fraction of input units to 0 at each update during training time.
    • Prevents overfitting by reducing the interdependence of neurons.
  • Padding: Adding layers of zeros to the border of the images
    • Used for controlling the spatial size of the output features.
    • Types of padding: Valid, Same, Full
  • Strides: Determines how many pixels the filter will move over at a time.
    • Strides of greater than 1 will downsize the image

CNN Training

  • Data Collection and Preparation: Gathering a large and diverse dataset of images.
    • Preprocessing the images, including resizing, normalization, and data augmentation.
    • Splitting the data into training, validation, and test sets.
  • Model Definition: Selecting an appropriate CNN architecture, such as AlexNet, VGGNet, ResNet, or a custom design.
    • Defining the layers, activation functions, and other hyperparameters of the network.
  • Weight Initialization: Setting the initial values of the network's weights.
    • Methods include random initialization, Xavier initialization, and He initialization.
    • Proper initialization is crucial for effective training.
  • Forward Propagation: Passing the input images through the network to compute the output predictions.
    • Each layer performs its respective operations, transforming the input until the final output is obtained.
  • Loss Function: Quantifying the difference between the predicted outputs and the ground truth labels.
    • Common loss functions include cross-entropy loss for classification and mean squared error for regression.
  • Backpropagation: Computing the gradients of the loss function with respect to the network's weights.
    • Uses the chain rule to propagate the gradients backwards through the network.
  • Optimization Algorithm: Updating the network's weights based on the computed gradients.
    • Common optimization algorithms include stochastic gradient descent (SGD), Adam, and RMSprop.
    • The goal is to minimize the loss function and improve the network's accuracy.
  • Hyperparameter Tuning: Optimizing the hyperparameters of the network, such as learning rate, batch size, and number of epochs.
    • Techniques include grid search, random search, and Bayesian optimization.
  • Regularization: Applying techniques to prevent overfitting, such as dropout, weight decay, and batch normalization.
    • Regularization helps to improve the generalization performance of the network.
  • Evaluation: Assessing the performance of the trained network on the validation and test sets.
    • Metrics include accuracy, precision, recall, F1-score, and area under the ROC curve (AUC).
  • Deployment: Deploying the trained network for real-world applications, such as image classification, object detection, or image segmentation.
  • Data Augmentation: Artificially increasing the size of the training set by applying transformations to the original images.
    • Common transformations include rotations, flips, zooms, and translations.
    • Helps to improve the network's robustness and generalization ability.
  • Transfer Learning: Utilizing pre-trained CNN models on large benchmark datasets, such as ImageNet.
    • Fine-tuning the pre-trained models on a specific task with a smaller dataset.
    • Can significantly reduce training time and improve performance.

Studying That Suits You

Use AI to generate personalized quizzes and flashcards to suit your learning preferences.

Quiz Team

More Like This

Introduction to CNN Image Challenges Quiz
30 questions
CNN News Quiz Flashcards
16 questions

CNN News Quiz Flashcards

AmicableNeodymium avatar
AmicableNeodymium
Use Quizgecko on...
Browser
Browser