LSTM, 활성화 함수, 그리고 텐서플로우

Choose a study mode

Play Quiz
Study Flashcards
Spaced Repetition
Chat to Lesson

Podcast

Play an AI-generated podcast conversation about this lesson
Download our mobile app to listen on the go
Get App

Questions and Answers

_______은(는) 과거 정보를 기억하여 시계열 데이터를 처리하는 데 유용한 신경망 구조이다.

RNN

다음 중 LSTM의 핵심 구성 요소가 아닌 것은 무엇인가?

  • Output Gate
  • Batch Normalization (correct)
  • Input Gate
  • Cell State

Transfer Learning은 대규모 데이터셋으로 학습된 모델을 사용하여 다른 유사한 작업에 적용하는 방법이다.

True (A)

다음 중 Gradient Descent의 단점을 보완하기 위해 사용되는 Optimizer가 아닌 것은 무엇인가?

<p>SGD (A)</p> Signup and view all the answers

Binary Classification 문제에서 주로 Softmax Activation Function이 사용된다.

<p>False (B)</p> Signup and view all the answers

TensorFlow에서 MNIST 데이터셋을 로드하기 위해 사용되는 함수는 무엇인가?

<p>keras.datasets.mnist.load_data() (B)</p> Signup and view all the answers

DNN 모델을 학습할 때 모델의 성능을 측정하기 위해 사용하는 지표들을 무엇이라고 하는가?

<p>Metrics</p> Signup and view all the answers

train_test_split 함수는 머신러닝 모델의 과적합을 방지하기 위해 데이터를 훈련 세트와 검증 세트로 나누는 데 사용된다.

<p>True (A)</p> Signup and view all the answers

Batch Normalization의 주요 효과는 무엇인가?

<p>학습 속도 향상 및 안정화 (A)</p> Signup and view all the answers

LSTM에서 과거 정보를 선택적으로 망각하는 역할을 하는 gate의 이름은?

<p>Forget Gate</p> Signup and view all the answers

CNN에서 Receptive Field는 입력 데이터에 대한 특정 뉴런이 '볼' 수 있는 영역의 크기를 나타낸다.

<p>True (A)</p> Signup and view all the answers

다음 중 CNN에서 Receptive Field 크기를 증가시키는 방법이 아닌 것은?

<p>Skip Connection 사용 (A)</p> Signup and view all the answers

CNN에서 층이 깊어질수록 Gradient가 소실되는 문제를 무엇이라고 하는가?

<p>Gradient Vanishing</p> Signup and view all the answers

Feature Map은 CNN에서 Convolution Layer를 통과한 결과로 얻어지는 이미지의 특징을 나타낸다.

<p>True (A)</p> Signup and view all the answers

다음 중 RNN의 Vanishing Gradient 문제를 해결하기 위해 제시된 구조가 아닌 것은?

<p>CNN (B)</p> Signup and view all the answers

Truncated BPTT는 RNN 학습 시 전체 Time Step을 사용하는 대신 일정 길이의 Time Step만 사용하는 방법이다.

<p>True (A)</p> Signup and view all the answers

Transformer 모델에서 Self-Attention을 계산하는 데 필요한 요소가 아닌 것은?

<p>Bias (B)</p> Signup and view all the answers

Transformer 모델에서 Attention Weights 계산 시 Softmax 함수를 적용하는 이유는 무엇인가?

<p>확률 분포로 만들기 위해</p> Signup and view all the answers

Language Model은 주어진 문맥에서 다음에 나올 단어를 예측하는 모델이다.

<p>True (A)</p> Signup and view all the answers

다음 중 LLM(Large Language Model)의 Attention Output을 계산하는 데 필요한 요소가 아닌 것은?

<p>Loss Function (A)</p> Signup and view all the answers

Inference는 학습된 모델을 사용하여 새로운 데이터에 대한 예측을 수행하는 과정이다.

<p>True (A)</p> Signup and view all the answers

GPU는 LLM의 학습 속도를 향상시키는 데 중요한 역할을 한다. GPU는 무엇의 약자인가?

<p>Graphics Processing Unit</p> Signup and view all the answers

다음 중 RAG(Retrieval Augmented Generation)의 핵심 구성 요소가 아닌 것은?

<p>Fine-tuning (C)</p> Signup and view all the answers

LLM 파인튜닝은 특정 작업에 맞게 LLM을 추가적으로 학습하는 과정이다.

<p>True (A)</p> Signup and view all the answers

RLHF는 무엇의 약자인가?

<p>Reinforcement Learning from Human Feedback</p> Signup and view all the answers

다음 중 RLHF의 학습 단계가 아닌 것은?

<p>Adversarial Training (A)</p> Signup and view all the answers

Auto-encoder는 주로 이상 탐지(Anomaly Detection)에 사용될 수 있다.

<p>True (A)</p> Signup and view all the answers

GAN에서 생성자는 어떤 역할을 하는가?

<p>가짜 데이터 생성</p> Signup and view all the answers

GAN에서 판별자는 어떤 역할을 하는가?

<p>진짜와 가짜 데이터 구별 (A)</p> Signup and view all the answers

GAN에서 Latent Vector는 생성자가 가짜 데이터를 생성하는 데 사용하는 무작위 벡터이다.

<p>True (A)</p> Signup and view all the answers

GAN 학습 시 생성자와 판별자의 성능이 균형을 이루지 못하고 한쪽으로 치우치는 현상을 무엇이라고 하는가?

<p>Mode Collapse (D)</p> Signup and view all the answers

강화학습에서 Agent는 어떤 역할을 하는가?

<p>행동 수행</p> Signup and view all the answers

강화학습에서 Environment는 Agent가 상호작용하는 대상이다.

<p>True (A)</p> Signup and view all the answers

강화학습에서 State는 무엇을 나타내는가?

<p>환경의 현재 상태 (B)</p> Signup and view all the answers

강화학습에서 Action은 Agent가 Environment에 대해 수행하는 것을 의미한다. Action의 예시를 들어보시오.

<p>이동, 공격</p> Signup and view all the answers

강화학습에서 Reward는 Agent의 행동에 대한 긍정적 또는 부정적 피드백이다.

<p>True (A)</p> Signup and view all the answers

강화학습에서 Policy는 무엇을 나타내는가?

<p>Agent가 상태에 따라 어떤 행동을 할지 결정하는 규칙 (C)</p> Signup and view all the answers

강화학습에서 Value Function은 무엇을 예측하는 함수인가?

<p>기대 보상</p> Signup and view all the answers

DQN(Deep Q-Network)은 Q-Value를 추정하는 데 딥러닝을 사용하는 강화학습 알고리즘이다.

<p>True (A)</p> Signup and view all the answers

PPO(Proximal Policy Optimization)는 무엇을 최적화하는 강화학습 알고리즘인가?

<p>정책 (D)</p> Signup and view all the answers

DQN에서 Replay Buffer는 무엇을 저장하는 데 사용되는가?

<p>경험</p> Signup and view all the answers

DQN의 Loss Function은 Q-Value와 Target Q-Value의 차이를 최소화하는 방향으로 학습된다.

<p>True (A)</p> Signup and view all the answers

다음 중 DQN에서 Target Network를 사용하는 주된 이유는 무엇인가?

<p>학습 안정성 확보 (D)</p> Signup and view all the answers

Flashcards

RNN이란?

과거 데이터의 순차적 정보를 처리하는 인공 신경망 모델

LSTM이란?

RNN의 한 종류로, Cell State와 Gate를 사용하여 장기 의존성 문제를 해결

LSTM의 Gate란?

잊기, 입력, 출력 게이트를 통해 정보의 흐름을 조절하는 LSTM의 핵심 요소

전이 학습 (Transfer Learning)이란?

이미 학습된 모델을 다른 task에 재사용하는 기법

Signup and view all the flashcards

Gradient Descent란?

신경망 학습 시 가중치를 조절하여 오차를 줄이는 방법

Signup and view all the flashcards

Sigmoid란?

이진 분류에서 주로 사용되는 활성화 함수

Signup and view all the flashcards

Softmax란?

다중 분류에서 사용되는 활성화 함수

Signup and view all the flashcards

Metrics란?

모델의 성능을 평가하는 지표

Signup and view all the flashcards

Train/test split이란?

모델의 학습 데이터를 나누는 과정

Signup and view all the flashcards

Batch Normalization이란?

입력 데이터의 분포를 평균 0, 분산 1로 만드는 정규화 기법

Signup and view all the flashcards

Receptive Field란?

CNN에서 입력 이미지의 특정 영역에 대한 정보만 활성화

Signup and view all the flashcards

Dilated Convolution이란?

CNN에서 receptive field를 넓히는 방법

Signup and view all the flashcards

Residual Connection이란?

CNN에서 이전 layer의 출력 일부를 skip하여 더하는 연결 방식

Signup and view all the flashcards

Gradient Vanishing이란?

신경망 학습 시 기울기가 소실되어 학습이 되지 않는 문제

Signup and view all the flashcards

Feature map이란?

CNN에서 특징을 추출한 이미지

Signup and view all the flashcards

Pooling이란?

CNN에서 이미지의 크기를 줄이는 방법

Signup and view all the flashcards

Truncated BPTT란?

RNN에서 긴 시퀀스를 끊어서 학습하는 방법

Signup and view all the flashcards

GRU란?

LSTM과 유사하지만 구조가 더 단순한 순환 신경망

Signup and view all the flashcards

Transformer란?

어텐션 메커니즘을 사용하여 입력 시퀀스의 각 부분에 집중하는 모델

Signup and view all the flashcards

Self-Attention이란?

Transformer에서 입력 단어 간의 관계를 파악하는 방법

Signup and view all the flashcards

Language Model이란?

큰 용량의 데이터셋으로 사전 학습된 모델

Signup and view all the flashcards

Regressive Model?

과거의 정보를 바탕으로 미래를 예측하는 방식

Signup and view all the flashcards

RAG란?

LLM에서 쿼리에 따라 관련된 정보를 검색하고 사용하는 방식

Signup and view all the flashcards

LLM이란?

매우 큰 규모의 언어 모델

Signup and view all the flashcards

RLHF란?

사람의 피드백을 이용하여 모델을 개선하는 학습 방법

Signup and view all the flashcards

Auto-encoder란?

비지도 학습으로 데이터의 특징을 학습하는 모델

Signup and view all the flashcards

GAN이란?

생성 모델과 판별 모델을 사용하여 이미지를 생성하는 모델

Signup and view all the flashcards

Mode Collapse란?

GAN 학습 시 모델이 다양한 데이터를 생성하지 못하는 현상

Signup and view all the flashcards

강화 학습 (RL)이란?

인공지능 agent가 환경과 상호작용하며 학습하는 방법

Signup and view all the flashcards

Policy란?

강화 학습에서 agent가 행동하는 방법

Signup and view all the flashcards

Value Function이란?

강화 학습에서 상태의 가치를 나타내는 함수

Signup and view all the flashcards

Replay Buffer란?

경험을 저장하고 재사용하는 방법

Signup and view all the flashcards

신뢰 영역 확보

PPO?

Signup and view all the flashcards

Study Notes

  • LSTM (Long Short-Term Memory)은 순환 신경망(RNN)의 한 종류이다.
  • 오토인코더는 데이터의 특징을 추출하는 데 사용된다.
  • Transfer Learning은 ImageNet과 같이 사전 훈련된 모델을 활용하여 학습 효율을 높이는 방법이다.
  • Gradient Descent는 Adam Optimizer와 함께 모델의 최적화를 위해 사용된다.

활성화 함수 (Activation Function)

  • 이진 분류에는 시그모이드 함수가 사용된다.
  • 다중 분류에는 소프트맥스 함수가 사용된다.

RidgeClassifier

  • Tensorflow를 사용하여 MNIST 데이터셋을 학습할 수 있다.
  • keras.datasets.mnist.load_data() 함수를 사용하여 MNIST 데이터셋을 로드한다.
  • DNN 모델은 Optimizer, Loss function, Metrics를 사용하여 컴파일된다.
  • Sklearn을 사용하여 데이터를 train_test_split 할 수 있다.
  • Batch Normalization은 학습 속도를 향상시키고 과적합을 방지하는 데 사용된다.
  • RNN은 순차적인 데이터를 처리하는 데 유용하다.
  • LSTM은 RNN의 한 종류로, Cell State와 Gate (Forget, Input, Output)를 사용하여 장기 의존성을 해결한다.

LSTM Gate

  • Cell state는 LSTM의 핵심 구성 요소이다.
  • Forget gate는 과거 정보를 얼마나 잊을지를 결정한다.
  • Input gate는 새로운 정보를 얼마나 Cell state에 추가할지를 결정한다.
  • Output gate는 Cell state의 정보를 얼마나 출력할지를 결정한다.
  • Cell state는 LSTM을 통해 업데이트된다.
  • C_t-1은 이전 Cell state를, C_t는 현재 Cell state를 나타낸다.
  • Forget gate는 C_t-1의 정보를 얼마나 유지할지를 결정한다.
  • Input gate는 새로운 정보를 얼마나 C_t에 추가할지를 결정한다.
  • Output gate는 C_t의 정보를 얼마나 출력할지를 결정한다.
  • CNN에서 receptive field는 입력 데이터의 어떤 영역을 모델이 한 번에 볼 수 있는지를 나타낸다.
  • Receptive field는 입력 데이터에서 Context를 추출하는 데 중요한 역할을 한다.
  • Pooling, dilated convolution, skip connection, residual connection 등은 CNN의 성능을 향상시키는 데 사용된다.
  • Dilated convolution은 receptive field를 넓히는 데 사용된다.
  • Residual connection은 CNN에서 Gradient vanishing 문제를 해결하는 데 사용된다.
  • Feature map은 CNN에서 각 레이어의 출력을 시각화한 것이다.
  • CNN은 이미지 분류, 객체 탐지 등 다양한 컴퓨터 비전 문제에 사용된다.

잔류 연결 (Residual Connection)

  • 잔류 연결은 CNN에서 Gradient vanishing 문제를 완화하는 데 기여한다.
  • RNN은 순차 데이터 처리에 적합하다.
  • Vanishing Gradient 문제는 RNN 학습 시 발생할 수 있다.
  • Time step은 truncated BPTT (Backpropagation Through Time)에서 중요한 개념이다.

LSTM 관련 용어

  • GRU는 LSTM의 변형으로, update gate와 reset gate를 사용한다.
  • Transformer는 Self-Attention 메커니즘을 기반으로 한다.
  • Attention(Q,K,V)는 softmax(QK^T / sqrt(d_k)) * V로 계산된다. 여기서 Q, K, V는 각각 Query, Key, Value를 의미한다.
  • Softmax는 Attention weights를 계산하는 데 사용된다.
  • Attention weight는 입력 데이터의 각 부분에 대한 중요도를 나타낸다.
  • Attention output은 Attention weight와 입력 데이터를 곱하여 얻는다.
  • DNN은 Attention output을 처리하는 데 사용된다.
  • Activation function은 DNN의 출력을 활성화하는 데 사용된다.
  • Language model은 텍스트 생성에 사용된다.
  • Regressive 모델은 이전 출력을 기반으로 다음 출력을 예측한다.
  • Key, Query, Value는 Attention 메커니즘에서 중요한 역할을 한다.
  • LLM (Large Language Model)은 대규모 텍스트 데이터를 학습한 모델이다.
  • LLM attention output은 LLM의 Attention 메커니즘의 출력을 나타낸다.
  • 추론 (Inference)은 학습된 모델을 사용하여 새로운 데이터에 대한 예측을 수행하는 과정이다.
  • GPU (Graphics Processing Unit)는 LLM 학습 및 추론에 사용되는 하드웨어이다.

RAG (Retrieval-Augmented Generation)

  • RAG는 검색된 정보를 기반으로 텍스트를 생성하는 방법이다.
  • LLM은 RAG에서 텍스트 생성 모델로 사용된다.

RLHF (Reinforcement Learning from Human Feedback)

  • RLHF는 인간 피드백을 사용하여 강화 학습 모델을 학습하는 방법이다.
  • Pre-training은 RLHF의 첫 번째 단계이다.
  • Supervised Fine-tuning (SFT)은 사전 훈련된 모델을 특정 작업에 맞게 조정하는 단계이다.
  • Auto-encoder는 이상 감지 (Anomaly detection)에 사용될 수 있다.

GAN (Generative Adversarial Network)

  • GAN은 생성자와 판별자로 구성된다.
  • 생성자는 가짜 데이터를 생성하고, 판별자는 진짜 데이터와 가짜 데이터를 구별한다.
  • 잠재 벡터 (latent vector)는 생성자가 데이터를 생성하는 데 사용하는 입력 벡터이다.
  • GAN은 가짜 이미지 생성, 이미지 변환 등 다양한 작업에 사용된다.
  • GAN 학습 시 mode collapse 문제가 발생할 수 있다. Mode collapse는 생성자가 다양한 데이터를 생성하지 못하고 특정 패턴의 데이터만 생성하는 현상이다.

강화 학습 (Reinforcement Learning, RL)

  • 강화 학습은 Agent가 Environment와 상호 작용하며 보상을 최대화하는 방향으로 학습하는 방법이다.
  • Agent는 Environment에서 State를 관찰하고 Action을 수행한다.
  • Environment는 Agent의 Action에 따라 State를 변경하고 Reward를 제공한다.

강화 학습 요소:

  • State: Agent가 현재 상황을 인식하는 데 사용하는 정보
  • Action: Agent가 Environment에 대해 수행하는 행위
  • Reward: Agent가 Action에 대해 받는 보상
  • Policy: Agent가 State에 따라 Action을 선택하는 전략
  • Value function: 특정 State 또는 Action의 가치를 나타내는 함수

강화 학습 알고리즘

  • DQN (Deep Q-Network)은 Q-value를 사용하여 최적의 Action을 선택한다. Q-value는 특정 State에서 특정 Action을 수행했을 때 받을 수 있는 보상의 기댓값이다.
  • PPO (Proximal Policy Optimization)는 Policy gradient 방법을 사용하여 Policy를 최적화한다.
  • PPO는 Trust Region 방법을 사용하여 Policy update의 크기를 제한한다.
  • Loss function은 모델의 예측과 실제 값 사이의 차이를 나타내는 함수이다.
  • Clipping은 Loss function의 값을 특정 범위로 제한하는 방법이다.
  • Et는 expectation (기댓값)을 나타낸다.

DQN 관련 용어

  • Q-Network는 Q-value를 예측하는 신경망이다.
  • Target Network는 Q-Network의 업데이트를 안정화하기 위해 사용되는 별도의 신경망이다.
  • Replay Buffer는 Agent가 경험한 State, Action, Reward, next state를 저장하는 메모리이다.
  • Loss function은 Q-Network의 예측과 실제 Q-value 사이의 차이를 나타내는 함수이다.
  • Q-value는 특정 State에서 특정 Action을 수행했을 때 받을 수 있는 보상의 기댓값이다.

Studying That Suits You

Use AI to generate personalized quizzes and flashcards to suit your learning preferences.

Quiz Team

Related Documents

More Like This

LSTM Text Classification Quiz
5 questions
Unraveling LSTM Networks
3 questions
LSTM Networks for Text Classification
16 questions
Stock Market Analysis with LSTM
24 questions
Use Quizgecko on...
Browser
Browser