Podcast
Questions and Answers
행렬 완성(Matrix Completion, MC)의 주요 활용 분야는 무엇인가?
행렬 완성(Matrix Completion, MC)의 주요 활용 분야는 무엇인가?
- 자연어 처리
- 이미지 압축
- 음성 인식
- 추천 시스템 (correct)
융합 학습(Fusion learning)은 서로 다른 유형의 입력 데이터를 동시에 사용하지 않는다.
융합 학습(Fusion learning)은 서로 다른 유형의 입력 데이터를 동시에 사용하지 않는다.
False (B)
행렬 완성 기술이 융합 학습에서 직면하는 주요 문제점은 무엇인가?
행렬 완성 기술이 융합 학습에서 직면하는 주요 문제점은 무엇인가?
결측 데이터
오토인코더의 주요 역할은 ______이다.
오토인코더의 주요 역할은 ______이다.
다음 오토인코더 유형과 특징을 연결하시오:
다음 오토인코더 유형과 특징을 연결하시오:
디노이징 오토인코더(DAE)가 일반 오토인코더와 다른 점은 무엇인가?
디노이징 오토인코더(DAE)가 일반 오토인코더와 다른 점은 무엇인가?
디노이징 오토인코더의 주요 동기는 행렬 완성 기술 개발과 직접적인 관련이 있다.
디노이징 오토인코더의 주요 동기는 행렬 완성 기술 개발과 직접적인 관련이 있다.
디노이징 오토인코더에서 노이즈 패턴에 따라 구분되는 두 가지 주요 유형은 무엇인가?
디노이징 오토인코더에서 노이즈 패턴에 따라 구분되는 두 가지 주요 유형은 무엇인가?
디노이징 오토인코더를 사용하여 행렬을 완성할 때, 누락된 항목은 오토인코더의 ______으로 처리된다.
디노이징 오토인코더를 사용하여 행렬을 완성할 때, 누락된 항목은 오토인코더의 ______으로 처리된다.
다음 용어와 설명을 연결하시오:
다음 용어와 설명을 연결하시오:
행렬 완성을 위해 오토인코더를 학습하는 일반적인 방법은 무엇인가?
행렬 완성을 위해 오토인코더를 학습하는 일반적인 방법은 무엇인가?
오토인코더는 생성 모델로 사용될 수 없다.
오토인코더는 생성 모델로 사용될 수 없다.
디노이징 오토인코더 학습 시 입력에 노이즈를 추가하는 주된 이유는 무엇인가?
디노이징 오토인코더 학습 시 입력에 노이즈를 추가하는 주된 이유는 무엇인가?
합성 데이터를 생성하기 위해 GTA V와 같은 시뮬레이터를 사용하는 방법은 ______ 기반 학습에 해당한다.
합성 데이터를 생성하기 위해 GTA V와 같은 시뮬레이터를 사용하는 방법은 ______ 기반 학습에 해당한다.
다음 용어와 관계를 연결하시오:
다음 용어와 관계를 연결하시오:
다음 중 오토인코더의 역할로 적절하지 않은 것은?
다음 중 오토인코더의 역할로 적절하지 않은 것은?
GAN(Generative Adversarial Networks)은 오토인코더보다 덜 강력한 생성 모델이다.
GAN(Generative Adversarial Networks)은 오토인코더보다 덜 강력한 생성 모델이다.
오토인코더 학습 방법 중 가중치 공유를 통해 효율성을 높이는 방법은 무엇인가?
오토인코더 학습 방법 중 가중치 공유를 통해 효율성을 높이는 방법은 무엇인가?
GAN에서 생성자는 ______ 데이터를 생성하는 역할을 한다.
GAN에서 생성자는 ______ 데이터를 생성하는 역할을 한다.
GAN에서 판별자의 역할은 무엇인가?
GAN에서 판별자의 역할은 무엇인가?
GAN 학습 시 생성자와 판별자는 서로 협력하여 최적의 성능을 달성한다.
GAN 학습 시 생성자와 판별자는 서로 협력하여 최적의 성능을 달성한다.
GAN 학습의 궁극적인 목표는 무엇인가?
GAN 학습의 궁극적인 목표는 무엇인가?
GAN에서 생성자의 입력으로 사용되는 것은 일반적으로 ______이다.
GAN에서 생성자의 입력으로 사용되는 것은 일반적으로 ______이다.
다음 GAN 구성 요소와 그 역할 연결:
다음 GAN 구성 요소와 그 역할 연결:
GAN 학습 시, 판별자의 손실 함수를 최소화하는 것은 어떤 의미인가?
GAN 학습 시, 판별자의 손실 함수를 최소화하는 것은 어떤 의미인가?
GAN 학습에서 생성자의 목표는 판별자를 속이는 것이 아니라, 진짜 데이터를 모방하는 것이다.
GAN 학습에서 생성자의 목표는 판별자를 속이는 것이 아니라, 진짜 데이터를 모방하는 것이다.
GAN 학습 시, 생성자와 판별자 중 어느 쪽이 먼저 학습되어야 하는가?
GAN 학습 시, 생성자와 판별자 중 어느 쪽이 먼저 학습되어야 하는가?
GAN 학습의 불안정성을 해결하기 위해 생성자의 손실 함수 대신 사용하는 대리 손실(proxy loss)은 ______이다.
GAN 학습의 불안정성을 해결하기 위해 생성자의 손실 함수 대신 사용하는 대리 손실(proxy loss)은 ______이다.
GAN 학습 시, 생성자의 학습이 불안정해지는 이유는 무엇인가?
GAN 학습 시, 생성자의 학습이 불안정해지는 이유는 무엇인가?
GAN 학습 시, 생성자의 손실 함수를 최대화하는 것이 학습 안정성에 도움이 된다.
GAN 학습 시, 생성자의 손실 함수를 최대화하는 것이 학습 안정성에 도움이 된다.
GAN 학습에서 K:1 교대 경사 하강법은 무엇을 의미하는가?
GAN 학습에서 K:1 교대 경사 하강법은 무엇을 의미하는가?
GAN 학습 시 최적화 문제를 해결하기 위해 주로 사용하는 방법은 ______이다.
GAN 학습 시 최적화 문제를 해결하기 위해 주로 사용하는 방법은 ______이다.
다음 GAN 학습 관련 용어와 설명을 연결하시오:
다음 GAN 학습 관련 용어와 설명을 연결하시오:
디노이징 오토인코더에서 랜덤 마스킹을 적용하는 이유는 무엇인가?
디노이징 오토인코더에서 랜덤 마스킹을 적용하는 이유는 무엇인가?
랜덤 마스킹은 항상 Gaussian noise보다 나은 결과를 가져온다.
랜덤 마스킹은 항상 Gaussian noise보다 나은 결과를 가져온다.
매트릭스 완성에서 누락된 항목을 추정하기 위해 디노이징 오토인코더는 어떤 방식으로 사용되는가?
매트릭스 완성에서 누락된 항목을 추정하기 위해 디노이징 오토인코더는 어떤 방식으로 사용되는가?
오토인코더는 데이터의 ______을 학습하는 데 사용된다.
오토인코더는 데이터의 ______을 학습하는 데 사용된다.
다음 중 GAN의 두 가지 주요 구성 요소 및 해당 기능을 지정하십시오:
다음 중 GAN의 두 가지 주요 구성 요소 및 해당 기능을 지정하십시오:
Flashcards
행렬 완성(Matrix Completion, MC)
행렬 완성(Matrix Completion, MC)
행렬에서 누락된 값을 추정하여 행렬을 완성하는 작업입니다.
Fusion learning
Fusion learning
다양한 유형의 입력을 동시에 사용하는 학습 방법입니다.
Denoising Autoencoder (DAE)
Denoising Autoencoder (DAE)
입력 데이터의 중요한 특징을 잘 포착하도록 학습된 오토인코더의 변형입니다.
Additive Gaussian noise
Additive Gaussian noise
Signup and view all the flashcards
Random masking
Random masking
Signup and view all the flashcards
행렬 완성 (with DAE)
행렬 완성 (with DAE)
Signup and view all the flashcards
오토인코더 학습 (with observed data)
오토인코더 학습 (with observed data)
Signup and view all the flashcards
Generative model
Generative model
Signup and view all the flashcards
Generative Adversarial Networks (GANs)
Generative Adversarial Networks (GANs)
Signup and view all the flashcards
Discriminator
Discriminator
Signup and view all the flashcards
Generator
Generator
Signup and view all the flashcards
Discriminator 성능
Discriminator 성능
Signup and view all the flashcards
GAN 손실 함수
GAN 손실 함수
Signup and view all the flashcards
교대 경사 하강법
교대 경사 하강법
Signup and view all the flashcards
학습 불안정성 (in GANs)
학습 불안정성 (in GANs)
Signup and view all the flashcards
Semi-supervised learning (SSL)
Semi-supervised learning (SSL)
Signup and view all the flashcards
오토인코더 기반 SSL
오토인코더 기반 SSL
Signup and view all the flashcards
고급 SSL
고급 SSL
Signup and view all the flashcards
일관성 손실
일관성 손실
Signup and view all the flashcards
특징 매칭 손실
특징 매칭 손실
Signup and view all the flashcards
유사성 그래프
유사성 그래프
Signup and view all the flashcards
Transfer learning
Transfer learning
Signup and view all the flashcards
Fine tuning
Fine tuning
Signup and view all the flashcards
Partial tuning
Partial tuning
Signup and view all the flashcards
Simulation-based learning
Simulation-based learning
Signup and view all the flashcards
Reinforcement Learning (RL)
Reinforcement Learning (RL)
Signup and view all the flashcards
Agent (in RL)
Agent (in RL)
Signup and view all the flashcards
Environment (in RL)
Environment (in RL)
Signup and view all the flashcards
Action (in RL)
Action (in RL)
Signup and view all the flashcards
Observation (in RL)
Observation (in RL)
Signup and view all the flashcards
Reward (in RL)
Reward (in RL)
Signup and view all the flashcards
액션 정책(Action policy)
액션 정책(Action policy)
Signup and view all the flashcards
Markov Decision Process (MDP)
Markov Decision Process (MDP)
Signup and view all the flashcards
Markov property
Markov property
Signup and view all the flashcards
상태 변환 확률
상태 변환 확률
Signup and view all the flashcards
Bellman equation
Bellman equation
Signup and view all the flashcards
할인 계수(Discount factor)
할인 계수(Discount factor)
Signup and view all the flashcards
Q-가치 반복 알고리즘
Q-가치 반복 알고리즘
Signup and view all the flashcards
Q-learning
Q-learning
Signup and view all the flashcards
Deep Q-learning
Deep Q-learning
Signup and view all the flashcards
Study Notes
Autoencoder 및 행렬 완성
- 강의 21과 22, Suh Changho 교수, 2024년 6월 18일, 19일 강의 자료 요약
개요
- 행렬 완성(MC)이 무엇인지 파악
- 융합 학습과의 연결성 탐구
- 행렬 완성에 중요한 역할을 하는 오토인코더 변형 연구: 디노이징 오토인코더
- 디노이징 오토인코더를 활용하는 최신 MC 기술 연구
행렬 완성
- 행렬 완성은 누락된 엔트리를 추정하는 것
- 추천 시스템에 사용 가능
- 많은 행렬의 낮은 랭크 구조를 활용
퓨전 학습과의 연관성
- 퓨전 학습은 다양한 유형의 입력을 동시에 사용하는 학습 방법론
- 종종 데이터가 누락되는 문제 발생
- 소수의 예시만 모든 유형의 데이터에 사용 가능
- 누락된 엔트리 추정은 퓨전 학습 문제 해결에 도움을 줌
행렬 완성을 위한 방법
- 최신 방법 중 하나는 오토인코더를 이용하는 것
- 디노이징 오토인코더 (DAE) 기반
디노이징 오토인코더 (DAE)
- DAE의 동기는 행렬 완성과는 관련이 없음
- 오토인코더의 주요 역할인 차원 축소에서 영감을 받음
- 내부 특징이 입력의 핵심 패턴을 잘 포착하기를 목표
- 입력을 노이즈에 강하게 만드는 것이 중요
잡음
- 잡음은 일반적으로 입력에 적용
- 잡음 패턴에 따라 두 가지 유형이 있음
- Type I: 가산 가우시안 잡음
- Type II: 랜덤 마스킹
랜덤 마스킹
- 랜덤 마스킹은 행렬 완성에 영감을 줌
행렬 완성 연결
- 누락된 엔트리를 가진 각 예제를 AE에 입력으로 사용
- 출력을 완전히 채워진 버전으로 간주
- DAE의 좋은 성능 덕분에 누락된 엔트리가 잘 재구성될 것으로 기대
AE 학습 방법
- 단순 방법: 관찰된 엔트리에 대한 쌍 인덱스 집합을 사용하여 손실을 최소화
GAN (Generative Adversarial Networks)
- 오토인코더는 생성 모델로 사용될 수 있음
- GAN은 더 강력한 생성 모델
- 최근 대규모 언어 모델(LLM)에 대한 관심 증가
강의 22 및 23 미리보기
- GAN 아키텍처 및 해당 최적화를 조사
- 최적화 문제 해결 방법 강구
- GAN의 구현 세부 사항 연구
- 대규모 언어 모델 간략하게 논의
- GAN 최적화 문제를 해결하는 방법 강구
생성적 모델링
- 실제 데이터와 유사한 분포를 갖는 가짜 데이터 생성
적대적 생성 네트워크
- 생성된 가짜 샘플에서 실제 샘플을 구별
- 입력이 실제 데이터인 경우 큰 D(.) 값을 생성하고 생성된 데이터인 경우 작은 값을 생성하는 것을 목표
최적화
- 판별자는 D(X) & 1 – D(X~)를 최대화하려고 함
- 생성자는 이미지의 로그를 최소화하려고 함
로그 손실
- Goodfellow는 다음 대신 로그 손실을 사용
- m
- maxD m1 logD(x(i))+m1log(1-D(x(i)))
- i=1 i=1
- 이 방정식을 푸는 방법
신경망 최적화
- 신경망을 함수 클래스라고 간주
- 매개변수화: Gw(·) 및 Dθ(·)
매개변수를 사용한 최적화
- 질문: 최대-최소(min-max) 최적화 처리 방법
- 정류점(stationary point) 찾기
대체 경사 하강법 (Alternating gradient descent)
- 반복적인 접근 방식
- 생성기의 가중치를 업데이트한 후 판별기의 가중치를 업데이트
- 판별기의 가중치 업데이트를 k번 반복 가능
- 관찰: 이 방식은 함수 최적화에 사용
- 함수 클래스에 대한 신경망 적용
k:1 교대 기울기 하강법
- 생성기의 가중치를 업데이트한 후 판별기의 가중치를 k번 업데이트
- 실제로는 배치 버전과 Adam이 자주 사용됨
판별자 훈련 방법
- 배치 버전:
- 최대
- θ mB i∈B log Dθ(x(i)) + log(1 – Dθ(Gw(z(i))))
- 판별적 손실:
- minθm1B i∈B - log Dθ(x(i)) – log(1 – Dθ(Gw(z(i))))
판별자 손실에 대한 관찰
- 교차 엔트로피 손실과 관련
- 실제 이미지에 대한 교차 엔트로피 손실 최대화
- 가짜 이미지에 대한 교차 엔트로피 손실 최소화
구현 방법
- 실제 손실과 가짜 손실 계산
- 모든 1'과 0'의 벡터 사용
생성기 훈련 방법
- 판별자의 매개변수가 주어지면 생성기 손실을 최소화하는 것이 목표
- 목표는 관련 없는 항을 무시하고 생성기 손실을 최소화하는 것으로 단순화
생성기 손실
- 훈련 초기에 생성기는 현실적인 데이터를 잘 생성하지 못함
- 훈련 불안정성 초래
프록시 사용
- 원활한 훈련 가능
지금까지 배운 내용
- DNN, CNN, RNN, RF, 차원 축소, 군집화, 오토인코더, 행렬 완성, GAN
- RF: 소규모 데이터 기술
- 반지도 학습, 전이 학습, 시뮬레이터 기반 학습과 같은 고급 소규모 데이터 기술
- 이러한 모든 기술은 주로 예측 모델에 사용
다음 내용
- 3가지 소규모 데이터 기술 탐구: 반지도 학습, 전이 학습, 시뮬레이터 기반 학습
강의 25~27 요점
- 반지도 학습 (SSL)
- 표시가 없는 데이터와 표시가 있는 데이터를 모두 활용하는 학습 방법론
고급 SSL을 위한 최적화
- 손실 함수는 3가지 항으로 구성됨
- 지도 학습 손실: 표시가 있는 데이터에만 적용
- 일관성 손실: 인접한 데이터 포인트가 다른 예측을 할 때 페널티를 부여
- 특징 매칭 손실: 동일한 예측을 가진 데이터 포인트가 멀리 떨어진 특징을 가질 때 페널티를 부여
일관성 손실
- 데이터 포인트를 섭동하여 인접한 데이터 포인트를 생성
- 다양한 섭동 방법 적용
특징 매칭 손실
- 유사성 그래프 및 차원 축소 기반
- 유사성 그래프 구성 방법: 행렬 완성 사용
반지도 학습 결과
- MNIST, SVHN, CIFAR-10 데이터세트에서 우수한 성능을 보임
전이 학습
- 한 작업 (소스)에서 얻은 지식을 다른 작업 (대상)으로 전이
적용 가능한 시나리오
- 동일한 크기 (또는 유사한 크기)의 입력
- 이미지 데이터
- 특징은 초기 레이어에서 더 일반적이고, 후기 레이어에서 더 구체적
- 언어 데이터
- 단어 임베딩이 매우 일반적
- 풍부한 데이터를 가진 소스 작업의 사전 훈련 모델 존재
이미지 관련 작업을 위한 사전 훈련 모델
- ImageNet 1000 클래스 분류 경쟁
언어 관련 작업을 위한 사전 훈련 모델
- 단어 임베딩
이미지 데이터에 대한 일반적인 접근 방식
- 초기 레이어 고정
- 필요한 경우 입력 이미지 크기 조정 또는 자르기
시뮬레이션 기반 학습
- 데이터 부족 문제가 발생하는 상황: 자율 주행 시스템 구축
상황에 유용한 시뮬레이터
- Grand Theft Auto V
- CARLA
GTA V 기반 노력
- GTA V를 사용하여 충돌 예측 시스템을 구축하는 노력
충돌 예측
- 물체 감지 및 위험-안전 분류에 초점
시뮬레이터 해킹을 통한 생성
- GTACrash 훈련 데이터: 사고 3600건과 비사고 7700건
- YouTubeCrash 실제 데이터: 사고 100건과 비사고 122건
- GTA로 100배 더 많은 사고 데이터 얻음
- 시뮬레이터 구축 난이도 매우 높음
- 소프트웨어 회사와의 협업 필요
AUC 성능
- 가로축은 거짓 긍정 비율, 축은 실제 긍정 비율
작은 데이터 기술에 대한 주의 사항
- 가장 먼저 시도할 방법은 무작위 포레스트
- 반지도 학습과 전이 학습은 부가 정보를 활용
- 시뮬레이터 기반 학습 순으로 시도 제안
강화 학습
- 예측 모델이 아닌 제어 모델에 적용
- 자율 주행 자동차, 로봇을 예시로 들 수 있음
- 강화 학습(RL)은 에이전트와 환경이라는 두 가지 개념 이용
에이전트와 환경 간의 상호 작용
- 에이전트는 행동을 취함
- 환경은 관찰과 보상으로 응답
강화 학습 정의
- 기대 보상을 극대화하는 행동 정책을 학습하는 방법론
일반적인 강화 학습 시나리오
- 팩맨, 주식, 자율 주행 자동차, CartPole
강화 학습용 수학 모델
- 에이전트와 환경 간의 상호 작용을 캡처하는 모델: 마르코프 결정 과정 (MDP)
마르코프 결정 과정 (MDP)?
- 마르코프 프로세스와 관련 있는 개념
마르코프 프로세스 정의
- 미래 상태와 과거 상태가 독립적
상태 전이 확률
- 마르코프 프로세스의 통계적 행동을 완전히 설명
상태 전이 다이어그램
- 마르코프 프로세스와 연결
마르코프 결정 과정 (MDP)
- 각 시간 단계에서 에이전트는 여러 후보 중에서 행동을 취할 수 있음
- 전이 확률은 취해진 조치에 따라 달라짐
- 일부 상태 전이는 일부 보상을 반환
MDP 관련 RL은?
- RL은 기대 보상을 최대화하는 최적의 정책을 찾는 방법론
MDP에서 최적의 정책을 찾는 방법
- 벨만 방정식과 Q-값 반복 알고리즘 사용
벨만 방정식이란?
- 표기법 :
- Q*(s, a): 상태-동작 쌍의 Q-값
- 의미 : 에이전트가 상태 "s"에서 동작 "a"를 취할 때의 최대 기대 보상
- 가정 : 미래 행동은 최적 정책을 따름
- Q*를 찾는 데 도움이 되는 방정식
기대 보상 계산 방법
- 두 가지 유형의 보상이 있음
- 즉각적인 보상
- 미래 보상
- 할인 요소 γ 사용 - 일반적인 값은 0.95 또는 0.99
- 할인 요소 gamma 기호
Q-값 반복 알고리즘
- 벨만 방정식에 기반
- 주어진 Q(t)(s, a)에 대해 Q(t+1)(s, a)를 반복적으로 계산
- 반복에서 Q(t+1)(s, a)는 Q*(s, a)로 수렴
문제점
- 실질적으로, π(s′|s,a) 및 R(s′|s,a)는 추정하기 어려움
Q 학습 알고리즘 사용
- Q-학습 알고리즘은 실제 에피소드에서 관찰된 전이 및 즉각 보상을 기반
Studying That Suits You
Use AI to generate personalized quizzes and flashcards to suit your learning preferences.