Podcast
Questions and Answers
행렬 완성(Matrix Completion, MC)의 주요 목적은 무엇입니까?
행렬 완성(Matrix Completion, MC)의 주요 목적은 무엇입니까?
- 행렬의 차원 축소
- 행렬의 역행렬 계산
- 행렬의 고유값 분해
- 결측치(missing entries) 추정 (correct)
퓨전 학습(fusion learning)에서 모든 유형의 데이터에 대해 항상 충분한 수의 예제를 얻을 수 있다.
퓨전 학습(fusion learning)에서 모든 유형의 데이터에 대해 항상 충분한 수의 예제를 얻을 수 있다.
False (B)
행렬 완성(MC) 기법이 유용하게 활용될 수 있는 퓨전 학습(fusion learning)에서의 문제점은 무엇입니까?
행렬 완성(MC) 기법이 유용하게 활용될 수 있는 퓨전 학습(fusion learning)에서의 문제점은 무엇입니까?
결측 데이터(missing data) 처리
최근 행렬 완성(MC) 방법 중 하나는 ______를 이용하는 것이다.
최근 행렬 완성(MC) 방법 중 하나는 ______를 이용하는 것이다.
다음 오토인코더의 종류와 특징을 연결하시오:
다음 오토인코더의 종류와 특징을 연결하시오:
디노이징 오토인코더(DAE)의 주요 동기는 무엇입니까?
디노이징 오토인코더(DAE)의 주요 동기는 무엇입니까?
디노이징 오토인코더(DAE)는 잡음을 제거하는 능력 덕분에 행렬 완성(MC)에도 활용될 수 있다.
디노이징 오토인코더(DAE)는 잡음을 제거하는 능력 덕분에 행렬 완성(MC)에도 활용될 수 있다.
디노이징 오토인코더(DAE)에서 입력에 잡음을 추가하는 주요 이유는 무엇입니까?
디노이징 오토인코더(DAE)에서 입력에 잡음을 추가하는 주요 이유는 무엇입니까?
디노이징 오토인코더(DAE)에서 사용되는 잡음의 유형 중 하나는 입력의 일부를 임의로 가리는 ______이다.
디노이징 오토인코더(DAE)에서 사용되는 잡음의 유형 중 하나는 입력의 일부를 임의로 가리는 ______이다.
다음은 디노이징 오토인코더(DAE)에서 사용되는 잡음 유형입니다. 각 잡음 유형을 설명에 맞게 연결하시오:
다음은 디노이징 오토인코더(DAE)에서 사용되는 잡음 유형입니다. 각 잡음 유형을 설명에 맞게 연결하시오:
행렬 완성(MC)을 위해 디노이징 오토인코더(DAE)를 어떻게 활용할 수 있습니까?
행렬 완성(MC)을 위해 디노이징 오토인코더(DAE)를 어떻게 활용할 수 있습니까?
디노이징 오토인코더를 훈련할 때, 모든 데이터 항목에 대해 손실 함수를 계산해야 한다.
디노이징 오토인코더를 훈련할 때, 모든 데이터 항목에 대해 손실 함수를 계산해야 한다.
디노이징 오토인코더 기반 행렬 완성(MC) 모델을 훈련하기 위한 간단한 방법은 무엇입니까?
디노이징 오토인코더 기반 행렬 완성(MC) 모델을 훈련하기 위한 간단한 방법은 무엇입니까?
오토인코더는 생성 모델(generative model)로 사용될 수 있으며, 이를 기반으로 하는 더 강력한 생성 모델은 ______이다.
오토인코더는 생성 모델(generative model)로 사용될 수 있으며, 이를 기반으로 하는 더 강력한 생성 모델은 ______이다.
다음 용어와 설명을 연결하시오:
다음 용어와 설명을 연결하시오:
생성적 적대신경망(GAN)에서 감별자(discriminator)의 역할은 무엇입니까?
생성적 적대신경망(GAN)에서 감별자(discriminator)의 역할은 무엇입니까?
GAN에서 생성자(generator)는 판별자(discriminator)가 실제 데이터라고 판단하도록 가짜 데이터를 생성하려고 시도한다.
GAN에서 생성자(generator)는 판별자(discriminator)가 실제 데이터라고 판단하도록 가짜 데이터를 생성하려고 시도한다.
GAN의 학습 과정에서 생성자(generator)와 판별자(discriminator)는 어떤 방식으로 상호작용하는가?
GAN의 학습 과정에서 생성자(generator)와 판별자(discriminator)는 어떤 방식으로 상호작용하는가?
GAN의 판별자(discriminator)는 입력이 실제 데이터일 경우 높은 값을, 생성된 데이터일 경우 ______값을 출력하도록 의도된다.
GAN의 판별자(discriminator)는 입력이 실제 데이터일 경우 높은 값을, 생성된 데이터일 경우 ______값을 출력하도록 의도된다.
다음 GAN 관련 용어와 설명을 연결하시오:
다음 GAN 관련 용어와 설명을 연결하시오:
GAN의 목적 함수(objective function)를 최적화하기 위해 일반적으로 어떤 방법을 사용합니까?
GAN의 목적 함수(objective function)를 최적화하기 위해 일반적으로 어떤 방법을 사용합니까?
GAN의 학습은 항상 convex-concave 문제이므로, 전역 최적해를 쉽게 찾을 수 있다.
GAN의 학습은 항상 convex-concave 문제이므로, 전역 최적해를 쉽게 찾을 수 있다.
GAN 학습 시, min-max 문제 해결을 위해 실제로 사용하는 방법은 무엇입니까?
GAN 학습 시, min-max 문제 해결을 위해 실제로 사용하는 방법은 무엇입니까?
GAN 학습 시, 판별자(discriminator)를 학습할 때 사용하는 손실 함수(loss function)는 ______ 손실 함수와 유사하다.
GAN 학습 시, 판별자(discriminator)를 학습할 때 사용하는 손실 함수(loss function)는 ______ 손실 함수와 유사하다.
GAN에서 생성자(generator) 학습 시 발생할 수 있는 문제점은 무엇입니까?
GAN에서 생성자(generator) 학습 시 발생할 수 있는 문제점은 무엇입니까?
GAN 학습 시, 생성자(generator)의 손실 함수로 판별자(discriminator)가 생성된 데이터를 얼마나 잘 속이는지를 직접 사용하는 것이 항상 효과적이다.
GAN 학습 시, 생성자(generator)의 손실 함수로 판별자(discriminator)가 생성된 데이터를 얼마나 잘 속이는지를 직접 사용하는 것이 항상 효과적이다.
GAN 학습 초기 단계에서, 생성자 학습을 안정화하기 위해 사용하는 방법은 무엇입니까?
GAN 학습 초기 단계에서, 생성자 학습을 안정화하기 위해 사용하는 방법은 무엇입니까?
GAN에서 생성자(generator)의 학습을 위해 프록시 손실(proxy loss)을 사용하는 이유는 초기 학습 시 ______ 기울기(gradient) 문제를 완화하기 위해서이다.
GAN에서 생성자(generator)의 학습을 위해 프록시 손실(proxy loss)을 사용하는 이유는 초기 학습 시 ______ 기울기(gradient) 문제를 완화하기 위해서이다.
다음은 얕은 데이터(small-data) 기법입니다. 각 기법을 설명에 맞게 연결하시오:
다음은 얕은 데이터(small-data) 기법입니다. 각 기법을 설명에 맞게 연결하시오:
준지도 학습(semi-supervised learning)의 핵심 아이디어는 무엇입니까?
준지도 학습(semi-supervised learning)의 핵심 아이디어는 무엇입니까?
준지도 학습(semi-supervised learning)은 레이블이 있는 데이터만 사용하는 지도 학습보다 항상 성능이 좋다.
준지도 학습(semi-supervised learning)은 레이블이 있는 데이터만 사용하는 지도 학습보다 항상 성능이 좋다.
준지도 학습(semi-supervised learning)에서 오토인코더는 어떤 역할을 할 수 있을까요?
준지도 학습(semi-supervised learning)에서 오토인코더는 어떤 역할을 할 수 있을까요?
고급 준지도 학습(SSL) 방법은 지도 손실(supervised loss) 외에 ______ 손실과 특징 매칭(feature matching) 손실을 추가적으로 사용한다.
고급 준지도 학습(SSL) 방법은 지도 손실(supervised loss) 외에 ______ 손실과 특징 매칭(feature matching) 손실을 추가적으로 사용한다.
준지도 학습(SSL)에서 일관성 손실(consistency loss)의 목적은 무엇입니까?
준지도 학습(SSL)에서 일관성 손실(consistency loss)의 목적은 무엇입니까?
일관성 손실(consistency loss)을 계산하기 위해, 원본 데이터 포인트에 동일한 잡음을 여러 번 적용하여 얻은 예측 값들의 편차를 최소화한다.
일관성 손실(consistency loss)을 계산하기 위해, 원본 데이터 포인트에 동일한 잡음을 여러 번 적용하여 얻은 예측 값들의 편차를 최소화한다.
준지도학습에서 특징 매칭 손실(feature matching loss)은 무엇을 최소화합니까?
준지도학습에서 특징 매칭 손실(feature matching loss)은 무엇을 최소화합니까?
특징 매칭 손실(feature matching loss)을 계산하기 위해 ______ 그래프가 사용될 수 있다.
특징 매칭 손실(feature matching loss)을 계산하기 위해 ______ 그래프가 사용될 수 있다.
전이 학습(transfer learning)의 핵심 아이디어는 무엇입니까?
전이 학습(transfer learning)의 핵심 아이디어는 무엇입니까?
전이 학습(transfer learning)은 항상 목표 작업(target task)의 성능 향상으로 이어진다.
전이 학습(transfer learning)은 항상 목표 작업(target task)의 성능 향상으로 이어진다.
전이 학습(transfer learning)에서 사전 학습된 네트워크의 초기 가중치를 사용하는 방법은 무엇이라고 하나요?
전이 학습(transfer learning)에서 사전 학습된 네트워크의 초기 가중치를 사용하는 방법은 무엇이라고 하나요?
전이 학습(transfer learning)에서 사전 학습된 모델의 일부 레이어는 고정하고, 나머지 레이어만 학습하는 방법을 ______ 튜닝이라고 한다.
전이 학습(transfer learning)에서 사전 학습된 모델의 일부 레이어는 고정하고, 나머지 레이어만 학습하는 방법을 ______ 튜닝이라고 한다.
전이 학습(transfer learning)이 효과적인 시나리오는 무엇입니까?
전이 학습(transfer learning)이 효과적인 시나리오는 무엇입니까?
이미지 데이터에 대한 전이 학습 시, 사전 학습된 모델의 후반부 레이어(post layers)는 일반적으로 이미지의 일반적인 특징을 추출하는 데 사용된다.
이미지 데이터에 대한 전이 학습 시, 사전 학습된 모델의 후반부 레이어(post layers)는 일반적으로 이미지의 일반적인 특징을 추출하는 데 사용된다.
이미지 데이터에 대한 전이 학습 시, 일반적으로 어떤 레이어를 고정하고 어떤 레이어를 재학습합니까?
이미지 데이터에 대한 전이 학습 시, 일반적으로 어떤 레이어를 고정하고 어떤 레이어를 재학습합니까?
자연어 처리(Natural Language Processing)에서 전이 학습을 위해 사전 학습된 ______는 매우 유용하며, 다양한 언어에 적용될 수 있다.
자연어 처리(Natural Language Processing)에서 전이 학습을 위해 사전 학습된 ______는 매우 유용하며, 다양한 언어에 적용될 수 있다.
다음 사전 학습된 이미지 모델과 해당 모델의 이름을 연결하시오.
다음 사전 학습된 이미지 모델과 해당 모델의 이름을 연결하시오.
시뮬레이터 기반 학습(simulation-based learning)이 필요한 이유는 무엇입니까?
시뮬레이터 기반 학습(simulation-based learning)이 필요한 이유는 무엇입니까?
시뮬레이션 기반 학습은 항상 실제 환경에서 모델의 성능을 보장한다.
시뮬레이션 기반 학습은 항상 실제 환경에서 모델의 성능을 보장한다.
자율 주행 시스템 개발에서 데이터 부족 문제를 해결하기 위해 사용할 수 있는 시뮬레이터의 예시를 두 가지 이상 들어보세요.
자율 주행 시스템 개발에서 데이터 부족 문제를 해결하기 위해 사용할 수 있는 시뮬레이터의 예시를 두 가지 이상 들어보세요.
교통사고 예측 시스템 구축을 위해 ______를 활용하여 합성 데이터를 생성할 수 있다.
교통사고 예측 시스템 구축을 위해 ______를 활용하여 합성 데이터를 생성할 수 있다.
차량 충돌 예측 연구에서 GTA V를 활용하는 아이디어는 무엇입니까?
차량 충돌 예측 연구에서 GTA V를 활용하는 아이디어는 무엇입니까?
Flashcards
행렬 완성 (MC)
행렬 완성 (MC)
행렬 완성은 일부 항목이 누락된 행렬의 누락된 항목을 추정하는 프로세스입니다.
융합 학습
융합 학습
서로 다른 유형의 입력을 동시에 활용하는 학습 방법론입니다.
디노이징 오토인코더 (DAE)
디노이징 오토인코더 (DAE)
잡음을 제거하여 중요한 특징을 추출하는 오토인코더의 변형입니다.
가산 가우시안 잡음
가산 가우시안 잡음
Signup and view all the flashcards
임의 마스킹
임의 마스킹
Signup and view all the flashcards
AE 기반 행렬 완성
AE 기반 행렬 완성
Signup and view all the flashcards
오토인코더
오토인코더
Signup and view all the flashcards
인코더
인코더
Signup and view all the flashcards
디코더
디코더
Signup and view all the flashcards
단순 훈련 방법
단순 훈련 방법
Signup and view all the flashcards
효율적인 방법
효율적인 방법
Signup and view all the flashcards
가중치 연결
가중치 연결
Signup and view all the flashcards
행렬 완성
행렬 완성
Signup and view all the flashcards
오토인코더
오토인코더
Signup and view all the flashcards
생성적 적대 네트워크 (GAN)
생성적 적대 네트워크 (GAN)
Signup and view all the flashcards
감별자
감별자
Signup and view all the flashcards
생성자
생성자
Signup and view all the flashcards
감별자 손실
감별자 손실
Signup and view all the flashcards
생성자 손실
생성자 손실
Signup and view all the flashcards
프록시 손실
프록시 손실
Signup and view all the flashcards
교차 엔트로피 손실
교차 엔트로피 손실
Signup and view all the flashcards
교대 경사 하강
교대 경사 하강
Signup and view all the flashcards
전이 학습
전이 학습
Signup and view all the flashcards
미세 조정
미세 조정
Signup and view all the flashcards
부분 조정
부분 조정
Signup and view all the flashcards
ImageNet
ImageNet
Signup and view all the flashcards
단어 임베딩
단어 임베딩
Signup and view all the flashcards
준지도 학습
준지도 학습
Signup and view all the flashcards
고급 준지도 학습
고급 준지도 학습
Signup and view all the flashcards
일관성 손실
일관성 손실
Signup and view all the flashcards
특징 매칭 손실
특징 매칭 손실
Signup and view all the flashcards
시뮬레이션 기반 학습
시뮬레이션 기반 학습
Signup and view all the flashcards
GTA V
GTA V
Signup and view all the flashcards
에이전트
에이전트
Signup and view all the flashcards
환경
환경
Signup and view all the flashcards
강화 학습(RL)
강화 학습(RL)
Signup and view all the flashcards
액션 정책
액션 정책
Signup and view all the flashcards
마르코프 결정 프로세스 (MDP)
마르코프 결정 프로세스 (MDP)
Signup and view all the flashcards
마르코프 프로세스
마르코프 프로세스
Signup and view all the flashcards
상태 전환 확률
상태 전환 확률
Signup and view all the flashcards
Q-값
Q-값
Signup and view all the flashcards
Study Notes
자동 인코더 및 행렬 완성
- 본 강의에서는 행렬 완성(MC)이 무엇인지 알아본다.
- 퓨전 학습과의 연관성을 탐구한다.
- De-noising 자동 인코더라는 행렬 완성에 중요한 역할을 하는 자동 인코더의 변형을 조사한다.
- De-noising 자동 인코더를 활용하는 최근 MC 기술 중 하나를 연구한다.
행렬 완성(Matrix Completion)
- 누락된 항목을 채우는 것을 목표로 한다.
- 추천 시스템에 널리 적용된다.
MC 가 활용하는 핵심 속성
- MC는 많은 관심 있는 행렬의 낮은 순위 구조를 활용한다.
- 낮은 순위 구조는 중요한 속성이다.
- 행렬 완성은 낮은 순위 구조를 활용하여 누락된 정보를 추정한다.
- 예를 들어, 순위가 1인 행렬의 누락된 항목을 복구할 수 있다.
퓨전 학습과의 연관성
- 퓨전 학습은 여러 유형의 입력을 동시에 사용하는 학습 방법론이다.
- 퓨전 학습은 여러 데이터 유형을 통합하여 학습한다.
퓨전 학습의 과제
- 종종 데이터가 누락되는 문제가 발생한다.
- 모든 유형의 데이터에 대한 예제가 부족하다.
- 누락된 데이터를 추정하는 것이 중요하다.
과제 해결 방법
- 누락된 항목을 추정하면 데이터 부족 문제를 해결할 수 있다.
- 행렬 완성은 누락된 항목을 추정하는 효과적인 도구이다.
- 자동 인코더는 행렬 완성을 위한 한 가지 방법이다.
- 특히 De-noising 자동 인코더가 활용된다.
행렬 완성 방법
- 최근 방법 중 하나는 자동 인코더를 이용하는 것이다.
- 이는 De-noising 자동 인코더(DAE)에 기반한다.
- DAE는 잡음에 강한 특징을 학습하도록 장려한다.
Denoising 자동 인코더(DAE)
- DAE 뒤에 숨겨진 동기는 행렬 완성과는 관련이 없다.
- 대신 자동 인코더의 핵심 역할인 차원 축소에서 영감을 받았다.
- DAE는 데이터의 차원을 줄이는 데 사용된다.
- 내부 특징이 입력의 핵심 패턴을 잘 포착하는 것이 목표이다.
- 잡음에 강하도록 네트워크를 만드는 것이 목표이다.
- 일반적으로 입력에 잡음을 적용한다.
잡음 패턴에 따른 두 가지 유형
- 유형 I: 가우시안 잡음 추가.
- 유형 II: 임의 마스킹.
유형 I: 가산 가우시안 잡음
- 입력에 가우시안 잡음을 추가한다.
- 네트워크가 가우시안 잡음에 강하도록 만든다.
유형 II: 임의 마스킹
- 입력의 일부를 임의로 가린다.
- 임의 마스킹이 행렬 완성에 영감을 준다.
- 랜덤 마스킹은 입력의 일부를 0으로 설정한다.
행렬 완성과의 관계
- 각 예제를 누락된 항목을 가진 입력으로 사용한다.
- 출력을 완전히 채워진 버전으로 간주한다.
- DAE의 좋은 성능 덕분에 누락된 항목을 잘 재구성할 수 있다.
AE 훈련 방법
- 단순한 방법은 관찰된 항목에 대해서만 오류를 계산하는 것이다.
- 효율적인 방법을 사용할 수 있다.
Autoencoder 복습
- Autoencoder는 encoder와 decoder로 구선된다
- 코딩 방식은 simple, efficient가 있다. Efficient는 w/ or w/o tying weights 존재
- Encoder는 Dimensinality reduction, Semi-supervised learning의 역할을 한다
- Decoder는 generative model, Matrix Completion, Anomaly detection의 역할을 한다
다음 단계
- 자동 인코더는 생성 모델로 사용될 수 있다.
- 생성적 적대 신경망(GAN) 기반의 더 강력한 생성 모델이 있다.
- 대규모 언어 모델(LLM)에 대한 관심이 증가하고 있다.
앞으로 살펴볼 내용
- 생성적 적대 신경망(GAN)을 연구한다.
- 대규모 언어 모델(LLM)에 대해 간략히 논의한다.
GAN 아키텍처
- 실제 데이터와 가짜 데이터를 구별하는 판별자와 가짜 데이터를 생성하는 생성자를 포함한다.
- 판별자는 입력이 실제 데이터이면 큰 값을 출력하고, 생성된 데이터이면 작은 값을 출력하도록 의도된다.
- 손실함수는 log loss를 사용하여 판별자와 생성자를 학습한다.
최적화
- 판별자는 D(X)를 최대화하고 1 - D(X~)를 최대화하려고 한다.
- 생성자는 판별자를 속이려고 한다.
- 판별자와 생성자는 번갈아 가며 학습된다.
- 대안적 gradient descent 방법이 사용된다
GAN 최적화
- GAN 최적화는 함수 최적화이다.
- 신경망을 함수 클래스로 사용하고 매개변수화한다.
- 최소-최대 최적화 문제를 해결해야 한다.
GAN 최적화
- GAN 최적화에는 saddle point가 있으며, theorem은 볼록-오목이면 saddle point가 최적 솔루션이라고 한다
- GAN 문제는 볼록하지 않으므로 stationary point를 찾는다.
- stationary point는 gradient가 0인 지점이다.
정지점
- 대안적 gradient descent를 사용하여 찾을 수 있다.
- 생성자와 판별자의 가중치를 번갈아 업데이트한다.
- 실제로 배치 버전과 Adam을 사용한다.
discriminator 훈련 방법
- Batch 버전을 사용하여 discriminator loss를 최소화한다.
- discriminator loss는 교차 엔트로피 손실로 해석할 수 있다.
- 구현 시 모든 1의 벡터와 모든 0의 벡터를 사용한다.
generator 훈련 방법
- generator의 목표는 판별자를 속이는 것이다.
- generator loss를 최소화하는 것이 목표이다.
- generator loss는 판별자가 가짜 데이터를 구별하지 못하도록 학습한다.
대리 손실 함수
- 학습 초기에 generator가 현실적인 데이터를 생성하지 못하면 기울기 소실 문제가 발생한다.
- 이를 해결하기 위해 대리 손실 함수를 사용한다.
- 대리 손실 함수는 학습 초기에 더 큰 기울기를 제공하여 학습 안정성을 향상시킨다.
GAN을 사용하여 할 수 있는 작업
- GAN을 사용하여 이미지를 생성하거나 변환할 수 있다.
- GAN은 이미지 생성, 이미지 변환, 이미지 복원 등 다양한 작업에 사용할 수 있다.
결론 / next topics
- DNNs, CNNs, RNNs, RFs, 차원 축소, 클러스터링, 자동 인코더, 행렬 완성 및 GAN에 대해 배웠다.
- RF는 Small-data 기술이다.
- semi-supervised learning & transfer learning & simulator-based learning에 대해 배울 예정이다
- semi-supervised learning는 matrix completion과 autoencoder 기반이다
semi-supervised learning(SSL) 복습
- 데이터 세트 2개(unlabeled 데이터 & labeled 데이터)를 활용하는 학습 방법론이다.
- unlabeled 데이터 샘플 크기는 라벨링된 데이터 샘플 크기보다 크다
semi-supervised learning via autoencoder
- 훈련된 encoder와 unlabeled 데이터를 사용하여 low representation을 획득하여 labeled 데이터를 사용하여 low representation을 supervised learning한다
semi-supervised learning via matrix completion
- 더 나은 성능을 제공하는 고급 semi-supervised learning 방법
- 감독 손실, 일관성 손실 및 특징 매칭 손실로 구성된 손실 함수를 사용한다.
일관성 손실
- 데이터 포인트에 작은 교란을 추가하여 생성된 nearby data points에서 다른 예측한다면 페널티를 부과한다
- 교란 방법에는 여러 가지가 있다.
특징 매칭 손실
- 동일한 예측을 갖지만 멀리 떨어진 특징을 생성하는 데이터 접점에 페널티를 추가한다
- 특징 매칭 손실에는 유사성 그래프와 차원 축소가 필요하다.
유사성 그래프 구축 방법
- 최근 방법 중 하나는 행렬 완성을 이용하는 것이다.
- 레이블이 없는 데이터에 대해 행렬 완성을 수행하여 레이블을 추정한다
- 추정된 레이블을 기반으로 유사성 트래프를 구성한다.
전이 학습
- 하나의 task(source)에서 얻은 지식을 다른 task(target)로 전달한다.
- Source task의 weight를 가져와 target task에 적용한다
- fine tuning & partial tuning 방법이 있다.
- early layer을 가져다 쓰는것 일반적이다 in 이미지 데이터
전이 학습 사용 시나리오
- 입력 크기가 동일하거나 유사한 경우, 이미지 데이터, 언어 데이터에 적용 가능하다
- Source task에 대한 사전 훈련된 모델을 사용할 수 있는 경우 유용하다
- 이미지 관련 작업에 대한 사전 훈련된 모델로 ImageNet이 있다
- 언어 관련 작업에 대한 사전 훈련된 모델로는 Word2vec, GloVe, fastText 이 있다.
ImageNet 1000类分类竞赛:
- VGG (2014)
- Inception (GoogLeNet, 2014)
- ResNet (2015)
- Xception (2016)
언어 관련 작업에 대한 사전 훈련된 모델:
- Word2vec (Google, 2013)
- GloVe (Stanford, 2014)
- fastText (Facebook, 2015)가 있다. 294개 언어를 지원한다.
이미지 데이터에 대한 일반적인 접근 방식
- VGG, Inception, ResNet 또는 Xception의 초기 레이어를 사용한다.
- Resize 또는 crop 입력 이미지가 필요하면 한다
- post layer 학습 시 early layer는 fix 한다
시뮬레이션 기반 학습
- 데이터 희소성 문제가 발생하는 상황을 탐구한다.
- 이러한 상황에서 사용될 수 있는 시뮬레이터를 조사한다.
- 특정 시뮬레이터를 사용한 최근의 노력을 탐구한다.
- 예를 들어 self-driving system 구축 시 시뮬레이션을 사용할 수 있다
- Grand Theft Auto V & CARLA가 유용한 시뮬레이터이다
과제
- 시뮬레이터를 구축하기가 어렵다.
- 게임 엔진을 해킹하는 것은 간단하지 않다.
- 소프트웨어 회사와의 협업이 필요하다.
Small-data 기술에 대한 언급
- 지금까지 최고의 노력, 측면 정보 기반, 데이터 생성이라는 4가지 기술을 조사했다.
- 위의 순서대로 각 항목을 시도하는 것이 좋다.
강화 학습(ReinForcement Learning)
- Prediction & Control 두 종류의 모델이 존재한다면 -> Control 모델에 집중 (Self-driving cars, robots)
- agent & environment의 개념을 알아야 한다
- agent는 action을 한다
- eniroment는 observation 및 reward를 제공한다
Interaction btw agent & environment
- agent : action -> environment
- agent <- observation & reward : environment
- Action policty : reward를 최대화하는 action을 선택하는 매커니즘
RL 시나리오
- Pac-Man, 주식 거래, 자율 주행 자동차, CartPole이 있다.
- Pac-Man에서 Agent는 program controlling Pac-Man의 역할, observation=image pixels, 보상=game points의 역할을 가진다
- Stock에서 Agent는 individual의 역할을, observation=stock prices, 보상=monetary gain or loss의 역할을 가진다
- 자율 주행 자동차에서 Agent는 driver의 역할을, observation=camera view, razer, lidar의 정보, 보상=path, safe, dangerous 등을 가진다
- CartPole에서 Agent는 program의 역할을, observation=position, velocity, pole angle, angular velocity 보상= 1 (it falls down or goes off the screen)의 역할을 가진다
마르코프 결정 프로세스(MDP)
- MDP는 Agent와 Environment가 상호 작용하는 수학적 모델이다
- Markov process with a twist
- 각 time에서 action을 통해 Tranition probabilities를 부여한다
- State 간 transtion 시 Reward를 return한다
- MDP 를 통해 optimal policty를 정할 수 있다
마르코프 프로세스
- X1, X2, ..., Xt,... is a Markov process if: current state를 제외한 future state와 past state 서로 independent하다.
상태 변환 확률(state transition probability)
- state transition probability로 Markov process의 statistical behavior를 묘사할 수 있다
- 상태 변환 다이어그램을 사용하여 시각화할 수 있다.
Bellman 방정식
- notations Q*(s,a): Q-value of the state-action pair 최대 기대 보상
- notations π*(s) = arg max Q*(s,a): optimal action action
- Bellman 방정식은 수식으로 Q값을 찾을 수 있도록 도와준다.
- 각 action의 즉각적인 보상과 장기적인 보상을 모두 고려한다
할인율
- 즉각적인 보상과 미래 보상 사이의 균형을 맞춘다.
- 장기적인 효과가 있는 행동에 더 큰 비중을 둔다
- 일반적인 값은 0.95 또는 0.99이다.
- CartPole의 값은 0.95이다
Q-value 반복 알고리즘
- 벨먼 방정식에 기반하여 Q-값을 반복적으로 업데이트한다.
- 이 알고리즘은 최적의 Q-값으로 수렴한다.
- 수식적으로는 복잡하지만, 각 액션의 기대 보상을 추정하여 최적의 정책을 찾는다.
Q value 반복 알고리즘의 과제
- transition probability 와 reward 모두 안다고 가정한다
- 실제론 이러한 확률과 보상을 알 수 없는 경우가 많다
앞으로 살펴볼 내용
- Q-learning 알고리즘을 통해 이 과제를 해결해 나갈 것이다
Studying That Suits You
Use AI to generate personalized quizzes and flashcards to suit your learning preferences.