Autoencoder 및 행렬 완성

Choose a study mode

Play Quiz
Study Flashcards
Spaced Repetition
Chat to Lesson

Podcast

Play an AI-generated podcast conversation about this lesson
Download our mobile app to listen on the go
Get App

Questions and Answers

행렬 완성(Matrix Completion, MC)의 주요 활용 분야는 무엇인가?

  • 자연어 처리
  • 이미지 압축
  • 음성 인식
  • 추천 시스템 (correct)

융합 학습(Fusion learning)은 서로 다른 유형의 입력 데이터를 동시에 사용하지 않는다.

False (B)

행렬 완성 기술이 융합 학습에서 직면하는 주요 문제점은 무엇인가?

결측 데이터

오토인코더의 주요 역할은 ______이다.

<p>차원 축소</p> Signup and view all the answers

다음 오토인코더 유형과 특징을 연결하시오:

<p>디노이징 오토인코더 = 노이즈에 강건한 특징 학습 vanilla 오토인코더 = 차원 축소</p> Signup and view all the answers

디노이징 오토인코더(DAE)가 일반 오토인코더와 다른 점은 무엇인가?

<p>입력에 노이즈를 추가하여 학습 (D)</p> Signup and view all the answers

디노이징 오토인코더의 주요 동기는 행렬 완성 기술 개발과 직접적인 관련이 있다.

<p>False (B)</p> Signup and view all the answers

디노이징 오토인코더에서 노이즈 패턴에 따라 구분되는 두 가지 주요 유형은 무엇인가?

<p>가우시안 노이즈 추가, 랜덤 마스킹</p> Signup and view all the answers

디노이징 오토인코더를 사용하여 행렬을 완성할 때, 누락된 항목은 오토인코더의 ______으로 처리된다.

<p>입력</p> Signup and view all the answers

다음 용어와 설명을 연결하시오:

<p>생성적 적대 신경망 (GAN) = 생성 모델 대규모 언어 모델 (LLM) = 생성 모델</p> Signup and view all the answers

행렬 완성을 위해 오토인코더를 학습하는 일반적인 방법은 무엇인가?

<p>관찰된 항목에 대해서만 손실을 계산하여 학습 (C)</p> Signup and view all the answers

오토인코더는 생성 모델로 사용될 수 없다.

<p>False (B)</p> Signup and view all the answers

디노이징 오토인코더 학습 시 입력에 노이즈를 추가하는 주된 이유는 무엇인가?

<p>강건성 확보</p> Signup and view all the answers

합성 데이터를 생성하기 위해 GTA V와 같은 시뮬레이터를 사용하는 방법은 ______ 기반 학습에 해당한다.

<p>시뮬레이터</p> Signup and view all the answers

다음 용어와 관계를 연결하시오:

<p>GAN = 생성 모델 LLM = 생성 모델</p> Signup and view all the answers

다음 중 오토인코더의 역할로 적절하지 않은 것은?

<p>적대적 공격 생성 (C)</p> Signup and view all the answers

GAN(Generative Adversarial Networks)은 오토인코더보다 덜 강력한 생성 모델이다.

<p>False (B)</p> Signup and view all the answers

오토인코더 학습 방법 중 가중치 공유를 통해 효율성을 높이는 방법은 무엇인가?

<p>가중치 연결</p> Signup and view all the answers

GAN에서 생성자는 ______ 데이터를 생성하는 역할을 한다.

<p>가짜</p> Signup and view all the answers

GAN에서 판별자의 역할은 무엇인가?

<p>진짜 데이터와 생성자가 만든 가짜 데이터 구분 (D)</p> Signup and view all the answers

GAN 학습 시 생성자와 판별자는 서로 협력하여 최적의 성능을 달성한다.

<p>False (B)</p> Signup and view all the answers

GAN 학습의 궁극적인 목표는 무엇인가?

<p>진짜 데이터와 구별할 수 없는 가짜 데이터를 생성</p> Signup and view all the answers

GAN에서 생성자의 입력으로 사용되는 것은 일반적으로 ______이다.

<p>랜덤 노이즈</p> Signup and view all the answers

다음 GAN 구성 요소와 그 역할 연결:

<p>생성자(Generator) = 랜덤 노이즈로부터 데이터 생성 판별자(Discriminator) = 생성된 데이터와 실제 데이터 구분</p> Signup and view all the answers

GAN 학습 시, 판별자의 손실 함수를 최소화하는 것은 어떤 의미인가?

<p>진짜와 가짜 데이터를 정확히 구분하도록 학습 (A)</p> Signup and view all the answers

GAN 학습에서 생성자의 목표는 판별자를 속이는 것이 아니라, 진짜 데이터를 모방하는 것이다.

<p>False (B)</p> Signup and view all the answers

GAN 학습 시, 생성자와 판별자 중 어느 쪽이 먼저 학습되어야 하는가?

<p>번갈아 학습</p> Signup and view all the answers

GAN 학습의 불안정성을 해결하기 위해 생성자의 손실 함수 대신 사용하는 대리 손실(proxy loss)은 ______이다.

<p>음의 로그</p> Signup and view all the answers

GAN 학습 시, 생성자의 학습이 불안정해지는 이유는 무엇인가?

<p>초기 단계에서 판별자가 너무 쉽게 가짜 데이터를 감지해서 (A)</p> Signup and view all the answers

GAN 학습 시, 생성자의 손실 함수를 최대화하는 것이 학습 안정성에 도움이 된다.

<p>False (B)</p> Signup and view all the answers

GAN 학습에서 K:1 교대 경사 하강법은 무엇을 의미하는가?

<p>판별자를 k번 업데이트하고 생성자를 1번 업데이트</p> Signup and view all the answers

GAN 학습 시 최적화 문제를 해결하기 위해 주로 사용하는 방법은 ______이다.

<p>교대 경사 하강법</p> Signup and view all the answers

다음 GAN 학습 관련 용어와 설명을 연결하시오:

<p>교대 경사 하강법 = 생성자와 판별자를 번갈아 학습하는 방법 대리 손실 함수 = GAN 학습 초기 안정성을 높이기 위해 사용하는 손실 함수</p> Signup and view all the answers

디노이징 오토인코더에서 랜덤 마스킹을 적용하는 이유는 무엇인가?

<p>입력 데이터의 손실을 시뮬레이션하여 행렬 완성에 대한 영감을 얻기 위해 (A)</p> Signup and view all the answers

랜덤 마스킹은 항상 Gaussian noise보다 나은 결과를 가져온다.

<p>False (B)</p> Signup and view all the answers

매트릭스 완성에서 누락된 항목을 추정하기 위해 디노이징 오토인코더는 어떤 방식으로 사용되는가?

<p>입력으로 사용</p> Signup and view all the answers

오토인코더는 데이터의 ______을 학습하는 데 사용된다.

<p>잠재 공간</p> Signup and view all the answers

다음 중 GAN의 두 가지 주요 구성 요소 및 해당 기능을 지정하십시오:

<p>생성기 = 새로운, 현실적인 데이터 인스턴스를 생성합니다. 차별판별기 = 생성기에서 만든 데이터와 실제로 데이터 세트에 있는 데이터 사이를 구별합니다.</p> Signup and view all the answers

Flashcards

행렬 완성(Matrix Completion, MC)

행렬에서 누락된 값을 추정하여 행렬을 완성하는 작업입니다.

Fusion learning

다양한 유형의 입력을 동시에 사용하는 학습 방법입니다.

Denoising Autoencoder (DAE)

입력 데이터의 중요한 특징을 잘 포착하도록 학습된 오토인코더의 변형입니다.

Additive Gaussian noise

입력에 잡음을 추가하여 네트워크가 노이즈에 강하도록 학습시키는 방법입니다.

Signup and view all the flashcards

Random masking

입력의 일부를 무작위로 마스크(가림) 처리하는 방법입니다.

Signup and view all the flashcards

행렬 완성 (with DAE)

오토인코더의 출력을 사용하여 누락된 행렬 값을 채우는 방법입니다.

Signup and view all the flashcards

오토인코더 학습 (with observed data)

관찰된 값만 사용하여 오토인코더를 학습시키는 방법입니다.

Signup and view all the flashcards

Generative model

실제 데이터와 유사한 '가짜' 데이터를 생성하는 모델.

Signup and view all the flashcards

Generative Adversarial Networks (GANs)

생성 모델과 판별 모델이 경쟁적으로 학습하는 신경망 구조.

Signup and view all the flashcards

Discriminator

GAN에서 생성된 데이터가 '진짜'인지 '가짜'인지 판별하는 역할.

Signup and view all the flashcards

Generator

GAN에서 무작위 입력을 받아 '가짜' 데이터를 생성하는 역할.

Signup and view all the flashcards

Discriminator 성능

판별자가 실제 데이터와 생성된 데이터를 얼마나 잘 구별하는지를 나타냄.

Signup and view all the flashcards

GAN 손실 함수

GAN의 학습 목표를 정의하는 함수. 판별자와 생성자 모두 손실을 최소화하려고 노력합니다.

Signup and view all the flashcards

교대 경사 하강법

GAN에서 판별자와 생성자를 번갈아 가며 학습시키는 방법.

Signup and view all the flashcards

학습 불안정성 (in GANs)

GAN 학습 시 생성자가 '진짜'같은 데이터를 만들지 못할 때 발생하는 문제.

Signup and view all the flashcards

Semi-supervised learning (SSL)

레이블이 없는 데이터와 레이블이 있는 데이터를 모두 활용하는 학습 방법.

Signup and view all the flashcards

오토인코더 기반 SSL

레이블이 있는 데이터가 매우 적을 때, 오토인코더를 사용하여 데이터를 분류하는 방법.

Signup and view all the flashcards

고급 SSL

SSL에서 더 나은 성능을 제공하는 고급 방법. 지도 손실, 일관성 손실 및 특징 매칭 손실을 사용합니다.

Signup and view all the flashcards

일관성 손실

SSL에서, 입력에 잡음을 더했을 때 예측이 얼마나 일관적인지를 측정하는 손실.

Signup and view all the flashcards

특징 매칭 손실

SSL에서, 같은 예측을 가지는 데이터 포인트들이 얼마나 유사한 특징을 갖는지 측정하는 손실.

Signup and view all the flashcards

유사성 그래프

SSL에서, 데이터 포인트 간의 유사성을 나타내는 그래프. 행렬 완성으로 구성할 수 있습니다.

Signup and view all the flashcards

Transfer learning

한 작업에서 얻은 지식을 다른 작업으로 전달하는 학습 방법.

Signup and view all the flashcards

Fine tuning

Transfer learning에서, 사전 학습된 모델의 가중치를 초기값으로 사용하고, 새로운 데이터에 맞게 전체 모델을 재학습하는 방법.

Signup and view all the flashcards

Partial tuning

Transfer learning에서, 사전 학습된 모델의 일부 레이어만 사용하고, 나머지 레이어는 새로운 데이터에 맞게 학습시키는 방법.

Signup and view all the flashcards

Simulation-based learning

충분한 데이터가 없는 상황에서 시뮬레이터를 사용하여 데이터를 생성하고 학습하는 방법.

Signup and view all the flashcards

Reinforcement Learning (RL)

에이전트가 환경과 상호 작용하며 보상을 최대화하는 방법을 학습하는 머신러닝의 한 유형.

Signup and view all the flashcards

Agent (in RL)

RL에서 의사 결정을 내리는 주체. 환경 내에서 행동을 취합니다.

Signup and view all the flashcards

Environment (in RL)

RL에서 에이전트가 상호 작용하는 세상. 에이전트에게 관찰과 (observation)보상을 제공합니다.

Signup and view all the flashcards

Action (in RL)

RL에서 에이전트가 특정 상태에서 취할 수 있는 가능한 행동.

Signup and view all the flashcards

Observation (in RL)

RL에서 에이전트가 환경에 대한 정보로 받는 것.

Signup and view all the flashcards

Reward (in RL)

RL에서 에이전트가 행동에 대한 피드백으로 받는 긍정적 또는 부정적 신호.

Signup and view all the flashcards

액션 정책(Action policy)

RL에서 에이전트가 상태에 따라 어떤 행동을 취할지 결정하는 규칙.

Signup and view all the flashcards

Markov Decision Process (MDP)

RL의 수학적 모델. 상태, 행동, 보상, 다음 상태 확률을 정의합니다.

Signup and view all the flashcards

Markov property

현재 상태만으로 미래 상태를 예측할 수 있다는 속성

Signup and view all the flashcards

상태 변환 확률

마르코프 과정의 상태가 변할 확률.

Signup and view all the flashcards

Bellman equation

MDP에서 각 상태-행동 쌍에 대한 '가치'를 나타내는 함수. 최적의 정책을 찾는 데 사용됩니다.

Signup and view all the flashcards

할인 계수(Discount factor)

미래 보상을 현재 가치로 환산하는 데 사용되는 파라미터.

Signup and view all the flashcards

Q-가치 반복 알고리즘

Bellman 방정식에 기반하여 최적의 정책을 찾는 데 사용되는 알고리즘.

Signup and view all the flashcards

Q-learning

Q-가치 반복 알고리즘의 실용적인 버전. 상태 변환 확률에 대한 지식 없이도 학습할 수 있습니다.

Signup and view all the flashcards

Deep Q-learning

대규모 상태 공간에 대한 Q-learning의 확장. 심층 신경망을 사용하여 Q-값을 근사합니다.

Signup and view all the flashcards

Study Notes

Autoencoder 및 행렬 완성

  • 강의 21과 22, Suh Changho 교수, 2024년 6월 18일, 19일 강의 자료 요약

개요

  • 행렬 완성(MC)이 무엇인지 파악
  • 융합 학습과의 연결성 탐구
  • 행렬 완성에 중요한 역할을 하는 오토인코더 변형 연구: 디노이징 오토인코더
  • 디노이징 오토인코더를 활용하는 최신 MC 기술 연구

행렬 완성

  • 행렬 완성은 누락된 엔트리를 추정하는 것
  • 추천 시스템에 사용 가능
  • 많은 행렬의 낮은 랭크 구조를 활용

퓨전 학습과의 연관성

  • 퓨전 학습은 다양한 유형의 입력을 동시에 사용하는 학습 방법론
  • 종종 데이터가 누락되는 문제 발생
  • 소수의 예시만 모든 유형의 데이터에 사용 가능
  • 누락된 엔트리 추정은 퓨전 학습 문제 해결에 도움을 줌

행렬 완성을 위한 방법

  • 최신 방법 중 하나는 오토인코더를 이용하는 것
  • 디노이징 오토인코더 (DAE) 기반

디노이징 오토인코더 (DAE)

  • DAE의 동기는 행렬 완성과는 관련이 없음
  • 오토인코더의 주요 역할인 차원 축소에서 영감을 받음
  • 내부 특징이 입력의 핵심 패턴을 잘 포착하기를 목표
  • 입력을 노이즈에 강하게 만드는 것이 중요

잡음

  • 잡음은 일반적으로 입력에 적용
  • 잡음 패턴에 따라 두 가지 유형이 있음
    • Type I: 가산 가우시안 잡음
    • Type II: 랜덤 마스킹

랜덤 마스킹

  • 랜덤 마스킹은 행렬 완성에 영감을 줌

행렬 완성 연결

  • 누락된 엔트리를 가진 각 예제를 AE에 입력으로 사용
  • 출력을 완전히 채워진 버전으로 간주
  • DAE의 좋은 성능 덕분에 누락된 엔트리가 잘 재구성될 것으로 기대

AE 학습 방법

  • 단순 방법: 관찰된 엔트리에 대한 쌍 인덱스 집합을 사용하여 손실을 최소화

GAN (Generative Adversarial Networks)

  • 오토인코더는 생성 모델로 사용될 수 있음
  • GAN은 더 강력한 생성 모델
  • 최근 대규모 언어 모델(LLM)에 대한 관심 증가

강의 22 및 23 미리보기

  • GAN 아키텍처 및 해당 최적화를 조사
  • 최적화 문제 해결 방법 강구
  • GAN의 구현 세부 사항 연구
  • 대규모 언어 모델 간략하게 논의
  • GAN 최적화 문제를 해결하는 방법 강구

생성적 모델링

  • 실제 데이터와 유사한 분포를 갖는 가짜 데이터 생성

적대적 생성 네트워크

  • 생성된 가짜 샘플에서 실제 샘플을 구별
  • 입력이 실제 데이터인 경우 큰 D(.) 값을 생성하고 생성된 데이터인 경우 작은 값을 생성하는 것을 목표

최적화

  • 판별자는 D(X) & 1 – D(X~)를 최대화하려고 함
  • 생성자는 이미지의 로그를 최소화하려고 함

로그 손실

  • Goodfellow는 다음 대신 로그 손실을 사용
    • m
    • maxD m1 logD(x(i))+m1log(1-D(x(i)))
    • i=1 i=1
  • 이 방정식을 푸는 방법

신경망 최적화

  • 신경망을 함수 클래스라고 간주
  • 매개변수화: Gw(·) 및 Dθ(·)

매개변수를 사용한 최적화

  • 질문: 최대-최소(min-max) 최적화 처리 방법
  • 정류점(stationary point) 찾기

대체 경사 하강법 (Alternating gradient descent)

  • 반복적인 접근 방식
  • 생성기의 가중치를 업데이트한 후 판별기의 가중치를 업데이트
  • 판별기의 가중치 업데이트를 k번 반복 가능
  • 관찰: 이 방식은 함수 최적화에 사용
  • 함수 클래스에 대한 신경망 적용

k:1 교대 기울기 하강법

  • 생성기의 가중치를 업데이트한 후 판별기의 가중치를 k번 업데이트
  • 실제로는 배치 버전과 Adam이 자주 사용됨

판별자 훈련 방법

  • 배치 버전:
  • 최대
    • θ mB i∈B log Dθ(x(i)) + log(1 – Dθ(Gw(z(i))))
  • 판별적 손실:
    • minθm1B i∈B - log Dθ(x(i)) – log(1 – Dθ(Gw(z(i))))

판별자 손실에 대한 관찰

  • 교차 엔트로피 손실과 관련
  • 실제 이미지에 대한 교차 엔트로피 손실 최대화
  • 가짜 이미지에 대한 교차 엔트로피 손실 최소화

구현 방법

  • 실제 손실과 가짜 손실 계산
  • 모든 1'과 0'의 벡터 사용

생성기 훈련 방법

  • 판별자의 매개변수가 주어지면 생성기 손실을 최소화하는 것이 목표
  • 목표는 관련 없는 항을 무시하고 생성기 손실을 최소화하는 것으로 단순화

생성기 손실

  • 훈련 초기에 생성기는 현실적인 데이터를 잘 생성하지 못함
  • 훈련 불안정성 초래

프록시 사용

  • 원활한 훈련 가능

지금까지 배운 내용

  • DNN, CNN, RNN, RF, 차원 축소, 군집화, 오토인코더, 행렬 완성, GAN
  • RF: 소규모 데이터 기술
  • 반지도 학습, 전이 학습, 시뮬레이터 기반 학습과 같은 고급 소규모 데이터 기술
  • 이러한 모든 기술은 주로 예측 모델에 사용

다음 내용

  • 3가지 소규모 데이터 기술 탐구: 반지도 학습, 전이 학습, 시뮬레이터 기반 학습

강의 25~27 요점

  • 반지도 학습 (SSL)
  • 표시가 없는 데이터와 표시가 있는 데이터를 모두 활용하는 학습 방법론

고급 SSL을 위한 최적화

  • 손실 함수는 3가지 항으로 구성됨
    • 지도 학습 손실: 표시가 있는 데이터에만 적용
    • 일관성 손실: 인접한 데이터 포인트가 다른 예측을 할 때 페널티를 부여
    • 특징 매칭 손실: 동일한 예측을 가진 데이터 포인트가 멀리 떨어진 특징을 가질 때 페널티를 부여

일관성 손실

  • 데이터 포인트를 섭동하여 인접한 데이터 포인트를 생성
  • 다양한 섭동 방법 적용

특징 매칭 손실

  • 유사성 그래프 및 차원 축소 기반
  • 유사성 그래프 구성 방법: 행렬 완성 사용

반지도 학습 결과

  • MNIST, SVHN, CIFAR-10 데이터세트에서 우수한 성능을 보임

전이 학습

  • 한 작업 (소스)에서 얻은 지식을 다른 작업 (대상)으로 전이

적용 가능한 시나리오

  • 동일한 크기 (또는 유사한 크기)의 입력
  • 이미지 데이터
  • 특징은 초기 레이어에서 더 일반적이고, 후기 레이어에서 더 구체적
  • 언어 데이터
  • 단어 임베딩이 매우 일반적
  • 풍부한 데이터를 가진 소스 작업의 사전 훈련 모델 존재

이미지 관련 작업을 위한 사전 훈련 모델

  • ImageNet 1000 클래스 분류 경쟁

언어 관련 작업을 위한 사전 훈련 모델

  • 단어 임베딩

이미지 데이터에 대한 일반적인 접근 방식

  • 초기 레이어 고정
  • 필요한 경우 입력 이미지 크기 조정 또는 자르기

시뮬레이션 기반 학습

  • 데이터 부족 문제가 발생하는 상황: 자율 주행 시스템 구축

상황에 유용한 시뮬레이터

  • Grand Theft Auto V
  • CARLA

GTA V 기반 노력

  • GTA V를 사용하여 충돌 예측 시스템을 구축하는 노력

충돌 예측

  • 물체 감지 및 위험-안전 분류에 초점

시뮬레이터 해킹을 통한 생성

  • GTACrash 훈련 데이터: 사고 3600건과 비사고 7700건
  • YouTubeCrash 실제 데이터: 사고 100건과 비사고 122건
  • GTA로 100배 더 많은 사고 데이터 얻음
  • 시뮬레이터 구축 난이도 매우 높음
  • 소프트웨어 회사와의 협업 필요

AUC 성능

  • 가로축은 거짓 긍정 비율, 축은 실제 긍정 비율

작은 데이터 기술에 대한 주의 사항

  • 가장 먼저 시도할 방법은 무작위 포레스트
  • 반지도 학습과 전이 학습은 부가 정보를 활용
  • 시뮬레이터 기반 학습 순으로 시도 제안

강화 학습

  • 예측 모델이 아닌 제어 모델에 적용
  • 자율 주행 자동차, 로봇을 예시로 들 수 있음
  • 강화 학습(RL)은 에이전트와 환경이라는 두 가지 개념 이용

에이전트와 환경 간의 상호 작용

  • 에이전트는 행동을 취함
  • 환경은 관찰과 보상으로 응답

강화 학습 정의

  • 기대 보상을 극대화하는 행동 정책을 학습하는 방법론

일반적인 강화 학습 시나리오

  • 팩맨, 주식, 자율 주행 자동차, CartPole

강화 학습용 수학 모델

  • 에이전트와 환경 간의 상호 작용을 캡처하는 모델: 마르코프 결정 과정 (MDP)

마르코프 결정 과정 (MDP)?

  • 마르코프 프로세스와 관련 있는 개념

마르코프 프로세스 정의

  • 미래 상태와 과거 상태가 독립적

상태 전이 확률

  • 마르코프 프로세스의 통계적 행동을 완전히 설명

상태 전이 다이어그램

  • 마르코프 프로세스와 연결

마르코프 결정 과정 (MDP)

  • 각 시간 단계에서 에이전트는 여러 후보 중에서 행동을 취할 수 있음
  • 전이 확률은 취해진 조치에 따라 달라짐
  • 일부 상태 전이는 일부 보상을 반환

MDP 관련 RL은?

  • RL은 기대 보상을 최대화하는 최적의 정책을 찾는 방법론

MDP에서 최적의 정책을 찾는 방법

  • 벨만 방정식과 Q-값 반복 알고리즘 사용

벨만 방정식이란?

  • 표기법 :
    • Q*(s, a): 상태-동작 쌍의 Q-값
    • 의미 : 에이전트가 상태 "s"에서 동작 "a"를 취할 때의 최대 기대 보상
    • 가정 : 미래 행동은 최적 정책을 따름
  • Q*를 찾는 데 도움이 되는 방정식

기대 보상 계산 방법

  • 두 가지 유형의 보상이 있음
    • 즉각적인 보상
    • 미래 보상
  • 할인 요소 γ 사용 - 일반적인 값은 0.95 또는 0.99
  • 할인 요소 gamma 기호

Q-값 반복 알고리즘

  • 벨만 방정식에 기반
  • 주어진 Q(t)(s, a)에 대해 Q(t+1)(s, a)를 반복적으로 계산
  • 반복에서 Q(t+1)(s, a)는 Q*(s, a)로 수렴

문제점

  • 실질적으로, π(s′|s,a) 및 R(s′|s,a)는 추정하기 어려움

Q 학습 알고리즘 사용

  • Q-학습 알고리즘은 실제 에피소드에서 관찰된 전이 및 즉각 보상을 기반

Studying That Suits You

Use AI to generate personalized quizzes and flashcards to suit your learning preferences.

Quiz Team

Related Documents

More Like This

Matrix Evidence Flashcards
8 questions
Matrix Fundamentals and Operations
23 questions
자동 인코더와 행렬 완성
51 questions
Use Quizgecko on...
Browser
Browser