Machine Learning

Choose a study mode

Play Quiz
Study Flashcards
Spaced Repetition
Chat to Lesson

Podcast

Play an AI-generated podcast conversation about this lesson
Download our mobile app to listen on the go
Get App

Questions and Answers

Dalam konteks taksonomi AI, manakah urutan yang benar dari konsep yang paling umum hingga yang paling spesifik?

  • Deep Learning (DL) -> Neural Network (NN) -> Machine Learning (ML) -> Artificial Intelligence (AI)
  • Machine Learning (ML) -> Artificial Intelligence (AI) -> Deep Learning (DL) -> Neural Network (NN)
  • Artificial Intelligence (AI) -> Machine Learning (ML) -> Neural Network (NN) -> Deep Learning (DL) (correct)
  • Neural Network (NN) -> Deep Learning (DL) -> Machine Learning (ML) -> Artificial Intelligence (AI)

Apa yang membedakan Generative AI dari AI tradisional?

  • Generative AI berfokus pada penciptaan konten baru dan original. (correct)
  • Generative AI beroperasi hanya pada aturan yang telah ditetapkan.
  • AI tradisional dapat menghasilkan berbagai bentuk konten yang belum pernah ada sebelumnya.
  • AI tradisional menghasilkan teks, gambar, musik, dan video.

Mengapa neural network (NN) dianggap sebagai model matematis?

  • Karena NN terinspirasi dari struktur jaringan saraf manusia dan menggunakan unit-unit pemrosesan sederhana. (correct)
  • Karena NN menggunakan prinsip-prinsip kecerdasan buatan.
  • Karena NN terinspirasi dari arsitektur komputer modern.
  • Karena setiap neuron dalam NN merepresentasikan sel biologis.

Apa fungsi utama dari akson pada saraf biologis?

<p>Mengirimkan pesan dari sel ke neuron lain. (B)</p> Signup and view all the answers

Bagaimana sebuah artificial neural network (ANN) belajar mengenali pola dalam data?

<p>Dengan mengatur ulang bobot-bobot antar neuron selama proses pembelajaran. (B)</p> Signup and view all the answers

Apa yang dimaksud dengan 'fungsi aktivasi' dalam konteks perceptron?

<p>Fungsi yang menentukan output berdasarkan input yang diberikan. (B)</p> Signup and view all the answers

Mengapa penggunaan fungsi aktivasi non-linear penting dalam neural network?

<p>Untuk menyesuaikan pola untuk data yang non-linier. (A)</p> Signup and view all the answers

Apa perbedaan utama antara ReLU dan Leaky ReLU sebagai fungsi aktivasi?

<p>ReLU dapat menyebabkan 'neuron mati', sedangkan Leaky ReLU memiliki kemiringan kecil untuk mencegahnya. (A)</p> Signup and view all the answers

Dalam konteks klasifikasi multiclass, mengapa fungsi aktivasi Softmax sering digunakan pada lapisan output?

<p>Karena Softmax menghasilkan distribusi probabilitas yang memetakan output pada rentang (0, 1). (B)</p> Signup and view all the answers

Apa tujuan dari 'loss function' dalam pelatihan neural network?

<p>Untuk mengukur seberapa baik kinerja model pada data pelatihan. (A)</p> Signup and view all the answers

Bagaimana optimizer membantu dalam proses pelatihan jaringan saraf?

<p>Dengan mengoptimalkan bobot dan bias untuk mengurangi kesalahan prediksi. (C)</p> Signup and view all the answers

Apa peran utama dari 'backward pass' dalam algoritma backpropagation?

<p>Menghitung gradien dari loss function terhadap bobot. (C)</p> Signup and view all the answers

Dalam konteks deep learning, kapan terjadi titik balik yang signifikan yang menunjukkan kemampuan deep learning dalam pengenalan gambar?

<p>Ketika AlexNet memenangkan kompetisi ImageNet pada tahun 2012. (B)</p> Signup and view all the answers

Mengapa deep learning efektif dalam mengatasi masalah yang sulit diselesaikan oleh algoritma machine learning konvensional?

<p>Karena deep learning mampu memproses dan mempelajari pola kompleks dari data dengan banyak lapisan. (D)</p> Signup and view all the answers

Dalam arsitektur deep learning, apa fungsi dari setiap lapisan?

<p>Untuk mengekstrak fitur-fitur yang semakin abstrak dan kompleks dari data. (D)</p> Signup and view all the answers

Dalam Convolutional Neural Network (CNN), apa fungsi dari lapisan konvolusi?

<p>Untuk mengekstrak fitur-fitur lokal dari gambar. (B)</p> Signup and view all the answers

Apa tujuan penggunaan Batch Normalization Layer dalam jaringan neural?

<p>Untuk mempercepat dan menstabilkan proses pelatihan jaringan. (C)</p> Signup and view all the answers

Dalam konteks Recurrent Neural Network (RNN), mengapa memori jangka pendek (short-term memory) menjadi isu?

<p>Karena RNN kesulitan mengatasi dependensi jarak jauh. (D)</p> Signup and view all the answers

Apa perbedaan utama antara LSTM dan RNN sederhana (Vanilla RNN)?

<p>LSTM memiliki mekanisme gerbang untuk mengatasi masalah vanishing gradient. (A)</p> Signup and view all the answers

Apa kegunaan Generative Adversarial Networks (GANs)?

<p>Menghasilkan data sintetis untuk aplikasi kreatif dan augmentasi dataset. (A)</p> Signup and view all the answers

Pada RNN, proses apa yang memungkinkan jaringan untuk mengingat konteks sebelumnya?

<p>Penggunaan output sebelumnya sebagai input pada langkah waktu berikutnya. (B)</p> Signup and view all the answers

Mengapa setiap data dalam proses pembelajaran yang dilakukan oleh RNN perlu di vektorisasi

<p>Karena RNN hanya memroses data numerik. (A)</p> Signup and view all the answers

Manakah di bawah ini bukan komponen dasar dari perceptron?

<p>Fungsi Algoritma Optimasi (C)</p> Signup and view all the answers

Manakah dari pernyataan berikut yang paling benar mengenai bagaimana fungsi aktivasi membantu neural network?

<p>Membuat jaringan tersebut mampu mengenali pola non-linier (D)</p> Signup and view all the answers

Apa yang akan terjadi jika pemodelan pada komputer tidak menggunakan fungsi aktivasi pada data yang non-linier?

<p>Pola data tidak dapat dikenali (B)</p> Signup and view all the answers

Setelah berhasil mengenali pola mana yang harus dijaga, bagian mana dari LSTM yang berperan dalam menyimpan informasi baru untuk jangka waktu yang lebih lama?

<p>Gerbang Input (C)</p> Signup and view all the answers

Sebelum diolah layer-layer pada deep learning lainnya, data harus melewati init layer. Apa tanggung jawab atau fungsi utama dari init layer itu?

<p>Menerima dan mentransfer input data ke layer selanjutnya (A)</p> Signup and view all the answers

Sebagai teknik regularisasi dan fitur generik untuk mengatasi overfitting pada jaringan, apa bagian dari arsitektur deep learning yang secara acak menonaktifkan sebagian neuron di setiap iterasi pelatihan?

<p>Dropout Layer (C)</p> Signup and view all the answers

Manakah yang berikut ini menggambarkan bagaimana backward pass berkontribusi dalam meningkatkan efisiensi data atau prediksi dengan AI?

<p>Melakukan perhitungan dan estimasi kesalahan, dan lalu memperbaikinya di iterasi berikutnya (B)</p> Signup and view all the answers

Apa fungsi dan kegunaan dari arsitektur fully connected (dense) layer?

<p>Membantu memodelkan hubungan kompleks antara fitur input (C)</p> Signup and view all the answers

Bagaimana cara kerja dan apa proses yang terdapat pada teknik Pooling Layer?

<p>Mengurangi dimensi spasial dan menggabungkan informasi dari beberapa neuron yang bertetangga (A)</p> Signup and view all the answers

Data berurutan dapat diolah dengan sangat baik dengan arsitektur dan library deep learning yang disebut dengan RNN, namun apa salah satu isu utama ketika menggunakan RNN?

<p>Gradien cenderung mendekati nol yang menyebabkan berkurangnya konvergensi (B)</p> Signup and view all the answers

Apa saja jenis-jenis RNN yang sering digunakan dan berkembang pesat saat ini?

<p>GRU, LSTM (A)</p> Signup and view all the answers

Dalam langkah-langkah CNN (Convolutional Neural Network), setelah gambar atau visual diterima dalam bentuk init layer dan melalui convolutional dan pooling layer, apa langkah selanjutnya dalam langkah-langkah tersebut?

<p>Mengurangi atau menaikan resolusi dari representasi fitur yang sudah diperoleh (C)</p> Signup and view all the answers

Setelah dilakukan penghitungan dari CNN, sebelum dilakukan finalisasi dan eksekusi ke jaringan saraf terakhir dan mendapat klasifikasi, apa yang akan terjadi sebelum tahapan itu?

<p>Feature yang ada akan diproses untuk ditransformasikan ke vectors berdimensi 1 (D)</p> Signup and view all the answers

Flashcards

Neural Network (Jaringan Saraf)

Komponen inti dari kecerdasan buatan, terinspirasi dari jaringan saraf biologis manusia.

Taksonomi AI

Evolusi konsep dan teknologi dalam kecerdasan buatan, mulai dari AI hingga Deep Learning (DL).

Artificial Intelligence (AI)

Konsep yang mendasari seluruh bidang kecerdasan buatan.

Machine Learning (ML)

Cabang dari AI; komputer belajar dari data tanpa diprogram secara eksplisit.

Signup and view all the flashcards

Neural Network (NN)

Model matematis terinspirasi dari jaringan saraf manusia, digunakan dalam Machine Learning.

Signup and view all the flashcards

Deep Learning (DL)

Sub-bidang dari ML yang memakai NN dengan banyak lapisan (DNN) untuk data abstrak dan kompleks.

Signup and view all the flashcards

Generative AI (Gen AI)

Cabang dari AI yang berfokus pada penciptaan konten baru yang original.

Signup and view all the flashcards

Neural Network (NN)

Model matematis yang terinspirasi dari struktur jaringan saraf manusia.

Signup and view all the flashcards

Bagian Utama Saraf

Sebuah saraf terdiri dari tiga bagian utama, yaitu akson, dendrit, dan badan sel yang di dalamnya terdapat nukleus.

Signup and view all the flashcards

Neuron Buatan

Unit pemrosesan dalam NN, menerima input, menghitung hasil, dan mengirimkan output.

Signup and view all the flashcards

Single Perceptron

NN yang paling sederhana, terdiri dari satu unit perceptron tunggal.

Signup and view all the flashcards

Proses Perceptron

Input dikalikan dengan bobot, dijumlahkan dengan bias, diproses melalui fungsi aktivasi.

Signup and view all the flashcards

Single Perceptron

Model matematis yang mengambil input, mengalikannya dengan bobot, menambahkan bias, dan menerapkan fungsi aktivasi.

Signup and view all the flashcards

Cara Kerja ANN

ANN terinspirasi dari struktur jaringan saraf manusia; jutaan neuron buatan terorganisir dalam lapisan.

Signup and view all the flashcards

Proses Pembelajaran ANN

Bobot diatur ulang agar ANN belajar memahami pola dalam data.

Signup and view all the flashcards

Perceptron

Komponen dasar jaringan saraf tiruan, ditemukan oleh Frank Rosenblatt pada tahun 1957.

Signup and view all the flashcards

Bobot

Parameter yang dipelajari perceptron, menunjukkan kekuatan node tertentu.

Signup and view all the flashcards

Bias

Konstanta yang memungkinkan kurva fungsi aktivasi diubah.

Signup and view all the flashcards

Weighted Sum

Hasil penjumlahan input yang dikalikan dengan bobot.

Signup and view all the flashcards

Non-Linearity Function

Memetakan nilai hasil menjadi nilai yang diperlukan, memungkinkan perceptron menyesuaikan pola data non-linier.

Signup and view all the flashcards

Multilayer Perceptron (MLP)

Jenis neural network yang terdiri dari banyak perceptron yang saling terhubung.

Signup and view all the flashcards

Input Layer

Layer pertama MLP, berfungsi untuk menerima data atau input dari luar.

Signup and view all the flashcards

Hidden Layer

Terdiri dari satu atau lebih lapisan antara input layer dan output layer, memproses input.

Signup and view all the flashcards

Output Layer

Menghasilkan output berdasarkan hasil pemrosesan hidden layer.

Signup and view all the flashcards

Activation Function

Fungsi matematika yang menentukan output neuron berdasarkan input, meniru neuron biologis ‘aktif’ atau ‘tidak aktif.

Signup and view all the flashcards

Linear Activation Function

Keluaran proporsional secara linear terhadap input.

Signup and view all the flashcards

ReLU

Output adalah nilai input jika positif atau sama dengan nol, dan output nol jika nilai input kurang dari nol.

Signup and view all the flashcards

Leaky ReLU

Memperkenalkan kemiringan kecil pada bagian negatif dari fungsi ReLU.

Signup and view all the flashcards

Sigmoid

Mengubah angka tunggal menjadi nilai antara 0 sampai 1.

Signup and view all the flashcards

Tanh

Mengubah nilai input menjadi nilai antara -1 hingga 1.

Signup and view all the flashcards

Softmax

Mengubah nilai input menjadi distribusi probabilitas yang memetakan output pada rentang (0, 1).

Signup and view all the flashcards

Loss Function

Algoritma matematis untuk mengukur kinerja model neural network pada data pelatihan.

Signup and view all the flashcards

Mean Square Error (MSE)

Menghitung rata-rata dari kuadrat selisih antara prediksi model dan nilai sebenarnya.

Signup and view all the flashcards

Cross-Entropy Loss

Mengukur perbedaan antara distribusi prediksi dan distribusi target, digunakan untuk klasifikasi.

Signup and view all the flashcards

Optimizer

Komponen kunci dalam pelatihan jaringan saraf tiruan, bertanggung jawab untuk mengoptimalkan bobot dan bias.

Signup and view all the flashcards

memperbarui Parameter

Update nilai parameter (weights dan biases) jaringan

Signup and view all the flashcards

Menghitung Gradien

Menghitung gradien dari loss function terhadap parameter (weights dan biases) jaringan.

Signup and view all the flashcards

Forward & Backpropagation

Dua proses kunci untuk menghasilkan prediksi akurat dan mengoptimalkan parameter (bobot) jaringan.

Signup and view all the flashcards

Input Data

Langkah pertama dalam penggunaan neural network memberikan data sebagai input pada jaringan.

Signup and view all the flashcards

Arsitektur Deep Learning

Arsitektur Deep Learning adalah struktur jaringan saraf buatan atau cara tata letak jaringan.

Signup and view all the flashcards

Study Notes

Pengenalan Deep Learning

  • Kelas ini akan membahas konsep-konsep penting dalam deep learning, termasuk jaringan saraf dan contoh algoritma.

  • Modul ini akan mengajarkan cara komputer belajar dari data dan algoritma dalam pengenalan gambar dan pemrosesan bahasa.

Dasar-Dasar Neural Network

  • Neural network terinspirasi dari jaringan saraf biologis manusia.
  • Neural network mampu mengenali pola, membuat prediksi, dan belajar dari pengalaman.
  • Neural network membuka kemajuan besar dalam pengenalan gambar, pengolahan bahasa alami, dan robotika.
  • Contoh penggunaan neural network meliputi sistem rekomendasi dan kendaraan otonom.

Taksonomi AI

  • Taksonomi AI menggambarkan evolusi konsep dan teknologi kecerdasan buatan, dari artificial intelligence hingga deep learning (DL).
  • Artificial Intelligence (AI) mencakup penggunaan komputer untuk tugas yang membutuhkan kecerdasan manusia, seperti pengambilan keputusan.
  • Machine Learning (ML) adalah cabang AI di mana komputer belajar dari data tanpa diprogram secara eksplisit.
  • Neural Network (NN) adalah model matematis yang terinspirasi dari jaringan saraf manusia yang digunakan untuk memproses informasi.
  • Deep Learning (DL) adalah sub-bidang ML yang menggunakan NN dengan banyak lapisan, yang menghasilkan kemajuan besar dalam berbagai aplikasi AI.
  • Generative AI berfokus pada penciptaan konten baru dan original, seperti teks dan gambar.

Konsep Dasar Neural Network

  • Jaringan saraf tiruan adalah model matematis yang terinspirasi dari struktur jaringan saraf manusia.
  • Jaringan saraf tiruan meniru cara kerja otak manusia menggunakan unit-unit pemrosesan sederhana (neuron).
  • Neuron biologis adalah pembawa pesan/informasi menggunakan impuls listrik dan sinyal kimiawi antara area otak dan sistem saraf.
    • Saraf terdiri dari akson (mengirim pesan), dendrit (menerima pesan), dan badan sel dengan nukleus (mengontrol aktivitas sel).
    • Neuron berkomunikasi dengan neurotransmitter melintasi sinapsis.
    • Neuron mengirim sinyal sebagai respons cepat.
  • Neuron buatan (NN) terinspirasi dari saraf biologis, saling terhubung dalam struktur mirip jaringan saraf biologis.
    • Setiap neuron buatan menerima input, menghitung hasil berdasarkan bobot, dan mengirimkan output ke neuron lain.

Struktur dan Cara Kerja Artificial Neural Network

  • Perceptron adalah neural network paling sederhana yang terdiri dari satu unit.
  • Perceptron memproses input dengan mengalikannya dengan bobot (w), menjumlahkannya dengan bias (b), dan menerapkan fungsi aktivasi (f) untuk menghasilkan output (y).
  • Secara matematis, output perceptron dihitung dengan rumus: y = f(z), di mana z = Σ(wixi) + b.

Komponen Single Perceptron

  • x: Nilai input.
  • w: Bobot terkait dengan input.
  • b: Nilai bias (konstanta tambahan).
  • z: Fungsi linear.
  • f: Fungsi aktivasi.
  • y: Output.
  • ANN bekerja dengan neuron yang terorganisir dalam lapisan-lapisan.
  • Setiap koneksi antar neuron memiliki bobot yang memengaruhi pentingnya informasi.
  • Selama pembelajaran, bobot diatur ulang agar ANN memahami pola dalam data.
  • ANN memproses masukan, mengolahnya melalui jaringan neuron, dan menghasilkan keluaran.
  • Konsep ANN diibaratkan sebagai "sarang semut" dengan komputasi luar biasa untuk memecahkan masalah.
  • Perceptron adalah komponen dasar jaringan saraf tiruan, ditemukan oleh Frank Rosenblatt pada tahun 1957, terinspirasi dari neuron otak manusia.

Cara Kerja Perceptron dan Jaringan Neural

  • Perceptron menerima masukan bilangan numerik dan memprosesnya untuk menghasilkan keluaran.

  • Sebuah perceptron terdiri dari input (xi), bobot dan bias (wi, w0), penjumlahan (Σ), fungsi aktivasi (⎰), dan output (y).

  • Perceptron tunggal tidak signifikan untuk pemrosesan kompleks.

  • Ketika banyak perceptron terhubung dalam jaringan yang lebih besar, kemampuannya meningkat.

  • Selama proses pelatihan, neural network dapat menyesuaikan bobot dan bias.

  • Neural network dapat mengungguli metode machine learning lainnya dalam hal keakuratan dan adaptasi.

  • Peningkatan ukuran dan kompleksitas jaringan meningkatkan performa dan efektivitasnya.

Tahapan Proses Perceptron

  • Input menerima masukan berupa angka, setiap input memiliki bobot masing-masing.
  • Penjumlahan input: setiap input dikalikan dengan bobotnya, lalu ditambahkan dengan bias.
  • Memproses weighted sum dengan fungsi aktivasi (non-linearity function), seperti antara (0,1) atau (-1,1).
  • Output: hasil perhitungan perceptron berupa bilangan numerik.
  • Keluaran dari perceptron adalah bias (w0) ditambah dengan jumlah setiap input (xi) yang dikali dengan bobot masing-masing (wi).

Multilayer Perceptron (MLP)

  • MLP atau feedforward neural network adalah jaringan yang terdiri dari banyak perceptron yang saling terhubung dalam beberapa lapisan.
  • Layer pada MLP:
    • Input layer: menerima data dari luar.
    • Hidden layer: memproses input dengan bobot dan fungsi aktivasi, membantu jaringan mempelajari pola kompleks.
    • Output layer: menghasilkan output berdasarkan hidden layer, mewakili probabilitas kelas tertentu.

Istilah Penting pada Neural Network

  • Beberapa istilah umum yang penting dalam pengembangan kecerdasan buatan menggunakan neural network:
  • Activation Function, Loss Function, dan Optimizer.

Activation Function (Fungsi Aktivasi)

  • Fungsi aktivasi adalah fungsi matematika yang menentukan apakah neuron aktif atau tidak berdasarkan input.
  • Fungsi aktivasi membuat jaringan saraf mampu menyesuaikan pola dengan data non-linier.
  • Secara umum, ada dua jenis activation function, linear dan non-linear activation function.
    • Linear activation function adalah fungsi dengan keluaran yang proporsional secara linear terhadap input.
      • Jarang digunakan pada lapisan tersembunyi (hidden layers) karena tidak mampu memodelkan hubungan yang kompleks antara variabel input dan output.

Non-Linear Activation Functions

  • ReLU (Rectified Linear Activation)
    • Output dari ReLU adalah nilai inputnya jika nilai input tersebut lebih besar dari atau sama dengan nol, dan outputnya adalah nol jika nilai inputnya kurang dari nol.
    • Sederhana pada komputasi dan memperkenalkan non-linearitas ke dalam jaringan.
    • Mampu mempercepat konvergensi pembelajaran dan mengurangi risiko overfitting.
  • Leaky ReLU
    • Memperkenalkan kemiringan kecil (biasanya nilai tetap yang sangat kecil, seperti 0.01) pada bagian negatif dari fungsi ReLU.
    • Membantu menjaga agar neuron tetap aktif selama pelatihan, bahkan jika gradien pada bagian negatifnya mendekati nol.
    • Mencegah "kematian" neuron dan membantu meningkatkan stabilitas serta kecepatan konvergensi dalam pelatihan jaringan saraf.
  • Sigmoid
    • Akan menerima angka tunggal dan mengubah x menjadi sebuah nilai yang memiliki rentang mulai dari 0 sampai 1.
    • Kemampuannya dalam menghasilkan keluaran dengan batas antara 0 dan 1, yang berguna untuk tugas klasifikasi ketika kita ingin memprediksi probabilitas keanggotaan pada kelas tertentu.
    • Ketika nilai input sangat besar (positif atau negatif), gradien sigmoid cenderung mendekati nol, yang dapat menyebabkan masalah lambatnya konvergensi selama pelatihan jaringan.
    • Memiliki kecenderungan untuk menghasilkan output yang condong ke nilai 0 atau 1 dengan cepat; ini dapat menghambat pembelajaran dalam beberapa kasus.
  • Tanh
    • Akan mengubah nilai input x-nya menjadi sebuah nilai yang memiliki rentang mulai dari -1 hingga 1.
    • Rentang output yang terbatas (-1 sampai 1). Ini juga bisa menyebabkan gradien menghilang pada jaringan.
    • Masih menjadi pilihan populer untuk fungsi aktivasi dalam beberapa kasus, terutama ketika rentang output yang simetris di sekitar nol diinginkan atau saat sigmoid tidak memberikan hasil yang memuaskan.
    • Menghasilkan output antara -1 dan 1.
  • Softmax
    • Adalah jenis fungsi aktivasi yang umum digunakan pada lapisan output dari jaringan saraf, terutama untuk tugas klasifikasi multiclass (output pada rentang (0, 1) sehingga total probabilitas output menjadi 1).
    • Output dari softmax dapat diinterpretasikan sebagai probabilitas bahwa input termasuk dalam setiap kelas yang mungkin karena nilai-nilainya berada pada rentang (0, 1) dan total probabilitasnya adalah 1.

Loss Function dan Optimizer

  • Loss Function digunakan untuk mengukur seberapa baik atau buruk kinerja model pada data pelatihan.
  • Optimizer bertanggung jawab untuk mengoptimalkan bobot dan bias pada jaringan agar dapat mengurangi kesalahan prediksi
  • Fungsi utama dari optimizer dalam konteks jaringan saraf:
    • Menghitung gradien dari loss function terhadap parameter (weights dan biases) dalam jaringan.
    • Memperbarui nilai parameter berdasarkan gradien yang dihitung (gradient descent atau varian-varian lainnya) -Optimizer berusaha menangani masalah, seperti lambatnya konvergensi, kemungkinan terjebak dalam optimum lokal, ataupun masalah gradien yang meledak atau menghilang
  • Contoh optimizer yang umum digunakan:
    • Stochastic Gradient Descent (SGD), RMSprop, ADAM.

Forward Propagation dan Backpropagation

  • Digunakan untuk menghasilkan prediksi yang akurat dan mengoptimalkan parameter (bobot) jaringan. Dengan menggunakan forward propagation: Data dimasukkan ke setiap neuron jaringan Lalu dengan backpropagation: Output prediksi dibandingkan dengan nilai target menggunakan loss function. Gradien dihitung dan bobot diubah Langkah diulang Pada intinya, neuron, jaringan dan data beriterasi.

Definisi Deep Learning

  • Deep learning adalah cabang dai kecerdasan buatan yang menggunkan ANN, model matematis yang terdiri dari tiga atau lebih lapisan neuron yang saling terhubung yang memiliki fungsi khusus serta bertanggung jawab untuk mengekstrak fitur-fitur.
  • Perangkat lunak memproses dan memproses data hingga menjadi output yang diinginkan.

Pengantar Convolutional Neural Network (CNN)

  • Deep learning telah membuka banyak kemungkinan.
  • CNN sering juga digunakan untuk memproses gambar.
  • Langkah-langkah convolution neural network (CNN):
  1. Memecah gambar menjadi bagian-bagian lebih kecil(patches)
  2. Masukkan setiap gambar lebih kecil pada jaringan saraf
  3. Menyimpan hasil dari setiap gambar.
  4. Pengurangan dimensi, representasi data spasial
  5. Membuat sebuah prediksi

Pengantar Recurrent Neural Network (RNN)

  • Tujuan utama RNN adalah memahami dan memproses data yang memiliki struktur urutan atau jangka waktu.
  • Jenis- jenis RNN:
  1. Vanilla RNN
  2. LSTM
  3. GRU
  • Langkah-langkah RNN:
  1. Diproosesnya masukan( teks, audio, kata)
  2. Perhitungan aktivasi
  3. Pembaharuhan status internal
  4. Output

Studying That Suits You

Use AI to generate personalized quizzes and flashcards to suit your learning preferences.

Quiz Team

Related Documents

Use Quizgecko on...
Browser
Browser