Sieci neuronowe i ich charakterystyka
22 Questions
0 Views

Choose a study mode

Play Quiz
Study Flashcards
Spaced Repetition
Chat to Lesson

Podcast

Play an AI-generated podcast conversation about this lesson

Questions and Answers

Dlaczego sieci neuronowe są trudniejsze do trenowania niż zwykłe algorytmy?

  • Wymagają więcej mocy obliczeniowej
  • Potrzebują dużo danych
  • Wymagają uważnej normalizacji danych
  • Wszystkie powyższe odpowiedzi (correct)

Co to jest wektor i jak definiujemy jego rozmiar?

Wektor to tablica liczb. Rozmiar wektora to liczba jego elementów (współrzędnych).

Iloczyn skalarny dwóch wektorów to suma iloczynów odpowiadających im ____________.

współrzędnych

Sieci neuronowe radzą sobie dobrze z brakami danych i zmiennymi kategorycznymi.

<p>False (B)</p> Signup and view all the answers

Co oznacza, że warstwa jest warstwą gęstą w sieci neuronowej?

<p>Każdy neuron jest połączony z innymi neuronami (A)</p> Signup and view all the answers

Warstwa splotowa w sieci neuronowej jest liniowa.

<p>True (A)</p> Signup and view all the answers

Splotowa sieć neuronowa zwykle składa się z warstw ________ poprzeplatanych warstwami poolingowymi.

<p>splotowych</p> Signup and view all the answers

Co to jest uczenie transferowane?

<p>Uczenie transferowane to technika polegająca na wykorzystaniu wstępnie wytrenowanych wag z innego modelu do nauki nowego modelu.</p> Signup and view all the answers

Co to jest celem funkcji aktywacji w sieci neuronowej?

<p>Złamać liniowość</p> Signup and view all the answers

Który z następujących problemów dotyczy Sigmoidy?

<p>Problem znikającego gradientu (A)</p> Signup and view all the answers

Co oznacza ReLU i dlaczego jest obecnie powszechnie używane?

<p>Rectified Linear Unit; rozwiązuje problem znikającego gradientu</p> Signup and view all the answers

Problem znikającego gradientu występował głównie w funkcjach aktywacji takich jak ______.

<p>Sigmoid</p> Signup and view all the answers

ReLU rozwiązuje problem znikającego gradientu.

<p>True (A)</p> Signup and view all the answers

Co to jest algorytm najszybszego spadku?

<p>Algorytm najszybszego spadku jest metodą optymalizacji służącą do minimalizacji funkcji poprzez iteracyjne poszukiwanie najlepszego rozwiązania.</p> Signup and view all the answers

Które podejścia do algorytmów optymalizacji opisane są w tekście? (Zaznacz wszystkie poprawne odpowiedzi)

<p>Najszybszy spadek (A), Stochastyczny najszybszy spadek (B), Wsadowy najszybszy spadek (C)</p> Signup and view all the answers

Na czym polega propagacja gradientu?

<p>Propagacja gradientu polega na obliczaniu gradientu warstwa po warstwie w sieci neuronowej.</p> Signup and view all the answers

Dropout jest techniką stosowaną wyłącznie w czasie predykcji.

<p>False (B)</p> Signup and view all the answers

W algorytmie najszybszego spadku z regularyzacją L2, krok aktualizacji wag można zapisać jako: w := w - λ⋅∇lreg(w), gdzie ||w||2 oznacza ________ sumę kwadratów wszystkich wag.

<p>kwadrat</p> Signup and view all the answers

Która architektura była opisana jako \

<p>VGG16 (D)</p> Signup and view all the answers

W jaki sposób ResNet różni się od innych architektur?

<p>False (B)</p> Signup and view all the answers

Co to jest 'saliency map'?

<p>Wizualizacja części obrazka istotnych dla sieci neuronowej.</p> Signup and view all the answers

Czym są 'adversarial attacks'? Z perspektywy ludzkiej to __________ zniekształcenie obrazka.

<p>nieznaczne</p> Signup and view all the answers

Study Notes

Głębokie uczenie maszynowe

  • Głębokie uczenie maszynowe to dziedzina sztucznej inteligencji, która zajmuje się tworzeniem modeli, które potrafią uczyć się z danych
  • W przeciwieństwie do klasycznego uczenia maszynowego, gdzie modele są projektowane przez człowieka, w głębokim uczeniu modele są konstruowane automatycznie na podstawie danych
  • Głębokie uczenie maszynowe jest możliwe dzięki sztucznym sieciom neuronowym

Sztuczne sieci neuronowe

  • Sztuczne sieci neuronowe to matematyczne przedstawienie sieci neuronowej mózgu
  • Składają się z warstw neuronów, które przetwarzają informacje i przekazują je dalej
  • Neurony w warstwie ukrytej są połączone z neuronami w warstwie wyjściowej
  • Sieci neuronowe mogą być użyte do rozwiązywania różnych problemów, takich jak klasyfikacja, regresja, detekcja obiektów

Regresja liniowa

  • Regresja liniowa to metoda uczenia maszynowego, która polega na próbie znalezienia funkcji, która najlepiej opisuje zależność między zmiennymi
  • Funkcja regresji liniowej ma postać: y = w^T * x + b, gdzie w jest wektorem wag, x jest wektorem wejścia, a b jest wartością bias
  • Wartość b jest dodawana do funkcji regresji liniowej, aby przesunąć linię regresji w stronę góry lub dołu
  • Regresja liniowa jest stosowana do problemów, gdzie celem jest przewidywanie wartości liczbowej

Regresja logistyczna

  • Regresja logistyczna to metoda uczenia maszynowego, która polega na próbie znalezienia funkcji, która najlepiej opisuje zależność między zmiennymi
  • Funkcja regresji logistycznej ma postać: y = σ(w^T * x + b), gdzie σ jest funkcją sigmoidalną
  • Regresja logistyczna jest stosowana do problemów, gdzie celem jest przewidywanie wartości logicznej (0 lub 1)

Sigmoid

  • Sigmoid to funkcja, która przekształca wartość liczbową w wartość z przedziału (0,1)
  • Sigmoid jest stosowany w regresji logistycznej, aby uzyskać wartość prawdopodobieństwa

Funkcje aktywacji

  • Funkcje aktywacji to funkcje, które są stosowane w sztucznych sieciach neuronowych, aby wprowadzić nieliniowość
  • Najpopularniejszymi funkcjami aktywacji są sigmoid i ReLU
  • Funkcje aktywacji są stosowane w każdej warstwie ukrytej sieci neuronowej

Trenowanie sieci neuronowej

  • Trenowanie sieci neuronowej to proces minimalizacji funkcji straty, aby uzyskać najlepsze wyniki
  • Funkcja straty jest miarą różnicy pomiędzy wynikami przewidywanymi a prawdziwymi
  • Trenowanie sieci neuronowej jest realizowane za pomocą algorytmu najszybszego spadku, który szuka minimum funkcji straty.Here are the study notes for the text:

Algorytm Najszybszego Spadku

  • Algorytm najszybszego spadku jest używany do minimalizacji funkcji straty
  • Funkcja straty jest minimalizowana poprzez iteracyjne przesuwanie wagi w kierunku przeciwnym do gradientu

Minimalizacja Funkcji Straty

  • Minimalizacja funkcji straty jest niezbędna w uczeniu sieci neuronowych
  • Funkcja straty jest różna w zależności od problemu (np. regresja, klasyfikacja)

Pochodna Funkcji Straty

  • Pochodna funkcji straty jest używana do obliczenia kierunku przesuwania wagi
  • Pochodna funkcji straty jest różna w zależności od użytej funkcji straty

Gradient Descent Algorithm

  • Algorytm najszybszego spadku jest typu gradient descent
  • Algorytm najszybszego spadku jest używany do minimalizacji funkcji straty

Metody Trenowania Sieci Neuronowych

  • Metody trenowania sieci neuronowych:
    • Batch gradient descent
    • Stochastic gradient descent
    • Mini-batch gradient descent

Inicjalizacja Wag Sieci

  • Inicjalizacja wag sieci jest ważna w trenowaniu sieci neuronowych
  • Wag sieci nie powinno inicjalizować zerami, ponieważ sieć nie zacznie się trenować

Regularyzacja Sieci Neuronowych

  • Regularyzacja sieci neuronowych:
    • Regularyzacja L2
    • Regularyzacja L1
    • Dropout
    • Batch normalization
  • Regularyzacja sieci neuronowych ma na celu zapobieganie przeuczeniu się sieci

Dropout

  • Dropout jest techniką regularyzacyjną, która polega na losowym wyłączaniu neuronów w czasie treningu
  • Dropout jest używany w warstwach gęstych i splotowych

Batch Normalization

  • Batch normalization jest technikią regularyzacyjną, która polega na normalizacji wyjść neuronów w czasie treningu
  • Batch normalization jest używany w warstwach gęstych i splotowych

Data Augmentation

  • Data augmentation jest technikią polegającą na manipulacji danych wejściowych w celu zwiększenia ich różnorodności
  • Data augmentation jest używany w celu zwiększenia skuteczności sieci neuronowych

Warstwa Gęsta i Sieć Gęsta

  • Warstwa gęsta jest rodzajem warstwy, która łączy każdy neuron z każdym
  • Sieć gęsta jest rodzajem sieci, która składa się z warstw gęstych

Warstwa Splotowa i Splot

  • Warstwa splotowa jest rodzajem warstwy, która wykonuje splot danych wejściowych
  • Splot jest operacją matematyczną, która polega na przesuwaniu jądra po obrazku

Splotowa Sieć Neuronowa

  • Splotowa sieć neuronowa jest rodzajem sieci, która składa się z warstw splotowych

  • Splotowa sieć neuronowa jest używana w obrazie i dźwięku### Warstwa Splotowa

  • Warstwa splotowa jest przekształceniem liniowym

  • Warstwa splotowa jest liniowa, więc musimy użyć funkcji aktywacji

  • Warstwa splotowa może być traktowana jako warstwa gęsta, w której te same wagi wiele razy się powtarzają

  • Gradient po wagach liczy się w zasadzie tak, jak dla warstwy gęstej

Hiperparametry Warstwy Splotowej

  • Liczba filtrów
  • Rozmiar jądra
  • Padding (rozmiar obwódki)
  • Stride (wielkość kroku)

Jądra Splotu i Wyrazy Wolne

  • Jądra splotu i wyrazy wolne są trenowalne
  • Próbujemy je zoptymalizować tak samo jak dla sieci gęstej
  • Liczba wag nie zależy od rozdzielczości wejścia (dla warstwy gęstej bardzo zależy)

Warstwa Max-Pooling

  • Służy do zmniejszania rozmiaru
  • Brak parametrów
  • Hiperparametr: wielkość jądra (zwykle 2x2)
  • Gradient równy 1 dla argmax, 0 gdzie indziej

Splotowa Sieć Neuronowa (CNN)

  • Splotowa sieć neuronowa (ang. convolutional neural network, CNN) to sieć zawierająca warstwy splotowe
  • Zwykle taka sieć ma kilka warstw splotowych poprzeplatanych warstwami poolingowymi, po czym na końcu kilka warstw gęstych
  • Warstwy splotowe zwykle przedstawiamy jako tensory 3-wymiarowe (czyli 4-wymiarowe, jeśli dodajemy wymiar na wielkość wsadu)

LeNet-5 (1998)

  • Liczba wag:
    • C1 (splot): 156
    • S2 (pool): 0
    • C3 (splot): 2416
    • S4 (pool): 0
    • C5 (splot): 48120
    • F6 (gęsta): 10164
    • wyjściowa: 850
    • Razem: 61706
  • Funkcja aktywacji: 1,7159·tanh(2/3·x)
  • Rozmiar jąder splotu: 5 x 5
  • Brak paddingu

Uczenie Transferowane

  • Uczenie transferowane (ang. transfer learning)
  • Źródło danych: source

Przykłady Sieci z Nazwami

  • Głębokie uczenie: gwałtowny rozwój po 2011
  • AlexNet (2012)
  • VGG16 (2014)
  • GoogleNet & Inception (2015)
  • ResNet (2015)

Explainable AI

  • Głębokie sieci neuronowe są bardzo skuteczne, ale nie jest łatwo odpowiedzieć na pytanie dlaczego sieć neuronowa mówi to, co mówi
  • Na co sieć zwraca uwagę: saliency map, activation maximization, adversarial attacks

Studying That Suits You

Use AI to generate personalized quizzes and flashcards to suit your learning preferences.

Quiz Team

Description

Test wiedzy o sieciach neuronowych, ich trenowaniu, wektorach i iloczynie skalarnym, a także warstwach w sieciach neuronowych.

Use Quizgecko on...
Browser
Browser