Playground AI

Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.

Funkcje aktywacji

Funkcje aktywacji wprowadzają nieliniowość do sieci neuronowych. Bez nich nawet głęboka sieć byłaby równoważna jednemu przekształceniu liniowemu i nie mogłaby modelować złożonych zależności. Wybór funkcji aktywacji ma bezpośredni wpływ na szybkość uczenia, problem zanikającego gradientu i zdolność sieci do reprezentowania skomplikowanych wzorców.

Czego się nauczysz

  • Czym różnią się sigmoid, tanh, ReLU i ich warianty
  • Jak kształt funkcji wpływa na przepływ gradientów
  • Dlaczego ReLU zdominował głębokie sieci
  • Kiedy stosować którą funkcję aktywacji

Jak korzystać z wizualizacji

Porównaj 6 funkcji aktywacji: sigmoid, tanh, ReLU, Leaky ReLU, ELU, Softmax. Najedź kursorem na wykres żeby zobaczyć dokładne wartości. Włącz pochodne i zmień zakres osi X.

Ładowanie wizualizacji...

Poznaj teorię

Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.

Przeczytaj artykuł →