Playground AI

Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.

Gradient descent

Gradient descent (spadek gradientowy) to podstawowy algorytm optymalizacji w uczeniu maszynowym. Działa jak schodzenie ze wzgórza w gęstej mgle — w każdym kroku sprawdza nachylenie terenu i porusza się w kierunku największego spadku. Parametry takie jak learning rate i momentum decydują o tym, czy algorytm dotrze do minimum globalnego, utknie w minimum lokalnym, czy całkowicie się rozstrzeli.

Czego się nauczysz

  • Jak learning rate wpływa na zbieżność i stabilność
  • Czym jest momentum i jak pomaga pokonywać minima lokalne
  • Dlaczego punkt startowy ma znaczenie
  • Jak rozpoznać punkt siodłowy i minimum lokalne

Jak korzystać z wizualizacji

Wizualizacja optymalizacji na powierzchni funkcji kosztu. Kliknij żeby ustawić punkt startowy, ustaw learning rate i momentum, i obserwuj jak punkt schodizi w kierunku minimum. Wybierz jedną z 3 funkcji (kwadratowa, Rosenbrock, punkt siodłowy).

Ładowanie wizualizacji...

Poznaj teorię

Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.

Przeczytaj artykuł →