Playground AI
Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.
KNN Classifier
K-Nearest Neighbors (KNN) to jeden z najprostszych algorytmów klasyfikacji — nowy punkt otrzymuje klasę najczęściej występującą wśród jego K najbliższych sąsiadów. Nie wymaga treningu — „uczy się" bezpośrednio z danych. Wartość K decyduje o gładkości granicy decyzyjnej: małe K daje złożoną granicę (ryzyko overfittingu), duże K — gładką (ryzyko underfittingu).
Czego się nauczysz
- Jak wartość K wpływa na granicę decyzyjną
- Czym różnią się metryki euklidesowa i Manhattan
- Dlaczego KNN nie wymaga fazy treningu
- Jak ocenić dokładność metodą leave-one-out
Jak korzystać z wizualizacji
Interaktywna klasyfikacja K najbliższych sąsiadów (KNN) na wykresie 2D. Dodawaj punkty 3 klas, zmieniaj K (1-15), wybierz metrykę odległości (euklidesowa, Manhattan) i obserwuj granicę decyzyjną. Żółte linie łączą punkt zapytania z K sąsiadami.
Poznaj teorię
Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.
Przeczytaj artykuł →