Playground AI
Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.
Embeddingi słów
Embeddingi słów to numeryczne reprezentacje znaczeń — każde słowo jest zamieniane na wektor liczb tak, aby słowa o podobnym znaczeniu miały bliskie sobie wektory. Dzięki temu komputer może „rozumieć" relacje semantyczne: król − mężczyzna + kobieta ≈ królowa. Embeddingi stanowią fundament współczesnego NLP i są pierwszą warstwą w modelach takich jak GPT czy BERT.
Czego się nauczysz
- Jak słowa o podobnym znaczeniu grupują się w przestrzeni wektorowej
- Czym jest odległość semantyczna między słowami
- Jak klastry ujawniają ukrytą strukturę języka
- Dlaczego embeddingi są kluczowe dla modeli językowych
Jak korzystać z wizualizacji
Eksploracja przestrzeni embeddingów słów w 2D. 40 polskich słów pogrupowanych w klastry semantyczne (zwierzęta, kolory, emocje, technologia, jedzenie). Kliknij na słowo żeby zobaczyć jego najbliższych sąsiadów — słowa o podobnym znaczeniu.
Poznaj teorię
Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.
Przeczytaj artykuł →