Playground AI

Eksperymentuj z algorytmami AI bezpośrednio w przeglądarce.

Embeddingi słów

Embeddingi słów to numeryczne reprezentacje znaczeń — każde słowo jest zamieniane na wektor liczb tak, aby słowa o podobnym znaczeniu miały bliskie sobie wektory. Dzięki temu komputer może „rozumieć" relacje semantyczne: król − mężczyzna + kobieta ≈ królowa. Embeddingi stanowią fundament współczesnego NLP i są pierwszą warstwą w modelach takich jak GPT czy BERT.

Czego się nauczysz

  • Jak słowa o podobnym znaczeniu grupują się w przestrzeni wektorowej
  • Czym jest odległość semantyczna między słowami
  • Jak klastry ujawniają ukrytą strukturę języka
  • Dlaczego embeddingi są kluczowe dla modeli językowych

Jak korzystać z wizualizacji

Eksploracja przestrzeni embeddingów słów w 2D. 40 polskich słów pogrupowanych w klastry semantyczne (zwierzęta, kolory, emocje, technologia, jedzenie). Kliknij na słowo żeby zobaczyć jego najbliższych sąsiadów — słowa o podobnym znaczeniu.

Ładowanie wizualizacji...

Poznaj teorię

Wizualizacja to świetny start, ale pełne zrozumienie wymaga teorii. Przeczytaj artykuł w bazie wiedzy, żeby dowiedzieć się jak to naprawdę działa pod maską.

Przeczytaj artykuł →