Transformery i LLM

Transformery i duże modele językowe — mechanizm atencji, GPT, BERT, fine-tuning, RAG.

Artykuły w tym temacie

Mechanizm atencji (attention) — serce transformera

Mechanizm atencji to innowacja, która umożliwiła powstanie transformerów i dużych modeli językowych. Poznaj self-attention, multi-head attention i macierze Q...

13 min czytania

Tokenizacja — jak LLM czyta tekst

Tokenizacja to proces dzielenia tekstu na tokeny — podstawowe jednostki przetwarzane przez LLM. Poznaj algorytmy BPE, WordPiece i SentencePiece, i dowiedz si...

9 min czytania

RAG (Retrieval-Augmented Generation) — LLM z własną bazą wiedzy

RAG (Retrieval-Augmented Generation) to technika łącząca LLM z zewnętrzną bazą wiedzy. Model wyszukuje relevantne dokumenty i generuje odpowiedź na ich podst...

10 min czytania

GPT vs BERT — różnice między modelami językowymi

GPT i BERT to dwa fundamentalnie różne podejścia do budowy modeli językowych opartych na transformerach. GPT generuje tekst autoregresyjnie, BERT rozumie kon...

10 min czytania

Prompt engineering — jak pisać skuteczne prompty

Prompt engineering to sztuka i nauka formułowania instrukcji dla modeli językowych (LLM). Poznaj techniki — zero-shot, few-shot, chain-of-thought, system pro...

13 min czytania

Fine-tuning LLM — dostosowywanie modelu językowego

Fine-tuning to proces dostosowywania wstępnie wytrenowanego modelu językowego do konkretnego zadania lub domeny. Poznaj techniki — pełny fine-tuning, LoRA, Q...

10 min czytania

Halucynacje AI — dlaczego modele językowe kłamią

Halucynacje AI to sytuacje, gdy modele językowe generują treści brzmiące wiarygodnie, ale fałszywe. Poznaj przyczyny halucynacji, typy, metody detekcji i tec...

8 min czytania

Polskie modele językowe — PLLuM, Bielik i inne

Polskie modele językowe — PLLuM, Bielik, Herbert, Polbert — to modele AI wytrenowane na polskich tekstach. Poznaj ich architekturę, możliwości i znaczenie dl...

8 min czytania