Prompt engineering to sztuka i nauka komunikacji z modelami AI. Różnica między przeciętnym a doskonałym promptem może oznaczać różnicę między bezużyteczną odpowiedzią a wynikiem, który zaoszczędzi godziny pracy. W tym przewodniku poznasz sprawdzone techniki promptowania — od podstawowych po zaawansowane — z konkretnymi przykładami, które możesz zastosować od razu.
Czym jest prompt engineering?
Prompt to instrukcja tekstowa, którą wysyłasz do modelu AI (takiego jak ChatGPT, Claude czy Gemini). Prompt engineering to proces projektowania tych instrukcji w sposób, który maksymalizuje jakość, trafność i użyteczność odpowiedzi.
Dlaczego to ważne? Duże modele językowe (LLM) nie „rozumieją" Twoich intencji — interpretują tekst na podstawie wzorców statystycznych. Im precyzyjniej sformułujesz zapytanie, tym lepszy wynik otrzymasz. To nie magia — to inżynieria.
Fundamenty dobrego promptu
Zanim przejdziemy do zaawansowanych technik, opanuj cztery filary skutecznego promptu:
1. Kontekst
Powiedz modelowi, kim jesteś i w jakiej sytuacji się znajdujesz. Model bez kontekstu zgaduje — z kontekstem generuje trafne odpowiedzi.
Słaby prompt:
Napisz email.
Dobry prompt:
Jestem kierownikiem projektu IT w firmie zatrudniającej 200 osób. Napisz profesjonalny email do klienta, informujący o 2-tygodniowym opóźnieniu w dostawie modułu płatności. Ton: rzeczowy, ale empatyczny. Zaproponuj rozwiązanie tymczasowe.
2. Precyzja instrukcji
Bądź konkretny. Zamiast „napisz coś o marketingu", powiedz dokładnie co, w jakim formacie, jakiej długości i dla kogo.
Słaby prompt:
Wyjaśnij uczenie maszynowe.
Dobry prompt:
Wyjaśnij uczenie maszynowe osobie nietechnicznej w 3 akapitach. Użyj analogii z codziennego życia. Unikaj żargonu technicznego. Na końcu podaj 3 przykłady zastosowań, które ta osoba mogła spotkać (np. Netflix, spam filter).
3. Format wyjściowy
Określ, jak ma wyglądać odpowiedź: lista, tabela, JSON, markdown, punktory, akapity.
Przykład:
Porównaj 5 frameworków JavaScript. Odpowiedz w tabeli z kolumnami: Nazwa, Rok wydania, Zalety (max 3), Wady (max 3), Najlepszy do (1 zdanie).
4. Ograniczenia
Powiedz modelowi, czego ma NIE robić. To równie ważne jak pozytywne instrukcje.
Przykład:
Napisz opis produktu (smartfon). Nie używaj superlatywów ('najlepszy', 'rewolucyjny'). Nie pisz o cenie. Skup się na 3 kluczowych funkcjach. Długość: 100–150 słów.
Techniki promptowania
Zero-shot prompting
To najprostsza technika — dajesz modelowi instrukcję bez żadnych przykładów. Model opiera się wyłącznie na swojej wiedzy.
Kiedy używać: proste zadania, ogólne pytania, szybkie odpowiedzi.
Przykład:
Sklasyfikuj poniższy tekst jako pozytywny, negatywny lub neutralny:
„Produkt działa dobrze, ale dostawa trwała zbyt długo."
Wynik: Neutralny (lub mieszany — pozytywna ocena produktu, negatywna ocena dostawy).
Few-shot prompting
Dajesz modelowi kilka przykładów pożądanego zachowania, zanim zlecisz właściwe zadanie. To drastycznie poprawia jakość odpowiedzi w specyficznych formatach.
Kiedy używać: niestandardowy format, specyficzny styl, klasyfikacja z własnymi kategoriami.
Przykład:
Sklasyfikuj zgłoszenia klientów. Oto przykłady:
>
Zgłoszenie: „Nie mogę się zalogować do panelu" -> Kategoria: DOSTĘP
Zgłoszenie: „Faktura ma błędny NIP" -> Kategoria: FINANSE
Zgłoszenie: „Aplikacja crashuje na iOS 18" -> Kategoria: BUG
>
Teraz sklasyfikuj:
Zgłoszenie: „Chcę zmienić plan taryfowy na wyższy"
Wynik: Kategoria: SPRZEDAŻ
Chain-of-thought (CoT)
Instruujesz model, aby „myślał krok po kroku" przed udzieleniem odpowiedzi. Ta technika znacząco poprawia wyniki w zadaniach wymagających rozumowania logicznego, matematyki i analizy.
Kiedy używać: zadania matematyczne, logiczne, analityczne, decyzyjne.
Przykład:
Firma ma 120 pracowników. 30% pracuje zdalnie, 45% hybrydowo, reszta stacjonarnie. Firma zamawia biurka — każdy pracownik stacjonarny i hybrydowy potrzebuje biurka, ale pracownicy hybrydowi dzielą biurka w stosunku 2:1 (dwóch hybrydowych na jedno biurko). Ile biurek zamówić?
>
Rozwiąż krok po kroku, pokazując obliczenia.
Dlaczego to działa: Wymuszenie „myślenia na głos" zmniejsza ryzyko błędów obliczeniowych i logicznych. Model nie przeskakuje do odpowiedzi — buduje ją systematycznie.
Role prompting
Przypisujesz modelowi konkretną rolę lub personę. To zmienia styl, głębokość i perspektywę odpowiedzi.
Kiedy używać: gdy potrzebujesz ekspertyzy z konkretnej dziedziny lub specyficznego stylu komunikacji.
Przykład:
Jesteś doświadczonym architektem oprogramowania z 15-letnim stażem w systemach rozproszonych. Przeglądasz kod juniora. Wskaż problemy w poniższym fragmencie i zasugeruj poprawki. Wyjaśnij każdą sugestię tak, jakbyś mentorował młodego programistę.
Technika „System prompt + User prompt"
W zaawansowanych zastosowaniach (API, integracje) rozdzielasz instrukcje systemowe od zapytania użytkownika:
- System prompt: definiuje rolę, zasady, format, ograniczenia
- User prompt: zawiera konkretne zapytanie lub dane
Przykład system promptu:
Jesteś asystentem prawnym specjalizującym się w polskim prawie pracy. Odpowiadaj wyłącznie na pytania z zakresu prawa pracy. Na pytania spoza tego zakresu odpowiadaj: „To pytanie wykracza poza mój obszar specjalizacji." Cytuj konkretne artykuły Kodeksu pracy. Zawsze dodawaj disclaimer: „To nie jest porada prawna."
Prompt chaining (łańcuchowanie promptów)
Zamiast jednego złożonego promptu, rozbij zadanie na sekwencję mniejszych kroków.
Kiedy używać: złożone zadania (pisanie raportów, analiza danych, tworzenie strategii).
Przykład — tworzenie strategii marketingowej:
- Prompt 1: „Zidentyfikuj 5 głównych grup docelowych dla aplikacji do nauki języków."
- Prompt 2: „Dla grupy [X] z poprzedniej odpowiedzi zaproponuj 3 kanały marketingowe i uzasadnij wybór."
- Prompt 3: „Napisz brief kreatywny dla kampanii w kanale [Y] skierowanej do grupy [X]."
Zaawansowane techniki
Self-consistency
Generujesz kilka odpowiedzi na to samo pytanie i wybierasz najczęstszą/najlepszą. Szczególnie skuteczne w zadaniach z jednoznaczną odpowiedzią.
Przykład:
Rozwiąż poniższy problem 3 razy, za każdym razem zaczynając od innego podejścia. Na końcu porównaj wyniki i podaj najbardziej prawdopodobną odpowiedź.
Prompt z metadanymi
Dodaj informacje o oczekiwanej jakości, grupie docelowej i celu tekstu.
Przykład:
## Zadanie
Napisz artykuł blogowy
>
## Parametry
- Temat: korzyści z medytacji dla programistów
- Grupa docelowa: programiści 25–35 lat
- Ton: profesjonalny, ale przystępny
- Długość: 800–1000 słów
- SEO: użyj frazy „medytacja dla programistów" 3–5 razy
- Struktura: lead + 4 sekcje + podsumowanie
- Źródła: cytuj co najmniej 2 badania naukowe
Constrained generation
Ograniczasz model do konkretnego formatu wyjściowego — szczególnie przydatne przy generowaniu danych strukturalnych.
Przykład:
Wygeneruj 5 pomysłów na startup AI. Odpowiedz WYŁĄCZNIE w formacie JSON:
[{"name": "...", "problem": "...", "solution": "...", "target": "...", "revenue_model": "..."}]
Nie dodawaj żadnego tekstu przed ani po JSON.
Najczęstsze błędy w promptowaniu
- Zbyt ogólne instrukcje — „napisz coś o AI" zamiast precyzyjnego briefu.
- Brak kontekstu — model nie wie, kim jesteś i po co Ci odpowiedź.
- Jednorazowe mega-prompty — lepiej rozbić złożone zadanie na kroki.
- Ignorowanie iteracji — prompt engineering to proces. Rzadko pierwszy prompt daje idealny wynik — udoskonalaj.
- Brak walidacji — zawsze weryfikuj fakty, liczby i cytaty w odpowiedziach AI.
Narzędzia do prompt engineeringu
- OpenAI Playground — testowanie promptów z różnymi parametrami (temperatura, max tokens)
- Anthropic Console — testowanie promptów Claude z widokiem system/user prompt
- LangSmith — monitorowanie i ewaluacja promptów w produkcji
- PromptPerfect — automatyczna optymalizacja promptów
Podsumowanie
Prompt engineering to umiejętność, która będzie zyskiwać na wartości w miarę rosnącej adopcji AI. Kluczowe zasady: dawaj kontekst, bądź precyzyjny, określaj format, iteruj. Zacznij od prostych technik (zero-shot, few-shot), potem eksperymentuj z chain-of-thought i prompt chainingiem.
Pamiętaj: model AI jest tak dobry, jak Twój prompt. Inwestycja w naukę promptowania zwraca się natychmiast — w oszczędności czasu, jakości wyników i efektywności pracy.
Aby lepiej zrozumieć, jak modele AI interpretują Twoje prompty, przeczytaj nasz artykuł o transformerach i dużych modelach językowych.