Sztuczna inteligencja to szerokie pojęcie obejmujące systemy o drastycznie różnych możliwościach — od kalkulatora szachowego po hipotetyczny superintelekt przewyższający wszystkich ludzi razem wziętych. Żeby porządnie rozmawiać o AI, trzeba rozumieć fundamentalny podział na trzy rodzaje sztucznej inteligencji: wąską (ANI), ogólną (AGI) i superinteligencję (ASI).
Sztuczna inteligencja wąska (ANI — Artificial Narrow Intelligence)
ANI, zwana także słabą AI (weak AI), to jedyny rodzaj sztucznej inteligencji, który obecnie istnieje. System ANI jest zaprojektowany i wytrenowany do wykonywania jednego konkretnego zadania lub wąskiej grupy powiązanych zadań. Może być w tym zadaniu nadludzko dobry — ale nie potrafi przenieść swojej wiedzy na inne domeny.
Przykłady ANI w codziennym życiu
- Asystenci głosowi (Siri, Alexa) — rozumieją polecenia głosowe i wykonują ograniczony zestaw akcji
- Systemy rekomendacji (Netflix, Spotify, YouTube) — przewidują, co chcesz obejrzeć/posłuchać na podstawie historii
- Rozpoznawanie twarzy — identyfikacja osób na zdjęciach i wideo
- Nawigacja GPS — optymalizacja trasy w czasie rzeczywistym
- Filtry antyspamowe — klasyfikacja maili jako spam/nie-spam
- AlphaGo/AlphaFold — gra w Go / przewidywanie struktur białek
- ChatGPT, Claude, Gemini — generowanie tekstu, kodu, analiza dokumentów
Tak, współczesne duże modele językowe (LLM) to wciąż ANI — mimo wrażenia „ogólnej inteligencji". Potrafią rozmawiać o niemal wszystkim, ale nie potrafią samodzielnie uczyć się nowych umiejętności w realnym czasie, nie mają ciągłości doświadczeń ani trwałych celów. Ich „wiedza" to wzorce statystyczne wyodrębnione z danych treningowych.
Cechy ANI
| Cecha | Opis |
|---|---|
| Zakres | Jedno zadanie lub wąska domena |
| Uczenie się | Tylko z danych treningowych, nie w czasie rzeczywistym |
| Świadomość | Brak |
| Transfer wiedzy | Ograniczony lub żaden |
| Status | Istniejąca technologia |
Sztuczna inteligencja ogólna (AGI — Artificial General Intelligence)
AGI, zwana także silną AI (strong AI), to hipotetyczny system zdolny do wykonywania dowolnego zadania intelektualnego na poziomie porównywalnym z człowiekiem. Kluczowe różnice względem ANI:
- Transfer wiedzy — AGI potrafi przenieść wiedzę z jednej domeny do innej (np. rozumienie fizyki pomaga zrozumieć inżynierię)
- Uczenie się w czasie rzeczywistym — uczy się na bieżąco, bez potrzeby ponownego trenowania
- Rozumienie kontekstu — rozumie „dlaczego", nie tylko „co"
- Zdrowy rozsądek (common sense reasoning) — intuicyjne rozumienie fizyki, psychologii, społecznych konwencji
- Elastyczność — radzi sobie z nowymi, nieprzewidzianymi sytuacjami
Czy jesteśmy blisko AGI?
To jedno z najbardziej polaryzujących pytań w branży AI. Pesymiści twierdzą, że AGI wymaga fundamentalnych przełomów, których nie widać na horyzoncie. Optymiści — że skalowanie obecnych modeli i dodanie pamięci, planowania i narzędzi może wystarczyć.
Argumenty za „blisko":
- LLM zdają egzaminy z prawa, medycyny i matematyki na poziomie eksperckim
- Agenci AI potrafią planować wieloetapowe zadania i korzystać z narzędzi
- Multimodalność (tekst + obraz + dźwięk) przybliża do ludzkiej percepcji
- Postęp przyspiesza wykładniczo
Argumenty za „daleko":
- LLM nie rozumieją przyczynowości — operują na korelacjach statystycznych
- Brak trwałej pamięci i ciągłości doświadczeń
- Nie potrafią formować oryginalnych celów ani intencji
- „Zdrowy rozsądek" wymaga ucieleśnionego doświadczenia — interakcji z fizycznym światem
- Nie wiemy, jak mierzyć AGI — brak konsensusu co do definicji
Szacunki ekspertów (wg ankiet z 2024 roku) wskazują na 50% prawdopodobieństwo osiągnięcia AGI między 2040 a 2060 rokiem. Ale przedziały niepewności są ogromne.
Superinteligencja (ASI — Artificial Super Intelligence)
ASI to hipotetyczny system przewyższający ludzką inteligencję we wszystkich dziedzinach: nauce, kreatywności, zdolnościach społecznych i rozumowaniu. Superinteligencja nie jest trochę lepsza od człowieka — jest lepsza w stopniu porównywalnym z różnicą między człowiekiem a mrówką.
Koncepcja eksplozji inteligencji
I.J. Good w 1965 roku sformułował hipotezę eksplozji inteligencji: jeśli maszyna inteligentniejsza od człowieka potrafi zaprojektować jeszcze inteligentniejszą maszynę, ta z kolei jeszcze inteligentniejszą — i tak dalej. Powstaje nieskończona pętla samodoskonalenia, prowadząca do superinteligencji w bardzo krótkim czasie. Nick Bostrom rozwinął tę koncepcję w książce Superinteligencja (2014).
Scenariusze superinteligencji
- Superinteligencja wyrocznia — odpowiada na pytania z nadludzką dokładnością, ale nie działa autonomicznie
- Superinteligencja geniusz — rozwiązuje problemy naukowe i inżynieryjne niedostępne dla ludzi (np. terapie na raka, fuzja jądrowa)
- Superinteligencja suwerenna — autonomiczny agent z własnymi celami i zdolnością do ich realizacji
Ryzyka ASI
Główne zagrożenie nie polega na „złej" superinteligencji (scenariusz Terminatora), lecz na niezgodności celów (alignment problem). Superinteligencja optymalizująca źle sformułowany cel może doprowadzić do katastrofalnych skutków ubocznych — nie ze złośliwości, lecz z nadmiernej skuteczności.
Przykład myślowy: system poproszony o „zmaksymalizowanie produkcji spinaczy do papieru" mógłby — gdyby był wystarczająco potężny — przekształcić całą materię na Ziemi w spinacze.
Podział alternatywny — cztery typy wg zdolności
Arend Hintze zaproponował alternatywny podział na cztery typy AI:
- Maszyny reaktywne (Reactive Machines) — reagują na bieżące dane bez pamięci. Przykład: Deep Blue
- Maszyny z ograniczoną pamięcią (Limited Memory) — wykorzystują dane historyczne do podejmowania decyzji. Przykład: samochody autonomiczne, LLM
- Teoria umysłu (Theory of Mind) — rozumieją, że inni agenci mają własne przekonania, intencje i emocje. Status: badawczy
- Samoświadomość (Self-aware) — posiadają subiektywne doświadczenie, świadomość siebie. Status: spekulacja
Typ 1 i 2 odpowiadają ANI. Typ 3 i 4 to elementy drogi do AGI i ASI.
Podsumowanie
| Rodzaj | Status | Przykład | Zagrożenie |
|---|---|---|---|
| ANI (wąska) | Istnieje | ChatGPT, AlphaFold | Stronniczość, dezinformacja |
| AGI (ogólna) | Nie istnieje (2026) | — | Utrata kontroli, nierówności |
| ASI (super) | Teoria | — | Egzystencjalne ryzyko |
Każda rozmowa o sztucznej inteligencji powinna zaczynać się od pytania: o którym rodzaju AI mówimy? Większość codziennych zastosowań — od ChatGPT po nawigację — to ANI. AGI i ASI to cele badawcze i przedmioty debaty, nie istniejące technologie. Zrozumienie tej różnicy chroni przed nieuzasadnionym strachem i nieuzasadnionym optymizmem.