Sztuczna inteligencja to szerokie pojęcie obejmujące systemy o drastycznie różnych możliwościach — od kalkulatora szachowego po hipotetyczny superintelekt przewyższający wszystkich ludzi razem wziętych. Żeby porządnie rozmawiać o AI, trzeba rozumieć fundamentalny podział na trzy rodzaje sztucznej inteligencji: wąską (ANI), ogólną (AGI) i superinteligencję (ASI).

Sztuczna inteligencja wąska (ANI — Artificial Narrow Intelligence)

ANI, zwana także słabą AI (weak AI), to jedyny rodzaj sztucznej inteligencji, który obecnie istnieje. System ANI jest zaprojektowany i wytrenowany do wykonywania jednego konkretnego zadania lub wąskiej grupy powiązanych zadań. Może być w tym zadaniu nadludzko dobry — ale nie potrafi przenieść swojej wiedzy na inne domeny.

Przykłady ANI w codziennym życiu

  • Asystenci głosowi (Siri, Alexa) — rozumieją polecenia głosowe i wykonują ograniczony zestaw akcji
  • Systemy rekomendacji (Netflix, Spotify, YouTube) — przewidują, co chcesz obejrzeć/posłuchać na podstawie historii
  • Rozpoznawanie twarzy — identyfikacja osób na zdjęciach i wideo
  • Nawigacja GPS — optymalizacja trasy w czasie rzeczywistym
  • Filtry antyspamowe — klasyfikacja maili jako spam/nie-spam
  • AlphaGo/AlphaFold — gra w Go / przewidywanie struktur białek
  • ChatGPT, Claude, Gemini — generowanie tekstu, kodu, analiza dokumentów

Tak, współczesne duże modele językowe (LLM) to wciąż ANI — mimo wrażenia „ogólnej inteligencji". Potrafią rozmawiać o niemal wszystkim, ale nie potrafią samodzielnie uczyć się nowych umiejętności w realnym czasie, nie mają ciągłości doświadczeń ani trwałych celów. Ich „wiedza" to wzorce statystyczne wyodrębnione z danych treningowych.

Cechy ANI

Cecha Opis
Zakres Jedno zadanie lub wąska domena
Uczenie się Tylko z danych treningowych, nie w czasie rzeczywistym
Świadomość Brak
Transfer wiedzy Ograniczony lub żaden
Status Istniejąca technologia

Sztuczna inteligencja ogólna (AGI — Artificial General Intelligence)

AGI, zwana także silną AI (strong AI), to hipotetyczny system zdolny do wykonywania dowolnego zadania intelektualnego na poziomie porównywalnym z człowiekiem. Kluczowe różnice względem ANI:

  • Transfer wiedzy — AGI potrafi przenieść wiedzę z jednej domeny do innej (np. rozumienie fizyki pomaga zrozumieć inżynierię)
  • Uczenie się w czasie rzeczywistym — uczy się na bieżąco, bez potrzeby ponownego trenowania
  • Rozumienie kontekstu — rozumie „dlaczego", nie tylko „co"
  • Zdrowy rozsądek (common sense reasoning) — intuicyjne rozumienie fizyki, psychologii, społecznych konwencji
  • Elastyczność — radzi sobie z nowymi, nieprzewidzianymi sytuacjami

Czy jesteśmy blisko AGI?

To jedno z najbardziej polaryzujących pytań w branży AI. Pesymiści twierdzą, że AGI wymaga fundamentalnych przełomów, których nie widać na horyzoncie. Optymiści — że skalowanie obecnych modeli i dodanie pamięci, planowania i narzędzi może wystarczyć.

Argumenty za „blisko":

  • LLM zdają egzaminy z prawa, medycyny i matematyki na poziomie eksperckim
  • Agenci AI potrafią planować wieloetapowe zadania i korzystać z narzędzi
  • Multimodalność (tekst + obraz + dźwięk) przybliża do ludzkiej percepcji
  • Postęp przyspiesza wykładniczo

Argumenty za „daleko":

  • LLM nie rozumieją przyczynowości — operują na korelacjach statystycznych
  • Brak trwałej pamięci i ciągłości doświadczeń
  • Nie potrafią formować oryginalnych celów ani intencji
  • „Zdrowy rozsądek" wymaga ucieleśnionego doświadczenia — interakcji z fizycznym światem
  • Nie wiemy, jak mierzyć AGI — brak konsensusu co do definicji

Szacunki ekspertów (wg ankiet z 2024 roku) wskazują na 50% prawdopodobieństwo osiągnięcia AGI między 2040 a 2060 rokiem. Ale przedziały niepewności są ogromne.

Superinteligencja (ASI — Artificial Super Intelligence)

ASI to hipotetyczny system przewyższający ludzką inteligencję we wszystkich dziedzinach: nauce, kreatywności, zdolnościach społecznych i rozumowaniu. Superinteligencja nie jest trochę lepsza od człowieka — jest lepsza w stopniu porównywalnym z różnicą między człowiekiem a mrówką.

Koncepcja eksplozji inteligencji

I.J. Good w 1965 roku sformułował hipotezę eksplozji inteligencji: jeśli maszyna inteligentniejsza od człowieka potrafi zaprojektować jeszcze inteligentniejszą maszynę, ta z kolei jeszcze inteligentniejszą — i tak dalej. Powstaje nieskończona pętla samodoskonalenia, prowadząca do superinteligencji w bardzo krótkim czasie. Nick Bostrom rozwinął tę koncepcję w książce Superinteligencja (2014).

Scenariusze superinteligencji

  • Superinteligencja wyrocznia — odpowiada na pytania z nadludzką dokładnością, ale nie działa autonomicznie
  • Superinteligencja geniusz — rozwiązuje problemy naukowe i inżynieryjne niedostępne dla ludzi (np. terapie na raka, fuzja jądrowa)
  • Superinteligencja suwerenna — autonomiczny agent z własnymi celami i zdolnością do ich realizacji

Ryzyka ASI

Główne zagrożenie nie polega na „złej" superinteligencji (scenariusz Terminatora), lecz na niezgodności celów (alignment problem). Superinteligencja optymalizująca źle sformułowany cel może doprowadzić do katastrofalnych skutków ubocznych — nie ze złośliwości, lecz z nadmiernej skuteczności.

Przykład myślowy: system poproszony o „zmaksymalizowanie produkcji spinaczy do papieru" mógłby — gdyby był wystarczająco potężny — przekształcić całą materię na Ziemi w spinacze.

Podział alternatywny — cztery typy wg zdolności

Arend Hintze zaproponował alternatywny podział na cztery typy AI:

  1. Maszyny reaktywne (Reactive Machines) — reagują na bieżące dane bez pamięci. Przykład: Deep Blue
  2. Maszyny z ograniczoną pamięcią (Limited Memory) — wykorzystują dane historyczne do podejmowania decyzji. Przykład: samochody autonomiczne, LLM
  3. Teoria umysłu (Theory of Mind) — rozumieją, że inni agenci mają własne przekonania, intencje i emocje. Status: badawczy
  4. Samoświadomość (Self-aware) — posiadają subiektywne doświadczenie, świadomość siebie. Status: spekulacja

Typ 1 i 2 odpowiadają ANI. Typ 3 i 4 to elementy drogi do AGI i ASI.

Podsumowanie

Rodzaj Status Przykład Zagrożenie
ANI (wąska) Istnieje ChatGPT, AlphaFold Stronniczość, dezinformacja
AGI (ogólna) Nie istnieje (2026) Utrata kontroli, nierówności
ASI (super) Teoria Egzystencjalne ryzyko

Każda rozmowa o sztucznej inteligencji powinna zaczynać się od pytania: o którym rodzaju AI mówimy? Większość codziennych zastosowań — od ChatGPT po nawigację — to ANI. AGI i ASI to cele badawcze i przedmioty debaty, nie istniejące technologie. Zrozumienie tej różnicy chroni przed nieuzasadnionym strachem i nieuzasadnionym optymizmem.