Dlaczego początki AI były rozczarowaniem i jak big data oraz chmura tchnęły w nią drugie życie

0
15
Rate this post

Nawigacja:

Skąd wzięło się rozczarowanie AI – kontekst historyczny i mit założycielski

Atmosfera „inteligentnych maszyn za rogiem”

Sztuczna inteligencja narodziła się formalnie w połowie lat 50. XX wieku, w świecie zafascynowanym samą ideą komputera. Maszyny liczące, które jeszcze dekadę wcześniej zajmowały całe sale i służyły głównie do zadań wojskowych, zaczęły być postrzegane jako „uniwersalne mózgi do wszystkiego”. Skoro komputer potrafi liczyć szybciej niż człowiek, to – w uproszczonym rozumowaniu tamtej epoki – wystarczy dodać do tego „trochę logiki” i maszyna zacznie myśleć.

W tle funkcjonowały świeże koncepcje teoretyczne Alana Turinga. Jego test polegający na sprawdzeniu, czy maszyna potrafi konwersować tak, że rozmówca nie odróżni jej od człowieka, rozpalał wyobraźnię dziennikarzy i opinii publicznej. Jeszcze ważniejsza była jednak inna idea Turinga: maszyna uniwersalna. Skoro jeden typ komputera może emulować dowolny inny proces obliczeniowy, to – w narracji popularnej – oznaczało to w praktyce, że „da się zaprogramować inteligencję”.

Efektem tego połączenia teorii, entuzjazmu technologicznego i powojennej wiary w postęp była niemal dziecinna pewność, że od myślących maszyn dzieli ludzkość kilka, najwyżej kilkanaście lat. Obietnica była niesamowicie atrakcyjna: komputery miały rozwiązać problemy planowania gospodarczego, prowadzić rozmowy, tłumaczyć języki, grać w gry lepiej niż człowiek, a w dalszej perspektywie – wspomagać każde ludzkie działanie.

Konferencja Dartmouth i śmiałe deklaracje pionierów

Za symboliczny moment narodzin sztucznej inteligencji uchodzi konferencja w Dartmouth w 1956 roku. John McCarthy, Marvin Minsky, Allen Newell, Herbert Simon i kilku innych badaczy sformułowało tam program badań pod wspólnym terminem artificial intelligence. To wtedy padły zdania, które później współtworzyły mit i jednocześnie zaczęły ciążyć nad tą dziedziną.

Herbert Simon miał stwierdzić, że w ciągu kilku dekad maszyny będą potrafiły wykonywać „każdą pracę, którą może wykonywać człowiek”. Newell i Simon pokazali pierwszy program dowodzący twierdzenia logiczne, co zdawało się potwierdzać, że inteligencję można potraktować jak manipulację symbolami. McCarthy sugerował, że skoro rozumiemy już formalną logikę, da się zakodować myślenie na podobnej zasadzie – jako operacje na zdaniach i regułach.

Co istotne, te deklaracje nie były wtedy odbierane jako science fiction. Pierwsze demonstracje – programy grające w szachy, rozwiązujące łamigłówki czy proste zadania matematyczne – robiły ogromne wrażenie, bo przeciętny odbiorca widział tylko rezultat, a nie ograniczenia podejścia czy skalę potrzeby obliczeń.

Wczesne sukcesy i złudzenie szybkiego postępu

Początkowe osiągnięcia w AI były relatywnie proste, ale spektakularne. Programy potrafiły grać w warcaby, radzić sobie z niewielkimi partiami szachów czy układać logiczne dowody. Powstały pierwsze systemy tłumaczenia maszynowego z rosyjskiego na angielski, które na wybranych zdaniach dawały zaskakująco dobre wyniki. Tworzono programy rozwiązujące zadania tekstowe z podręczników matematyki czy algorytmy planowania prostych działań w środowisku opisanym logicznie.

Media i politycy widzieli w tym zapowiedź szybkiej automatyzacji intelektualnej pracy człowieka. Dziennikarze chętnie publikowali cytaty o „maszynach, które myślą”, rzadko zadając pytania o warunki działania tych programów: ograniczenia do prostych problemów, całkowitą nierealność skalowania ich na prawdziwy świat oraz gigantyczny koszt obliczeń. Oczekiwania rosły szybciej niż możliwości technologii.

Pojawiła się też typowa dla nowych technologii iluzja liniowego postępu: skoro programy w ciągu kilku lat przeszły drogę od zera do rozwiązywania małych zadań, to – w tym rozumowaniu – wystarczy czekać jeszcze kilka lat, aby weszły na poziom „prawdziwej inteligencji”. Nikt nie zakładał, że łatwe problemy skończą się zaskakująco szybko, a kolejne poziomy trudności wymagają czegoś znacznie więcej niż kolejnych kilku linijek kodu.

Jak media i politycy wywindowali oczekiwania ponad realne możliwości

W latach 50. i 60. technologia była mocno spleciona z geopolityką. Zimna wojna napędzała inwestycje w obliczenia, kryptografię, rakiety, symulacje. Sztuczna inteligencja wpisywała się idealnie w propagandowy obraz „cywilizacji opartej na nauce”. Amerykańscy decydenci polityczni widzieli w AI potencjalne narzędzie do przewagi nad ZSRR, a radzieccy naukowcy rozwijali konkurencyjne programy w zakresie cybernetyki i automatyzacji.

Powstawały raporty obiecujące inteligentne systemy doradcze dla wojska, maszynowe tłumaczenie przechwyconych komunikatów, automatyzację analizy danych wywiadowczych. Teksty popularnonaukowe sugerowały, że zawody wymagające dużej wiedzy – lekarze, prawnicy, analitycy – zostaną w dużej mierze zautomatyzowane. Jednym z mniej omawianych problemów tamtej epoki było to, że niemal nikt nie zastanawiał się poważnie, skąd wezmą się dane, na których te rzekomo inteligentne systemy miałyby się uczyć, i jaka moc obliczeniowa byłaby potrzebna, aby działały w realistycznych warunkach.

Ta przepaść między narracją a praktyką szybko stała się źródłem rozczarowań, z których wzięły się późniejsze „zimy AI”. Pionierzy obiecywali rewolucję intelektualną, ale narzędzia, którymi dysponowali, były w istocie zbiorem sprytnych sztuczek działających w wąskich, laboratoryjnych warunkach.

Dwie osoby obsługujące futurystyczne przezroczyste ekrany w fioletowym świetle
Źródło: Pexels | Autor: Michelangelo Buonarroti

Złote obietnice lat 50.–70. – co wczesna AI naprawdę umiała, a czego nie

Programy do gier i dowodzenia twierdzeń: mocne demo, słaba ogólność

Jednym z ulubionych pól demonstracji wczesnej sztucznej inteligencji były gry planszowe, zwłaszcza szachy i warcaby. To idealne środowisko: jasno zdefiniowane reguły, skończona liczba stanów, brak niepewności co do ruchów przeciwnika. Programy mogły przeszukiwać drzewo ruchów na kilka posunięć do przodu, korzystając z prostych heurystyk oceny pozycji. Wyniki bywały imponujące jak na ówczesne standardy, co budowało wrażenie obcowania z „myśleniem”.

Podobnie działały programy dowodzące twierdzenia logiczne. Algorytmy oparte na regułach wnioskowania potrafiły znaleźć formalny dowód dla zadanych twierdzeń w logice pierwszego rzędu. Brzmiało to jak spełnienie snu: maszyna, która rozumuje, wyciąga wnioski i konfrontuje hipotezy z aksjomatami. W praktyce jednak każde z tych rozwiązań działało dobrze tylko w ściśle ograniczonych warunkach, przy starannie dobranych przykładach.

W obu przypadkach pojawiał się ten sam problem: eksplozja kombinatoryczna. Liczba możliwych stanów rośnie lawinowo wraz ze złożonością zadania. Szachownica 8×8 to jedno, rzeczywistość z tysiącami zmiennych, niepewnością i niepełną informacją – zupełnie co innego. Wczesne programy radziły sobie świetnie tam, gdzie można było ograniczyć przestrzeń poszukiwań i gdzie reguły były proste oraz w pełni znane, ale całkowicie załamywały się w kontaktach z „brudnym” światem.

Symboliczne AI (GOFAI) kontra wyobrażenie „myślącej maszyny”

Dla zrozumienia rozczarowań kluczowe jest rozróżnienie między symbolicznym podejściem, określanym czasem mianem GOFAI (Good Old-Fashioned AI), a potocznym obrazem myślącej maszyny. GOFAI zakładało, że inteligencję da się zredukować do manipulacji symbolami według ustalonych reguł. Wiedza o świecie była reprezentowana jako zbiory faktów i reguł logicznych, zaś wnioskowanie – jako formalne przekształcenia tych zapisów.

To podejście było logiczne z perspektywy ówczesnej informatyki: komputery liczyły symbole, a matematycy dowodzili twierdzeń operując na zdaniach. Problem w tym, że ludzkie wyobrażenie „myślącej maszyny” obejmowało coś więcej: intuicję, zdolność rozpoznawania wzorców, adaptację do zmiennych warunków, rozumienie języka w całej jego wieloznaczności. Symboliczne AI radziło sobie z zadaniami, gdzie świat dało się opisać formalnie, lecz każda próba przeniesienia tego na naturalny język czy zmysłową rzeczywistość kończyła się bardzo szybko ścianą.

Publiczność widziała efekt: komputer, który potrafi zagrać w szachy czy zinterpretować kilka zdań, a potem dopowiadała sobie resztę. W laboratoriach natomiast panowała świadomość, że te systemy są kruche, wymagają ręcznego kodowania wiedzy i trudno je rozszerzać. To rozdźwięk między symboliczną, „logiką na papierze” a intuicyjną koncepcją inteligencji człowieka był jednym z głównych źródeł późniejszego poczucia zawodu.

Dlaczego ELIZA i podobne demonstratory myliły odbiorców

Dobrym przykładem złudzenia inteligencji jest program ELIZA, stworzony przez Josepha Weizenbauma w latach 60. ELIZA udawała terapeutę-psychologa, dopytując użytkownika o jego wypowiedzi i odbijając je w formie pytań. W praktyce był to system prostych reguł dopasowywania słów-kluczy i szablonów odpowiedzi. Mimo to wiele osób miało wrażenie, że rozmawia z „rozumiejącą” maszyną.

Weizenbaum sam był zaniepokojony tym, jak łatwo ludzie antropomorfizują zachowanie programu. Trafił w specyficzny obszar ludzkiej psychologii: skłonność do nadawania sensu nawet losowym i płytkim wypowiedziom, jeśli tylko są odpowiednio ubrane w język konwersacji. ELIZA niczego nie rozumiała, ale wystarczało to, by część użytkowników widziała w niej zalążek sztucznej inteligencji.

To zjawisko powraca do dziś przy ocenie chatbotów czy systemów generujących tekst. Płynna, poprawna wypowiedź myli odbiorcę, który zbyt szybko zakłada istnienie głębokiego modelu świata pod spodem. Jednym z ważnych wniosków z historii ELIZY jest to, że subiektywne wrażenie inteligencji bywa bardzo kiepskim wskaźnikiem faktycznych możliwości systemu.

Pierwsze perceptrony i uczenie maszynowe bez solidnego zaplecza

Równolegle do symbolicznego nurtu rozwijały się pierwsze modele inspirowane biologią: perceptrony. Były to proste sieci neuronowe z jedną warstwą pośrednią, które można było uczyć na przykładach poprzez modyfikację wag połączeń. Potrafiły rozpoznawać proste wzorce, np. wyodrębniać określone kształty na obrazie binarnym.

Na pierwszy rzut oka wyglądało to jak cudowna droga do „uczących się maszyn”: zamiast ręcznie kodować reguły, wystarczy pokazać przykłady wejść i pożądanych wyjść, a system sam znajdzie odpowiednie zależności. Enthuzjazm był duży, ale brakowało zarówno mocy obliczeniowej, jak i głębszego rozumienia matematycznych ograniczeń tych modeli. Zbiory danych były małe i sztuczne, a zastosowania – dalekie od złożoności realnego świata.

Gdy tylko pojawiły się poważniejsze analizy i krytyka (o czym szerzej dalej), okazało się, że te wczesne sieci neuronowe nie radzą sobie z nawet umiarkowanie złożonymi zadaniami. To kolejny element, który budował rozczarowanie: entuzjazm wobec uczenia maszynowego pojawił się, zanim istniały realne podstawy techniczne, aby je wykorzystać.

Pierwsze zimy AI – jak ograniczenia sprzętu i danych zderzyły się z ambicjami

Szybkość procesorów, pamięć i koszt obliczeń w praktyce

Żeby zrozumieć, dlaczego sztuczna inteligencja utknęła, trzeba spojrzeć na prozaiczne liczby. W latach 60. i 70. moc obliczeniowa była śmiesznie mała w porównaniu z dzisiejszymi standardami. Komputery pracowały z częstotliwościami zegara liczonymi w kilkuset kilohertzach lub pojedynczych megahertzach, a pamięć operacyjna była liczona w kilobajtach lub pojedynczych megabajtach, dostępnych przy astronomicznych kosztach.

Każdy algorytm wnioskowania symbolicznego czy uczenia musiał zmieścić się w tym ciasnym budżecie. Eksplozja kombinatoryczna, która w szachach sprawiała problemy już na kilka ruchów do przodu, przy próbie planowania złożonych działań życiowych stawała się po prostu niewykonalna. To, co na papierze wyglądało jak elegancki system reguł pokrywających dziedzinę, w praktyce prowadziło do dramatycznego spowolnienia obliczeń albo niemożności załadowania pełnego modelu do pamięci.

Wielu współczesnych obserwatorów zakłada błędnie, że to „słabość algorytmów” była główną przyczyną zastoju. Tymczasem ogromną rolę odgrywała fizyka pod spodem: tranzystory, przepustowość magistral, koszt dysków. Nawet najbardziej pomysłowa metoda wnioskowania była bezradna, jeśli każde przejście między stanami wymagało sekund lub minut czasu procesora.

Brak odpowiednich zbiorów danych – świat na papierze zamiast danych z życia

Laboratoryjne zabawki zamiast kontaktu z rzeczywistością

Modele, na których trenowano pierwsze systemy AI, miały wspólną cechę: były sterylnie czyste. Dane pochodziły z podręczników logiki, wymyślonych mini-światów bloków o kilku kolorach i kształtach albo z symbolicznych reprezentacji gier planszowych. Z punktu widzenia programisty było to wygodne – dało się wszystko precyzyjnie opisać i kontrolować. Z punktu widzenia „inteligencji” prowadziło to jednak do kuriozum: systemy rzekomo mające modelować rozumowanie człowieka nigdy nie stykały się z chaosem prawdziwego świata.

Efekt był łatwy do przewidzenia. Algorytmy, które radziły sobie elegancko na sztucznych przykładach, rozbijały się o byle nieregularność w realnych danych: literówki, brakujące wartości, szum pomiarowy, załamania trendów. Oprogramowanie dla przemysłu, medycyny czy finansów wymagało radzenia sobie z tym całym „bałaganem”. Tymczasem AI powstawała głównie na akademiach, w kulturze nagradzającej eleganckie formalizmy zamiast odporności na brudne dane.

Popularna wtedy rada brzmiała: „najpierw opracuj czystą reprezentację wiedzy, potem dodasz resztę”. To rzadko działało. Dołożenie „reszty” – wyjątków, niejednoznaczności, kontekstu – rozwalało misternie zaprojektowaną strukturę. Alternatywą okazało się dopiero odejście od sztywnego projektowania reprezentacji z góry i przejście do uczenia się jej z dużych ilości przykładów, co stało się możliwe dopiero dekady później, wraz z big data.

Brak cyfrowego śladu: dlaczego nie było czego uczyć

Dzisiejsze patrzenie wstecz bywa zniekształcone: mamy w głowie Google, social media, logi serwerów, strumienie z kamer. Tymczasem w latach 60.–80. większość aktywności ludzkiej nie zostawiała cyfrowego śladu. Dokumentacja medyczna była na papierze, zakupy rejestrowano na paragonach, komunikacja odbywała się listownie lub telefonicznie bez nagrywania. Nawet w firmach, gdzie były komputery, dane często istniały tylko w postaci wsadów na taśmach, używanych do jednorazowych rozliczeń, a nie do eksploracji czy modelowania.

W efekcie uczenie maszynowe miało się na czym rozwijać mniej więcej tak, jak pilotowanie samolotu na placu zabaw. Zbiory danych liczyło się w dziesiątkach czy setkach przykładów, czasem w kilku tysiącach. To wystarczało do publikacji naukowych, ale nie do zbudowania systemu, który miałby realną przewagę nad prostymi heurystykami napisanymi przez eksperta dziedzinowego.

Kontrariańskim podejściem wobec ówczesnych ambicji byłoby wtedy powiedzenie: „zanim ruszymy z AI, zróbmy porządne systemy gromadzenia danych”. Tego prawie nikt nie robił, bo priorytetem były programy, nie infrastruktura. Paradoksalnie dopiero internet, reklama cyfrowa i logistyka skłoniły biznes do systematycznego zbierania danych – ale wtedy AI była już po pierwszych zimach.

Finansowanie i polityka: jak raporty i mody pogrzebały wielkie plany

Ograniczenia sprzętowe i brak danych spotkały się z jeszcze jednym twardym czynnikiem: pieniędzmi. Wczesny boom AI był w dużej mierze finansowany przez państwowe agencje, zwłaszcza wojskowe. Programy miały tworzyć automatyczne tłumaczenie, inteligentne systemy analizy sygnałów, robotykę pola walki. Kiedy po latach badań realne efekty okazały się skromne, cierpliwość sponsorów się kończyła.

Symbolem jest tu raport Lighthilla z 1973 r. w Wielkiej Brytanii, który wprost stwierdzał, że obietnice AI są mocno przesadzone, a postęp – mierny poza kilkoma niszami. Raport stał się pretekstem do ucięcia finansowania wielu projektów. Podobne nastroje pojawiały się w USA: w dokumentach DARPA zaczęły się pojawiać oczekiwania „krótkoterminowych, mierzalnych rezultatów”, co nie współgrało z ówczesną, mocno spekulatywną naturą wielu badań AI.

Popularna narracja głosi, że „zła biurokracja zabiła AI”. To uproszczenie. Bardziej trafne jest inne ujęcie: AI była sprzedawana jako technologia prawie gotowa do wdrożeń, podczas gdy była w gruncie rzeczy programem badawczym z ogromnymi znakami zapytania. Gdy rzeczywistość to zweryfikowała, instytucje zachowały się jak inwestorzy po bańce – wycofały się na lata, co zamroziło całe środowisko.

Psychologia środowiska: zniechęcenie i ucieczka talentów

Zima AI nie była tylko kwestią grantów i raportów. Równie istotna była psychologia badaczy. Przez dwie dekady mówiono im, że biorą udział w projekcie na miarę lotu na Księżyc, budowy sztucznego umysłu. Gdy stało się jasne, że bliżej im do tworzenia złożonych systemów reguł eksperckich, część środowiska doznała rozczarowania, a inni przerzucili się na lepiej rokujące dziedziny: bazy danych, sieci komputerowe, grafikę.

Tak rodzi się efekt sprzężenia zwrotnego: mniej pieniędzy oznacza mniej spektakularnych wyników, mniej spektakularne wyniki – mniejsze zainteresowanie młodych, a to z kolei jeszcze mniejszą presję na finansowanie. AI na wiele lat stała się etykietą, którą na konferencjach i w wnioskach grantowych stosowano ostrożnie, żeby nie budzić złych skojarzeń. O innowacyjności decydowały wtedy często inne hasła: „systemy rozproszone”, „inżynieria oprogramowania”, „bazy wiedzy”.

Młoda prelegentka omawia AI i big data podczas seminarium
Źródło: Pexels | Autor: Mikael Blomkvist

Wielka kłótnia: symboliczne AI kontra sieci neuronowe

Perceptrony pod ostrzałem: książka, która zamroziła całe podejście

Kiedy symboliczne AI dominowało, nurt sieci neuronowych był raczej poboczną ciekawostką. Pierwsza fala entuzjazmu wobec perceptronów szybko zderzyła się z krytyką – przede wszystkim z pracą Marvina Minsky’ego i Seymoura Paperta „Perceptrons”. Autorzy pokazali matematyczne ograniczenia jednopoziomowych sieci: brak zdolności do rozwiązywania nawet prostych problemów nieliniowych, takich jak funkcja XOR.

Treść krytyki była w dużej mierze słuszna na tle dostępnych wówczas modeli i mocy obliczeniowej. Problem w tym, że książka została odczytana nie jako analiza ograniczeń konkretnej architektury, ale jako wyrok na całe podejście neuronowe. W wielu środowiskach „neural nets” stały się na lata synonimem naiwnych pomysłów bez realnych podstaw.

Kontrariańskie spojrzenie na tę historię jest takie: to nie Minsky zabił sieci neuronowe, tylko brak narzędzi, by pokazać ich potencjał w bardziej złożonych konfiguracjach. Gdyby w latach 70. dysponowano GPU i miliardami przykładów, „Perceptrons” wyglądałby jak opis ciekawych ograniczeń jednej z podstawowych cegiełek, a nie jak epitafium.

Obóz symboliczny: wszystko da się zapisać w regułach

Dominujący nurt AI stawiał na logikę, reguły produkcji i eksplorację stanów. Badacze wierzyli, że jeśli tylko uda się stworzyć dostatecznie bogate formalizmy, będzie można zapisać wiedzę o świecie w postaci zbioru zdań i reguł wnioskowania. Powstawały zaawansowane języki reprezentacji, logiki modalne, systemy typu frames i ontologie.

To podejście ma swoje mocne strony. W dziedzinach o dobrze zdefiniowanych pojęciach i procedurach – prawo podatkowe, konfiguracja sprzętu, diagnostyka techniczna – ręczne kodowanie reguł bywało efektywne. Kiedy jednak próbowano w ten sposób uchwycić zdrowy rozsądek, intuicyjne pojęcia czy percepcję, systemy zaczynały tonąć w sprzecznościach i wyjątkach. Każde dopisanie nowej reguły generowało konieczność przeglądu starych, a spójność globalna stawała się nierealistycznym marzeniem.

Popularna rada z tamtych czasów – „rozbij problem na zbiór jasno zdefiniowanych reguł” – świetnie sprawdza się w wąskich domenach, ale kompletnie zawodzi, gdy domena jest płynna, a kategorie są rozmyte. Alternatywą okazały się dopiero metody statystyczne, które zamiast walczyć z niejednoznacznością, nauczyły się żyć z nią, szacując prawdopodobieństwa zamiast wymuszać twarde granice.

Statystycy i inżynierowie sygnałów: trzeci, długo ignorowany obóz

Równolegle do wojny symboliczni kontra neuraliści istniała jeszcze jedna grupa: statystycy, specjaliści od rozpoznawania obrazów i inżynierowie sygnałów. Pracowali nad regresją, analizą składowych głównych, filtrami Kalmana, teorią informacji. Ich celem nie była „sztuczna inteligencja”, tylko praktyczne zadania: kompresja, estymacja, filtrowanie szumu.

Ironią losu jest to, że to właśnie ten pozornie przyziemny nurt dostarczył wielu narzędzi, na których opiera się dzisiejsza AI: od macierzy kowariancji po metody optymalizacji. Długo jednak brakowało mostu między światem AI a statystyką. Tam, gdzie jedni mówili o „wiedzy i regułach”, drudzy o „modelach i rozkładach prawdopodobieństwa”. Konwergencja tych podejść – logika, sieci neuronowe i statystyka – nastąpiła dopiero, gdy pojawiły się duże dane i realne potrzeby biznesowe.

Metaliczne ramię robota trzyma czerwony kwiat jako symbol technologii
Źródło: Pexels | Autor: Pavel Danilyuk

Druga fala nadziei: systemy eksperckie, a potem kolejne rozczarowanie

Systemy eksperckie: kodowanie wiedzy zamiast uczenia

Po pierwszych zimach AI powróciła pod nowym szyldem: systemów eksperckich. Pomysł wydawał się zdroworozsądkowy. Skoro trudno jest modelować całe myślenie człowieka, spróbujmy uchwycić wiedzę w wąskiej dziedzinie, na przykład medycynie, geologii czy konfiguracji sprzętu komputerowego. Zamiast uczyć system na danych, analitycy siadali z ekspertami i przekładali ich doświadczenie na zbiory reguł typu „jeżeli… to…”.

Powstały imponujące jak na tamte czasy projekty: systemy wspierające diagnozę chorób, wybór terapii, konfigurację sprzętu. W firmach takie narzędzia bywały realnie użyteczne. Przykładowo producent komputerów mógł zbudować system, który na podstawie potrzeb klienta dobierał kompatybilne komponenty, unikając konfliktów sprzętowych. To klasyczny przypadek, w którym świat jest dobrze ustrukturyzowany, a reguły – względnie stabilne.

Kiedy jednak próbowano rozszerzać te rozwiązania, ujawniał się główny problem: skalowalność ręcznie kodowanej wiedzy. Każda nowa reguła mogła nieoczekiwanie wejść w konflikt z istniejącymi. Utrzymanie spójności bazy wiedzy stawało się koszmarem, a dodawanie nowych dziedzin – niemal nierealne bez przebudowy od zera.

Krucha logika i brak odporności na wyjątki

W systemach eksperckich świetnie widać zderzenie formalnej logiki z chaosem rzeczywistości. Wiedza eksperta często ma charakter heurystyczny i probabilistyczny: „zazwyczaj jest tak, ale czasem…” albo „u młodszych pacjentów ten objaw znaczy coś innego niż u starszych”. Przekładanie tego na twarde reguły if-then prowadziło do eksplozji wyjątków i „łatek” w bazie wiedzy.

Co gorsza, systemy te były mało odporne na dane wykraczające poza typowe scenariusze. Wystarczył nietypowy przypadek lub drobne naruszenie założeń, by logika zaczęła zwracać absurdalne wnioski. Użytkownicy szybko się uczyli, że trzeba „rozumieć system”, aby go poprawnie obsługiwać. W efekcie zamiast odciążać ekspertów, narzędzia te często wymagały dodatkowej mentalnej gimnastyki, by omijać ich ograniczenia.

Kontrkoncepcją wobec takiego projektowania stało się później myślenie w kategoriach odporności na błędy i adaptacji. Zamiast wymagać idealnych danych i kompletności reguł, system miał tolerować niejednoznaczność i uczyć się na nowych przykładach. To dokładnie ten punkt, w którym klasyczne systemy eksperckie przestały nadążać, a uczenie maszynowe – przy odpowiedniej ilości danych – zaczęło je wyprzedzać.

Ekonomia utrzymania: dlaczego firmy odwróciły się plecami

Teoretycznie system ekspercki był skarbem: raz zainwestować w modelowanie wiedzy, a potem korzystać z niej w nieskończoność. Praktyka okazała się inna. Wiedza w wielu dziedzinach się zmienia – pojawiają się nowe leki, technologie, regulacje. Każda taka zmiana wymagała aktualizacji bazy reguł, zwykle przez wąskie grono specjalistów znających zarówno domenę, jak i skomplikowaną reprezentację używaną w systemie.

To generowało stałe koszty, często trudne do uzasadnienia w zestawieniu z korzyściami. W pewnym momencie tańsze było zatrudnienie kolejnych ekspertów ludzi niż utrzymywanie „zautomatyzowanego eksperta”, który wymagał drogiej opieki programistów i analityków wiedzy. Firmy zaczęły więc traktować systemy eksperckie jako jednorazowe eksperymenty, a nie fundament strategii.

Ten epizod nauczył biznes jednej rzeczy: AI bez jasnego modelu kosztów utrzymania przegrywa z prostymi, mniej efektownymi rozwiązaniami. To doświadczenie wróciło jak bumerang w kolejnych dekadach, gdy entuzjaści sieci neuronowych obiecywali cuda, ale nie liczyli kosztów etykietowania danych czy monitoringu modeli w produkcji.

Co naprawdę było potrzebne, żeby AI ruszyła z martwego punktu

Trójkąt: algorytmy, dane, moc obliczeniowa

Dlaczego sama poprawa algorytmów nie wystarczyła

Przez lata panowało przekonanie, że przełom w AI przyjdzie z „genialnym nowym algorytmem”. Co konferencja, to kolejny artykuł obiecujący rewolucję: sprytniejsza heurystyka, lepszy mechanizm wnioskowania, nowa funkcja aktywacji. Problem polegał na tym, że większość z tych pomysłów była testowana na mikroskopijnych, sterylnych zbiorach danych, często oderwanych od realnych problemów. W takim środowisku niemal wszystko wygląda dobrze.

Popularna strategia „udoskonalaj algorytm, aż zadziała” ma sens w warunkach laboratoryjnych, gdzie dane są drobne, czyste i kontrolowane. Przestaje działać, gdy dane są hałaśliwe, niejednorodne, a ich przyrost jest wykładniczy. Bez masywnych zbiorów treningowych i mocnego sprzętu nawet najbardziej wyrafinowany algorytm przypomina bolid F1 zamknięty w garażu – efektownie wygląda, ale nigdzie nie pojedzie.

Przełom polegał raczej na uświadomieniu sobie, że algorytm to tylko jeden wierzchołek trójkąta. Drugi to dane, trzeci – moc obliczeniowa. Dopiero kiedy te trzy elementy zaczęły się spotykać w jednym miejscu, AI przestała być zbiorem ciekawych zabawek i zaczęła rozwiązywać realne problemy na skalę masową.

Od „toy problems” do brudnej rzeczywistości

Przez dekady standardem były tzw. toy problems: logiczne łamigłówki, miniaturowe światy bloków, proste gry planszowe. Dobrze się na nich publikowało artykuły, bo łatwo było kontrolować wszystkie zmienne. Gorzej, że sukces w takich zadaniach miał ograniczone przełożenie na biznes, medycynę czy przemysł. Prawdziwe dane są niepełne, obarczone błędem, zbierane przez niedoskonałe czujniki lub rozproszone systemy.

Przesunięcie akcentu z „elegancji rozwiązania” na „działa czy nie działa na produkcji” zmusiło środowisko AI do przewartościowania priorytetów. Nagle okazało się, że model o gorszej „czystości teoretycznej”, ale uczony na dużej, brudnej próbce danych, bywa bardziej użyteczny niż wysublimowana konstrukcja logiczna, która załamuje się przy pierwszym kontakcie z wyjątkiem od reguły.

To był także moment, gdy zaczęto doceniać rzemiosło: proces tworzenia zbioru danych, etykietowanie, walidacja, monitoring w czasie. Elementy wcześniej uważane za „mało naukowe” stały się kluczowe. Algorytm zaczął przypominać silnik, a dane – paliwo i olej smarujący. Bez tej metafory trudno zrozumieć, dlaczego prawdziwy zwrot w historii AI nastąpił dopiero wraz z eksplozją big data.

Jak internet przypadkiem zbudował infrastrukturę dla AI

Internet powstawał w zupełnie innym celu: wymiana informacji, komunikacja, rozrywka, marketing. Nikt przy zdrowych zmysłach w latach 90. nie projektował sieci z myślą o tym, by karmić nią przyszłe modele językowe czy systemy rekomendacyjne. A jednak to właśnie globalna sieć stała się kopalnią danych, jakiej wcześniej nie było.

Każdy formularz, każde kliknięcie, każde zdjęcie wrzucone na serwer generowało ślad. Początkowo te ślady traktowano głównie jako odpad – logi serwera przechowywane „na wszelki wypadek”. Z czasem z tego „odpadu” zaczęto wydobywać wartość: najpierw proste statystyki odwiedzin, później modele przewidujące zachowania użytkowników, a na końcu pełnoprawne systemy uczące się na bieżąco.

Typowa rada sprzed ery big data brzmiała: „Zbierz tyle danych, ile jesteś w stanie ręcznie przeanalizować”. W świecie internetu skala przerosła możliwości człowieka o kilka rzędów wielkości. Alternatywą stało się podejście odwrotne: zbierz wszystko, co możesz, a o sensowną analizę poproś algorytmy. To przewróciło tradycyjny model badań do góry nogami. Zamiast najpierw wymyślać hipotezy, a potem szukać danych, zaczęto od danych, na podstawie których generowano nowe hipotezy.

Big data jako produkt uboczny cyfryzacji

Cyfryzacja procesów biznesowych, administracji i życia codziennego miała przede wszystkim zwiększać efektywność i obniżać koszty. Skutkiem ubocznym był gwałtowny przyrost danych: transakcje kartowe, logi z systemów ERP, dane geolokalizacyjne z telefonów, telemetria z maszyn. Każda nowa aplikacja i każdy nowy sensor dokładały cegiełkę do rosnącej góry informacji.

Przez długi czas większość organizacji nie była w stanie nic sensownego z tym zrobić. Dane zalegały w hurtowniach, archiwach taśmowych, rozproszonych bazach. Dopiero połączenie tańszej pamięci masowej, frameworków typu MapReduce i chmurowych usług analitycznych sprawiło, że „za dużo danych” zamieniło się z problemu w zasób.

Paradoks polegał na tym, że pierwsze wdrożenia „big data” wcale nie dotyczyły AI. Firmy chciały lepszych raportów, szybszej analityki, tańszego backupu. Modele uczenia maszynowego dołączyły później, korzystając z już istniejącej infrastruktury. Ten porządek chronologiczny jest kluczowy: to nie AI wymusiła big data, tylko big data otworzyły dla AI nowe możliwości.

Uczenie maszynowe zderza się ze skalą

Klasyczne algorytmy uczenia maszynowego – drzewa decyzyjne, SVM, regresje – powstawały w czasach, gdy typowy zbiór danych mieścił się w pamięci pojedynczego komputera. Kiedy liczba próbek skoczyła o kilka rzędów wielkości, okazało się, że wiele z tych metod nie skaluje się liniowo. Trening stawał się koszmarnie powolny, a drobne wybory hiperparametrów decydowały o tym, czy model w ogóle się zbiegnie.

W tym kontekście odżyły sieci neuronowe. Na mniejszych zbiorach długo przegrywały z konkurencją, bo miały zbyt wiele parametrów do nauczenia. Gdy jednak pojawiły się miliony przykładów, „parametry żarłoczne” stały się atutem. Modele były w stanie wchłonąć różnorodność danych i znaleźć wzorce, których prostsze algorytmy nie wyłapywały.

Zwykła rada: „wybierz najprostszy model, który działa” zaczęła mieć ograniczone zastosowanie. Przy ogromnej skali problemu prostota czasem oznaczała zbyt małą pojemność modelu. Alternatywą było podejście: „model tak prosty, jak to możliwe, ale nie prostszy niż struktura danych”. W praktyce oznaczało to często architektury deep learningowe, które na papierze wyglądały przesadnie rozbudowanie, lecz w kontakcie z setkami milionów przykładów okazywały się akuratne.

Chmura: z luksusu do standardu

W epoce pierwszych eksperymentów z sieciami neuronowymi największym ograniczeniem była infrastruktura. Budowa własnej serwerowni pod badania nad AI wymagała dużych nakładów, a efekty były niepewne. Nawet instytucje naukowe wahały się, czy inwestować w sprzęt, który za kilka lat mógł być przestarzały.

Pojawienie się chmury obliczeniowej rozwiązało ten dylemat. Wynajem mocy obliczeniowej na godziny, elastyczna skala, brak konieczności samodzielnego utrzymania sprzętu – to nagle zdemokratyzowało dostęp do „ciężkiego” compute’u. Mały zespół badawczy czy startup mógł uruchomić eksperyment na dziesiątkach GPU bez wielomilionowego budżetu inwestycyjnego.

Popularna rada „zoptymalizuj kod, zanim kupisz więcej sprzętu” traci część sensu w tym kontekście. Oczywiście optymalizacja nadal ma znaczenie, ale gdy stajesz wobec potrzeby przetworzenia petabajta danych, oszczędność 20% czasu CPU nie zmieni obrazu sytuacji tak mocno, jak możliwość rozproszenia zadań na setki maszyn. Chmura przesunęła punkt równowagi: często taniej i szybciej jest „rzucić w problem więcej żelaza”, a optymalizować później, gdy wiadomo, które fragmenty obliczeń są naprawdę krytyczne.

Standaryzacja narzędzi: od rzemiosła do „fabryk modeli”

W czasach systemów eksperckich każdy projekt był robiony niemal od zera: własna reprezentacja wiedzy, własny język reguł, własne narzędzia edycji. To czyniło każde wdrożenie skomplikowanym, drogim i trudno przenaszalnym. Współczesna AI korzysta z dużo bardziej ujednoliconego ekosystemu – bibliotek, frameworków, usług chmurowych.

Biblioteki typu TensorFlow, PyTorch, scikit-learn czy XGBoost spłaszczyły próg wejścia. Pojawiły się wzorce: typowe potoki ETL, standardowe sposoby walidacji, typowe metryki jakości. Wraz z narzędziami do orkiestracji eksperymentów i monitoringu modeli zaczęły powstawać coś w rodzaju „fabryk modeli”, w których duża część procesu jest powtarzalna, a nie wymyślana od nowa.

To ma również kontrariański efekt uboczny: nie każdy zespół musi (ani powinien) tworzyć „przełomowe algorytmy”. W wielu przypadkach większy zysk przynosi solidne opanowanie narzędzi, dobre zrozumienie danych i procesów biznesowych niż pogoń za najbardziej modną architekturą sieci. „Inżynieria AI” stała się odrębną kompetencją, odklejoną od czysto akademickiej „nauki o algorytmach”.

Ekonomia skali i efekt uczenia na masie użytkowników

Systemy eksperckie czy wczesne programy AI zwykle nie zyskiwały drastycznie na wartości wraz z każdym nowym użytkownikiem. Były jak oprogramowanie biurowe: raz napisane, mogło służyć wielu osobom, ale nie „uczyło się” od nich.

Modele oparte na danych działają odwrotnie. Im więcej interakcji, tym potencjalnie lepsze stają się ich predykcje – oczywiście przy założeniu sensownego zarządzania danymi i mechanizmów aktualizacji. Wyszukiwarki, systemy rekomendacyjne, filtry spamu, modele językowe – wszystkie korzystają z efektu skali. Dziesięciu nowych użytkowników to nie tylko więcej przychodu, ale także więcej danych treningowych.

Przekonanie „najpierw zbuduj idealny model, a potem szukaj klientów” nie przystaje do takiej dynamiki. Częściej lepiej działa wersja odwrotna: zbuduj działający, choć niedoskonały system, wypuść go na ograniczoną skalę, zbieraj dane zwrotne, iteracyjnie poprawiaj. AI zaczyna przypominać bardziej proces ciągły niż jednorazowy projekt inżynieryjny – z wszystkimi konsekwencjami dla budżetowania i organizacji pracy.

Dlaczego wcześniejsze fale nie mogły skorzystać z big data

Patrząc z dzisiejszej perspektywy, łatwo zadać pytanie: skoro już w latach 80. istniały algorytmy uczenia, dlaczego nie rozpoczęto wtedy wielkiej epoki data-driven AI? Odpowiedź kryje się w trzech barierach: technologicznej, ekonomicznej i kulturowej.

Technologicznie brakowało taniego przechowywania danych i mocy obliczeniowej. Dyski były drogie, sieci wolne, a klastry obliczeniowe zarezerwowane dla nielicznych. Nawet gdyby ktoś chciał gromadzić wszystko, co się da, skończyłoby się to szybko na fizycznych i finansowych ograniczeniach.

Ekonomicznie niewiele firm widziało w danych samodzielną wartość. Dane były produktem ubocznym procesów, a nie aktywem, w które się inwestuje. Nie istniał rynek narzędzi do monetyzacji danych na masową skalę, brakowało też spektakularnych przykładów pokazujących, że dane mogą być przewagą konkurencyjną.

Kulturowo dominował sposób myślenia „od teorii do implementacji”. Dane traktowano jako materiał do testowania hipotez, nie jako primarny surowiec. Dopiero sukcesy wyszukiwarek internetowych, mediów społecznościowych i e-commerce pokazały, że odwrotna kolejność – od danych do modeli – może być nie tylko możliwa, ale i bardzo opłacalna.

Wejście GPU: renesans sieci neuronowych

Gdy big data zaczęły być dostępne, brakowało jeszcze jednego elementu: szybkich, relatywnie tanich akceleratorów do trenowania złożonych modeli. Klasyczne CPU dobrze radziły sobie z logiką i ogólnymi obliczeniami, ale masowo równoległe operacje macierzowe stanowiły dla nich wąskie gardło.

Karty graficzne, pierwotnie projektowane z myślą o renderowaniu obrazów 3D, okazały się idealne do przyspieszania mnożeń macierzy, które są sercem większości sieci neuronowych. To trochę jak odkrycie, że silnik z gokarta da się zaadaptować do łodzi – nikt nie budował go do tego celu, ale pewne cechy konstrukcji pasują jak ulał.

Połączenie GPU z chmurą było podwójnym przełącznikiem: nie tylko dało moc, ale jeszcze udostępniło ją na żądanie. Badacz czy inżynier nie musiał czekać miesiącami na zakup nowego klastra – mógł uruchomić eksperymenty praktycznie od ręki, płacąc za godziny użycia. To dramatycznie skróciło cykl iteracyjny w badaniach nad AI i pozwoliło szybciej oddzielać obiecujące podejścia od ślepych uliczek.

Nowe problemy: uprzedzenia, prywatność, zużycie zasobów

Big data i chmura nie są jednak darmowym obiadem. Gdy modele karmione są masowymi danymi, zaczynają przejmować nie tylko wzorce „pożądane”, ale i cały bagaż uprzedzeń, błędów i nierówności wbudowanych w dane źródłowe. To, co w małej skali było ledwie irytujące, w skali globalnej może mieć realne skutki społeczne: dyskryminujące algorytmy rekrutacyjne, nierówne traktowanie w systemach scoringowych, błędne rozpoznawanie twarzy określonych grup.

Najczęściej zadawane pytania (FAQ)

Dlaczego początki sztucznej inteligencji okazały się rozczarowaniem?

Pierwsza fala AI w latach 50.–70. obiecywała „myślące maszyny” w perspektywie kilku–kilkunastu lat. Rzeczywiste systemy potrafiły jednak rozwiązywać tylko bardzo wąskie, sztucznie uproszczone problemy – grać w warcaby, dowodzić wybrane twierdzenia logiczne czy tłumaczyć proste zdania, zwykle w warunkach laboratoryjnych.

Rozczarowanie wzięło się z przepaści między narracją a praktyką. Media i politycy przedstawiali pojedyncze dema jako zapowiedź ogólnej inteligencji, ignorując kluczowe ograniczenia: brak danych, zbyt słabą moc obliczeniową i całkowity brak skalowalności tych metod do „brudnego” świata pełnego niepewności i niepełnej informacji.

Na czym polegało podejście symboliczne (GOFAI) i dlaczego się „zacięło”?

Symboliczna AI (GOFAI) zakładała, że inteligencję da się opisać jako manipulację symbolami według reguł – tak jak w logice czy matematyce. Wiedza o świecie była zapisywana jako fakty i reguły („jeśli A, to B”), a program miał z tego „wywnioskować” poprawne odpowiedzi.

Ten pomysł działał tam, gdzie świat można było precyzyjnie sformalizować: w grach planszowych czy prostych łamigłówkach. Zawodził jednak w codziennych sytuacjach: języku naturalnym, wizji komputerowej, planowaniu w zmiennym otoczeniu. Problemem była eksplozja kombinatoryczna – liczba możliwych stanów i reguł rosła tak szybko, że systemów nie dało się utrzymać ani obliczeniowo, ani od strony ręcznego „wprowadzania całej wiedzy o świecie”.

Jaką rolę odegrały media i politycy w zawyżaniu oczekiwań wobec AI?

W okresie zimnej wojny AI wpasowała się idealnie w narrację „cywilizacji naukowej” i wyścigu technologicznego USA–ZSRR. Raporty dla rządów pełne były obietnic: automatyczne tłumaczenie przechwyconych komunikatów, systemy doradcze dla wojska, automatyczna analiza danych wywiadowczych.

Media powielały najśmielsze cytaty badaczy („maszyny wykonają każdą pracę człowieka”) bez kontekstu technicznego. Działało to dobrze propagandowo, ale tworzyło oczekiwanie szybkiej, liniowej rewolucji. Gdy po kilku latach okazało się, że systemy nie radzą sobie poza laboratorium, nastąpił gwałtowny zwrot nastrojów i „zima AI” – obcięcie finansowania i spadek zaufania do całej dziedziny.

Czego wczesna sztuczna inteligencja naprawdę potrafiła się „nauczyć”?

Wczesna AI w zasadzie się nie „uczyła” w dzisiejszym sensie. Dominowały programy oparte na ręcznie zapisanych regułach i heurystykach. Potrafiły one bardzo dobrze rozwiązać wąsko zdefiniowane zadania: zagrać sensowną partię w warcaby, przeanalizować mały fragment szachów, znaleźć dowód dla określonego twierdzenia, opracować plan działania w sztucznie opisanym świecie kilku obiektów.

Gdy tylko zwiększało się liczbę zmiennych albo dodawało odrobinę niepewności, wszystko się rozpadało. Przykładowo, system, który rozwiązywał zadania tekstowe z podręcznika matematyki, zwykle radził sobie tylko z szablonami, do których był „ręcznie dopasowany”. Wystarczyła nieco inna treść zadania, by algorytm kompletnie się gubił.

Jak big data i chmura obliczeniowa „dały AI drugie życie”?

Przełom przyniosło połączenie dwóch brakujących elementów: ogromnych zbiorów danych (big data) i taniej, skalowalnej mocy obliczeniowej (chmura). Zamiast ręcznie kodować wiedzę o świecie, zaczęto trenować modele statystyczne i sieci neuronowe na miliardach przykładów – obrazów, tekstów, nagrań, logów zachowań użytkowników.

Chmura pozwoliła uruchamiać treningi na wielu procesorach i GPU równocześnie, co wcześniej było dostępne tylko dla nielicznych laboratoriów. To zmieniło charakter pracy: kluczowe stało się projektowanie architektury modeli i zbieranie danych, a nie samo pisanie coraz bardziej skomplikowanych reguł. W praktyce to właśnie dostęp do danych i mocy obliczeniowej, a nie „nagłe odkrycie genialnego algorytmu”, umożliwił dzisiejszy renesans AI.

Czym różni się dzisiejsze uczenie maszynowe od dawnych systemów ekspertowych?

Systemy ekspertowe z lat 70.–80. opierały się na zasadzie: „zapytaj eksperta, zapisz jego reguły, wbuduj je w program”. Wiedza była sztywna, trudna do aktualizacji i słabo skalowalna. Działały dobrze w bardzo wąskich domenach (np. diagnostyka konkretnych usterek), ale każda zmiana otoczenia wymagała ingerencji człowieka.

Współczesne uczenie maszynowe odwraca ten schemat: model sam uogólnia wiedzę na podstawie tysięcy czy milionów przykładów, a nie katalogu ręcznie zapisanych reguł. Działa to świetnie tam, gdzie mamy dużo danych (rozpoznawanie obrazów, mowa, rekomendacje), ale zawodzi przy rzadkich, nietypowych zdarzeniach. Popularne przekonanie, że „wystarczy dużo danych i sieć neuronowa rozwiąże wszystko”, przestaje działać właśnie wtedy, gdy danych jest mało, są stronnicze lub świat zmienia się szybciej, niż model da się douczyć.