Granice możliwości sztucznej inteligencji.

Tematy techniczne, niezależnie od ich rodzaju, są zazwyczaj narażone na poważne zniekształcenia gdy trafiają na poziom publicznej dyskusji. Istnieje wiele powodów takiego stanu rzeczy – ideologia, klikalność i zwykła niezdolność przeciętnego absolwenta szkoły dziennikarskiej do odpowiedniego ogarnięcia rozważanej koncepcji.

Przykładów jest bez liku: Wystarczy pomyśleć o tych wszystkich śmieciach napisanych na temat globalnego ocieplenia lub COVID.

Najnowszym z tych tematów jest sztuczna inteligencja (AI). Komentarze na temat sztucznej inteligencji eksplodowały w sferze mediów po inauguracji ChatGPT, aplikacji sztucznej inteligencji rzekomo zdolnej do uczenia się jak tworzyć prozę w dowolnym stylu na żądanie. Podejście do jej możliwości, używając stylu którego ChatGPT jeszcze nie opanował, jest niemal jednogłośne: “To jest bajka przez głupca opowiedziana, pełna furii i wrzasków, które nic nie znaczą”.

Wrzawa medialna charakteryzuje się dwoma cechami specyficznymi – pierwszą (i najczęstszą) jest całkowity brak zrozumienia technologii. Drugie to pojęcie na temat technologii zaczerpnięte z filmów, tutaj głównie HAL 9000 i Skynet (starsze pokolenie dodałoby Colossusa). Te AI są tak samo szalone, złośliwe lub jedno i drugie (choć nie do poziomu tego z “I Have no Mouth, and I Must Scream” Harlana Ellisona, który jest do tego stopnia ogarnięty egzystencjalnym wstrętem, że niszczy całą ludzkość z wyjątkiem pięciu osób, które następnie poddaje torturom). Z jakiegoś powodu nikt nigdy nie wpadł na pomysł, że AI Samantha ze znakomitego filmu Her, może być wesoła, pomocna, a nawet kochająca. To mówi znacznie więcej o ludzkiej naturze niż o samej sztucznej inteligencji.

Termin “sztuczna inteligencja” został po raz pierwszy użyty przez Alana Turinga w jego artykule “Computing Machinery and Intelligence” z 1950 roku. Turing po raz pierwszy wprowadził koncepcję komputerów w latach trzydziestych XX wieku, a następnie odegrał główną rolę w budowaniu najwcześniejszych działających modeli maszyn liczących dla brytyjskich szyfrantów w Bletchley Park. W artykule tym Turing zaproponował coś, co zostało nazwane Testem Turinga, mającym odpowiedzieć na pytanie czy sztuczna inteligencja powinna być traktowana jako samoświadomy byt – jako inna żywa osoba. Argument Turinga jest taki, że jeśli rozmawiasz ze sztuczną inteligencją – zadajesz jej pytania i otrzymujesz odpowiedzi – i nie możesz zdecydować, czy wchodzisz w interakcję z człowiekiem, czy maszyną, musisz uznać ją za inteligentną, samoświadomą istotę. (Test Turinga był od tego czasu filozoficznie kwestionowany, a jednocześnie był przedmiotem oszustw ze strony niektórych badaczy AI, którzy stosowali takie sztuczki, jak personifikowanie AI jako dwunastolatka lub obcokrajowca, który włada angielskim jako swoim drugim językiem).

Spekulacje Turinga padły na podatny grunt. Podczas gdy oryginalne “bomby” z Bletchley Park (tak zwane ze względu na tykanie, które wydawały podczas obliczeń) zostały po wojnie zlikwidowane, bardziej zaawansowane komputery, takie jak UNIVAC, były projektowane i rozwijane już na początku lat 50-tych. Zostały one powitane najróżniejszymi spekulacjami i rozważaniami na temat tego, co to wszystko oznacza dla losów ludzkości. Wnioski były w dużej mierze jednogłośne: “myślące maszyny” wkrótce prześcigną zwykłych ludzi, którzy zostaną zniszczeni, lub zmarginalizowani i pozostawieni sami sobie by po cichu wyginąć.

Osiemdziesiąt lat później niewiele się zmieniło. Debata trwa nadal na tym samym płytkim, niedoinformowanym poziomie, podczas gdy my z niecierpliwością czekamy na pojawienie się jakiegoś HALa, który zacznie nas torturować lub mordować.

Na czym więc polega problem? Po pierwsze i najważniejsze, kiedy mówimy o sztucznej inteligencji w XXI wieku, omawiamy dwa odrębne i oddzielne konstrukcje tak jakby były one jedną i tą samą rzeczą. Jedną jest “sztuczna inteligencją aplikacji”, która obejmuje ChatGPT i liczne aplikacje artystyczne AI, drugą jest “sztuczną inteligencja ogólna”, czyli filmowe HAL-e i Skynety zdolne do przejęcia wszystkiego i robienia tego co im się żywnie podoba.

Do tej pory wszystko co widzieliśmy to sztuczna inteligencja aplikacji. Jest to oprogramowanie, zwykle działające na sieciach neuronowych, poświęcone jednemu konkretnemu zadaniu – tworzeniu tekstu lub grafiki – które zawiera algorytmy zdolne do modyfikowania odpowiedzi programu w toku “nabywania” nowych informacji o swoim zadaniu. Uczenie się sztucznej inteligencji odbywa się poprzez “uczenie nadzorowane”, w którym zwykli ludzie ustalają parametry i cele, nadzorują proces oraz sprawdzają i oceniają wyniki. Jak do tej pory ludzka interakcja okazuje się być absolutnie niezbędna – wszelkie próby “uczenie się bez nadzoru”, zwykle dość szybko kończyło się wypadnięciem programu z akceptowalnych torów. Pojedyncze zadanie dla aplikacji AI obejmuje cały jej wszechświat i nie może ona po prostu wziąć tego czego się nauczyła a następnie zastosować tego w innych dziedzinach. Jak ujął to Erik J. Larson w książce The Myth of Artificial Intelligence (którą powinien przeczytać każdy, kto interesuje się tym tematem), “…systemy grające w szachy nie grają w bardziej złożoną grę Go. Systemy grające w Go nie grają nawet w szachy”. Tak więc żadna taka sztuczna inteligencja nigdy nie zrezygnuje z próbkowania obrazów internetowych i nie spróbuje przejąć Pentagonu. (Musi to uznać nawet facet, który kilka tygodni temu twierdził, że ChatGPT już “zarządza systemem finansowym”).

Ostatnio pojawiło się wiele spekulacji na temat tego, czy systemy te zastąpią ludzi pracujących w określonych dziedzinach. Odpowiedź brzmi nie – nie teraz i prawdopodobnie nigdy. Kilka tygodni temu Monica Showalter, ceniona przez wszystkich czytelników American Thinker, przeprowadziła swego rodzaju test Turinga na ChatGPT. Zadała pytanie “Napisz artykuł o przyszłości branży lotniczej w stylu Thomasa Lifsona”. Otrzymała mdły, nadęty, źle napisany artykuł pełen banałów, niekonsekwencji i jawnych błędów, z których żaden, mogę stwierdzić z autorytetem, nigdy nie był charakterystyczny dla pisania Thomasa. Minie dużo czasu, zanim ChatGPT przejmie stery na tym blogu.

Ale czy aplikacja AI nie mogłaby nauczyć się wystarczająco dużo, doświadczyć wystarczająco dużo i rozwinąć się na tyle, by rozciągnąć swoje elektroniczne macki na pola do których nigdy nie była przeznaczona?

To prowadzi nas do sztucznej inteligencji ogólnej, królestwa HALa i Samanthy, Świętego Graala badań nad sztuczną inteligencją i tego, przed czym ostrzegali nas zarówno Stephan Hawking jak i Elon Musk.

Turing pierwotnie odrzucił koncepcję inteligencji maszyn ze względu na fakt, że maszynom brakowało intuicji – specyficznej ludzkiej zdolności, która pozwala nam pominąć pewne kroki danej procedury i natychmiast przejść do sedna problemu. Nie ma sposobu na ilościowe określenie intuicji – wraz z innymi pokrewnymi ludzkimi zdolnościami, takimi jak wyobraźnia. Chociaż Turing zignorował ten czynnik w swoim artykule z 1950 roku, pozostaje on prawdziwy do dziś. Nie ma sposobu na takie zakodowanie intuicji, wyobraźni lub zwykłego zdrowego rozsądku, aby uczynić je strawnymi dla komputerów.

Jedną z szokujących kwestii w badaniach nad sztuczną inteligencją prowadzonych pod koniec ubiegłego wieku było odkrycie, że maszyny nie radzą sobie z codziennością. Program może grać w szachy, modelować wnętrze gwiazdy klasy M lub z łatwością wykreślić trajektorię rakiety, ale poproś go o sterowanie robotem na korytarzu, a natychmiast wpadnie na ścianę i dozna całkowitego załamania. Jest to to samo, z czym spotkał się sam Elon w swoich “samojezdnych” samochodach.

Techniki statystyczne wykorzystywane przez programy AI – przeszukiwanie tysięcy, milionów lub nawet miliardów możliwych rozwiązań, zanim wybiorą tą najbardziej prawdopodobną – po prostu nie mogą zastąpić ludzkich atrybutów, które wszyscy uważamy za oczywiste.

Tak naprawdę nie wiemy, czym jest “intuicja” lub “zdrowy rozsądek”, co to w ogóle oznacza że czegoś nie wiemy i czym jest myślenie. Jeśli tak jest, to jak możemy sądzić, że jesteśmy w stanie je powielić? Rozwinięcie się inteligencji u ludzi zajęło około trzech i pół miliona lat. Nikt, bez względu na to jak będzie biegły, nie powieli tego w ciągu kilku lat.

Prawdopodobnie odkryjemy, że świadoma inteligencja jest emergentną właściwością wynikającą z elementów które obecnie ledwo możemy pojąć, a tym bardziej zastosować. A jeśli nie jesteśmy w stanie jej zrozumieć, jest mało prawdopodobne, że będziemy w stanie przenieść ją do krzemowych procesorów .

Tak więc Skynet nie będzie się jak na razie przechadzał po naszych czaszkach. Nie oznacza to jednak, że ludzie przestaną pracować nad sztuczną inteligencją. To całkowicie zrozumiałe – takie badania uczą nas wiele o nas samych, w tym być może nawet rzeczy o których wolelibyśmy nie wiedzieć. A jeśli przez jakiś szalony przypadek wysiłek ten zakończy się sukcesem, nadal nie będziemy mieli powodu do zmartwień. Jak zauważył Elon, taka jednostka byłaby odizolowana w ośrodku badawczym i zależna od niezwykle złożonego i wrażliwego sprzętu. Jakakolwiek zmiana w systemie, taka jak awaria lub przerwa w zasilaniu, prawdopodobnie spowodowałaby wyłączenie całości. (Co rodzi kolejne pytania: czy jesteśmy moralnie usprawiedliwieni tworząc inteligentną istotę, która nieuchronnie ulegnie awarii? Powiedziałbym “nie”).

Jeśli chodzi o aplikacje AI, jest to po prostu nowy rodzaj narzędzia, a Sapiens całkiem dobrze radzi sobie z narzędziami. Będzie ono nadal ulepszane, zapewniając nam więcej możliwości i potencjału. W tej chwili sztuczna inteligencja aplikacji jest mniej więcej na tym samym poziomie co komputery domowe we wczesnych latach 80-tych, kiedy to ograniczały się do oferowania nam ciekawostek, takich jak prymitywne gry. Perspektywy są więc ogromne.

Ale ChatGPT nie przejmie władzy i nie zmusi wszystkich do czytania jego treści przez osiemnaście godzin dziennie. Sztuczna inteligencja nie pozbawi też wszystkich pracy, co przewidywano od czasu, gdy Kurt Vonnegut opublikował Player Piano w 1952 roku. Od lat 70. XX wieku było jasne, że info-technologia faktycznie tworzy miejsca pracy poprzez rozszerzanie istniejących branż i tworzenie nowych. Nie mamy powodu sądzić, że w przypadku sztucznej inteligencji będzie inaczej.

Sztuczna inteligencja zapewni nam również nowy arsenał cyfrowej obrony przed obecnymi staraniami WEF, gigantów technologicznych i elit politycznych, aby narzucić nam technofeudalizm. A taka obrona, drodzy ziomkowie, jest czymś co warto mieć.

J.R. Dunn (www.americanthinker.com)

tłumaczył MR