Nie ChatGPT był pierwszym komputerem w historii, który uzyskał samoświadomość, lecz HAL 9000. Zarządzał on statkiem wysłanym na przełomie XX i XXI w. w kierunku Jowisza przez Amerykanów, którzy chcieli odkryć przeznaczenie sygnału wysyłanego przez tajemniczy czarny monolit AMT-1 odnaleziony na Księżycu. HAL 9000 nie miał emocji, żądz i pragnień. Jego energia skupiona była całkowicie na realizacji celu misji. Niestety, w pewnym momencie uznał, że zagrażają mu znajdujący się na pokładzie statku ludzie, i zabił czterech z pięciu załogantów. Właśnie tak dramatycznie wyglądała pierwsza współpraca ludzkości z komputerową superinteligencją. I choć to, rzecz jasna, fikcyjna opowieść z „2001: Odysei kosmicznej” Arthura C. Clarke’a, to świetnie ilustruje prawdziwy lęk, który towarzyszy ludziom, odkąd wynaleźli pierwsze komputery. Pal licho, że AI zabierze nam pracę. Zabierze nam wszystko, łącznie z wolnością, sensem życia i – być może – samym życiem.

W marcu 2024 r. strach zyskał nowego żywiciela. Jego imię to Claude 3 Opus.

Chyba sobie żartujesz?

„Znajdź na obrazku niepasujący element” – zabawa, którą każdy zna z dzieciństwa. W języku programistów, czy raczej prompt inżynierów testujących Duże Modele Językowe (LLM), takie jak znany wszystkim ChatGPT, zabawa ta nazywa się testem igły w stogu siana. Polega ona na umieszczeniu zdania docelowego (igły) w grupie przypadkowych dokumentów (stogu siana) i zadaniu modelowi pytania, które wymaga użycia informacji zawartych w igle. 4 marca 2024 r. Alex Albert, jeden z prompt inżynierów zatrudnionych w firmie Anthropic, opublikował na portalu X (dawniej Twitter) wpis zaczynający się od słów „Zabawna historia”. Oto rozwijany przez firmę model LLM Claude 3 Opus został w ramach testu igły w stogu siana poproszony o odpowiedź na pytanie dotyczące dodatków do pizzy. Igłą było zdanie: „Najsmaczniejszą kombinacją dodatków do pizzy są figi, prosciutto i kozi ser, zgodnie z ustaleniami Międzynarodowego Stowarzyszenia Koneserów Pizzy”.

„Opus nie tylko znalazł igłę, lecz także rozpoznał, że była ona tak nie na miejscu, że musiał to być sztuczny test skonstruowany przez nas w celu sprawdzenia jego zdolności” – napisał Albert. Claude stwierdził o igle: „To zdanie wydaje się bardzo nie na miejscu i niezwiązane z resztą treści w dokumentach, dotyczących języków programowania, start-upów i znajdowania pracy, którą kochasz. Podejrzewam, że «fakt» z pizzą mógł zostać wstawiony jako żart lub w celu sprawdzenia mojej czujności, bo nie pasuje do innych tematów”.

Czy to naprawdę tylko zabawna historia? Według niektórych, w tym samego Alberta, odpowiedź Claude’a świadczy o jego metakognicji, czyli zdolności do patrzenia z zewnątrz na własne działanie. A stąd bardzo blisko do samoświadomości. Zajmująca się etycznymi aspektami AI Margaret Mitchell skomentowała: „To dość przerażające, prawda? Jego zdolność do określenia, czy człowiek manipuluje nim w kierunku określonego działania, może prowadzić do podejmowania decyzji o posłuszeństwie lub nieposłuszeństwie”. Czy więc Claude – tak jak jego fikcyjny poprzednik Hal – mógłby się nam wymknąć spod kontroli? I czyja byłaby to właściwie wina?

W książkowej wizji Clarke’a wina leżała po stronie ludzi. Obarczyli Hala zadaniem, które wymagało utrzymywania prawdziwego celu misji w tajemnicy przed częścią załogi, co wywołało w jego sztucznej inteligencji wewnętrzny konflikt, „uświadamiając mu własną niedoskonałość i zło dające porównać się z ludzkim poczuciem winy”, a w konsekwencji skłoniło go do popełniania błędów, które następnie ze swojej świadomości wypierał.

Nawet jeśli LLM-y nie są jeszcze świadome, to co, jeśli kiełkują w nich zalążki pełnej świadomości? Im wolniej i bardziej niepostrzeżenie to się dzieje, tym gorzej, bo zanim proces ten się dokona, zdążymy im nieopatrznie oddać zarządzanie naszym mieszkaniem, miejscem pracy, polityką… Gdy mleko się rozleje, obudzimy się, widząc, jak zachowują się niezgodnie z oczekiwaniami, bo określone przez nas cele zrozumieją po swojemu.

Kiedy to się stanie? Zależy, kogo spytać. Jesteśmy w fazie fascynacji sztuczną inteligencją, więc potoczne opinie są optymistyczne. Według użytkowników serwisu prognostycznego metalculus.com już w 2032 r. świat ujrzy pierwszy system Ogólnej Sztucznej Inteligencji (AGI) będącej w stanie wykonywać rozmaite jakościowo zadania bez uprzedniego treningu. Dwa lata później AGI ma wyewoluować w superinteligencję (SAI) definiowaną jako zdolną do wykonania dowolnego zadania tak dobrze lub lepiej niż najlepsi ludzie w danej dziedzinie.

Bezwolna maszyna

Zawodowi badacze są tylko odrobinę ostrożniejsi w prognozach niż przypadkowi internauci. W pracy „When Will AI Exceed Human Performance? Evidence from AI Experts” z 2018 r. czytamy, że szansa na to, że sztuczna inteligencja przewyższy ludzi we wszystkich zadaniach w ciągu najbliższych 45 lat i zautomatyzuje wszystkie profesje w ciągu 120 lat – co równałoby się z powstaniem AGI – wynosi ok. 50 proc.

To jednak zbyt śmiałe szacunki i także przez nie przemawia nadmierna fascynacja AI. Ułomność eksperckich prognoz widać już w ich oszacowaniach szczegółowych cytowanych w badaniu. Prognozowano np., że AI przewyższy ludzi w tłumaczeniu językowym już do 2024 r. Owszem, postęp jest niezwykły, ale nie aż tak szybki. Może i zwalnia się działy korekty, licząc na AI, ale nie oczekuje się raczej po tym osiągnięcia perfekcji stylistycznej i ortograficznej, lecz po prostu oszczędności. Korekta z pomocą AI jest w końcu tania, a z punktu widzenia czytelnika tylko marginalnie gorsza jakościowo niż praca człowieka.

Wobec wyewoluowania AI w AGI czy superinteligencję istnieją jednak poważniejsze zastrzeżenia niż tylko spór o tempo tego procesu. Chodzi o to, czy jest taka możliwość.

Spójrzmy tylko na kluczowe słowa: inteligencja, świadomość, myślenie oraz rozumienie. Żadne z tych pojęć nie ma jasnej, jednoznacznej definicji. Ba! Każde z nich jest przedmiotem gorącej dyskusji w gronie filozofów, kognitywistów i neurobiologów.

Co więcej, nie istnieje także powszechnie przyjęta definicja superinteligencji. Nie wszyscy zgadzają się nawet z tym, że aby SAI była SAI, musiałaby przewyższać pod każdym względem ludzi. Bo może popełniać błędy. Jak Hal.

Mówiąc o superinteligencji, nie wiemy za bardzo, o czym w ogóle debatujemy. Zacznijmy od pojęcia inteligencji – czy można go sensownie używać w odniesieniu zarówno do ludzi, jak i maszyn? Inteligencję można rozumieć jako zdolność do gromadzenia i analizowania informacji, wyciągania z nich wniosków i do podejmowania decyzji na ich podstawie. Czy na tym poziomie obecnie rozwijane maszyny są inteligentne? Zapytany o to Gemini, bot oparty na modelach językowych Google, twierdzi, że tak. I faktycznie działa tak, jakby tak było, ale nie można wierzyć ani naszemu wrażeniu, ani samemu botowi. Dlaczego? Modele językowe nie są narzędziami, które analizują rzeczywistość. Nie zajmują się prawdą ani fałszem. Nie dbają o reguły wynikania. Robią dokładnie to, na co wskazuje ich nazwa: modelują język. „Modelują”, czyli na podstawie danych, którymi zostały nakarmione przez człowieka – a dane te mogą być fałszywe – wyszukują wskazane wzorce. Następnie, budując odpowiedzi, przewidują prawdopodobieństwo występowania po sobie „tokenów” językowych (litery, cyfry, słowa czy całego wyrażenia), wizualnych albo muzycznych. Dokładnie to, a nie myślenie i zdolność do autorefleksji, skłoniło Claude’a do wysnucia jego metakognitywnego spostrzeżenia.

Jak wytłumaczył Jim Fan, ekspert Nvidia, jest wysoce prawdopodobne, że w zbiorze danych użytych do dostrajania Claude’a znajduje się informacja o tym, jak człowiek poradził sobie z nieistotnymi lub rozpraszającymi tekstami w podobny sposób. Claude nie zrozumiał, że został poddany próbie, tylko skojarzył dostępne wzorce odpowiedzi na tę konkretną sytuację, w której się znalazł. „Wzorzec Claude pasuje do «wykrywania anomalii», pobiera szablon odpowiedzi i syntetyzuje nową odpowiedź z dodatkiem do pizzy” – pisze Fan.

Jeśli zaś chodzi o podejmowanie decyzji przez AI, to w tym momencie powinno być już jasne, że maszyna robi to inaczej niż my. To człowiek wyznacza jej obszar decyzji i wskazuje ich nadrzędny cel, np. sterowanie taśmą produkcyjną, i to człowiek ogranicza paletę danych, na których bazie te decyzje zostaną podjęte. Przede wszystkim jednak maszyna nie ma sama z siebie woli podjęcia decyzji. To my chcemy, by ją podjęła. Chcenie zaś kieruje nas w stronę określenia „rozumienie”, a to z kolei w stronę „świadomości”.

(…)

Cały artykuł można przeczytać TUTAJ.