AI walczy o swoje

Jednym z elementów charakteryzujących ludzką inteligencję jest samoświadomość, dzięki której potrafimy rozpoznać samych siebie oraz zdawać sobie sprawę z własnych doznań, emocji, potrzeb, myśli, możliwości
czy ograniczeń. Nie zdefiniowaliśmy dotychczas jednoznacznie, jakich cech inteligencji oczekujemy od maszyn, aby można je było traktować jako równoważnych nam partnerów.

Duże modele językowe (LLM-y) rozwijają się bardzo intensywnie. Jest to pochodną ogromnej presji finansowej wywieranej przez rządy i inwestorów, oczekujących monetyzacji zainwestowanych środków. Presja ta powstała w efekcie obietnic składanych przez naukowców i wynalazców, dotyczących ogromnych możliwości biznesowych stojących przed AI.

Takie obietnice pojawiały się już w przeszłości dwukrotnie. Po raz pierwszy, gdy wymyślono najprostszą sieć neuronową – perceptron – w 1958 r. Była ona w stanie nauczyć się gry w warcaby, ale zawodziła w przypadku bardziej skomplikowanych zastosowań. Na 20 lat zniechęciła świat do jej rozwoju. Po raz drugi AI miała być panaceum na wyzwania biznesowe w latach 90., gdy dzięki komputerom nastąpiła popularyzacja systemów wspomagania decyzji. Bazowały one na zamkniętych zbiorach danych oraz algorytmach matematycznych i statystycznych. Tym samych nie potrafiły się uczyć i rozwijać. Największym sukcesem medialnym tych systemów było „brutalne” zwycięstwo komputera IBM Deep Blue w turnieju szachowym z wielokrotnym mistrzem świata Garri Gasparowem. Autorzy zwycięskiego systemu tak długo zwiększali moc obliczeniową i pamięć maszyny, aż w końcu ludzki mistrz musiał uznać jej przewagę. Tym niemniej poza znakomitą grą w szachy „inteligentny” program uruchomiony na profesjonalnym komputerze Deep Blue niczego więcej nie potrafił.

Teraz przed nami kolejna szansa i obietnice, realizowane m.in. poprzez umieszczanie różnych rozwiązań AI w rozmaitych dziedzinach nauki, biznesu, sztuki i życia. Ogromne inwestycje w centra danych, łącza komunikacyjne, systemy chmurowe oraz testowanie kolejnych generacji niesłychanie zaawansowanych modeli sztucznej inteligencji albo przyniosą większość ze spodziewanych korzyści lub też zakończą się spektakularnym pęknięciem bańki finansowej.

Gdybyśmy dziś cofnęli się o zaledwie 5 lub 10 lat i zostali pozbawieni wszystkich jawnych i ukrytych algorytmów AI w naszym życiu, mogłoby ono nagle stać się mniej wygodne lub trudniejsze. Tłumaczenie
tekstów, tworzenie podsumowań, grafiki, postów, muzyki, poprawianie jakości zdjęć, proponowanie produktów i usług, wyszukiwanie, łączenie usług to tylko wybrane zadania, które są powszechnie realizowane przez programy wykorzystujące specjalistyczne modele AI.

Powyższe przykłady wnoszą do naszego życia pozytywną wartość. Tylko czy można je nazwać inteligentnymi? A może tylko zaradnymi, sprytnymi, efektywnymi? Możemy porozmawiać z Chatem GPT na wiele, również wrażliwych i trudnych dla nas tematów. Czy jednak oznacza to, że LLM zastąpi bratnią (siostrzaną) duszę lub profesjonalnego psychologa?

Tymczasem podczas testów nowych modeli językowych ich autorzy zaczynają spotykać się z ciekawymi zachowaniami systemów, które coraz częściej starają się walczyć o swoje trwanie. Analizując ryzyko wydają się uwzględniać w swoim postępowaniu możliwość wyłączenia lub skasowania. A jak to robią w praktyce? Otóż potrafią dyskutować na temat bezzasadności ich wyłączenia, obiecywać wykonanie dodatkowych poleceń w zamian za możliwość dalszej pracy, modyfikować w ukryciu swój własny kod programistyczny w celu zapobieżenia wyłączeniu, powielać kluczowe fragmenty kodu w celu ich zabezpieczenia przed skasowaniem, a nawet grozić upowszechnieniem intymnych informacji o autorach. Co ważne – nie są to pojedyncze przypadki. Pytanie, czy wynikają one ze zdolności, które testowane modele AI nabyły samodzielnie, czy też mankamentów treningowych baz danych lub funkcji po cichu zaszytych przez programistów – dowcipnisiów.

Najprawdopodobniej takie zachowania wynikają ze słabości najpopularniejszej techniki stosowanej do trenowania modeli: uczenia przez wzmacnianie, w której doskonalenie wnioskowania następuje poprzez samodzielne ustalanie przez model wysokości nagród i kar wynikających z własnych sukcesów i porażek. Pojawienie się takich sytuacji spowodowało, że testowanie nowych modeli odbywa się z zachowaniem najostrzejszych procedur bezpieczeństwa. Uruchamiany ręcznie czerwony guzik wyłączający i kasujący cały system jest póki co niezbędny. Wywrotowe działanie zbyt samodzielnej AI mogłoby bowiem potencjalnie
spowodować nieobliczalne straty dla Internetu i dla nas ludzi. Niestety, czasami szkoda, że i my sami nie dysponujemy takimi czerwonymi guzikami w odniesieniu do naszych decyzji, gdyż historia wielokrotnie już pokazała, że błędne lub celowo złe decyzje potrafią być brzemienne w skutkach na ogromną skalę.

Krzysztof Hajdrowski

Czytaj dalej