W przestrzeni medialnej pojawia się coraz więcej informacji o używaniu tzw. dużych modeli językowych (LLM – Large Language Model) do tworzenia nowych tekstów. Darmowe rozwiązania typu ChatGPT potrafią stworzyć stosunkowo krótkie treści, idealnie pasujące do serwisów newsowych, stanowiące podsumowanie najważniejszych elementów dłuższych treści lub scalające kilka informacji do pojedynczej. Modele te potrafią przetwarzać materiały źródłowe o oryginalnej długości do około tysiąca słów, trudno im jednak wygenerować z nich sensowny nowy tekst o długości przekraczającej 2000 słów. Są to jednak limity na dziś. Wraz ze wzrostem zdolności obliczeniowej i pojemności baz danych centrów serwerowych, ograniczenia te szybko się dezaktualizują.
W ciągu najbliższych… no właśnie tygodni/miesięcy/roku/kilku lat (niepotrzebne skreślić) pojawią się narzędzia, które za stosunkowo niewielką opłatą, rzędu np. 100-200 zł będą potrafiły generować całe prace badawcze, książki, manuskrypty lub scenariusze filmowe o objętości 10 tysięcy słów i większej. Tymczasem jednak twórcom modeli językowych bardziej opłaca się zarabiać na dużej liczbie krótkich zleceń, niż inwestować w nowe, bardzo kosztowne, energochłonne i niedoskonałe narzędzia do pracy nad dużymi dokumentami.
Szkolenie modelu LLM do pracy z dużymi dokumentami wymaga podejścia adaptacyjnego. W pierwszej fazie jest wykorzystywany konwencjonalny zbiór krótkich plików źródłowych i ogromna biblioteka, rzędu miliardów parametrów, mogących wpłynąć na dokument wyjściowy. Te parametry działają w ten sposób, że dzielą pliki źródłowe na małe kawałki i poszukują dla nich odpowiedniego kontekstu zachowania modelu. Taki sposób rozbicia pliku na znacznie mniejsze części i zarządzania nimi jakby stanowiły oddzielne zadania, ale powiązane ze sobą kontekstowo, pozwala stworzyć sensowne pliki wyjściowe o objętości wielokrotnie większej niż początkowo. W drugiej fazie następuje wybór optymalnej bazy parametrów i ich zastosowanie w nowym modelu językowym. W ten sposób finalny model może stworzyć na przykład poradnik dla konkretnej osoby, podróżującej po Polsce w określonym przedziale czasu i zainteresowanej wybranymi atrakcjami, dzieląc go na etapy dzienne, a jednocześnie dbając o spójność całości.
Naukowcy pracujący nad takimi rozwiązaniami przyznają, że łatwo w ten sposób zapomnieć o kwestiach etycznych, zlecając maszynie opracowanie pracy naukowej, książki, manuskryptu, instrukcji, a nawet scenariusza filmowego, przypisując sobie na końcu autorstwo finalnego dokumentu. Możliwe jest oczywiście zaszycie w modelu na etapie badawczym różnych kłódek, które ograniczą wartość komercyjnego modelu, ale czy będzie na tym zależało firmom komercyjnym? W ten sposób mogą przecież stracić część klientów, a więc przychodów i zysków.
Póki co pojawiła się oferta wykorzystania rozwiązania AI Scientist, w ramach którego za jedyne 15 dolarów otrzymujemy możliwość wygenerowania artykułu naukowego, obejmującego trzy fazy procesu twórczego:
burzę mózgów z jakościową weryfikacją wygenerowanych pomysłów, częścią eksperymentalną z wygenerowaniem odpowiednich skryptów badawczych, przeprowadzeniem badań i wizualizacją wyników oraz – na koniec – opisaniem całości w formie artykułu naukowego i – uwaga! – symulowaną recenzją całości. Twórcy twierdzą, że stosowany model potrafi tworzyć prace o jakości zapewniającej ich przyjęcie w większości czasopism i konferencji naukowych.
Dzięki taki narzędziom, pozbawionym hamulców moralnych, możemy doprowadzić do powstania równoległej cyfrowej społeczności naukowej, której efekty prac będą w jej ramach bezdusznie akceptowane, nawet jeśli będą zawierały błędy, których algorytmy nie wykryją. W zależności od źródła wejściowej bazy danych wyniki mogą być też groźne dla rodzaju ludzkiego, prowadząc do stworzenia nowych trucizn lub wirusów, a w łagodniejszej wersji po prostu złośliwego oprogramowania lub wirusów komputerowych. Tymczasem bezpieczeństwo gwarantują zamknięte środowiska funkcjonowania takich algorytmów (tzw. sand boksy). Zdarzały się już bowiem sytuacje, że trenowane system starały się samodzielnie dążyć do zwiększenia swoich możliwości, np. podnosząc uprawnienia, wydłużając czas eksperymentu lub dodając dodatkową moc obliczeniową poprzez próby ingerowania we własny kod.
Możliwości AI będą tylko rosły, a większość błędów będzie poprawiana. Jednak nie wszystkie. Nietrudno wyobrazić sobie, że tak jak na pewno powstaną wkrótce duże modele językowe tworzące różnorodne treści o objętości książkowej, tak możliwe jest, że ludzie stopniowo porzucą sporą część procesu twórczego oddając go maszynom. Autorom pozostanie końcowa korekta powstałego materiału lub „przepuszczenie” go przez kolejne wyspecjalizowane modele, które dokonają w nim niezbędnych zmian uczłowieczając produkt końcowy lub nadając mu charakterystyczne cechy wcześniejszej twórczości ludzkiego „autora”. Na pewno rośnie wyzwanie przed redakcjami czasopism naukowych i promotorami prac w technikach i szkołach wyższych, gdzie recenzowanie autorstwa i jakości otrzymywanych prac będzie wystawiane na coraz większą próbę. To również ogromna pokusa dla wielu pseudo autorów, aby iść na skróty w procesie twórczym, w którym wystarczy kilka ruchów myszką, krótkie użycie klawiatury i potwierdzenie zdalnej płatności.
Krzysztof Hajdrowski
