Kompromitujące halucynacje AI. Awantura o przypisy Karoliny Opolskiej
Afera, która wybuchła wokół przypisów do nieistniejących stron i źródeł w książce dziennikarki TVP Karoliny Opolskiej, to modelowy przykład tego, jak sztucznej inteligencji nie używać - szczególnie w książce o dezinformacji! Co się stało i jak tego uniknąć?

Profesor Stefan Kieniewicz, znany XX-wieczny historyk, gdy pisał kolejną książkę, ponoć miał dzień pracy podzielony na dwie równe części. Do obiadu pisał treść główną, po obiedzie przypisy. Niech ktoś znajdzie pomyłki w jego książkach o historii rozbiorowej Polski.
Żeby było jasne, źródłem powyższej informacji są media społecznościowe. Może być prawdziwa, a może nie, autor nie jest w tym momencie w stanie sprawdzić wstępów do wszystkich książek Kieniewicza, by ją potwierdzić.
Jeśli prawdziwa, to dziś byłoby mu łatwiej. Wystarczyłoby napisać prompt, wcisnąć Enter i... no właśnie. Wszystko wyglądałoby idealnie. Całkiem jak w książce poświęconej modnej tematyce "dezinformacji" autorstwa Karoliny Opolskiej. Efekt również byłby podobny.
Rzeź winiątek
Stefan Kieniewicz, nawet gdyby żył dzisiaj, tego by nie zrobił. Podobnie nie plagiatowałby innych książek lub artykułów. To jego często plagiatowano, i na tym polega jakość historyka, ale też piszącego dziennikarza.
Zmyślenie przypisów to dla niektórych co prawda mniejsza przewina, bo nie wiąże się z kradzieżą cudzego dzieła. Do tego jest trudniejsze do wykrycia, bo wymaga ręcznej pracy. Uczelnie powszechnie używają programów wykrywających plagiaty, ale rzadziej weryfikują przypisy. Chyba że ktoś promuje książkę w telewizji, a do tego budzi emocje.
Ale i tak jest słabo. Zmyślanie przypisów jest porównywalne do zmyślania treści, co dla pracy mającej naukowe ambicje jest dyskwalifikujące. Dla autora również. Przypisy są sygnałem, że autor ma ambicje naukowe, a nie tylko rozrywkowe. A do tego napisał książkę poświęconą dezinformacji!
Zostawmy już jednak na boku panią Opolską (która stwierdziła, że: "Moje przypisy były prawidłowe i przygotowane zgodnie z zasadami. Doszło do nieporozumienia, wyjaśnia je wydawnictwo, które stoi za mną murem. AI nie miało z tym nic wspólnego"). Przypadków takich jak jej, także w kontekście habilitacji, zapewne dziś nie brakuje i jest tylko kwestią czasu, kiedy zaczną wypływać. Stanie się to wtedy, kiedy, nomen omen, narzędzia AI zyskają szerszy dostęp do zamkniętych zbiorów bibliotecznych, a te ostatnie zostaną w większym stopniu zdigitalizowane. Będzie, szanowni miłośnicy pisania przy pomocy generatywnej AI, rzeź! I to wcale nie niewiniątek.
Źródła to nie sushi
Cóż więc się dzieje, gdy autor idzie na skróty w sprawie przypisów? Gdy do napisanych "na kolanie" przemyśleń albo informacji uzyskanych od AI chce nadać "naukawy" posmak lub zdobyć doktorat na skróty? Uzyskuje pełny zestaw przypisów. A także, jeśli się w nie wczyta, doświadcza zjawiska "halucynacji AI". Wszystko wygląda bardzo, bardzo prawdziwie. A kiedy się sprawdzi, okazuje się, że mamy w niektórych przypadkach do czynienia z genialnym wręcz oszustem. Jak to działa? Bardzo prosto.
Model językowy, a takiej AI najczęściej używamy, to po prostu maszynka statystyczna korzystająca z globalnego, ogólnodostępnego internetu. Nie zastąpi ona człowieka. Nie ma niezbadanych do końca do dziś zależności między półkulami mózgu, emocjami a myśleniem, nie ma podświadomości i kodu genetycznego, nie przeszła milionów lat ewolucji. Model po prostu do jednego słowa dobiera drugie, takie, które najbardziej statystycznie pasuje.
A jak nie ma właściwego słowa, to dobiera kolejne podobne. I wygląda świetnie. W przypadku doboru sushi-baru albo opon samochodowych, może to zadziałać doskonale. W przypadku spraw takich jak źródła, czyli przypisy, to prosta droga do kompromitacji.
Idiokracja z czata
Jakie jest rozwiązanie problemu? W przypadku większości spraw jest jak z dzieckiem: zaufanie oznacza kontrolę. Trzeba weryfikować to, co wygenerował chatbot, autor niniejszego tekstu również będzie z niego korzystał, bo niestety niekiedy robię błędy interpunkcyjne, dość typowe zresztą dla mańkutów. Po opisanej wyżej awanturze pojawiły się więc głosy, że powinno się potem sprawdzić, co AI zrobiła.
Ale przecież to nadal będzie droga na skróty! Będzie to pozyskanie przypisu pod treść, a nie wyszukanie treści w wiarygodnym źródle i umieszczenie jej w pracy. To nadal będzie oszukiwanie systemu. W jednym przypadku nie boli, najwyżej ludzie się pośmieją. W przypadku akademickiej masy konsekwencją jest to, że będziemy mieli całe mrowie nic niewartych prac naukowych, które w dodatku mogą być reprodukowane w kolejnych badaniach.
W pewnym momencie nauka zacznie wyglądać jak świat z filmu "Idiokracja", gdzie ludzie jedli frytki, ale nie wiedzieli, skąd się biorą.
Już pod koniec 2023 roku pojawiły się w internecie prace opisujące używanie czata do sztukowania źródeł w pracach naukowych z obszaru… medycyny! Nie brzmi to bezpiecznie. Na drodze do takiej katastrofy muszą stanąć ludzie. Ludzie uzbrojeni oczywiście w modele coraz to lepszej sztucznej inteligencji.
Wiktor Świetlik














