Papież Franciszek z ważnym przekazem. Nie mówił o tym żaden inny papież
Kwestia wiary i religii wydaje się być zupełnie niezwiązaną z tematyką sztucznej inteligencji, a Kościół to nie instytucja, która miałaby w tej sprawie coś do powiedzenia. Tymczasem jest zupełnie inaczej. Okazuje się, że Watykan wspólnie z rządem Włoch zajmuje się rozwojem AI, co więcej, dla obu stron ta współpraca jest owocna. Na tyle, że w czerwcu sam 87-letni Franciszek - będąc pierwszym papieżem, który wziął udział w szczycie G7 - mówił o... sztucznej inteligencji.

Co potrafi sztuczna inteligencja, każdy użytkownik internetu mógł się przekonać jesienią 2022 roku, gdy firma OpenAI uruchomiła ChatGPT, zdolny konwersować i odpowiadać na wszelkie pytania. Wkrótce na rynek trafiło oprogramowanie zdolne tworzyć grafiki, zdjęcia, a nawet filmy.
Okazało się, że narzędzia sztucznej inteligencji piszą artykuły, są przydatne w diagnozowaniu chorób, jako narzędzia analityczne trafniej przewidują w niejednym wypadku od ekspertów, chociażby w dziedzinie ekonomii, jednym słowem, w naprawdę wielu sferach mogą zastąpić człowieka.
Stało się jasne, że nowa technologia potrzebuje szybkich rozwiązań na polu etycznym. Zwłaszcza, jeśli znawcy tematu wieszczyli, z jakimi zagrożeniami wiąże się masowe korzystanie z rozwiązań z AI. I tu właśnie głos zabrał Kościół. O dziwo, bardzo merytoryczny, bardzo "na temat", podając potrzebne rozwiązania.
Realistyczne podejście Kościoła do sztucznej inteligencji
Już Giovanni Tridente, dziennikarz i wykładowca na rzymskich uniwersytetach papieskich, który natychmiast wyspecjalizował się w dziedzinie AI, porównał sztuczną inteligencję do narzędzia, które można użyć w dobrym albo złym celu.
W ten sposób skrytykował zarówno podejście "alarmistyczne ostrzeżenie", które widziało w AI zagrożenie, jak i "bezkrytyczny optymizm", który w sztucznej inteligencji dostrzegł możliwość rozwiązania wszelkich problemów na niebie i na Ziemi. Podejście po środku, realistyczne, okazało się tym, które podjął cały Kościół.
Podejście realistyczne nie oznacza tylko pewnego rodzaju pogodzenia się z rzeczywistością: nie zatrzymamy rozwoju technologicznego, zwłaszcza takiego narzędzia jak AI. Realizm zakłada w sobie konieczność "etycznej sztucznej inteligencji".
Już w grudniu 2023 roku papież Franciszek wezwał do zawarcia wiążącego międzynarodowego traktatu regulującego rozwój i postęp sztucznej inteligencji. Ostrzegał, że brak takiego porozumienia może prowadzić do "dyktatury technologicznej".
Co to dokładnie oznacza, wyjaśniał - pochodzący już z 2020 roku - dokument Rome Calls for the Ethical AI. To przełomowy apel o etyczną sztuczną inteligencję, który podpisali Microsoft, IBM, agencja Organizacji Narodów Zjednoczonych do spraw Wyżywienia i Rolnictwa (FAO) oraz włoskie Ministerstwo Innowacji - a także Papieska Akademia Życia.
Sześć zasad. Kościół również się podpisał
Nakreślonych wtedy sześć zasad etycznych obowiązuje do dziś: przejrzystość (systemy AI muszą dla wszystkich być zrozumiałe), włączenie (wszystkie istoty ludzkie muszą być brane pod uwagę), odpowiedzialność i transparencja po stronie twórców, bezstronność, niezawodność (chodzi o działanie bezawaryjne, bez ryzyka wyrządzenia szkody), bezpieczeństwo i prywatność.
Zbliżamy się do zrozumienia, dlaczego to właśnie Franciszek mówił podczas G7 o sztucznej inteligencji. Bo Kościół w tej sprawie wypracował już wiele postulatów, znajdujących powszechną akceptację, na długo zanim użytkownicy na całym świecie zetknęli się z ChatemGPT.
Sztucznej inteligencji poświęcił też papież ostatnie orędzie na Światowy Dzień Pokoju (1 stycznia). Postawił pytanie np. o wyścig zbrojeń, w którym sztuczna inteligencja odgrywa coraz większą rolę.
- Czy przekujemy miecze na lemiesze? - pytał papież. Czy dzięki nowej technologii idziemy krok ku pokojowi czy krok ku wojnie?
To naprawdę kluczowa kwestia, bo wiemy przecież o tym, że skoro powstają autonomiczne samochody, które coraz więcej czynności wykonują za kierowcę i powstaje problem etyczny - kto bierze moralną odpowiedzialność za ewentualny wypadek - człowiek czy algorytm.
Tym bardziej zasadne jest pytanie o etykę w sytuacji technologii wojennej, której wewnętrzny algorytm będzie decydował o kwestiach życia i śmierci.
Takie systemy właśnie "prowadzą i będą coraz bardziej prowadzić wojny, będą decydować, że jakaś broń w sposób zaplanowany przez maszynę uderza w infrastrukturę albo bierze udział w zabijaniu". Papież podkreśla, że ten udział ludzkiej decyzji jest niezbędny. Dodał też zdanie, które może stać się kluczem do podjęcia zagadnienia: serce człowieka może stać się sztuczne, jeśli odda pole sztucznej inteligencji.
Sztuczna inteligencja jako narzędzie i zagrożenie
Przemówienie, które papież wygłosił na forum G7 w Apulii w czerwcu, było zatem pewnego rodzaju podsumowaniem i streszczeniem tego wszystkiego, co Kościół wypracował w ciągu ostatnich lat, współpracując z włoskim rządem i międzynarodowymi instytucjami.
Była mowa i o wypracowaniu odpowiedniego podejścia do sztucznej inteligencji jako do narzędzia - narzędzia, które jak żadne inne będzie w stanie jednak komunikować się sama ze sobą, aby udoskonalać swoje "osiągnięcia", co oznacza, że nie jesteśmy w stanie dziś przewidzieć, jak ostatecznie to narzędzie wygląda i zmieni nasze życie.
Mowa jest zatem o dobrym zaprogramowaniu i wykorzystaniu sztucznej inteligencji, co włącza konieczność stosowania zasad etycznych, które powinny stać u podstaw polityki tworzenia rozporządzania AI, a które na pierwszym miejscu powinny mieć człowieka i jego dobro. I o wyborach algorytmicznych, które nigdy nie powinny zastąpić wyborów, jakie powstają w sercach istot ludzkich.
Co najwyżej powinny być podpowiedzią, bo - jak pisze Franciszek - żadne narzędzie nie jest zdolne do podejmowania decyzji, tylko człowiek w swoim sercu.
W końcu mowa o problematyce wojennej - z jednej strony o niebezpiecznym wyścigu zbrojeń, który nie może prowadzić do pokoju, z drugiej - o sztucznej inteligencji, która prowadzi do niebezpieczeństwa kolejnego w tej wojennej grze, to znaczy do autonomicznego wyboru, który może wyrwać się ludziom spod kontroli i prowadzić do katastrofalnych zniszczeń i eskalacji. "Śmiercionośna broń autonomiczna" powinna być zakazana. "Żadna maszyna nie powinna nigdy decydować, czy odebrać życie istocie ludzkiej".
"Tego maszyna nie jest w stanie wziąć pod uwagę"
Ale nie tylko w sztuce wojennej papież dostrzega zagrożenie wynikające z autonomii sztucznej inteligencji.
"Dobrym przykładem jest wykorzystanie programów zaprojektowanych, aby pomagać sędziom w podjęciu decyzji o przyznaniu aresztu domowego więźniom odbywającym karę w zakładzie karnym.
W tym przypadku wymaga się od sztucznej inteligencji przewidywania prawdopodobieństwa ponownego popełnienia przestępstwa przez skazanego, na podstawie wcześniej określonych kategorii (rodzaj przestępstwa, zachowanie w więzieniu, ocena psychologiczna i inne), pozwalając sztucznej inteligencji na dostęp do kategorii danych związanych z życiem prywatnym skazanego (pochodzenie etniczne, poziom wykształcenia, linia kredytowa i inne).
Korzystanie z takiej metodologii - która czasami grozi przekazaniem de facto maszynie ostatniego słowa w sprawie losu danej osoby - może domyślnie nieść ze sobą odniesienie do uprzedzeń, nieodłącznie związanych z kategoriami danych wykorzystywanych przez sztuczną inteligencję.
- Bycie zaklasyfikowanym do określonej grupy etnicznej lub, bardziej prozaicznie, popełnienie drobnego przestępstwa wiele lat wcześniej (niezapłacenie, na przykład, mandatu za nieprawidłowe parkowanie), w rzeczywistości wpłynie na decyzję o przyznaniu aresztu domowego - dodaje papież. I trudno się z tym nie zgodzić, bo wiele z tych intuicji w przeszłości podpowiadały filmy science fiction. - Jednakże istota ludzka cały czas ewoluuje i potrafi zaskakiwać swoimi działaniami, czego maszyna nie jest w stanie wziąć pod uwagę.
Autor: Ks. dr Przemysław Śliwiński