Co potrafi sztuczna inteligencja, każdy użytkownik internetu mógł się przekonać jesienią 2022 roku, gdy firma OpenAI uruchomiła ChatGPT, zdolny konwersować i odpowiadać na wszelkie pytania. Wkrótce na rynek trafiło oprogramowanie zdolne tworzyć grafiki, zdjęcia, a nawet filmy. Okazało się, że narzędzia sztucznej inteligencji piszą artykuły, są przydatne w diagnozowaniu chorób, jako narzędzia analityczne trafniej przewidują w niejednym wypadku od ekspertów, chociażby w dziedzinie ekonomii, jednym słowem, w naprawdę wielu sferach mogą zastąpić człowieka. Stało się jasne, że nowa technologia potrzebuje szybkich rozwiązań na polu etycznym. Zwłaszcza, jeśli znawcy tematu wieszczyli, z jakimi zagrożeniami wiąże się masowe korzystanie z rozwiązań z AI. I tu właśnie głos zabrał Kościół. O dziwo, bardzo merytoryczny, bardzo "na temat", podając potrzebne rozwiązania. Realistyczne podejście Kościoła do sztucznej inteligencji Już Giovanni Tridente, dziennikarz i wykładowca na rzymskich uniwersytetach papieskich, który natychmiast wyspecjalizował się w dziedzinie AI, porównał sztuczną inteligencję do narzędzia, które można użyć w dobrym albo złym celu. W ten sposób skrytykował zarówno podejście "alarmistyczne ostrzeżenie", które widziało w AI zagrożenie, jak i "bezkrytyczny optymizm", który w sztucznej inteligencji dostrzegł możliwość rozwiązania wszelkich problemów na niebie i na Ziemi. Podejście po środku, realistyczne, okazało się tym, które podjął cały Kościół. Podejście realistyczne nie oznacza tylko pewnego rodzaju pogodzenia się z rzeczywistością: nie zatrzymamy rozwoju technologicznego, zwłaszcza takiego narzędzia jak AI. Realizm zakłada w sobie konieczność "etycznej sztucznej inteligencji". Już w grudniu 2023 roku papież Franciszek wezwał do zawarcia wiążącego międzynarodowego traktatu regulującego rozwój i postęp sztucznej inteligencji. Ostrzegał, że brak takiego porozumienia może prowadzić do "dyktatury technologicznej". Co to dokładnie oznacza, wyjaśniał - pochodzący już z 2020 roku - dokument Rome Calls for the Ethical AI. To przełomowy apel o etyczną sztuczną inteligencję, który podpisali Microsoft, IBM, agencja Organizacji Narodów Zjednoczonych do spraw Wyżywienia i Rolnictwa (FAO) oraz włoskie Ministerstwo Innowacji - a także Papieska Akademia Życia. Sześć zasad. Kościół również się podpisał Nakreślonych wtedy sześć zasad etycznych obowiązuje do dziś: przejrzystość (systemy AI muszą dla wszystkich być zrozumiałe), włączenie (wszystkie istoty ludzkie muszą być brane pod uwagę), odpowiedzialność i transparencja po stronie twórców, bezstronność, niezawodność (chodzi o działanie bezawaryjne, bez ryzyka wyrządzenia szkody), bezpieczeństwo i prywatność. Zbliżamy się do zrozumienia, dlaczego to właśnie Franciszek mówił podczas G7 o sztucznej inteligencji. Bo Kościół w tej sprawie wypracował już wiele postulatów, znajdujących powszechną akceptację, na długo zanim użytkownicy na całym świecie zetknęli się z ChatemGPT. Sztucznej inteligencji poświęcił też papież ostatnie orędzie na Światowy Dzień Pokoju (1 stycznia). Postawił pytanie np. o wyścig zbrojeń, w którym sztuczna inteligencja odgrywa coraz większą rolę. - Czy przekujemy miecze na lemiesze? - pytał papież. Czy dzięki nowej technologii idziemy krok ku pokojowi czy krok ku wojnie? To naprawdę kluczowa kwestia, bo wiemy przecież o tym, że skoro powstają autonomiczne samochody, które coraz więcej czynności wykonują za kierowcę i powstaje problem etyczny - kto bierze moralną odpowiedzialność za ewentualny wypadek - człowiek czy algorytm. Tym bardziej zasadne jest pytanie o etykę w sytuacji technologii wojennej, której wewnętrzny algorytm będzie decydował o kwestiach życia i śmierci. Takie systemy właśnie "prowadzą i będą coraz bardziej prowadzić wojny, będą decydować, że jakaś broń w sposób zaplanowany przez maszynę uderza w infrastrukturę albo bierze udział w zabijaniu". Papież podkreśla, że ten udział ludzkiej decyzji jest niezbędny. Dodał też zdanie, które może stać się kluczem do podjęcia zagadnienia: serce człowieka może stać się sztuczne, jeśli odda pole sztucznej inteligencji. Sztuczna inteligencja jako narzędzie i zagrożenie Przemówienie, które papież wygłosił na forum G7 w Apulii w czerwcu, było zatem pewnego rodzaju podsumowaniem i streszczeniem tego wszystkiego, co Kościół wypracował w ciągu ostatnich lat, współpracując z włoskim rządem i międzynarodowymi instytucjami. Była mowa i o wypracowaniu odpowiedniego podejścia do sztucznej inteligencji jako do narzędzia - narzędzia, które jak żadne inne będzie w stanie jednak komunikować się sama ze sobą, aby udoskonalać swoje "osiągnięcia", co oznacza, że nie jesteśmy w stanie dziś przewidzieć, jak ostatecznie to narzędzie wygląda i zmieni nasze życie. Mowa jest zatem o dobrym zaprogramowaniu i wykorzystaniu sztucznej inteligencji, co włącza konieczność stosowania zasad etycznych, które powinny stać u podstaw polityki tworzenia rozporządzania AI, a które na pierwszym miejscu powinny mieć człowieka i jego dobro. I o wyborach algorytmicznych, które nigdy nie powinny zastąpić wyborów, jakie powstają w sercach istot ludzkich. Co najwyżej powinny być podpowiedzią, bo - jak pisze Franciszek - żadne narzędzie nie jest zdolne do podejmowania decyzji, tylko człowiek w swoim sercu. W końcu mowa o problematyce wojennej - z jednej strony o niebezpiecznym wyścigu zbrojeń, który nie może prowadzić do pokoju, z drugiej - o sztucznej inteligencji, która prowadzi do niebezpieczeństwa kolejnego w tej wojennej grze, to znaczy do autonomicznego wyboru, który może wyrwać się ludziom spod kontroli i prowadzić do katastrofalnych zniszczeń i eskalacji. "Śmiercionośna broń autonomiczna" powinna być zakazana. "Żadna maszyna nie powinna nigdy decydować, czy odebrać życie istocie ludzkiej". "Tego maszyna nie jest w stanie wziąć pod uwagę" Ale nie tylko w sztuce wojennej papież dostrzega zagrożenie wynikające z autonomii sztucznej inteligencji. "Dobrym przykładem jest wykorzystanie programów zaprojektowanych, aby pomagać sędziom w podjęciu decyzji o przyznaniu aresztu domowego więźniom odbywającym karę w zakładzie karnym. W tym przypadku wymaga się od sztucznej inteligencji przewidywania prawdopodobieństwa ponownego popełnienia przestępstwa przez skazanego, na podstawie wcześniej określonych kategorii (rodzaj przestępstwa, zachowanie w więzieniu, ocena psychologiczna i inne), pozwalając sztucznej inteligencji na dostęp do kategorii danych związanych z życiem prywatnym skazanego (pochodzenie etniczne, poziom wykształcenia, linia kredytowa i inne). Korzystanie z takiej metodologii - która czasami grozi przekazaniem de facto maszynie ostatniego słowa w sprawie losu danej osoby - może domyślnie nieść ze sobą odniesienie do uprzedzeń, nieodłącznie związanych z kategoriami danych wykorzystywanych przez sztuczną inteligencję. - Bycie zaklasyfikowanym do określonej grupy etnicznej lub, bardziej prozaicznie, popełnienie drobnego przestępstwa wiele lat wcześniej (niezapłacenie, na przykład, mandatu za nieprawidłowe parkowanie), w rzeczywistości wpłynie na decyzję o przyznaniu aresztu domowego - dodaje papież. I trudno się z tym nie zgodzić, bo wiele z tych intuicji w przeszłości podpowiadały filmy science fiction. - Jednakże istota ludzka cały czas ewoluuje i potrafi zaskakiwać swoimi działaniami, czego maszyna nie jest w stanie wziąć pod uwagę. Autor: Ks. dr Przemysław Śliwiński