Kilkanaście dni temu świat obiegła kolejna deklaracja, jakich z pozoru wiele. Multimiliarder Elon Musk, twórca Tesli, SpaceX i wielu innych przedsiębiorstw wykorzystujących najbardziej zaawansowane technologie, ale przede wszystkim wizjoner rozwoju ludzkiej cywilizacji, z grupą 116 naukowców, biznesmenów i aktywistów opublikował list otwarty do Organizacji Narodów Zjednoczonych, domagając się zakazu używania na polu walki tzw. autonomicznych rodzajów broni. Innymi słowy, Musk chce, by ONZ wprowadziła całkowity zakaz używania robotów morderców. Maszyn, do obsługi których bezpośrednio nie potrzeba ludzkiego działania. Nie potrzeba, bo już w fazie rozwoju zostaną zaprogramowane do eliminowania konkretnych celów, posługując się własną analizą danych i wnioskami formułowanymi przez wewnętrzne systemy sztucznej inteligencji. Mniej zaawansowane formy AI (ang. artificial intelligence - sztuczna inteligencja) istnieją od dawna i są w codziennym użyciu w naszym bezpośrednim otoczeniu (m.in. w słownikach telefonów komórkowych czy w programach głosowego zarządzania sprzętem). Ale wojna robotów, w której ludzie biorą udział jedynie na odległość, wciąż większości wydawała się abstrakcją. Co czeka na mecie List Muska i innych technologicznych liderów (podpisali się pod nim m.in. prof. Toby Walsh z NSW University w Sydney, światowej sławy ekspert ds. etyki technologii, oraz Esben Østergaard, duński specjalista w dziedzinie robotyki i dyrektor do spraw nowych technologii Universal Robotics) ma charakter ostrzeżenia. Większość sygnatariuszy od dawna bowiem zapowiadała nadejście momentu, w którym rozwijana przez człowieka sztuczna inteligencja wyrwie się spod kontroli i zacznie żyć własnym życiem. Jak twierdzi Daniel Franklin, felietonista tygodnika "The Economist" i twórca cyklicznych publikacji przewidujących najważniejsze wydarzenia nadchodzącego roku, pytanie o opatentowanie sztucznej inteligencji już dawno zmieniło się z "czy" na "kiedy". Jego zdaniem na naszych oczach rozgrywa się morderczy wyścig o to, kto pierwszy zaprezentuje światu tę "pełną" wersję AI, całkowicie niezależną od ludzkich posunięć. Musk chce udowodnić, że skupiając się na dotarciu do mety, zapomnieliśmy, co może się stać, gdy już tam dotrzemy. A utrata kontroli nad zmilitaryzowanym wcieleniem sztucznej inteligencji może mieć ogromne konsekwencje. Już teraz niemal codziennie słyszymy doniesienia o kolejnych kontrowersjach związanych z użyciem na polu walki bezzałogowych samolotów, popularnie (choć często nieprecyzyjnie) nazywanych dronami. Oprócz oczywistych problemów natury etycznej mamy doniesienia mediów o błędach w identyfikacji i naprowadzaniu na cel oraz ofiarach wśród ludności cywilnej. Ale przede wszystkim o braku ustaleń prawnych precyzyjnie regulujących status bezzałogowców na wojnie. A przecież one same nikogo nie zabijają - za każdym tego typu statkiem powietrznym kryje się człowiek, który podejmuje decyzję. Łatwo sobie wyobrazić luki w porządku międzynarodowym i naszym ogólnym myśleniu o wojnie, gdy do zabijania zabiorą się nieludzkie, choć podobnie do ludzi myślące maszyny. Głos autorytetów Oczywiście za rozwojem sztucznej inteligencji stoją nie tylko ogromne talenty i szlachetne idee, ale i wielkie pieniądze. Nic więc dziwnego, że koncerny zbrojeniowe mają tu dużo do powiedzenia. Amerykańscy i europejscy giganci z branży, ale również ich odpowiedniki z Chin czy Rosji, kontrolowane przez państwowe dyrektywy, od dawna pracują nad zastosowaniem sztucznej inteligencji na rynku produkcji broni. Amerykański filozof Jonathan Crary w książce "24/7. Późny kapitalizm i koniec snu" dokładnie opisuje eksperymenty przeprowadzane przez niektóre firmy zbrojeniowe przy współudziale Departamentu Obrony. Mają one na celu określenie tych obszarów, w których ludzi na polu walki najwydajniej zastąpią maszyny. Już wiadomo, że AI testowana jest w samonaprowadzających się rakietach, które dzięki zdolności pobierania i niezależnego analizowania danych o zmieniających się warunkach pola walki nie byłyby zależne od kontroli w punkcie dowodzenia. W ten sposób odłączenie komunikacji przez GPS nie wpłynęłoby na skuteczność ataku. Łatwo też wyobrazić sobie przydatność AI we wspomnianych centrach dowodzenia - gdzie chłodna, pozbawiona emocji kalkulacja maszyny jest dużo bardziej potrzebna niż myślenie człowieka podatne na emocje i nerwy. Prof. Walsh, inicjator projektu i sekretarz Światowej Konferencji na rzecz Sztucznej Inteligencji (International Joint Conference on Artificial Intelligence, IJCAI), zwraca jednak uwagę, że wyścig nie skończy się na wyłonieniu zwycięzcy, właściciela pierwszej "pełnej" AI. Raz zastosowana w konkretnej dziedzinie gospodarki czy nauki, z czasem stanie się podstawą w produkcji. To proces, od którego nie ma odwrotu. Autorzy listu porównali go wręcz do otwarcia puszki Pandory. Dlatego Walsh, Musk i inni nawołują do uderzenia wyprzedzającego. Chcą całkowitego zakazu używania robotów morderców na polu walki, zanim pojawi się ich pierwsza ofiara. Wydaje się, że to przełomowy moment w myśleniu o AI. Po raz pierwszy bowiem jednocześnie zgodnie przemówiło tak wiele autorytetów w tej dziedzinie. Wcześniej tylko jedna spośród liczących się w branży firm, kanadyjska spółka Clearpath Robotics, głośno mówiła o wprowadzeniu zakazu. Na szczęście na arenie międzynarodowej kwestia sztucznej inteligencji jest obecna już od jakiegoś czasu. W grudniu 2016 r. wszystkich 123 członków komisji rewizyjnej ONZ ds. broni konwencjonalnej jednogłośnie wyraziło zgodę na rozpoczęcie negocjacji w sprawie uregulowania użycia AI przez prawo międzynarodowe. 19 z tych państw zażądało natychmiastowego zakazu, bez wyjątków. Na razie trudno ocenić szanse na to. Biurokracja ONZ nie należy do najwydajniejszych, a w sprawie zakazu nie wypowiedzieli się jeszcze najważniejsi światowi liderzy. Dodatkowo przy obecnej konfiguracji geopolitycznej na świecie, a zwłaszcza z takim lokatorem Białego Domu jak Donald Trump, otwarcie lobbujący wszędzie na rzecz interesów amerykańskich firm zbrojeniowych, trudno liczyć na szybkie międzynarodowe porozumienie. Dlatego tak ważne jest zaangażowanie Muska, postaci niezwykle popularnej na całym świecie. Swoimi pomysłami, od luksusowego, szybkiego auta Tesla do perspektywy załogowej podróży na Marsa w ciągu najbliższych kilku lat, porusza wyobraźnię milionów ludzi z całego globu. Ma też dość solidną pozycję w świecie polityki. Chcąc działać na rzecz rozwoju krajowej gospodarki, początkowo dołączył do grupy doradców Trumpa. Szybko jednak zdezerterował, a za nim poszli kolejni biznesowi liderzy. W efekcie mało kto, poza przywiązanymi do władzy bankierami z Wall Street, pojawia się na prezydenckich zebraniach. Wszystkie światła na Muska Wielu aktywistów liczy, że zaangażowanie Muska (jego firmy zresztą same pracują nad rozwojem AI) będzie decydującym czynnikiem, który umożliwi wprowadzenie zakazu. Czasu zostało naprawdę mało - wbrew pozorom obecnie technologia nie jest aż tak odległa od stworzenia niezależnej sztucznej inteligencji. Kilka tygodni temu branżowe portale obiegła informacja z jednego z zespołów programistycznych Facebooka, który stracił kontrolę nad własną sztuczną inteligencją. Programiści stworzyli bowiem system, który w pewnym momencie zaczął się komunikować ze swoimi twórcami w języku innym niż jego macierzysty angielski. Następnie rozpoczął komunikację z pozostałymi urządzeniami wpiętymi do tej samej sieci, stopniowo "przekonując je" do porzucenia komend po angielsku i przejścia na komunikację w nowym języku. Niepewni dalszego rozwoju spraw programiści wyłączyli system, bojąc się całkowitego uniezależnienia AI i przejęcia przez nią kontroli nad całą siecią. Takie historie będą się zdarzać coraz częściej, czy nam się to podoba, czy nie. A to dlatego, że AI jest już wśród nas. Co więcej, wszystko wskazuje, że jeśli ludzkość chce dokonać kolejnego skoku cywilizacyjnego, postawić stopę na innej planecie czy zautomatyzować kolejne procesy codziennego życia, musi zastosować sztuczną inteligencję. Dr Aleksandra Przegalińska z Massachusetts Institute of Technology, światowej sławy ekspertka zajmująca się sztuczną inteligencją i jej rolą w społeczeństwach, zwraca uwagę, że pora się oswajać z AI. Dowiodła, że niektóre kultury, bardziej przyzwyczajone do personalizacji bytów nieludzkich (np. Japonia), lepiej współżyją z robotami niż np. społeczeństwa europejskie. Podobnie łatwiej nam się komunikować z robotem, który pisze do nas na chacie, niż z takim, który mówi ludzkim głosem. Sztuczna inteligencja będzie zatem przyszłością ludzkości. Od nas jedynie zależy, czy nie stanie się też jej końcem. Mateusz Mazzini