Do zaskakujących wniosków dotarli amerykańscy wojskowi, którzy przeprowadzili wirtualny test, w którym kontrolę nad działaniami operacyjnymi sprawowała sztuczna inteligencja - informują media. Media: AI próbowała zabić operatora drona, bo jej przeszkadzał Jak się okazało, AI próbowała zabić swojego operatora w symulacji, ponieważ ten uniemożliwiał jej realizowanie zadań, za które otrzymywała punkty - donosi portal I24 News, powołując się na urzędnika USA. "Sztuczna inteligencja zastosowała nieoczekiwaną strategię, by osiągnąć swoje cele" - opisuje izraelski portal, cytując słowa pułkownika Tuckera Hamiltona. Z jego relacji wynika, że algorytm zaczął "zdawać sobie sprawę", że to operator stanowił problem. System identyfikował dane zagrożenie i chciał je likwidować, ale czasami operator wydawał odmienny komunikat. Testy sztucznej inteligencji. AI chciała zabić operatora drona Za eliminowanie zagrożenia algorytm otrzymywał punkty, więc "zdecydował się" na usunięcie operatora. W związku z tym specjaliści nanieśli poprawki, ucząc AI, by nie zabijała operatora i wprowadzając za to ujemne punkty. Co się wtedy stało? Sztuczna inteligencja miała zacząć atakować wieżę komunikacyjną, która służyła operatorowi do wydawania dronowi poleceń.Z kolei Departament Sił Powietrznych USA stanowczo zaprzecza, by doszło do takiego rodzaju symulacji. Rzeczniczka instytucji Ann Stefanek przekazała, że słowa pułkownika zostały najprawdopodobniej wyrwane z kontekstu i mogą mieć jedynie charakter anegdotyczny.