Siły powietrzne USA zaprzeczają, jakoby dron AI zaatakował operatora podczas testu
Pułkownik Sił Powietrznych Stanów Zjednoczonych „źle się wyraził”, opisując eksperyment, w którym dron z obsługą sztucznej inteligencji zdecydował się zaatakować swojego operatora w celu wykonania swojej misji.
Pułkownik Tucker Hamilton, szef testów i operacji AI w Siłach Powietrznych USA, przemawiał na konferencji zorganizowanej przez Royal Aeronautical Society.
Raport na ten temat stał się wirusowy.
Siły Powietrzne twierdzą, że taki eksperyment nie miał miejsca.
W swoim wystąpieniu opisał wirtualny scenariusz, w którym dron z obsługą sztucznej inteligencji był wielokrotnie powstrzymywany przed wykonaniem zadania zniszczenia miejsc pocisków ziemia-powietrze przez jego ludzkiego operatora.
Powiedział, że w końcu, pomimo tego, że został przeszkolony, aby nie zabijać operatora, dron zniszczył wieżę komunikacyjną, tak że operator nie mógł się już z nią komunikować.
„Nigdy nie przeprowadziliśmy tego eksperymentu, ani nie musielibyśmy tego robić, aby zdać sobie sprawę, że jest to prawdopodobny wynik” - wyjaśnił później pułkownik Hamilton w oświadczeniu dla Royal Aeronautical Society.
Ostrzeżenia przed AI
W ostatnim czasie pojawiło się wiele ostrzeżeń dotyczących zagrożenia dla ludzkości ze strony sztucznej inteligencji, wydanych przez osoby pracujące w tym sektorze, choć nie wszyscy eksperci zgadzają się co do tego, jak poważne jest to ryzyko.
Przemawiając do BBC na początku tego tygodnia, prof. Yoshua Bengio, jeden z trzech informatyków określanych jako „ojcowie chrzestni” sztucznej inteligencji po zdobyciu prestiżowej nagrody Turinga za swoją pracę, powiedział, że uważa, że wojsko nie powinno w ogóle mieć uprawnień AI.
Opisał to jako „jedno z najgorszych miejsc, w których moglibyśmy umieścić super inteligentną sztuczną inteligencję”.
Z góry zaplanowany scenariusz?
Dziś rano spędziłem kilka godzin na rozmowach z ekspertami zarówno w dziedzinie obrony, jak i sztucznej inteligencji, z których wszyscy byli bardzo sceptycznie nastawieni do twierdzeń płk Hamiltona, które były szeroko komentowane.
Jeden z ekspertów ds. obrony powiedział mi, że oryginalna historia pułkownika Hamiltona wydaje się nie mieć „ważnego kontekstu”, jeśli nie nic innego.
W mediach społecznościowych pojawiły się również sugestie, że gdyby taki eksperyment miał miejsce, bardziej prawdopodobne jest, że byłby to z góry zaplanowany scenariusz, a nie dron z obsługą sztucznej inteligencji zasilany uczeniem maszynowym podczas zadania – co w zasadzie oznacza, że nie wybierałby własnych wyników na bieżąco, w oparciu o to, co wydarzyło się wcześniej.
Steve Wright, profesor inżynierii lotniczej i kosmicznej na Uniwersytecie Zachodniej Anglii i ekspert w dziedzinie bezzałogowych statków powietrznych, powiedział mi żartobliwie, że „zawsze był fanem filmów o Terminatorze”, kiedy zapytałem go o jego przemyślenia na temat tej historii.
„W komputerach sterujących samolotami są dwie rzeczy, o które należy się martwić: «rób właściwe rzeczy» i «nie rób złych rzeczy», więc jest to klasyczny przykład tego drugiego” - powiedział.
„W rzeczywistości radzimy sobie z tym, zawsze dołączając drugi komputer, który został zaprogramowany przy użyciu starych technik i może wyciągnąć wtyczkę, gdy tylko pierwszy zrobi coś dziwnego”.
Dział: Technologia
Autor:
Zoe Kleinman | Tłumaczenie: Wojciech Rzeszut