Kategorie:
Międzynarodowy zespół naukowców wykazał, że sterowanie superinteligentną sztuczną inteligencją jest niemożliwe. Praca na ten temat została opublikowana w periodyku Journal of Artificial Intelligence Research.
Niebezpieczeństwo, które może pochodzić ze strony sztucznej inteligencji, jest od lat opisywane w literaturze fantastyczno naukowej. Obawa ta znalazła też miejsce w hitach kinowych o Terminatorze. Przedstawiciele różnych dyscyplin naukowych, w tym specjaliści z Centrum Ludzi i Maszyn Instytutu Rozwoju Człowieka Maxa Plancka, postanowili sprawdzić, czy człowiek będzie w stanie sterować superinteligentnymi robotami.
Superinteligentna maszyna, która kieruje światem? To brzmi jak science fiction, ale istnieją już maszyny uczące się, które samodzielnie wykonują pewne ważne zadania. Jednocześnie programiści niekiedy w ogóle nie rozumieją, jak się pewnych rzeczy nauczyły. W rezultacie powstaje pytanie, czy ten proces może w którymś momencie stać się niekontrolowany i niebezpieczny dla ludzkości?
Aby odpowiedzieć na to pytanie, naukowcy wykorzystali modelowanie i obliczenia teoretyczne. Jak się okazało, nawet jeśli umieścisz dane o zasadach etycznych w superinteligentnej maszynie i ograniczysz jej komunikację ze światem zewnętrznym (np. wyłączysz dostęp do internetu), to nie uchroni to ludzkości przed ryzykiem wymknięcia się takiego systemu spod kontroli.
Faktem jest, że zgodnie z teorią informatyki, którykolwiek z algorytmów takiego powstrzymywania - czy to programy dotyczące zasad etycznych, czy też ograniczających dostęp do świata zewnętrznego - jest podatny na ataki i, w pewnych okolicznościach, może całkiem się wyłączyć. Dlatego eksperci dochodzą do wniosku, że człowiek po prostu nie będzie w stanie sterować superinteligentną sztuczną inteligencją, a sytuacja może prędzej czy później wymknąć się spod kontroli.
Komentarze
Skomentuj