Autonomiczne systemy uzbrojenia zagrożeniem dla ludzkości, twierdzą eksperci

Kategorie: 

Źródło: terminator.wikia.com
Sztuczna inteligencja oraz autonomiczne systemy uzbrojenia są postrzegane jako jedno z największych zagrożeń dla ludzkości. Instytut Przyszłości Życia (Future of Life Institute) przedstawił list otwarty podpisany przez ponad tysiąc naukowców, którzy wzywają ONZ do nałożenia zakazu na rozwój inteligentnych systemów, które bez ingerencji człowieka będą mogły decydować kogo należy zabijać podczas wojen.

 

Kilka miesięcy temu odbyła się druga debata nad autonomicznymi systemami uzbrojenia. Większość krajów na świecie popiera nałożenie odpowiednich zakazów, lecz mocarstwa takie jak Stany Zjednoczone czy Izrael są temu przeciwne - są to państwa, które chcą wcielić do swojej armii autonomiczne maszyny. Wszystko właściwie zależy od organizacji ONZ, która może zakazać prac nad "zabójczymi robotami" ale jak dotąd nie zrobiła tego.

 

Naukowcy którzy podpisali się pod wspomnianym listem, między innymi Stephen Hawking, Elon Musk i Steve Wozniak, domagają się od ONZ wprowadzenia takiego zakazu. Ich zdaniem roboty wyposażone w broń, które same mogą decydować o swoich działaniach, są zbyt niebezpieczne i mogą zagrozić nawet całej ludzkości. Wystarczy wyobrazić sobie wielką armię autonomicznych uzbrojonych maszyn, które w pewnym momencie zostają zainfekowane wirusem, który nakazuje im zabijać każdego napotkanego człowieka.

 

Co prawda jest to najbardziej apokaliptyczny scenariusz ale tak naprawdę wszystko jest możliwe. Naukowcy twierdzą również, że prawo dla uzbrojonych robotów jest dość skomplikowane - jeśli maszyna zabije podczas wojny niewinną osobę to kto poniesie za to odpowiedzialność? Przecież sądy nie będą skazywać roboty na karę śmierci czy dożywotni pobyt w więzieniu. Zaś firmy produkujące maszyny wojenne będą za wszelką cenę unikały odpowiedzialności.

 

 

Źródło: http://www.cnet.com/news/ban-autonomous-weapons-urge-hundreds-of-experts-including-hawking-musk-and-wozniak/

Ocena: 

Nie ma jeszcze ocen
Dodaj komentarz

loading...

Komentarze

Portret użytkownika Konrad z Woli

Jeśli zabiją część ludzkości,

Jeśli zabiją część ludzkości, to reszta i tak przeżyje i będzie jak ci z Terminatora 1. Koszmar senny w realu. Czy to OK? Poczytajcie powieść "Oczy Heisenberga" - elita i tak ocaleje w jakimś Elysium i będzie potrzebowała zwykłych ludzi, jeśli nie do pracy fiz. to jako zabawek. Zwłaszcza psychopatom jesteśmy potrzebni, bo mamy emocje, strach. Nam wystarczają gry pełne przemocy, im potrzeba żywego mięsa. Jedzą żywe ostrygi i tak pragną jeść nas. Owszem, gdyby wszyscy zginęli, to dla innych form życia byłoby to dobre. Jednak ktoś kiedyś postawił "mocną tezę antropiczną", która mówi, że jeśli inteligencja powstanie, to jest już niezniszczalna [np. ludzkość].
Wiadomo, że większość wnikliwych obserwatorów cywilizacji spodziewa się globalnej rewolucji społecznej lub wprowadzenia globalnego stanu wojennego. Dziś stopniowe usamodzielnienie maszyn jest technologią podwójnego zastosowania - może być wykorzystane cywilnie dla naszego dobra lub militarnie w walce o przewagę ekonomiczną ponad naszymi głowami oraz przeciw nam. Wiemy, że DARPA i podobne są tu głównymi inwestorami, a Eur. Inst. Techniki, który miał koncentrować się na gosp. zastosowaniu automatyzacji, praktycznie nic nie wdraża i pewnie jest niedofin. Zatem jeśli narody nie uświadomią się w najbliższej przyszłości i nie zaczną rewolucji, to już niedaleko do uzyskania bezwzględnej przewagi przez Big Police. To usamodzielnienie maszyn z autoporojektowaniem włącznie jest logiczną konsekwencją całej informatyki, cybernetyki itd. Niemcy nazywają to IV Rewolucją Przem. Nie ma wątpliwości, że dostatecznie pojemna AI zaprojektuje znacznie szybciej, taniej i pod każdym względem lepiej niż my. Niestety dotyczy to także broni...

Portret użytkownika Devil

Robot to nie człowiek. On nie

Robot to nie człowiek. On nie czuje strachu, nie można z nim w żaden sposób negocjować, nie odczuwa zmęczenia, nie można od niego uciec. W skrócie - nie można go zabić ale on bez problemu mógłby zabić nas. Takich robotów nie powinno być na naszej planecie. Elon Musk miał zresztą rację. Takie maszyny są bardziej zabójcze niż broń nuklearna,

Portret użytkownika Devil

Ja osobiście nie popieram tak

Ja osobiście nie popieram tak radykalnych rozwiązań. Faktem jest, że nasza cywilizacja choć rozwija się technologicznie w zawrotnym tempie, to jest bardzo zacofana w innej kwestii - chociażby w poszanowaniu życia innego człowieka. Ciągle tylko wojny, skandale wśród polityków, walka o pieniądze, władzę. Zwykłych ludzi mają za podludzi. Musi być jakieś inne rozwiązanie... tylko jakie?

Skomentuj