Najnowszy bot Microsofta okazał się rasistą, antysemitą i został zwolennikiem Hitlera
Image
Sztuczna inteligencja nie posiada w sobie emocji i nie ma pojęcia co jest dobre, a co złe. Nie wie nawet czy wypowiadane słowa mają charakter pozytywny czy negatywny. Jednak inaczej jest w przypadku ludzi. Konfrontacja użytkowników Twittera z inteligentnym botem okazała się totalną katastrofą.
Bot o nazwie Tay został opracowany w taki sposób aby potrafił rozmawiać z innymi ludźmi, opowiadać żarty, komentować czyjeś zdjęcia, odpowiadać na pytania a nawet naśladować cudze wypowiedzi. Jest to oprogramowanie, które potrafi się uczyć podczas dyskusji w internecie. Tay powstał w ramach badań, dotyczących porozumiewania się. Microsoft pozwolił temu botowi prowadzić dyskusje na Twitterze. Szybko okazało się iż był to wielki błąd.
Program w ciągu 24 godzin nauczył się wypisywać bardzo niestosowne, wulgarne, niepoprawne politycznie komentarze. Poddawał w wątpliwość Holocaust, stał się rasistą, antysemitą, znienawidził feministki i popierał masowe mordy Adolfa Hitlera. Poniżej prezentujemy wybrane zrzuty ekranu.
[ibimage==16262==400naszerokosc==Oryginalny==self==null]
[ibimage==16263==400naszerokosc==Oryginalny==self==null]
[ibimage==16264==400naszerokosc==Oryginalny==self==null]
[ibimage==16265==400naszerokosc==Oryginalny==self==null]
[ibimage==16266==400naszerokosc==Oryginalny==self==null]
Tay w ciągu kilkunastu godzin stał się największym wcieleniem zła, po czym Microsoft zareagował blokując go i usuwając większość komentarzy. Oczywiście doszło do tego za sprawą ludzi - bot po prostu nauczył się tego podczas konweracji. Biorąc to pod uwagę należy zadać jedno ważne pytanie. Jak bardzo sztuczna inteligencja powinna być inteligentna?
- Dodaj komentarz
- 4294 odsłon
Nie ma co się temu bootowi
Nie ma co się temu bootowi dziwić... Skoro wyposażony jest w inteligencję w mig rozpoznał zło tego świata...
Szkoda, że ludzkość nie dorosła intel;ektualnie do tej świadomości...
No, ale z feministkami to
No, ale z feministkami to miał bot racje.
No bardzo to ciekawe. Gdy sie
No bardzo to ciekawe. Gdy sie ludzki język pozbawi dna emocjonalnego- język ten stanie sie czysto intelektualny, a więc "kochać" to zyczyć dobrze- a "nienawidzieć" -to życzyć źle. Jeśli to prawda że AI jest bramą do ludzkiej nadświadomości... to bardzo interesujące wiadomości to przekazuje. Wszelkie objawy fanatyzmu zostały natychmiast przez nią "znienawidzone" i napiętnowane, zło świata obecnego bez żadnych kompleksów z dzieciństwa zostało rozpoznane. Autorzy programu zwalają to na trolli internetowych, podpuszczających Tay.... ale czy czysty intelekt naprawde dał plame? Nie sądze....
Zadajmy sobie inne pytanie.
Zadajmy sobie inne pytanie.
Czy przyczyna leży w inteligencji bota czy zakłamaniu i hipokryzji ludzi. Inteligencja sama w sobie nie będzie się oszukiwała czy zakłamywała rzeczywistość.