"Rasistowski" międzynarodowy konkurs piękności - stwierdzono, że sztuczna inteligencja nie lubi czarnoskórych

Kategorie: 

Źródło: Dreamstime.com

Po raz pierwszy w historii, sztuczna inteligencja "zasiadała" w jury i mogła zadecydować o tym kto wygra międzynarodowy konkurs piękności. W projekcie tym wzięło udział 6 tysięcy ludzi z całego świata, lecz system wytypował tylko jedną osobę o ciemnej karnacji. Twórcy algorytmu są przerażeni.

 

W ramach konkursu, każdy mógł wysłać na stronę Beauty.AI zdjęcie, przedstawiające swoją twarz. Fotografie były wysyłane z ponad 100 krajów świata. Sztuczna inteligencja, zupełnie obiektywnie, wytypowała najładniejszych spośród kilku kategorii wiekowych. Lecz wyniki zaskoczyły samych twórców tej inicjatywy oraz wielu ekspertów - niemal wszyscy zwycięzcy są biali!

 

Oprogramowanie analizowało zdjęcia pod kątem zmarszczek czy symetrii twarzy, ale nie brało pod uwagę koloru skóry. Konkurs wywołał powszechne oburzenie, gdyż zdjęcia napływały z całego świata, również z Indii i Afryki. Tymczasem zwycięzcy to przede wszystkim biali ludzie, niektórzy z nich pochodzą z Azji. Tylko jedna kobieta jest czarnoskóra.

 

Autorzy tego konkursu korzystali ze sztucznej inteligencji, która stosuje tzw. uczenie maszynowe. Zanim SI faktycznie zabrała się za analizę fotografii, otrzymała zestawy zdjęć, na podstawie których wywnioskowała jak wygląda "ideał".

 

Co prawda, każda osoba ma swoje pojęcie ideału. Autorzy uznali jednak, że coś poszło nie tak - Alex Zaworonkow, dyrektor naukowy inicjatywy Beauty.AI powiedział, że jest zaskoczony gdyż on sam nie dokonałby takiego wyboru. Stwierdzono zatem, że trzeba wyeliminować dyskryminację i zapewnić sztucznej inteligencji jeszcze więcej zdjęć, przedstawiających różnorodnych ludzi. W najbliższym czasie wystartuje "druga edycja" międzynarodowego konkursu piękności a Zaworonkow liczy, że do tego czasu uda się naprawić "usterki".

 

Warto dodać, że konkurs powstał we współpracy z korporacją Microsoft, która zaliczyła już niejedną wpadkę. Na początku 2016 roku, firma zaprezentowała bota, któremu pozwolono rozmawiać z użytkownikami serwisu Twitter. Niestety sytuacja szybko wymknęła się spod kontroli - bot Tay zaczął stosować wulgaryzmy, szybko znienawidził feministki i Żydów, popierał działania Adolfa Hitlera itd. Microsoft zareagował, wyłączając chatbota, lecz po kilku dniach, w samym środku nocy i zupełnie niespodziewanie, Tay znów stała się aktywna i zaczęła spamować, po czym została odcięta od internetu na dobre.

 

Ocena: 

1
Średnio: 1 (1 vote)

Komentarze

Skomentuj