Sieć neuronowa nauczyła się niepewności

Kategorie: 

Źródło: pixabay.com

Naukowcy z MIT, stworzyli właśnie sieci neuronowe, które wiedzą, kiedy są godne zaufania. Algorytmy same zdają sobie sprawę, gdy nie są pewne wyjaśnienia danego problemu i informują o tym swoich użytkowników.

Wspomniane sieci neuronowe, zostały zaprojektowane w taki sposób, aby szacowały poziom zaufania, jakim można je obdarzyć. Opiera się to na systemie "Deep Evidential Regression", który tworzy punktację, opartą na jakości dostępnych danych. Zespół badawczy porównuje to z samochodem samojezdnym, który ma różne poziomy pewności, czy przejechać przez skrzyżowanie, czy czekać, na wszelki wypadek, jeśli sieć neuronowa jest mniej pewna swoich przewidywań.

 

Chociaż podobne zabezpieczenia były już wbudowane w sieci neuronowe, to, co je wyróżnia, to szybkość, z jaką działa, bez nadmiernych wymagań obliczeniowych - można je ukończyć w jednym przebiegu przez sieć, a nie w kilku, z poziomem ufności wyprowadzanym na w tym samym czasie co decyzja. Naukowcy przetestowali swój nowy system, zmuszając go do oceny głębi w różnych częściach obrazu. 


Sieć wypadła dobrze w porównaniu z istniejącymi konfiguracjami, a jednocześnie oszacowała własną niepewność - momenty, w których była najmniej pewna, były rzeczywiście czasami błędne określanie głębokości. Sieć była nawet w stanie oznaczyć momenty, kiedy napotkała obrazy różniące się od danych, na których została przeszkolona. Naukowcy twierdzą, że są przekonani, że ich nowy, usprawniony test zaufania może pomóc w poprawie bezpieczeństwa w czasie rzeczywistym, chociaż praca nie została jeszcze recenzowana. Wyniki badania są już dostępne w sieci na stronie MIT.

 

 

Ocena: 

Nie ma jeszcze ocen
Dodaj komentarz

loading...

Komentarze

Skomentuj