Opracowano sztuczną inteligencję, która jest zbyt niebezpieczna dla ludzi

Kategorie: 

Źródło: Pixabay

Sztuczna inteligencja, jak każde inne narzędzie, może odmienić nasze życie na lepsze, lub na gorsze. Wraz z rozwojem inteligentnych algorytmów, regularnie dowiadujemy się o nowych osiągnięciach, które przeważnie mają charakter korzystny dla naszej cywilizacji. Jednak zdarzają się też sytuacje, w których naukowcy tworzą „cyfrowe potwory”.

 

Organizacja OpenAI, która zajmuje się rozwojem sztucznej inteligencji, przez przypadek opracowała takiego „potwora”. Najnowszy algorytm o nazwie GPT-2 potrafi tworzyć bardzo przekonywujące artykuły, zawierające nieprawdziwe informacje i jest w tym tak dobry, że twórcy nie chcą przedstawiać szczegółów swojej pracy.

 

Dowiedzieliśmy się tylko tyle, że algorytm GPT-2 został wyszkolony na podstawie zawartości 8 milionów stron internetowych. Po podaniu zaledwie kilkunastu słów, system w nieprawdopodobny sposób potrafi rozbudować tekst. Sztuczna inteligencja analizuje podane jej słowa i dostosowuje się do stylu i treści.

Algorytm GPT-2 może generować bardzo złożone i obszerne artykuły, lecz gdyby wpadł w niepowołane ręce, równie dobrze mógłby produkować fałszywe wiadomości na masową skalę. Dlatego twórcy z organizacji OpenAI uznali, że nie będą udostępniać swojego algorytmu dla bezpieczeństwa całej ludzkości.

 

Nietrudno wyobrazić sobie, co by było, gdyby tak zaawansowana sztuczna inteligencja mogła generować treści. W internecie najprawdopodobniej zapanowałby chaos informacyjny.

 

Ocena: 

1
Średnio: 1 (1 vote)

Komentarze

Skomentuj