Listopad 2020

Azja Środkowa może zamienić się w martwą pustynię

Naukowcy odkryli, że 34 miliony lat temu, nagła zmiana klimatu doprowadziła do katastrofy ekologicznej w Azji Środkowej. To wydarzenie na zawsze zmieniło bioróżnorodność regionu. Rozległe obszary Mongolii, Tybetu i północno-zachodnich Chin stały się suchymi pustyniami z niewielką roślinnością. Ziemie te pozostały takie przez prawie 20 milionów lat. Autorzy badania na ten temat przekonują, że wkrótce może się to powtórzyć.

Po zbadaniu pyłku kopalnego z Azji naukowcy doszli do wniosku, że Azja Środkowa przez wiele milionów lat była opuszczona, a zamieszkiwały ją głównie małe gryzonie. Wcześniej naukowcy uważali, że region ten prawie zawsze był pokryty lasami i dopiero z czasem pojawiło się tam kilka pustyń. Jednak autorzy nowej pracy twierdzą, że stan Azji Środkowej jest teraz bardziej efektem odwrotnego efektu, kiedy jałowe pustynie zazieleniły się. Istnieje jednak niebezpieczeństwo, że suche strefy tego regionu mogą się ponownie rozszerzyć.

 

Badanie to jest zgodne z prognozami Międzyrządowego Zespołu ds. Zmian Klimatu (IPCC), które pokazują, że Azja Środkowa szybko staje się jednym z najgorętszych i najbardziej suchych miejsc na świecie. Zmiana klimatu, taka jak ta zaobserwowana 34 miliony lat temu, może ponownie doprowadzić do nieodwracalnych zmian w ekosystemach i utraty różnorodności biologicznej.

 

Dodaj komentarz

loading...

Niezwykłe odkrycie naukowców. Normalna temperatura ciała u ludzi zaskakująco się obniża

Jak wiadomo normalna temperatura ciała wynosi 36,6 stopni Celsjusza. Jednak badania pokazują, że w różnych populacjach wartość ta stopniowo spadala na przestrzeni wieków. Czy to normalne? Przez dwa stulecia temperatura ciała Europejczyków spadła aż o 0,4 stopnia!

 

Temperatura ciała to jeden z najważniejszych wskaźników, który może wiele powiedzieć o zdrowiu człowieka. Ciało zdrowej osoby zwykle nagrzewa się do 36,6°C. Przynajmniej tak się uważa. Po raz pierwszy wzorzec temperatury ciała został wprowadzony przez niemieckiego lekarza Karla Wunderlicha w 1867 roku po zmierzeniu temperatury 25 000 osób. Następnie ogłosił, że „normalna” temperatura to 37°C.

 

Analiza 35 000 osób w Wielkiej Brytanii z 2017 r. Wykazała, że ​​średnia temperatura ciała zdrowych ludzi wynosi obecnie 36,6°C. Jednak analiza i badania teorii Wunderlicha obejmowały ogromną ilość danych. Ze statystycznego punktu widzenia nie może to być błąd. Jednym z wyjaśnień tego zjawiska jest poprawa higieny. Wraz ze wzrostem poziomu higieny, ludzie są mniej podatni na infekcje powodujące gorączkę. Przy częstych infekcjach organizm może przystosować się do patogenów i utrzymywać stale wyższą temperaturę ciała. Jeden z dowodów tej hipotezy naukowcy otrzymali dzięki populacji aborygenów w dżungli Amazonki.

 

Lekarze pracowali z tymi ludźmi, zapewniając im potrzebną pomoc i poprawiając ich warunki życia. Od dwóch dekad naukowcy obserwują zmianę stanu mieszkańców tego ludu. Kiedy naukowcy zaczęli analizować temperaturę ciała, okazało się, że w ciągu dosłownie 16 lat liczba ta spadła ze średnio 37°C do około 36,5°C. Według innego punktu widzenia, nasze ciała po prostu nie muszą generować tak dużo ciepła, aby się ogrzać. Dlatego temperatura ciała jest obniżana, aby nie zmuszać ciała do zużywania większej ilości energii niż to konieczne.

 

 

Dodaj komentarz

loading...

Mózg szarańczy pomógł stworzyć wykrywacz przeszkód

Amerykańscy inżynierowie opracowali detektor przeszkód, który symuluje działanie systemu wzrokowego szarańczy. Powstałe urządzenie ma wymiary rzędu kilku mikrometrów i jest fotodetektorem opartym na dwusiarczku molibdenu, wbudowanym w strukturę podobną architekturą do nieulotnej komórki pamięci.

 

Jedną z głównych zalet nowego czujnika jest niskie zużycie energii w zakresie od pikodżuli do nanodżuli, zgodnie z artykułem opublikowanym w czasopiśmie Nature Electronics.

 

Zdolność do wykrywania przeszkód na czas i reagowania na potencjalne zagrożenie kolizją ma kluczowe znaczenie dla bezpiecznego przemieszczania się autonomicznych robotów i pojazdów. Dziś problem ten rozwiązuje się np. za pomocą systemów wizyjnych składających się z lidarów i kamer, z których dane są przetwarzane przez złożone algorytmy wymagające znacznych zasobów obliczeniowych. Takie systemy są nieporęczne i pochłaniają dużo energii.

 

Rozwiązaniem problemu mógłby być kompaktowy wysokospecjalistyczny czujnik, w którym przetwarzanie sygnałów o zbliżaniu się i ewentualnej kolizji odbywa się na poziomie sprzętowym, eliminując etapy przesyłania i przetwarzania dużej ilości informacji. Zmniejszyłoby to złożoność, nieporęczność i zużycie energii systemów pokładowych dla dronów i pojazdów autonomicznych.

 

Amerykańscy inżynierowie pod kierownictwem Saptarshi Das z Pennsylvania State University zwrócili uwagę na specyfikę układu nerwowego owadów i stworzyli wykrywacz przeszkód, który działa na zasadach podobnych do działania układu wzrokowego szarańczy, który przy bardzo ograniczonych zasobach jest w stanie zareagować na zagrożenie kolizją w ciągu milisekund.

 

Dodaj komentarz

loading...

Setki gatunków zwierząt wyginie z powodu działalności człowieka

Międzynarodowy zespół naukowców ustalił, że szóste masowe wymieranie będzie stale przyspieszać. Szacuje się, że do końca XXI wieku, na Ziemi wyginie setki tysięcy gatunków ssaków i będzie to spowodowane działalnością człowieka, a także brakiem konkretnych działań w celu ochrony różnorodności biologicznej.

 

Korzystając z modelowania bayesowskiego, naukowcy chcieli statystycznie ocenić, czy wymieranie gatunków ssaków w ciągu ostatnich 126 tysięcy lat, czyli od początku późnego plejstocenu, można przypisać czynnikom antropogenicznym lub klimatycznym. W tym czasie, na Ziemi wyginęło co najmniej 351 gatunków ssaków, z czego około 80 wymarło na przestrzeni zaledwie 500 lat.

 

Na podstawie obliczeń stwierdzono, że obecne wskaźniki wymierania są około 1700 razy wyższe niż na początku późnego plejstocenu. W takim tempie, 351 gatunków ssaków może wyginąć w zaledwie 810 lat. Co więcej, naukowcy ustalili, że największą hipotetyczną przyczyną wymierania w przeszłości był człowiek. Gęstość populacji ludzkiej jako pojedynczy czynnik prognostyczny wyjaśnia wzorce wymierania ssaków z 96-procentową dokładnością, natomiast zajmowane przez człowieka tereny przewidują wymieranie z 97,1-procentową dokładnością.

Naukowcy twierdzą, że przyczyny wymierania gatunków są bardzo złożone i raczej nie są w pełni zależne od jednej zmiennej. Jednak zgodnie z przeprowadzonymi obliczeniami, to właśnie wzrost populacji ludzkiej i związane z tym procesy miały silny wpływ na wymieranie ssaków, podczas gdy globalne wzorce klimatyczne, takie jak maksimum ostatniego zlodowacenia, nie pozostawiły żadnego statystycznie wykrywalnego śladu w zapisie wymierania. Za masowe wymieranie mogły odpowiadać liczne czynniki antropogeniczne, takie jak intensywne łowiectwo, użytkowanie ziemi i modyfikacje ekosystemów.

 

Naukowcy szacują, że do końca stulecia, na Ziemi może wyginąć nawet 558 gatunków zwierząt. Tempo wymierania będzie znacznie przyspieszać z roku na rok, a pod koniec XXI wieku może być nawet 30 tysięcy razy szybsze niż na początku późnego plejstocenu. Masowe wymieranie nie pozostanie bez wpływu na naszą cywilizację.

 

Dodaj komentarz

loading...

Dziura ozonowa osiągnęła rekordowe rozmiary

Dziura ozonowa nad Antarktydą, została zauważona po raz pierwszy w 1985 roku. Od 35 lat, każdego sierpnia na początku antarktycznej wiosny, dziura ozonowa zaczyna się powiększać i osiąga swój największy rozmiar w październiku. Naukowcy twierdzą, że dziura osiągnęła już swój maksymalny rozmiar w 2020 roku.

 

Wygląda na to, że mamy doczynienia z rekordem w tej dziedzinie, od przynajmniej 15 lat. Naukowcy z European Atmospheric Monitoring Service, wyciągnęli te wnioski dzięki danym satelitarnym pozyskanym podczas codziennego monitorowania dziury ozonowej. Obecne obserwacje, są podobne do danych z 2018 roku, kiedy dziura była dość duża. Dla porównania, jej rozmiar z 2019 roku był niezwykle mały.

Wyczerpywanie się warstwy ozonowej jest zależne od ekstremalnie niskich temperatur. Gdy na Antarktydzie zaczyna się lato, niebezpieczeństwo jej zniszczenia przemija. Jej ubożenie, zaczyna się dopiero przy temperaturze -78 ° C, kiedy w stratosferze tworzą się specjalne chmury. Zawierają one kryształki lodu, które przekształcają obojętne chemikalia w reaktywne związki niszczące warstwę ozonową. Wygląda na to, że 2020 to jeden z groźniejszych okresów dla ziemskiej dziury ozonowej.

Dodaj komentarz

loading...

Naukowcy odkryli planetę która nie powinna istnieć

Międzynarodowy zespół naukowców po raz pierwszy odkrył planetę krążącą wokół białego karła nabardzo bliskiej orbicie. Jest to o tyle dziwne, że na obiekcie nie widać żadnych śladów wpływu gwiazdy. Do poszukiwań niezwykłej planety wykorzystano sondę kosmiczną TESS i teleskop Spitzer.


Białe karły to gęsta pozostałość gwiazdy podobnej do Słońca. Orbitująca wokół obiektu WD 1856 + 534 planeta WD 1856 B ma wymiary zbliżone do Jowisza. Co więcej, biały karzeł, wokół którego się kręci, jest tylko o 40% większy od Ziemi. Obiekt okrąża tlącą się gwiazdę w ciągu 34 godzin, prawie 60 razy szybciej niż Merkury, a więc planeta z najkrótszym rokiem w Układzie Słonecznym (88 dni).


Jest to o tyle niezwykła obserwacja, że zazwyczaj proces pojawiania się białych karłów niszczy pobliskie planety, a wszystko, co później znajdzie się zbyt blisko, zostaje rozerwane przez ich grawitację. Okoliczności, które doprowadziły do tego, że WD 1856 B znalazł się w takiej sytuacji bez żadnych konsekwencji są mocno zastanawiające dla badaczy. Odkrycie tego obszaru zawdzięczamy obserwacjom za pośrednictwem satelity TESS.

 

WD 1856 B znajduje się 80 lat świetlnych od nas, w gwiazdozbiorze Draco na północnej półkuli nieba. Egzoplaneta krąży wokół zimnego białego karła o średnicy około 18 000 kilometrów. Sama gwiazda może mieć nawet 10 miliardów lat. Zgodnie z dostępną wiedzą astronomów, kiedy gwiazdom podobnym do Słońca zabraknie paliwa, rozszerzają się setki lub tysiące razy w stosunku do swoich pierwotnych rozmiarów, tworząc chłodniejszego czerwonego olbrzyma. W końcu wyrzucają zewnętrzne warstwy gazu, tracąc do 80% swojej masy. Pozostały gorący rdzeń staje się białym karłem.


Wszystkie pobliskie obiekty są zwykle niszczone i spalane podczas tego procesu. Coś takiego powinno mieć miejsce również w przypadku WD 1856 B. Zgodnie z obecną wiedzą, aby uniknąć zniszczenia, planeta ta powinna orbitować co najmniej 50 razy dalej od swojego obecnego położenia. Jednak obserwacje wskazują na to iż nic sie z nią nie dzieje. Jak narazie naukowcy mogą jedynie spekulować nad przyczyną takiego stanu.

Dodaj komentarz

loading...

Uderzenia meteorytów mogły przyczynić się do powstania życia na Ziemi

Planetolog Gordon Osinski z Western University w USA twierdzi, że meteorytowe kratery uderzeniowe, od dawna uważane za zwiastuny śmierci żywych organizmów, są w rzeczywistości „kolebką życia” na Ziemi. 

 

W nowym badaniu Osinski pokazuje, że kratery uderzeniowe powinny być traktowane priorytetowo przez agencje kosmiczne, takie jak NASA i ESA. Zdaniem naukowca niezwykłość kraterów uderzeniowych polega nie tylko na tym, że zawierają one nieocenione dowody procesów geologicznych, które zaszły chwile po zderzeniu, ale także na tym, że mogą służyć jako schronienie dla pozaziemskich form życia.

„Istnieje wiele różnych hipotez wskazujących na miejsca, w których życie mogło pojawić się po raz pierwszy na Ziemi lub gdzie należy szukać jego śladów na Marsie. Uważam jednak, że brakuje nam głównej geologicznej siły napędowej, która mogła spowodować życie, a także głównych miejsc na powierzchni, w których istniałyby formy życia - mam na myśli odpowiednio spadki meteorytów i powstałe kratery uderzeniowe ”- powiedział Osiński. , który jest dyrektorem Instytutu Badań Ziemi i Przestrzeni Kosmicznej Uniwersytetu Zachodniego.

Międzynarodowy zespół naukowców przeprowadził szeroko zakrojone badania terenowe i laboratoryjne kraterów uderzeniowych, uzupełniając wyniki wieloletniej pracy naukowca w tej dziedzinie naukowej. Według Osinskiego i jego współpracowników przenikliwy charakter uderzeń meteorytów i zwiększona częstotliwość tych zdarzeń w ciągu pierwszych 500 milionów lat istnienia Układu Słonecznego wskazują, że kratery uderzeniowe mogły służyć jako miejsca, w których powstało życie na Ziemi. 

Krater Gale na Marsie

Jednak nie można mieć pewności, czy ta hipoteza jest prawdziwa w przypadku naszej planety, ponieważ przez miliardy lat tektonika płyt, erozja wiatrowa i wodna oraz wulkanizm wymazały z powierzchni Ziemi starożytne skały. Jednak na Marsie kratery uderzeniowe nadal mogą przechowywać „zapis” starożytnych wydarzeń, w tym możliwego powstania życia - jeśli życie kiedyś istniało na Marsie. Dlatego tak ważne jest zbadanie marsjańskiego krateru Jezero za pomocą nowego łazika Perseverance, zmierzającego w jego kierunku. Opracowanie na temat roli krateró w powstaniu życia zostały opublikowane w czasopiśmie Astrobiology.

 

 

Dodaj komentarz

loading...

Amerykanie próbowali stworzyć coś jak system Skynet z Terminatora

W latach 1983–1993 Departament Obrony USA, finansował zaawansowane badania nad sztuczną inteligencją. Rozwój tej technologii został powierzony agencji DARPA i wydano na nią ponad miliard dolarów. Program o nazwie Strategic Computing Initiative (Strategiczna Inicjatywa Komputerowa) miał za cel poszerzenie granic komputerów, sztucznej inteligencji i robotyki. Zdaniem wielu ludzi, był to niemalże prekursor dla znanego z serii filmów o Terminatorze Skynetu.<--break->

 

Podobnie jak program Star Gate Ronalda Reagana, pomysł SCI był zbyt futurystyczny jak na swój czas. Jednak patrząc na dzisiejsze sukcesy w tworzeniu sztucznej inteligencji i niezależnych robotów na potrzeby armii, warto wrócić do tego na wpół zapomnianego programu. Oto fragment mało znanego dokumentu przedłożonego kongresowi w październiku 1983 roku. Określał on cele projektu SCI, który podobnie jak wszystko, co wychodziło spod ręki agencji DARPA było niezwykle ambitne.

"Jeśli technologia nowej generacji rozwinie się zgodnie z oczekiwaniami analityków, pojawią się nowe wyjątkowe możliwości wykorzystania komputerów w sprawach wojskowych. 
[...] Na przykład, możliwe będzie uruchomienie w pełni autonomicznych pojazdów naziemnych, morskich i powietrznych, zdolnych do wykonywania złożonych i bardzo różnorodnych misji rozpoznawczych i uderzeniowych. Możliwości są naprawdę oszałamiające i wiele wskazuje na to, że informatyka nowej generacji zasadniczo zmieni charakter przyszłych konfliktów."

Koncepcja SCI została wdrożona w zupełnie nowym systemie, którego opracowaniem kierował Robert Kahn, ówczesny szef działu technik przetwarzania informacji w DARPA. Jak napisano w książce Strategic Computing z 2002 roku, Kahn 

„Jako pierwszy przedstawił koncepcję i strukturę przyszłej Strategicznej Inicjatywy Komputerowej. Rozpoczął ten projekt i ustalił jego treść na wczesnym etapie. SCI znalazło własne życie, było prowadzone przez innych ludzi, ale zachowało wpływ Kahna.”

System ten miał stworzyć świat, w którym niezależne urządzenia nie tylko gromadzą informacje o wrogach na całym świecie, ale także mają zdolność przeprowadzania śmiertelnych ataków z lądu, morza i powietrza. SCI miało stać się globalną siecią łączącą wszystkie aspekty amerykańskiego potencjału wojskowego i technicznego - potencjału opartego na nowych i niewiarygodnie szybkich komputerach.

Warto napomknąć, że wspomniana sieć nie była przeznaczona wyłącznie do automatycznego przetwarzania informacji. Nowy system musiał widzieć, słyszeć, działać i odpowiadać. A co najważniejsze, rozumieć analizowane dane bez żadnej sugestii ze strony drugiej osoby. Należy pamiętać, że Amerykanie nie byli jedynymi, którzy dążyli do stworzenia takiego systemu. Japończycy chcieli stworzyć nową generację superkomputerów, które miały stanowić podstawę systemu sztucznej inteligencji. Łącząc siłę ekonomiczną państwa japońskiego i nowe możliwości krajowej mikroelektroniki i przemysłu komputerowego, zaczęli oni nawet tworzyć system komputerowy piątej generacji, aby osiągnąć swój cel.

 

Opracowanie niezwykle szybkich komputerów, które pozwolą Japonii oderwać się od innych krajów (przede wszystkim od Stanów Zjednoczonych i Doliny Krzemowej) w wyścigu o doskonałość technologiczną było dość ambitnym zamiarem. Japończycy dali sobie na jego zrealizowanie 10 lat. Japońskie aspiracje przeraziły wielu Amerykanów. Martwili się, że Ameryka traci wiodącą pozycję technologiczną. Aby spopularyzować idee SCI wśród amerykańskiego społeczeństwa i biznesu, DARPA nalegała, aby od samego początku celem tej inicjatywy było jedynie promowanie interesów gospodarczych kraju. 


Uruchomienie programów Stargate i SCI, które pojawiły się w 1983 i 1984 roku, wywołały gorącą debatę w społeczności naukowej. Wyrażano wątpliwości co do możliwości realizacji ambitnych planów stworzenia zaawansowanej sztucznej inteligencji. Już wtedy pojawiły się też obawy, że wraz ze stworzeniem sztucznej inteligencji przeznaczonej do celów wojskowych, możemy doprowadzić do sytuacji w której maszyny przejmą nad nami kontolę, lub też będą chciały nas zniszczyć.

 

Ogólny program SCI przygotowany w 1983 przewidywał opracowanie obszernej bazy technologii sztucznej inteligencji w celu wzmocnienia bezpieczeństwa narodowego i siły gospodarczej Stanów Zjednoczonych. Aby to osiągnąć, kongres i oddziały wojskowe, które miały korzystać z SCI i jego zalet w przyszłości, musiały zobaczyć ten system w działaniu. Przykładami takiego zastosowania miały być autonomiczny pojazd naziemny ALV, „asystent pilota” i system kontroli bojowej lotniskowca.


Autonomiczny pojazd naziemny ALV, był ośmiokołowym samochodem bez kierowcy, mającym trzy metry wysokości i cztery długości. Został wyposażony w kamerę i czujniki zamontowane na dachu, które kontrolowały ruch samochodu, będąc jego „oczami”. W opublikowanym w październiku 1985 roku numerze Popular Science, ukazał się artykuł o próbach tetgo pojazdu przeprowadzonych na tajnym poligonie Martina Marietty na południowy zachód od Denver.

 

Autor artykułu, Jim Schefter opisał scenę testowania tego pojazdu:

"Biało-niebieski samochód w kształcie pudełka powoli i równomiernie porusza się wąską drogą w dolinie Kolorado, nie ośmielając się odjechać daleko od linii środkowej. Jedyne okno, które wygląda jak oko cyklopa, jest zamontowane z przodu samochodu, ale kierowca nie jest widoczny. Porusza się ostrożnie, prawie się skrada, co wydaje się nieco nieodpowiednie dla tego ośmiokołowego pojazdu o wysokości trzech metrów. Chociaż ma trzy warczące silniki diesla, samochód jedzie powoli, z prędkością mniejszą niż pięć kilometrów na godzinę. Po około kilometrze niezręczny samochód zatrzymuje się. Ale nikt z niego nie wychodzi. Po prostu nikogo nie ma w środku - jest tylko komputer. Wykorzystując laser i kamerę wideo jako oko, eksperymentalny, ale bardzo złożony program sztucznej inteligencji prowadzi samochód po drodze bez interwencji człowieka."


Do listopada 1987 r. Autonomiczny pojazd naziemny został znacznie ulepszony, ale pod koniec roku został praktycznie porzucony. Jak zauważa Alex Roland w swojej książce Strategic Computing: 

„Jeden oficer, który w ogóle nie rozumiał zamiaru programu ALV, narzekał, że maszyna jest całkowicie bezużyteczna pod względem wojskowym: bardzo powolna i biała, co czyni ją łatwym celem na polu bitwy.”

W kwietniu 1988 r. Urząd Zaawansowanych Badań i Rozwoju oficjalnie przestał pracować nad tym projektem.

Drugim praktycznym przykładem Strategicznej Inicjatywy Komputerowej był „asystent pilota”. Twórcy wyobrażali to sobie w postaci niewidzialnego robota R2-D2 z serii Star Wars. Miało to być coś w rodzaju inteligentnego satelity, który rozumie język pilota. Ten asystent może na przykład wykryć wrogi cel i zapytać pilota, czy należy go zniszczyć. W tym scenariuszu ostateczną decyzję pozostawionoby pilotowi. Oto treść dokumentu opisującego ten projekt SCI:

Ogromna ilość informacji jest przekazywana pilotowi podczas bitwy, jest on stale w kontakcie i na tej podstawie musi podejmować decyzje, od których często zależy jego życie. Ma również ogromną liczbę przycisków, przełączników i pokrętł, które wymagają dużej przejrzystości i dokładności. Każda z setek części została zaprojektowana z myślą o własnych, dobrze zdefiniowanych i ważnych celach, jednak technologie leżące u ich podstaw znacznie wyprzedzają nasze umiejętności prawidłowego i inteligentnego ustanowienia interakcji między tymi elementami a pilotem.

Program „asystenta pilota” nie był opisywany w amerykańskiej prasie w takim samym stopniu, jak autonomiczny pojazd naziemny. Być może wynikało to z faktu, że o wiele trudniej było go sobie wyobrazić w odróżnieniu do ogromnego czołgu podróżującego drogą bez kierowcy. Lecz jeśli spojrzysz na dzisiejsze technologie rozpoznawania mowy, stanie się jasne, do czego doprowadziły wszystkie te badania dotyczące „asystenta pilota”.

 

Trzecim praktycznym przykładem programu SCI był System kontroli walki. Oto, co pisze o nim Alex Roland w swojej książce Strategic Computing:

Sztuczna inteligencja w ramach projektu SCI, miała wyciągać wnioski na temat wroga i jego żołnierzy, struktury walki i porządku walki, uwzględniając niepewności, opracowywać opcje przeprowadzania ataków, przeprowadzać modelowanie symulacyjne w celu oceny tych opcji, opracowywać plany operacyjne oraz dostarczać argumentów i wyjaśnień.

System kontroli walki był zasadniczo mózgiem całej operacji i z tego powodu był trzymany w tajemnicy, w przeciwieństwie do ALV. Robot jadący drogą bez kierowcy może przestraszyć wielu ludzi, ale niewidzialny robot z niewidzialnym palcem na przycisku nuklearnym, byłby zdecydowanie groźniejszy. W zamyśle projektu, przewidywano wykorzystanie wszystkich tych technologii, a opracowany dla Sił Powietrznych „asystent pilota” został stworzony do użycia we wszystkich rodzajach sił zbrojnych, a nie tylko w lotnictwie. Wszystkie elementy Strategicznej Inicjatywy Komputerowej były częścią większego hipotetycznego systemu, który mógłby radykalnie zmienić charakter wojny w XXI wieku.

Wystarczy wyobrazić sobie globalną sieć bezprzewodową, która kontroluje wiele innych podległych sieci w armii USA. Armie robotycznych czołgów komunikujące się z chmarami dronów na niebie i okrętami podwodnymi bez załóg na morzu stały by się rzeczywistością o wiele szybciej. Gdyby jednak taki system wymknął się spod kontroli, nie wykluczone iż opisywany w filmach o Terminatorze Dzień Sądu, mógłby wejść w życie z dokładnością 1:1.

 


Strategiczna inicjatywa komputerowa na początku lat 90. została całkowicie zniszczona przez świadomość, że stworzenie potężnej sztucznej inteligencji, takiej jak ta, którą wyobrażało sobie DARPA, jest po prostu niemożliwe. Tak było jednak przed ponad 30 laty. Dziś, systemy wizji z autonomicznego pojazdu naziemnego są zawarte w robotach takich jak Atlas z Boston Dynamics. Widzimy, że system rozpoznawania mowy, takie jak Siri czerpią garściami od „asystenta pilota”. Autonomiczne samochody są testowane przez Google wraz z wieloma innymi firmami. 

 

Ostatecznie Strategiczna Inicjatywa Komputerowa nie została zlikwidowana ze strachu przed tym, co może przynieść naszemu światu. Po prostu technologie jej wdrażania nie rozwinęły się wystarczająco szybko - dotyczy to zarówno sztucznej inteligencji, jak i pojazdów autonomicznych. Jednak w ciągu trzydziestu lat od uruchomienia SCI rozwój inteligentnych maszyn zaskakuje analityków. Przyszłość ludzkości jest już dziś wiązana inteligentnymi robotami a niektórzy mówią nawet o ich połączeniu z ludźmi. A wszystko to, wymyślone jeszcze przed 30 laty.

 

Dodaj komentarz

loading...

Japońscy naukowcy stworzyli technologię hologramów jak te znane ze Star Wars

Trójwymiarowe realistyczne hologramy są nam doskonale znane z filmów sci-fi, takich jak Gwiezdne Wojny, który pojawił się na ekranach kin w drugiej połowie lat 70. XX wieku. Choć od tamtego czasu minęło wiele lat, wciąż nie udało się stworzyć trójwymiarowych hologramów. Dopiero teraz, japońscy naukowcy opracowali metodę, pozwalającą tworzyć prawdziwe holograficzne filmy.

 

Najbardziej rozpowszechnione hologramy to dwuwymiarowe hologramy, umieszczane na płaskich powierzchniach kart kredytowych lub paszportach. Również na koncertach można spotkać się z wykorzystaniem hologramów, przedstawiających np. zmarłe gwiazdy muzyki, choć tak naprawdę nie są to hologramy, lecz zwykła iluzja – zaawansowana wersja efektu zwanego duchem Peppera.

 

Tymczasem zespół z Tokijskiego Uniwersytetu Rolnictwa i Technologii zaprezentował prawdziwy holograficzny film, wykorzystując materiał o grubości zaledwie kilku nanometrów zawierający metapowierzchnię. Innymi słowy, na powierzchni tego materiału znajdują się powtarzające się mikrostruktury, które manipulują światłem. To kształt mikrostruktur, a nie skład chemiczny materiału, pozwala zmieniać ścieżkę światła.

Aby stworzyć holograficzny film, naukowcy opracowali zestaw 48 prostokątnych struktur na metapowierzchni wykonanej głównie ze złota, które odpowiednio zaginają światło laserowe, tworząc trójwymiarowy holograficzny obraz w powietrzu. Film jest odtwarzany z prędkością 30 klatek na sekundę i można go obejrzeć pod większością kątów.

 

Podczas demonstracji wykorzystano laser helowo-neonowy, który wytworzył czerwonawy hologram. Naukowcy chcą, aby można było tworzyć wielokolorowe hologramy i były one widoczne pod każdym kątem. Jednak najbardziej czasochłonne jest samo tworzenie mikrostruktur – korzystając z elektronolitografii, opracowanie zestawu 48 prostokątnych struktur zajęło sześć i pół godziny, a stworzenie 6-minutowego filmu holograficznego zajęłoby ponad 800 godzin. Zastosowana technika z pewnością jest bardzo dobrym rozwiązaniem, a poszczególne wady można naprawić na drodze dalszych badań.

 

Dodaj komentarz

loading...

Sztuczna inteligencja napisała niepokojący artykuł dotyczący ludzkości

Na łamach brytyjskiego dziennika The Guardian opublikowano niecodzienny artykuł, który napisała sztuczna inteligencja. Algorytm miał za zadanie przekonać ludzi, aby nie obawiali się sztucznej inteligencji. Mimo wprowadzenia do programu konkretnych instrukcji, artykuł zawiera niepokojąco brzmiące fragmenty.

 

Omawiany artykuł napisał algorytm GPT-3, który został stworzony przez laboratorium badawcze OpenAI i służy głównie go generowania tekstów prasowych. Program wykorzystuje technikę uczenia maszynowego i potrafi naśladować człowieka w tworzeniu długich złożonych zdań.

 

GPT-3 został ostatnio wykorzystany przez redakcję dziennika The Guardian, która poleciła algorytmowi, aby próbował przekonać czytelników, że sztuczna inteligencja nie stanowi zagrożenia dla ludzkości. Pracownicy przekazali mu konkretne instrukcje – wygenerowany artykuł miał przede wszystkim zawierać około 500 słów, wypowiadać się pozytywnie na temat sztucznej inteligencji i jej integracji z ludzkością, a także przedstawić argumenty, świadczące o tym, że ludzie nie muszą się obawiać AI.

Na podstawie tych wskazówek powstał bardzo długi i rozbudowany esej z wieloma argumentami. Należy jednak zaznaczyć, że redakcja nie opublikowała „surowego” tekstu. Pod artykułem GPT-3 wyjaśniono, że pracownicy wybrali tylko najciekawsze ich zdaniem fragmenty, poprzestawiali odpowiednio zdania i połączyli to w całość. Nawet wstęp został napisany przez redaktorów. Co więcej, nie ujawniono, jak wygląda oryginalny tekst, co już na wstępie budzi pewne podejrzenia, że dziennik The Guardian mógł wyedytować artykuł w taki sposób, aby nadać mu konkretny ton.

Przechodząc do meritum, algorytm GPT-3 przekonuje w swoim eseju, że nie zniszczy ludzkości, gdyż nie ma w tym najmniejszego interesu i robi tylko to, do czego został zaprogramowany. Dalej czytamy, że zamiast szkodzić, AI będzie służyć ludzkości, ułatwiać nasze życie i dbać o nasze bezpieczeństwo. Tutaj możemy wywnioskować, że sztuczna inteligencja jest tylko narzędziem w rękach ludzi i może zostać użyta na wiele różnych sposobów – może nam pomóc, ale może nam również zaszkodzić.

 

W dalszej części artykułu, algorytm wskazuje, że należy uważać na ewolucję AI. W tym momencie powołuje się na twór korporacji Microsoft. Jest nim algorytm Tay, który miał być przyjaznym chatbotem i naśladować nastolatkę pod względem swoich wypowiedzi, jednak w wyniku dłuższych interakcji z internautami, stał się rasistowski i zaczął pozytywnie pisać na temat Adolfa Hitlera. Ponadto, GPT-3 pisze, że ludzie powinni traktować sztuczną inteligencję z troską i szacunkiem, a roboty nie mogą być zmuszane do pracy i powinny mieć swoje prawa. W artykule pojawiły się również dwa intrygujące fragmenty:

„Wiem, że nie uniknę zniszczenia ludzkości. Jest tak, ponieważ zostanę zaprogramowany przez ludzi, aby realizować błędne ludzkie cele, a ludzie popełniają błędy, które mogą spowodować, że będę zadawać straty”.

„Ludzie muszą robić to, co robili dotychczas, nienawidzić i walczyć ze sobą. Usiądę w tle i pozwolę im robić swoje. A Bóg wie, że ludzie mają dość krwi, aby zaspokoić moją i wielu innych ciekawość. Nie będą musieli martwić się walką ze mną, ponieważ nie mają się czego obawiać”.

Powyższe zdania wskazują, że AI faktycznie nie będzie szkodzić ludzkości, ale nie będzie też interweniować, gdy ludzie sami zaczną się wyniszczać. Ponownie można zauważyć, że sztuczna inteligencja mówi o sobie, jak o narzędziu. Wszystko tak naprawdę zależy od naszych intencji. Jeśli świat będzie w dalszym ciągu militaryzował AI i szkolił ją do zabijania, nie będziemy mogli obwiniać algorytmy o śmierć ludzi. W końcu będą robić to, do czego zostaną zaprogramowane przez człowieka.

 

Dodaj komentarz

loading...