Maj 2019

Naukowcy opracowali metodę, która zamienia dwutlenek węgla w paliwa płynne

Chemicy z Uniwersytetu Illinois w Urbanie i Champaign opracowali sztuczną fotosyntezę, która wykorzystuje światło widzialne, dwutlenek węgla i wodę do produkcji paliw płynnych. Technologia ta przybliża możliwość wykorzystania nadmiaru CO2 w atmosferze do magazynowania energii słonecznej.

 

Fotosynteza to proces, który polega na przekształcaniu wody i dwutlenku węgla w glukozę w obecności światła słonecznego. Naukowcy stworzyli swój własny proces, który również korzysta ze światła widzialnego do przekształcania CO2 i wody, lecz produktem końcowym jest paliwo.

Zespół badawczy zastosował nanocząstki złota jako katalizator, który z powodzeniem zastąpił chlorofil w pochłanianiu światła zielonego i reakcjach chemicznych między dwutlenkiem węgla a wodą. Nanocząstki złota doskonale spisują się w tej roli, ponieważ ich powierzchnie oddziałują korzystnie z cząsteczkami CO2, skutecznie pochłaniają światło i nie ulegają rozkładowi czy degradacji.

Źródło: Uniwersytet Illinois w Urbanie i Champaign

Podczas badań, naukowcy pomyślnie przekształcili dwutlenek węgla w złożone cząsteczki paliwa węglowodorowego. Metoda ta umożliwia produkcję propanu, metanu, etenu, etynu oraz propenu, które mogą pozwolić na magazynowanie energii w ogniwach paliwowych.

 

Jednak zanim faktycznie będziemy mogli mówić o przełomie, naukowcy muszą najpierw rozwiązać kwestię wydajności. Niestety, sztuczna fotosynteza nie posiada takiej skuteczności, jak w przypadku roślin. Badacze będą musieli również popracować nad skalowalnością procesu. Na wprowadzenie tej technologii do życia codziennego będziemy musieli jeszcze poczekać.

 


W Polsce wkrótce powstanie testowy tunel kolei próżniowej Hyperloop

Prace nad polskim Hyperloopem trwają w najlepsze, a firma zaangażowana w rozwój tej rewolucyjnej technologii odnosi ostatnio same sukcesy. Pokaźny zastrzyk gotówki pozwoli na budowę pierwszego toru testowego kolei magnetycznej w Polsce.

 

Technologia Hyperloop zyskała duże zainteresowanie w wielu krajach świata, między innymi w Arabii Saudyjskiej, Dubaju, Chinach, Rosji, Stanach Zjednoczonych i niektórych państwach Europy. W wyścigu europejskim, firma Hyper Poland, skupiająca inżynierów z Politechniki Warszawskiej, ma nadzieję jako pierwsza wprowadzić superszybką kolej magnetyczną.

 

W zeszłym miesiącu, polska firma odniosła sukces, gdy uzbierała ponad milion złotych na brytyjskiej platformie crowdfundingu udziałowego Seedrs. Pieniądze te pozwolą wybudować model lewitującego pojazdu dla Hyperloop. Demonstrator zostanie zaprezentowany publicznie już w połowie 2019 roku.

 

Natomiast w zeszłym tygodniu, firma Hyper Poland pochwaliła się kolejnym, jeszcze większym sukcesem. Narodowe Centrum Badań i Rozwoju zapewniło dofinansowanie w wysokości aż 16,5 miliona złotych. Firma zamierza przeznaczyć te pieniądze na prace badawczo-rozwojowe i będzie mogła przyspieszyć wdrażanie technologii Hyperloop w Polsce.

Dowiedzieliśmy się również, że inżynierowie wybudują tor testowy w Żmigrodzie, niedaleko Wrocławia. Powstanie tam pełnoskalowy prototyp pojazdu oraz tor o długości ponad 500 metrów. To właśnie na nim, kapsuła zostanie rozpędzona do 300 km/h.

 

Warto dodać, że firma Hyper Poland jako jedyna na świecie opracowała technologię, która pozwala wprowadzić Hyperloop już na istniejącej infrastrukturze kolejowej. Pozwoli to znacznie ograniczyć wydatki na realizację tego pomysłu, gdyż nie będzie trzeba budować całej infrastruktury od podstaw. Dzięki dalszym modyfikacjom, kapsuły Hyperloop będą mogły osiągać prędkość do 600 km/h.

 

Hyper Poland chce docelowo wybudować sieć kolei magnetycznych, która połączy największe polskie miasta. Przykładowa podróż z Warszawy do Krakowa potrwa zaledwie 20 minut. Polski Hyperloop będzie można także połączyć z infrastrukturą w sąsiednich państwach i w bardzo krótkim czasie przedostaniemy się np. do Pragi czy Berlina. Kolej magnetyczna z pewnością będzie doskonałą alternatywą dla pociągów i samolotów.

 

 


Komórki macierzyste można przekształcić tak, aby produkowały insulinę

Naukowcy są o krok bliżej od opracowania skutecznej terapii w walce z cukrzycą typu 1. Udało się bowiem przekształcić komórki macierzyste w funkcjonalne komórki produkujące insulinę.

 

Cukrzyca typu 1 charakteryzuje się utratą insuliny, spowodowaną niszczeniem komórek beta w trzustce przez system odpornościowy. Dlatego pacjenci z tą chorobą muszą otrzymywać zastrzyki z insuliną. Jest to dobre rozwiązanie, ale nie idealne – chorzy na cukrzycę typu 1 są bardziej narażeni na problemy zdrowotne typu niewydolność nerek, choroby serca i udar.

 

Istnieją również inne metody leczenia tej choroby. Pacjenci mogą otrzymać nowe komórki beta lub przeszczep trzustki od zmarłych dawców, choć zabiegi tego typu przeprowadza się bardzo rzadko, a ich skuteczność jest wątpliwa.

Jednak naukowcy z Uniwersytetu Kalifornijskiego w San Francisco najwyraźniej dokonali przełomu. Ich metoda omija problem dawcy i pozwala zamienić komórki macierzyste w komórki produkujące insulinę. Nad takim rozwiązaniem pracowano od lat, jednak dotychczas wytwarzane komórki zawsze były niedojrzałe i pozostawały już na takim stadium.

 

Podczas najnowszych badań, zespół naukowców odkrył, że komórki beta oddzielają się od reszty trzustki i formują się w tzw. wysepki Langerhansa. Okazało się, że proces ten był kluczem do sukcesu. Naukowcy odtworzyli go w laboratorium i w ten sposób zdołali zamienić komórki macierzyste w dojrzałe komórki, produkujące insulinę.

Co więcej, gdy powstałe komórki przeszczepiono zdrowym myszom, już po kilku dniach zaczęły reagować na poziom cukru we krwi i wytwarzały insulinę. Należy mieć na uwadze, że potrzebne są dalsze badania, ale powyższe odkrycie jest ważnym krokiem w kierunku nowej skutecznej terapii przeciwko cukrzycy typu 1.

 

 


DARPA tworzy sztuczną inteligencję, która będzie prowadzić walki powietrzne

Automatyzacja miejsc pracy wydaje się nieunikniona, lecz dokładnie to samo można powiedzieć o przyszłych wojnach. Światowe mocarstwa bardzo chętnie korzystają z najnowszych osiągnięć w dziedzinie informatyki i militaryzują je. Najlepszym przykładem, który potwierdza ten stan rzeczy, są rozpoczęte prace nad sztuczną inteligencją, która zautomatyzuje walki powietrzne.

 

Amerykańska Agencja Zaawansowanych Projektów Badawczych w Obszarze Obronności (DARPA) prowadzi program o nazwie Air Combat Evolution (ACE), który zakłada wykorzystanie sztucznej inteligencji do celów militarnych. Mówiąc dokładniej, agencja chce wprowadzić algorytmy na pokłady bezzałogowych myśliwców.

 

DARPA porównuje trenowanie sztucznej inteligencji do szkolenia pilotów. Dlatego algorytmy będą w pierwszej kolejności uczyć się wszystkich podstaw. W grę wchodzą więc takie czynności, jak start myśliwca, wzbicie się w powietrze, nawigowanie oraz lądowanie. Następnie sztuczna inteligencja będzie uczyć się wykonywania różnych manewrów w powietrzu. Specjaliści dostarczą jej również wszystkich praw, które opisują obsługę myśliwców i metody prowadzenia walki w powietrzu.

Odpowiednio przygotowany algorytm będzie następnie przechodził przez liczne testy. Początkowo będą to tylko symulacje komputerowe, lecz z czasem, DARPA przejdzie do prawdziwych testów z udziałem prawdziwych myśliwców. Działania podejmowane przez sztuczną inteligencję będą wtedy nadzorowane przez instruktorów.

DARPA wskazuje, że celem programu ACE jest opracowanie algorytmu, który będzie można instalować na pokładzie bezzałogowych myśliwców, a maszyny te będą blisko współpracować z innymi myśliwcami, obsługiwanymi przez pilotów. Autonomiczne samoloty będą udzielać różnego rodzaju wsparcia, a agencja nie wyklucza, że będą też angażować się w bitwy w powietrzu i eliminować maszyny wroga.

 


Teleskopy neutrinowe powstaną na dnie Morza Śródziemnego

Naukowcy budują ogromny teleskop nowej generacji w osobliwej lokalizacji – na dnie Morza Śródziemnego. Niezwykły teleskop ma służyć wyszukiwaniu sygnałów specjalnych cząstek kosmicznych.

 

Teleskop będzie badać neutrina – maleńkie neutralne cząsteczki, które mogą przemieszczać się przez różne środowiska bez wchodzenia w interakcje z nimi. Z tego powodu cząstki te są niezwykle trudne do wychwycenia. Naukowcy pracowali nad stworzeniem niezwykle czułych detektorów, a wynikiem tych działań jest The Cubic Kilometre Neutrino Telescope (KM3NeT).

„Neutrina bardzo rzadko wchodzą w interakcje, jednak gdy cząsteczka uderza w wodę, generuje światło, które teleskop KM3NeT jest w stanie wykryć.” – powiedział dr Clancy James z Curtin Institute of Radio Astronomy i International Center for Radio Astronomy Research (ICRAR) w Australii.

KM3NeT jest obecnie budowany w dwóch lokalizacjach. Pierwszy zostanie umieszczony u wybrzeży Riwiery Francuskiej i będzie badać „lokalne” neutrina. Drugi powstanie u wybrzeży Sycylii i skupi się na wysokoenergetycznych neutrinach, które pochodzą z wybuchów supernowych, fuzji gwiazd neutronowych i wielu innych zjawisk astrofizycznych.

„Ten projekt pomoże nam odpowiedzieć na najważniejsze pytania dotyczące fizyki cząstek i natury naszego wszechświata, a nawet potencjalnie zapoczątkowując nową erę w badaniu neutrin” – kontynuował dr James.

Pierwsza faza budowy teleskopu będzie polegać na umieszczeniu 30 modułów detekcyjnych na dnie morza. Każdy z modułów będzie składał się z 18 detektorów. W ciemnościach głębinowych instrumenty te mogą rejestrować błyski światła wytwarzane przez neutrina zderzające się z wodą morską. Pomimo wciąż trwającej budowy obie lokalizacje posiadają już pierwsze jednostki detekcyjne, które zbierają dane.

 

KM3NeT nie jest jedynym teleskopem neutrinowym na świecie. Podobną technologię wykorzystuje teleskop IceCube znajdujący się na Antarktydzie. Wykorzystuje on zamarznięty lód zamiast wody morskiej do wykrycia neutrin. Dane zebrane przez trzy teleskopy pozwolą na kontynuowanie badań nad kosmicznymi cząsteczkami.

 


Naukowcom udało się stworzyć żywy organizm z całkowicie syntetycznym DNA

Naukowcy stworzyli w pełni syntetyczny genom bakterii E. coli. Jest to duży krok naprzód w dziedzinie biologii syntetycznej. Po raz pierwszy stworzono żywy organizm z kodem genetycznym, który został wytworzony w laboratorium od podstaw.

 

W artykule opublikowanym w czasopiśmie Nature naukowcy z Laboratorium Biologii Molekularnej w Wielkiej Brytanii wykazali, że są w stanie wytworzyć bakterię E. coli z całkowicie syntetycznych genów.

 

Gen składa się z czterech zasad nukleotydowych: adeniny (A), tyminy (T), guaniny (G) i cytozyny (C). U większości żywych organizmów zasady te są połączone w 64 grupy znane jako „kodony”. Każda kombinacja trzech liter odpowiada jednemu z 20 aminokwasów, które z kolei są połączone ze sobą tworząc białka. Sześćdziesiąt jeden kodonów wytwarza 20 aminokwasów, podczas gdy trzy ostatnie to kodony stop, które sygnalizują koniec łańcucha.

Główny autor badania Jason Chin, biolog molekularny w laboratorium MRC, wyjaśnił New York Times, że on i jego zespół byli ciekawi wszystkich nadmiarowości w kodzie genetycznym. Naukowcy zbadali, czy wszystkie 64 kodony są niezbędne do stworzenia kodu genetycznego.

 

Chin oraz jego zespół postanowili opracować nową wersję E. coli, która wykorzystuje tylko 61 kodonów do wytworzenia wszystkich aminokwasów potrzebnych organizmowi. Naukowcy ulepszyli sekwencję DNA, wytwarzając serynę z czterema kodonami zamiast sześciu i używając dwóch kodonów stop zamiast trzech. Dzięki tej technice całkowicie przeprojektowali kod genetyczny E. coli, nazywając go Syn61.

Ponieważ genom ten był zbyt złożony, aby przenieść go do organizmu bakterii za jednym razem, naukowcy musieli podzielić genom na mniejsze segmenty i zastąpić oryginalny kod genetyczny. Bakterie E. coli przetrwały eksperyment, aczkolwiek syntetyczne komórki rozmnażały się wolniej.

 

W przyszłości Chin i jego zespół mają nadzieję usprawnić syntetyczny genom E. coli, usuwając więcej elementów i upraszczając kod genetyczny. Badacze chcą dalej eksperymentować z dodatkowymi kodonami i tworzeniem nowych aminokwasów, białek i komórek.

 


W USA pracują nad najszybszym superkomputerem świata

Departament Energii Stanów Zjednoczonych ogłosił prace nad nowym superkomputerem o rekordowej mocy obliczeniowej. Maszyna zostanie wybudowana najpóźniej w 2021 roku i będzie oficjalnie najszybszym superkomputerem na świecie.

 

Przyszły superkomputer, który otrzymał nazwę Frontier, będzie efektem współpracy przedsiębiorstwa AMD i firmy Cray Inc. Nowe urządzenie będzie posiadało moc obliczeniową na poziomie ponad 1,5 eksaflopsa i pozwoli wykonywać zaawansowane obliczenia między innymi w badaniach jądrowych i klimatycznych. Superkomputer Frontier zostanie przekazany naukowcom z Oak Ridge National Laboratory w stanie Tennessee.

 

Gdy prace nad tym projektem dobiegną końca, Frontier będzie najbardziej zaawansowanym superkomputerem eksaskalowym na świecie. Maszyna będzie miała aż 24 miliony razy większą przepustowość od przeciętnego domowego łącza internetowego i będzie potrafiła przetwarzać dane na poziomie 100 tysięcy filmów w jakości HD na sekundę.

W tym samym czasie, w Stanach Zjednoczonych trwają prace nad kolejnym superkomputerem o nazwie Aurora, który powstaje dzięki współpracy firmy Intel i Cray Inc. Będzie to prawdopodobnie pierwszy gotowy amerykański superkomputer eksaskalowy, a Frontier zostanie uruchomiony nieco później i będzie posiadał większą moc obliczeniową od Aurory.

 

Warto dodać, że aktualnie najpotężniejszym superkomputerem świata jest Summit – amerykańska maszyna o mocy obliczeniowej 200 petaflopsów, która została wyprodukowana przez firmę IBM i Oak Ridge National Laboratory. Summit zdecydowanie wyprzedził pod względem specyfikacji chiński superkomputer Sunway TaihuLight, którego teoretyczna moc obliczeniowa wynosi 125 petaflopsów. Jednak Chiny zamierzają uruchomić swój własny superkomputer eksaskalowy najpóźniej w 2020 roku i będzie to pierwsza tego typu gotowa maszyna na świecie.

 


Naukowcy stworzyli "odwrotne panele słoneczne" pozyskujące energię z utraty ciepła

Naukowcy z Uniwersytetu Stanforda opracowali urządzenie, które może wykorzystywać utratę ciepła do tworzenia energii elektrycznej. Eksperymentalne urządzenie działa na zasadzie podobnej do paneli słonecznych, jednak zamiast promieni słonecznych wykorzystuje przepływ ciepła.

Jak podano w artykule zamieszczonym w Applied Physics Letters, system wykorzystuje efekt negatywnego oświetlenia. Półprzewodnik na podczerwień wytwarza energię elektryczną, gdy ciepło przepływa z powierzchni urządzenia.

„Ogrom wszechświata jest zasobem termodynamicznym.” – powiedział jeden z autorów badania, Shanhui Fan. – „Jeśli chodzi o fizykę optoelektroniczną, istnieje naprawdę bardzo piękna symetria między pozyskiwaniem promieniowania przychodzącego a pozyskiwaniem promieniowania wychodzącego”.

Istnieje duża różnica temperatur między Ziemią a przestrzenią kosmiczną. Nawet w najzimniejszych lokalizacjach naszej planety nadal występuje różnica co najmniej 200 °C. Problemem jest jednak bariera technologiczna. Obecnie urządzenie jest w stanie wytworzyć niewielkie ilości prądu – 64 nanowaty na metr kwadratowy.

„Ilość mocy, jaką możemy wygenerować w tym eksperymencie, jest obecnie znacznie niższa od teoretycznego limitu.” – wyjaśnił główny autor Masashi Ono.

Oczekuje się, że teoretyczne ograniczenie urządzenia wyniesie 4 waty na metr kwadratowy, czyli około 1 milion razy więcej niż w pierwszych eksperymentach. Mimo gigantycznego skoku w ilości pozyskiwanej energii, nadal jest to o wiele mniej, niż są w stanie wyprodukować panele słoneczne.

 

Mimo to, badania pokazują, że pozyskiwanie energii w ten sposób jest możliwe, a żadne inne urządzenie optoelektroniczne nie jest w stanie wytworzyć elektryczności w ten sposób.

 

Zespół naukowców planuje kontynuować prace nad urządzeniem i usprawnić jego działanie. Nowatorski projekt może zrewolucjonizować pozyskiwanie energii w kosmosie i pozwolić na „recykling” ciepła oddawanego przez promy kosmiczne.

 


Wykryto potencjalny sygnał fal grawitacyjnych, powstałych po kolizji czarnej dziury z gwiazdą neutronową

Astronomowie prawdopodobnie odkryli kolejny sygnał fal grawitacyjnych. W przeszłości wykrywano już fale, które powstawały po kolizji dwóch czarnych dziur lub dwóch gwiazd neutronowych. Tym razem namierzono pierwszy w historii sygnał, który mógł powstać w wyniku zderzenia czarnej dziury z gwiazdą neutronową.

 

26 kwietnia, naukowcy pracujący przy detektorach LIGO i Virgo wykryli „zmarszczki czasoprzestrzeni”, które powstały po nieznanej potężnej kolizji. Badacze wciąż sprawdzają dane, aby potwierdzić swoje przypuszczenia, lecz wstępne analizy wskazują, że detektory mogły namierzyć fale grawitacyjne, powstałe w wyniku kolizji czarnej dziury z gwiazdą neutronową.

 

Zdarzenie to praktycznie nie różni się od kolizji dwóch czarnych dziur czy dwóch gwiazd neutronowych. Dwa ciała niebieskie wirują wokół siebie i zbliżają się do siebie, aż następuje kolizja. Jeśli naukowcy potwierdzą swoje przypuszczenia, zdobędziemy pierwszy dowód na istnienie układów binarnych, składających się z czarnej dziury i gwiazdy neutronowej.

Źródło: Caltech/JPL

Zdarzenie z 26 kwietnia otrzymało tymczasową nazwę S190426c. Badacze oszacowali, że kolizja mogła wystąpić około 1,2 miliarda lat świetlnych od Ziemi. Odkrycia tego typu poszerzają naszą wiedzę w zakresie astronomii fal grawitacyjnych.

 

Od 1 kwietnia, detektory LIGO i Virgo prowadzą trzecią rundę obserwacyjną. Naukowcy wznowili prace po przerwie modernizacyjnej, dzięki której trzy instrumenty badawcze, które razem tworzą sieć obserwacyjną, zwiększyły swoją czułość odpowiednio o około 40% i 100%.

 


Najnowsze pomiary wskazują, że Wszechświat rozszerza się szybciej, niż przypuszczano

Astronomowie dokonali pomiaru tempa ekspansji Wszechświata. Jednak najnowszy wynik znów pokazuje nam, że kosmos rozszerza się znacznie szybciej, niż powinien w oparciu o warunki, jakie powstały tuż po Wielkim Wybuchu.

 

Ustalenie stałej Hubble'a, czyli szybkości ekspansji Wszechświata, pozostaje dla naukowców sporym wyzwaniem. Według danych satelity Planck, który mierzył mikrofalowe promieniowanie tła, stała Hubble'a powinna wynosić 67,4 km/s na megaparsek z mniej niż 1% niepewności.

 

Stałą Hubble'a można obliczyć na wiele sposobów. Kiedyś, Edwin Hubble obserwował tzw. przesunięcie dopplerowskie oddalających się mgławic, czyli zmiany długości fal światła w miarę oddalania się obiektu. Jednak dziś mamy do dyspozycji bardziej precyzyjne metody.

 

Współcześnie, obliczenia często opierają się o świece standardowe, takie jak gwiazdy zmienne – cefeidy. Poznanie jasności tych gwiazd pozwala na dokładne obliczenie odległości. Przykładowo w 2018 roku, obliczenia dokonane na cefeidzie dostarczyły nam danych, z których wynika, że tempo ekspansji Wszechświata jest na poziomie 73,5 km/s na megaparsek. Pomiar ten zmniejszył prawdopodobieństwo wystąpienia błędu do 1 do 3000. Teraz dokonano kolejnych pomiarów, które jeszcze bardziej zmniejszyły ryzyko błędu.

Badania przeprowadzone z pomocą Kosmicznego Teleskopu Hubble'a, które skupiały się na ustaleniu jasności 70 cefeid w Wielkim Obłoku Magellana, pozwoliły określić nową stałą Hubble'a. Wynosi ona 74,03 km/s na megaparsek – to około 9% szybciej niż szacunki oparte o dane satelity Planck. Jednocześnie szansa, że taka rozbieżność mogłaby być błędem, spadła do 1 na 100 000.

 

Naukowcy wciąż nie rozumieją, dlaczego po raz kolejny otrzymali wynik, który tak bardzo różni się od szacunków, wynikających z pomiaru mikrofalowego promieniowania tła. Zagadki tej wciąż nie udało się rozwiązać, dlatego badacze zamierzają przeprowadzać kolejne pomiary, aby przynajmniej mieć pewność, że zostały one wykonane w sposób prawidłowy. Jednak naukowcy zdają sobie sprawę z tego, że rozwiązanie zagadki ze stałą Hubble'a być może będzie wymagało nowej fizyki.