Sierpień 2020

W Wielkim Zderzaczu Hadronów odkryto pierwszy tetrakwark o otwartym zapachu

Fizycy pracujący przy eksperymencie LHCb w CERN odkryli nową cząstkę. X(2900) to pierwszy tetrakwark złożony z czterech kwarków o różnych zapachach. Cząstka powstała w wyniku kolizji protonów w Wielkim Zderzaczu Hadronów i jest produktem rozpadu mezonów B.

 

Tetrakwark X(2900) posiada masę około 2,9 GeV/c2 i został zauważony w dwóch stanach spinowych. Fizycy nie są do końca pewni co do natury tej cząstki, ale przypuszczają, że zawiera cztery kwarki: antypowabny, antydziwny, górny i dolny. Ponieważ nowy tetrakwark nie posiada pary kwark-antykwark o tym samym zapachu, nie ma żadnych ukrytych zapachów i dlatego naukowcy opisują go jako tetrakwark o otwartym zapachu.

 

Jeszcze przed odkryciem cząstki X(2900), wszystkie znane nam tetrakwarki zawierały co najmniej jedną parę kwarków powabnych-antypowabnych lub pięknych-antypięknych. Naukowcy zakładali możliwość istnienia tetrakwarków o otwartym zapachu, takich jak X(2900), ale nikt nie spodziewał się odkrycia cząstki o takiej konkretnej konfiguracji.

Nowa cząstka zawiera tylko jeden ciężki kwark antypowabny, dlatego ma stosunkowo niewielką masę w porównaniu z innymi tetrakwarkami. Z tego powodu łatwiej jest ją wyprodukować podczas kolizji w akceleratorze LHC. Jednak tetrakwarki zawierające pary kwarków powabnych-antypowabnych są łatwiejsze w obserwacji, ponieważ rozpadają się do stanu końcowego, który zawiera mezon J/ψ i ma bardzo wyraźną sygnaturę eksperymentalną. Najnowszego odkrycia dokonano zatem dzięki wyjątkowej wydajności detektora LHCb.

 

Cząstka X(2900) może wyjaśnić sposób układania się czterech kwarków, co jest zdefiniowane przez oddziaływanie silne i niezwykle trudne do obliczenia. Fizycy mają już pewne przypuszczenia co do tego, jak powstają tetrakwarki, lecz na dzień dzisiejszy mają zbyt mało danych i dlatego potrzebne są dalsze badania.

 

Dodaj komentarz

loading...

SI pokonała pilota w symulowanej walce myśliwców! Czy ludzie stają się zbędni?

Agencja rządowa DARPA przeprowadziła wirtualny pojedynek myśliwców między doświadczonym pilotem, a sztuczną inteligencją. AI opracowana przez firmę Heron Systems bez większych problemów pokonała człowieka.

 

W ramach programu Air Combat Evolution (ACE), agencja DARPA zorganizowała konkurs na najlepszy algorytm do obsługi wirtualnego myśliwca. Wzięło w nim udział 8 firm, a najlepsza okazała się sztuczna inteligencja, należąca do Heron Systems. 20 sierpnia, jej algorytm zmierzył się w doświadczonym pilotem F-16 w symulowanej walce powietrznej.

Podczas tego starcia, w którym można było używać jedynie pokładowego karabinu maszynowego, sztuczna inteligencja bardzo sprawnie wykonywała wszystkie manewry i wyróżniała się niezwykłą celnością. AI firmy Heron Systems zdecydowanie górowała nad doświadczonym pilotem i pokonała go w wirtualnym pojedynku, choć powstała zaledwie 11 miesięcy temu.

 

Program ACE powstał z myślą o opracowaniu mechanizmu, który pozwoli pilotowi na łatwe zarządzanie zespołami dronów powiązanych z jego myśliwcem. Autonomiczne bezzałogowce mogłyby w ten sposób wspierać misję pilotów i chronić ich przed wrogiem. Nie można jednak wykluczyć, że w dalekiej przyszłości to właśnie algorytmy przejmą stery samolotów. Szkolenie sztucznej inteligencji jest bowiem znacznie tańsze i mniej czasochłonne, a ewentualna porażka podczas walki nie wiąże się z utratą zdobytego doświadczenia. Ponadto, AI ma znacznie łatwiejszy dostęp do wszystkich niezbędnych danych, znacznie szybciej przetwarza informacje i podejmuje decyzje.

 

Przypominamy, że w lipcu 2021 roku, Siły Powietrzne Stanów Zjednoczonych zorganizują historyczny pojedynek w powietrzu między pilotem, a robotem sterowanym przez sztuczną inteligencję. Jeśli algorytm pokona człowieka, z pewnością zostanie wcielony do armii i przyspieszy autonomizację amerykańskich sił zbrojnych.

 

Dodaj komentarz

loading...

Naukowcy dokonali przełomu w komunikacji kwantowej

Chińscy naukowcy opracowali nową metodę satelitarnej komunikacji kwantowej, która pozwala na przesyłanie zaszyfrowanych informacji na znacznie większe odległości. Ulepszony mechanizm wspiera prace nad globalnym systemem bezpiecznej wymiany danych.

 

Komunikacja kwantowa opiera się o zjawisko, zwane splątaniem kwantowym. Pozwala ono udostępnić zaszyfrowane dane za pośrednictwem kubitów. Właściwości kwantowe kubitów są połączone parami, które są dzielone między dwiema stronami i tworzą tajną frazę, która jest następnie używana do szyfrowania dalszej transmisji danych. Systemy komunikacji kwantowej wykorzystują pojedyncze fotony, które są zakodowane w stanie superpozycji kwantowej, a następnie wysyłane do odległych miejsc. Mechanizm kodowania i dekodowania pozwala stronom współdzielić ciąg losowych bitów, zwanych tajnymi kluczami, które można użyć do szyfrowania i odszyfrowywania tajnych wiadomości.

 

Bezpieczna komunikacja kwantowa, odporna na cyberataki, właśnie doczekała się kolejnego przełomu. Naukowcy z Chin opracowali nowy kwantowy protokół komunikacyjny. Podczas eksperymentu z udziałem satelity Micius, pary splątanych fotonów zostały rozdzielone i przesłane do dwóch stacji naziemnych, oddalonych od siebie o około 1200 km. Dla porównania, poprzedni rekord wynosił zaledwie 100 km.

Sukces nie byłby możliwy bez wykorzystania wspomnianego satelity. Dane zostały po prostu przesłane przez pustą przestrzeń, a nie przy powierzchni Ziemi, dzięki czemu komunikacja nie została zakłócona. To tylko potwierdza, jak ważne znaczenie będą mieć satelity w globalnej komunikacji kwantowej.

 

Eksperymenty nad komunikacją kwantową w Chinach trwają od 2017 roku, kiedy to dokonano pierwszej pomyślnej wymiany zaszyfrowanych danych na duże odległości. Chiny bardzo intensywnie pracują nad komunikacją kwantową i wygląda na to, że są obecnie niekwestionowanym liderem w rozwoju tej technologii.

 

Dodaj komentarz

loading...

Smartfony z Androidem stworzą globalną sieć wykrywania trzęsień ziemi

Amerykańska korporacja Google tworzy ogólnoświatowy system ostrzegania przed trzęsieniami ziemi i już wprowadziła w życie jego pierwsze elementy. Nowy system jest oparty o dostępne na całym świecie smartfony z Androidem. Za zgodą użytkownika, akcelerometr w naszym smartfonie może się stać punktem danych dla algorytmów, które powstały z myślą o wykrywaniu trzęsień ziemi.

 

Nowa funkcja od Google nie byłaby możliwa, gdyby nie miliony urządzeń rozsianych po całym świecie, wyposażonych w system Android oraz akcelerometr. Jest to znacznie łatwiejsze i tańsze rozwiązanie od budowania globalnej sieci sejsmometrów. Za systemem detekcji trzęsień ziemi stoją również potężne algorytmy przeznaczone do przetwarzania ogromnych ilości danych.

 

Korporacja Google wdraża nowy system etapami. Pierwszy etap to nawiązanie współpracy z agencją United States Geological Survey (USGS) i California Office of Emergency Services (Cal OES) celem przesyłania alertów o trzęsieniach ziemi do użytkowników systemu Android na terytorium stanu Kalifornia. Już w drugim etapie, w wyszukiwarce Google będzie można wyszukać informacje o trzęsieniach ziemi na podstawie danych, pochodzących ze smartfonów z Androidem. Natomiast w trzecim etapie, Google zacznie aktywnie wysyłać ostrzeżenia o trzęsieniach ziemi do ludzi mieszkających w regionach, w których nie ma systemów ostrzegawczych opartych o sejsmometry.

Firma Google zapewnia, że do działania systemu potrzebuje jedynie lokalizacji oraz danych z akceleratora i nie będzie potrzebowała jakichkolwiek informacji na temat użytkownika. Co więcej, funkcja będzie aktywna tylko wtedy, gdy urządzenie jest podłączone do gniazdka, aby nie zużywać baterii.

 

Akcelerometr, który znajduje się w niemal wszystkich współczesnych smartfonach, pozwala wykrywać drgania. Gdy na danym obszarze, tysiące urządzeń z Androidem nagle zarejestruje specyficzne wibracje, inteligentne algorytmy Google szybko sprawdzą i potwierdzą, czy mamy do czynienia z trzęsieniem ziemi, natomiast alerty będą rozsyłane do użytkowników w ciągu sekund. Firma twierdzi, że jej system potrafi zlokalizować epicentrum oraz określić siłę wstrząsów.

 

Nowa funkcja będzie wprowadzana za pośrednictwem usług mobilnych Google (GMS) i powinna działać na większości używanych obecnie telefonów z Androidem na całym świecie z wyjątkiem Chin. Globalna sieć wykrywania trzęsień ziemi będzie aktywna prawdopodobnie w przyszłym roku. Choć nie pozwoli przewidywać regionów, w których wystąpią trzęsienia ziemi, a jedynie informować o trwających już zjawiskach sejsmicznych, trzeba przyznać, że takie narzędzie do monitorowania wstrząsów może okazać się bardzo pomocne.

 

Dodaj komentarz

loading...

Na dnie Oceanu Spokojnego odkryto organizm przypominający kosmitę

Głębiny oceanów skrywają wiele niezwykłych stworzeń, których większość z nas nie jest sobie nawet w stanie wyobrazić. Jednym z nich jest nowy gatunek gąbki odkryty przez naukowców z National Oceanic and Atmospheric Administration na dnie oceanu Spokojnego. Zdaniem jego odkrywców, stwór wygląda tak groteskowo, iż z łatwością mógłby uchodzić za kosmitę z filmu E.T.


Tak zwany "Las Dziwów" znajduje sie 1368 km na południowy zachód od Hawajów, na głębokości prawie 2,5 kilometrów. To właśnie tam żyje niezwykły gatunek szklanych gąbek, których habitat znajduje się na samym dnie oceanu. Naukowcy nie nadali im jeszcze oficjalnej nazwy i jak narazie, opisują stworzenie jako Advhena co po łacinie oznacza Obcy. Stąd też większość osób zainteresowanych tym znaleziskiem opisuje je jako gąbkę E.T.

Nie wiadomo jeszcze zbyt wiele o tym stworzeniu, a praca naukowa na jej temat jest dopiero w produkcji. Specjaliści z NOAA pobrali próbki do badań w związku z czym już wkrótce można spodziewać się wstępnych ustaleń. Jak narazie udostępnili oni jedynie nagranie z głębin oceanu, które ukazuje te niezwykłe stworzenia w ich naturalnym środowisku. 

 

 

Dodaj komentarz

loading...

W Afryce powstaje nowy ocean w miejscu gdzie pęka cały kontynent

Afryka pęka na pół i jest to proces nieunikniony, którego konsekwencją będzie powstanie nowego oceanu.  Według obliczeń naukowców po około 5 do 10 milionach lat, we wschodniej części Afryki powstanie uskok tektoniczny, w wyniku którego kontynent zostanie „podzielony” na dwie części.

 

Pierwsze pęknięcie zwiastujące ten proces pojawiło się tam wiele milionów lat temu. To właśnie w jego wyniku powstało Morze Czerwone i Zatoka Adeńska. Drugie pęknięcie, rozciągające się na południe od Etiopii do Mozambiku, jest znane, jako Wielki Rów Afrykański i to właśnie tam powstanie nowy ziemski ocean gdy depresja zostanie nieuchronnie zalana wodą morską.

 

Ta część kontynentu położona jest w regionie Afar w Etiopii, który znajduje się na styku trzech płyt tektonicznych, które powoli się od siebie oddalają. Eksperci przypominają, że w 2005 roku w regionie utworzyła się szczelina, której długość wynosi obecnie około 56 kilometrów.

„To jedyne miejsce na Ziemi, gdzie można zbadać, jak szczelina kontynentalna zamienia się w szczelinę oceaniczną” - powiedział Christopher Moore, profesor Uniwersytetu w Leeds w Wielkiej Brytanii.

Naukowcy sugerują, że zjawisko to jest spowodowane rosnącym ciśnieniem spowodowanym wzrostem magmy. Teraz monitorują ruch płyt za pomocą czujników GPS.

 

Wielkie Rowy Afrykańskie będą stale wyznaczały linię podziału Afryki na dwie płyty tektoniczne. Do Depresji Danakilskiej, woda może dotrzeć znacznie szybciej niż za miliony lat. Wszystko z powodu ukształtowania terenu. Niskie, 25 metrowe wzgórza są jedyną barierą, powstrzymującą tam wody Morza Czerwonego. 

 

Dodaj komentarz

loading...

Trzęsienia ziemi i tsunami wpływają na jonosferę znacznie bardziej, niż rozbłyski słoneczne klasy X

Naukowcy od dziesięcioleci wiedzą, że trzęsienia ziemi i tsunami wysyłają fale ciśnienia atmosferycznego docierające na sam szczyt ziemskiej atmosfery. Tam, w jonosferze, fale te zakłócają sygnał GPS i komunikację radiową, w podobny sposób jak rozbłyski słoneczne. Okazuje się, że trzęsienia ziemi mogą emulować skutki burzy magnetycznej.

<--break->

Nowy artykuł opublikowany w czasopiśmie badawczym Space Weather pokazuje, że trzęsienia ziemi i tsunami mogą realnie oddziaływać na jonosferę. Dzieje się to na o wiele większą skalę sądzono niż wcześniej. Od wielu lat wiedziano na przykład o tym że na chwilę przed wystąpieniem wstrząsów sejsmicznych dochodzi do niezwykłego miejscowego podgrzewania się jonosfery. Planowano nawet stworzenie specjalnego systemu satelitarnego, który prowadziłby analizy takich anomalii temperaturowych, w celu predykcji zjawisk sejsmicznych.

 

Jako przedmiot analiz wybrano jedno z większych trzęsień ziemi w XXI wieku, do którego doszło 11 marca 2011 roku. Wystąpił wtedy bardzo silny wstrząs o magnitudzie 9 stopni w skali Richtera, który potem wywołał szereg niszczących fal tsunami, docierających do wschodniego wybrzeża wyspy Honsiu w Japonii. Autorzy badania kierowani przez profesora Min-Young Chow z Atmospheric University Corporation. Badania (UCAR) w Boulder, Kolorado.

 

Korzystając z satelitów i naziemnych odbiorników GPS, Chow i jego koledzy dokładnie przestudiowali, co stało się z jonosferą nad Japonią po trzęsieniu ziemi. Zgodnie z oczekiwaniami była ona bardzo wzburzona. Niespodziewanie jednak zakłócenia jonosferyczne nie ustały po trzęsieniu ziemi i tsunami tylko trwały przez wiele godzin. Powodem mogły być interferencje fal tsunami. Odbijające się fale tsunami rozchodzące się po całym basenie Oceanu Spokojnego, utrzymywały zakłócenia jonosfery nad Japonią aż przez 46 godzin.

Kiedyś uważano, że tylko Słońce może tak poważnie zakłócić jonosferę. Rozbłyski słoneczne zwykle bombardują tą część naszej atmosfery promieniowaniem ultrafioletowym i rentgenowskim, wysyłając fale jonizacyjne pulsujące w całej jonosferze. Trzęsienia ziemi i tsunami mają ten sam efekt. Zdaniem autorów badania, zaburzenia w jonosferze nad Japonią były podobne do tych jakie powstałyby po serii silnych rozbłysków słonecznych klasy X skierowanych w Ziemię.

 

W pewnym sensie taki wpływ jest jeszcze gorszy od słonecznego, bo zaburzenia utrzymują się nawet przez kilka dni i mogą być bardzo złożone z powodu rozmaitych interferencji fal tsunami. Odbite fale w pobliżu Japonii w 2011 r. spowodowały chaotyczne nocne „migotanie” sygnałów satelitarnych GPS. Wystarczyło to, aby niektóre urządzenia GPS całkowicie straciły orientację.

Dodaj komentarz

loading...

Stworzono metodę umożliwiającą obserwację pojedynczych atomów

Mikroskopia krioelektronowa to nowa metoda obrazowania cząsteczek. Dwie grupy badawcze zastosowały ją do uzyskania zdjęć struktury białek. Dzięki temu po raz pierwszy badacze mieli okazję zaobserwować poszczególne atomy w białku.


Dzięki użyciu kriogenicznej mikroskopii elektronowej (krio-EM) naukowcy będą mogli szczegółowo zbadać mechanizmy i strukturę białek. Do tej pory, nie można było tego dokonać przy użyciu innych metod obrazowania, takich jak krystalografia rentgenowska. Struktury te mogą pomóc naukowcom zrozumieć, w jaki sposób białka działają w zdrowym i chorym ciele. Pozwoli to również na stworzenie bardziej zaawansowanych leków. Mapy rozdzielczości atomowej są wystarczająco dokładne, aby jednoznacznie określić lokalizację poszczególnych atomów białka w rozdzielczości około 1,2 angstremów (1,2 × 10-10 m).

Struktury te pomagają zrozumieć, jak działają enzymy, a to pozwala znaleźć leki, które zakłócają ich aktywność. Aby doprowadzić krio-EM do poziomu rozdzielczości atomowej, dwa zespoły naukowców pracowały z białkiem zwanym apoferytyną, która wiąże żelazo. Zdaniem doktor Sjors Scheres, jednej z badaczek odpowiedzialnych za ten eksperyment, krio-EM stanie się niezbędnym narzędziem w większości badań strukturalnych.

 

Firmy farmaceutyczne, które chcą uzyskać struktury o rozdzielczości atomowej, są jeszcze bardziej skłonne do wykonywania mikroskopii krioelektronowej. Jak narazie, technologia kri-EM nie jest szczególnie wydajna i aby uzyskać wystarczającą ilość danych o strukturach atomowych w bardzo wysokiej rozdzielczości, potrzebne są godziny, a nawet dni pracy. Dalszy rozwój tej technologii jest więc konieczny przed wykorzystaniem jej w szerszym zakresie.

 

 

Dodaj komentarz

loading...

Globalne ocieplenie może doprowadzić do wyniszczenia ziemskich ekosystemów już w ciągu najbliższych 10 lat

Globalne ocieplenie może spowodować kolosalną utratę różnorodności biologicznej na całym świecie, jeśli emisje gazów cieplarnianych nie zostaną ograniczone. Nowe badania pokazują, że niektóre ekosystemy mogą przestać istnieć już w 2030 r.

<--break->

W ostatnich latach globalne temperatury osiągają wartości najwyższe w historii. Naukowcy przewidują, że przy obecnym poziomie emisji dwutlenku węgla wytwarzanym przez człowieka Ziemia jest na dobrej drodze, aby do 2100 r. globalna temperatura wzrosła o cztery stopnie Celsjusza.

 

Badacze z Wielkiej Brytanii, Stanów Zjednoczonych i Południowej Afryki przeanalizowali dane klimatyczne z ostatnich 150 lat i porównali je z obszarami występowania ponad 30 tys. gatunków ptaków, ssaków, gadów i ryb. Następnie podzielili kulę ziemską na segmenty o powierzchni 100 kilometrów kwadratowych i na tej podstawie stworzyli modele klimatyczne zakładające wpływ temperatur na przyrodę na danym obszarze.

Wnioski pokazały, że zakładana emisja może doprowadzić do wymierania aż 73% gatunków zwierząt. Alex Pigot, z Centrum Różnorodności Biologicznej i Środowiska Uniwersytetu College w Londynie, powiedział, że populacje zwierząt mogą skurczyć się po przekroczeniu „horyzontu temperaturowego” – stanu wysokiej temperatury, która może być niebezpieczna dla życia.

 

Modele zmieniają się dramatycznie w zależności od każdej ścieżki emisji. Na przykład, zakładając ocieplenie o 4 °C, ucierpiałoby 15% ziemskich ekosystemów.  Przy ociepleniu o 2 °C, liczba ta spada do 2%.

Badacze uważają, że pierwsze poważne skutki ocieplenia rozpoczną się już w 2030 r. w oceanach tropikalnych. Obecnie Wielka Rafa Koralowa doświadcza wybielania ze względu na wysokie temperatury. Naukowcy twierdzą, że podobne zjawiska zaczną pojawiać się na innych szerokościach geograficznych do 2050 roku.

 

Od czasu rewolucji przemysłowej Ziemia ogrzała się już o ponad 1 °C, a emisje gazów cieplarnianych osiągają coraz wyższe wartości. Organizacja Narodów Zjednoczonych twierdzi, że ludzkość musi ograniczyć emisję o 7,6% rocznie do 2030 r., aby wstrzymać ocieplanie klimatu.

Dodaj komentarz

loading...

Polak stworzył kurs języka angielskiego online wykorzystujący komputerowe rozpoznawanie mowy

Nauka języka obcego, od zawsze stanowi jeden z pierwszych kroków w celu poprawy swojej konkurencyjności na rynku pracy. Na przestrzeni lat, pojawiło się wiele szkół i książek opisujących sposoby "ułatwienia" tego procesu. W potoku niemal identycznych projektów, przyjemnie jest dostrzec coś nowatorskiego. Takim mianem można zdecydowanie określić dzieło naszego rodaka o nazwie Speakingo.

 

W wielkim skrócie, jest to kurs językowy opierający się na analizie ludzkiej mowy. Nie jest to więc klasyczny kurs opierający się na ścianie tekstu opatrzonej pytaniami wielokrotnego wyboru. To dość ciekawe podejście do kwestii nauki języka, dające uczniom kontakt z żywym językiem. Sam autor kursu dr Grzegorz Kuśnierz twierdzi że kluczem w jego projekcie jest "bombardowanie mózgu językiem" co ma pozwolić uczniom na szybsze przyswojenie zagadnień omawianych na lekcji.

 

Nauka języka angielskiego na kursie online Speakingo opiera się na rozmowie z komputerem przy użyciu mikrofonu. Wykorzystując całe zdania, system kieruje do użytkownika wypowiedź native speakera. Co ciekawe uczeń, może zarówno odpowiadać na pytania komputera jak nawet kierować pytania do komputera (oczywiście wszystko w ramach wcześniej nagranych wzorców). Taka forma nauki, ma za cel między innymi zredukowanie stresu odczuwanego przez uczniów, którzy przejawiają opór w mówieniu po angielsku przy innych ludziach.

Powstanie kursu opartego w całości na mowie, to dobry znak dla wielu osób mających problemy z regułami gramatyki języka angielskiego. Mimo iż ich opanowanie będzie wciąż konieczne do posługiwania się tym językiem w stopniu zaawansowanym, to właśnie mowa jest kluczowa w interakcjach z innymi ludźmi. Nawet jeśli ktoś nie jest w stanie pochwalić się idealną wymową, jeżeli zostaniemy zrozumiani nawet przy użyciu najprostszej odmiany języka angielskiego, to w ostatecznym rozrachunku jest to sukces. Trudno ocenić czy taka metoda nauczania wyprze standardowe modele, jednak jest to z całą pewnością ciekawa odmiana, której aż nie wypada przeoczyć.

 

 

Dodaj komentarz

loading...