Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37033
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    231

Zawartość dodana przez KopalniaWiedzy.pl

  1. Jedna z najstarszych kultur epoki kamienia – kultura aszelska – przetrwała dziesiątki tysięcy lat dłużej, niż się obecnie uważa. Nowe odkrycia, dokonane przez naukowców z University of kent i Czeskiej Akademii Nauk wskazują, że kultura ta aż przez ponad 100 000 lat współistniała z bardziej zaawansowanymi technologiami neandertalczyków i ludzi współczesnych. Doktorzy Alastair Key i David Roberts z Wielkiej Brytanii oraz doktor Ivan Jarič z Czech dokonali swojego odkrycia badając kamienne narzędzia z różnych części świata. Wykorzystując techniki statystyczne, których dotychczas nie używano w pracach archeologicznych, zrekonstruowali koniec epoki kultury aszelskiej. Obecnie przyjmuje się, że do zaniknięcia kultury aszelskiej doszło około 200 000 lat temu. Wówczas miało dojść do szybkiego zastąpienia kultury aszelskiej, kojarzonej z Homo heidelbergensis, przez bardziej zaawansowane techniki wytwarzania narzędzi kultury lewaluaskiej, której nosicielami byli neandertalczycy i wcześni H. sapiens. Jednak nowe badania kreślą inny obraz, na którym kultura aszelska przez bardzo długi czas współistnieje z późniejszymi kulturami. Aszelska technologia wytwarzania kamiennych narzędzi to, obok kultury olduwajskiej, najstarsza tradycja kulturowa w historii człowieka. Prawdopodobnie narodziła się ona przed 1,75 milionem lat na wschodzie Afryki i rozprzestrzeniła w Afryce, Europie i Azji. Z jej technik wytwarzania narzędzi korzystały różne gatunki człowieka. Koniec tej kultury miał nastąpić pomiędzy 300 000 a 150 000 lat temu. Jednak Key, Roberts i Jarič odkryli, że w różnych częściach świata kultura aszelska odeszła w zapomnienie w różnych okresach. Ich zdaniem w Afryce Subsaharyjskiej zaniknęła już nawet 170 000 lat temu, podczas gdy w Azji jej kres nastąpił 57 000 lat temu. Naukowcy wykorzystali na potrzeby swoich badań dane z różnych stanowisk archeologicznych na całym świecie oraz technikę statystyczną zwaną optymalną estymacją liniową. Już wcześniej użyli jej do stwierdzenia, że kultury olduwajska i aszelska wytwarzały kamienne narzędzia o dziesiątki tysięcy lat wcześniej, niż sądzono. Teraz zaś za pomocą tej techniki wyliczyli, jak długo kultura aszelska przetrwała po dacie najmłodszego znanego nam stanowiska tej kultury. W ten sposób technika statystyczna stała się modelem dla nieodkrytych jeszcze danych archeologicznych. Najmłodsze odkrycia archeologiczne zawsze będą niekompletne. Wiemy, że najmłodsze stanowiska kultury aszelskiej raczej nie reprezentują jej ostatnich przedstawicieli. Techniki statystyczne pozwalają nam na odtworzenie brakujących części archeologicznych danych. Pozwalają nam też przewidywać, czego możemy się spodziewać podczas badań archeologicznych w przyszłości, mówi doktor Kent. A dr Roberts dodaje: ta technika została opracowana przeze mnie i moich kolegów na potrzeby obliczania okresów wymierania różnych gatunków, gdyż ostatnie doniesienie o spotkaniu danego zwierzęcia raczej nie określają momentu, w którym dany gatunek całkowicie wyginął. Teraz zastosowaliśmy ją w innym kontekście. Badania zostały opisane w artykule Modelling the end of the Acheulean at global and continental levels suggests widespread persistence into the Middle Palaeolithic, który ukazał się na łamach Nature: Humanities and Social Sciences Communications. « powrót do artykułu
  2. Wirtualne sieci prywatne zyskują coraz większą popularność wśród tych osób, które chcą zapewnić sobie bezpieczne połączenie internetowe z dodatkowymi możliwościami, bez obaw o naruszanie prywatności i śledzenie codziennej aktywności. Pytanie „VPN co to?” może jednak stanowić doskonały początek opowieści o wirtualnej sieci prywatnej, która jest pełna ciekawostek i interesujących faktów. W tym artykule poznamy sieć VPN nieco bliżej i zgłębimy się w informacje, które nie zawsze są oczywiste dla początkujących i bardziej zaawansowanych użytkowników tej formy ochrony internetowej. Przyjrzymy się bliżej historii VPN i sprawdzimy, w jaki sposób można oszczędzać, stosując wirtualną sieć prywatną. Na koniec upewnimy się, czy są sposoby na zwiększenie prędkości połączenia i dodatkowe oszczędności na zakupach dzięki korzystaniu z wirtualnej sieci prywatnej. 1. VPN jest z nami już 25 lat Pierwsza wersja wirtualnej sieci prywatnej pojawiła się już w 1996 roku. Jej powstanie przypisuje się inżynierowi (Gurdeep Singh-Pall) pracującemu w firmie Microsoft. Stworzył on protokół PPTP, którego celem było zapewnienie pracownikom Microsoft możliwości bezpiecznej pracy z domu. Na początku VPN cieszył się popularnością głównie w firmach, jednak PPTP był uznawany za jeden z najszybszych ze wszystkich protokołów, z najniższym poziomem szyfrowania. W 2013 roku, kiedy na jaw wyszły informacje o programach mogących zbierać i gromadzić wrażliwe dane zwykłych ludzi, zainteresowanie wirtualną siecią prywatną znacznie wzrosło także wśród osób chcących zadbać o własne bezpieczeństwo i zachowanie prywatności podczas codziennej aktywności w Internecie. 2. VPN to rosnący trend Według raportu trendów Google zainteresowanie VPN gwałtownie wzrasta od kilku ostatnich lat i często przewyższa ilość zapytań o ochronę antywirusową. Zbiega się to w czasie z wieloma niezależnymi od siebie wydarzeniami - konieczności pracy z domu z powodu pandemii, decyzjami politycznymi dotyczącymi śledzenia danych w Internecie oraz statystykami cyberprzestępczości. Dzięki wirtualnym sieciom prywatnym użytkownicy mogą być pewni, że ich aktywność jest szyfrowana i nikt niepowołany nie uzyska dostępu do ich aktywności. 3. Netflix kontra VPN Firma Netflix od jakiegoś czasu blokuje adresy IP, które według nich mogły być powiązane z wirtualną siecią prywatną. W efekcie dostęp do Netflix został ograniczony dla wielu użytkowników, którzy legalnie korzystali z serwisu. Wszystko zaczęło się około sześciu lat temu, kiedy to Netflix otrzymał wiele nacisków od właścicieli praw autorskich filmów i seriali dostępnych na platformie. Przypomnijmy, że dzięki VPN użytkownicy, dzięki zmianie swojego adresu IP, mogą uzyskiwać dostęp do filmów i seriali objętych geoblokadą, czyli dostępnych wyłącznie dla użytkowników mieszkających w danym kraju lub regionie. Co więcej, problem blokowania treści dla użytkowników z danej lokalizacji dotyczy nie tylko platform subskrypcyjnych. Wielu dostawców usług internetowych lub rząd może blokować pewne witryny dla osób mieszkających w danym regionie. Zastosowanie usługi VPN pozwala uniknąć tych ograniczeń i uzyskać pełen dostęp do wybranych treści i pobieranie dowolnych plików. 4. VPN pozwala zaoszczędzić Czy wiesz, że niektóre witryny internetowe mogą zmieniać ceny hoteli lub biletów lotniczych w zależności od tego, z jakiego miejsca na świecie loguje się potencjalny klient? To samo może dotyczyć cen pakietów i abonamentów platform streamingowych. Wykorzystując ten zabieg na swoją korzyść, można skorzystać z losowych adresów IP pochodzących z innych krajów i znaleźć najkorzystniejszą cenę usługi dla siebie. Oczywiście jest to możliwe za pomocą VPN. Ważna uwaga - nie korzystaj z losowego adresu IP w momencie dokonywania transakcji finansowych w bankowości online. Twoje konto może zostać zablokowane z powodu podejrzenia o nieautoryzowany dostęp do danych logowania. 5. Brak uciążliwych reklam Nie jest niespodzianką, że wiele wyszukiwarek, mediów społecznościowych czy aplikacji, stale śledzi i gromadzi wyniki historii wyszukiwania użytkowników, aby później stworzyć wysoce spersonalizowane reklamy i treści odpowiadające gustom internautów. Usunięcie plików cookies i wyczyszczenie historii wyszukiwania nie zawsze przynosi pożądane efekty. Dzięki zastosowaniu wirtualnej sieci prywatnej można cieszyć się skuteczną ochroną przed reklamodawcami, ponieważ VPN skutecznie ukryje lokalizację i dane użytkownika. 6. Szybszy internet z VPN Nie jest to powszechnie znana praktyka, jednak nie sposób zaprzeczyć jej istnieniu. Dostawcy usług internetowych na całym świecie mogą ograniczać ruch internetowy w swojej sieci. W efekcie klienci danego dostawcy otrzymują znacznie wolniejszą prędkość połączenia, niż było to zawarte w ofercie. Dotyczy to wszystkich lub niektórych aktywności - na przykład strumieniowego przesyłania filmów HD. Użytkownicy wirtualnej sieci prywatnej mogą zapobiec temu procederowi, ponieważ stosowanie VPN zapobiega rozdzielaniu ruchu na tunele o wysokiej i niskiej prędkości. Operatorzy są więc zmuszeni do kierowania całego ruchu internetowego, zgodnie z obietnicą w umowie. « powrót do artykułu
  3. Przemysł samochodowy od dawna próbuje stworzyć indywidualne strefy odsłuchowe dla pasażerów samochodów osobowych. W strefach takich każda osoba mogłaby słuchać ulubionej muzyki nie używając przy tym słuchawek i nie przeszkadzając innym w odbiorze ich muzyki. Naukowcy ze Stellantis i Laboratoire d’Acoustique de l’Universite du Mans informują właśnie na łamach The Journal of the Acoustical Society of America, że stworzyli algorytm, który na bieżąco tworzy takie strefy w kabinie samochodu i dopasowuje je do zmieniających się warunków. Dzięki temu każdy może np. słuchać innej muzyki nie używając słuchawek i nie przeszkadzając współpasażerom. Algorytm koordynuje działanie różnych źródeł dźwięku w samochodzie tak, by powstawały „jasne” strefy odsłuchowe o dobrej jakości dźwięku oraz strefy „ciemne”, gdzie jakość dźwięku jest gorsza. Prywatne strefy odsłuchowe są tworzone za pomocą zestawu głośników i filtrów odpowiednio dostrajających dźwięk i jego rozchodzenie się w kabinie. Zorganizowanie takich predefiniowanych stref w samochodzie możliwe jest już od pewnego czasu, problem jednak w tym, że by się one nie sprawdziły. Wystarczy bowiem zmiana temperatury, zmiana liczby osób w samochodzie czy pozycji siedzeń, by zdefiniowane z góry strefy nie spełniały swojej roli. Specjaliści ze Sellantisa i Universite du Mans poradzili sobie z tym problemem umieszczając w samochodzie mikrofony próbkujące dźwięk w czasie rzeczywistym. Specjalny algorytm analizuje dane z mikrofonów i dostraja pracę filtrów, gdy wykryje zmiany w środowisku akustycznym kabiny. Na przykład wówczas, gdy zmieni się pozycja fotela. Głośniki znajdują się w zagłówkach, a specjalne filtry pracują tak, by w określonej strefie zapewnić dobrą jakość dźwięku, a jednocześnie, by dźwięk ten był jak najsłabszy poza tą strefą, mówi jeden z autorów badań, Lucas Vindrola. System jest w stanie uzyskać różnicę głośności pomiędzy dwoma przednimi fotelami na poziomie 30 decybeli. To taka różnica, jak pomiędzy normalną rozmową a szeptem. Co więcej, potrafi utrzymać tę różnicę nawet jeśli fotele zostaną przesunięte nawet o 12 cm. Trzeba za to zapłacić umieszczeniem mikrofonów w kabinie, by algorytm mógł działać. Wyniki były bardzo obiecujące, nawet gdy ograniczyliśmy liczbę mikrofonów, dodaje Vindrola. Jego zdaniem taki system może znaleźć też zastosowanie w innych miejscach, np. w muzeach. Na razie system ma poważne ograniczenia. Działa w zakresie od 100 do 1000 herców czyli od basów po dźwięk standardowej ludzkiej mowy. W następnym etapie badań naukowcy chcą zwiększyć zakres do 10 000 herców. « powrót do artykułu
  4. Składająca się z dwóch dawek szczepionka firmy Johnson&Johnson skierowana przeciwko Eboli jest bezpieczna, dobrze tolerowana przez organizm i wywołuje silną odpowiedź immunologiczną u osób powyżej 1. roku życia, czytamy w dwóch artykułach opublikowanych na łamach The Lancet Infectious Diseases. Dobre wieści nadeszły 5 lat po największej epidemii Eboli od czasu zidentyfikowania tej choroby. Rozwiązanie Johnson&Johnson składa się z dwóch różnych szczepionek. Najpierw podawany jest preparat, w którym adenowirus typu 26 jest nośnikiem (wektorem) glikoproteiny wirusa Eboli (Ad26.ZEBOV). Druga dawka używa jako wektora zmodyfikowany wirus krowianki Ankara (MVA) zaangażowany w roli wektora glikoproteiny wirusów Ebola, Sudan i Marburg oraz nukleoproteiny wirusa Tai Forest (MVA-BN-Filo). Autorzy badań informują, że szczepionka jest bardzo dobrze tolerowana, a jej skuteczność przeciwko wirusowi Ebola (EBOV, Zaire ebolavirus) wynosi 98%, a odporność występuje po 21 dniach od podania drugiej dawki. Utrzymuje się ona przez co najmniej 2 lata. W latach 2014–2016 w Zachodniej Afryce doszło do największej znanej nam epidemii Eboli. Zaraziło się 28 652 osób, z czego 11 325 zmarło. Około 20% przypadków zachorowań stanowiły dzieci poniżej 15. roku życia, a dzieci poniżej 5. roku życia były bardziej narażone na zgon niż dorośli. Dlatego też tak ważny jest, że szczepionkę przetestowano również na dzieciach i że okazała się ona bezpieczna i skuteczna. Ochotników do badań klinicznych szczepionki rekrutowano pomiędzy wrześniem 2015 a lipcem 2018. W pierwszym etapie badań uczestniczyły 43 osoby w wieku co najmniej 18 lat. Najpierw otrzymały one szczepionkę Ad26.ZEBOV, a po 56 dniach podano im MVA-BN-Filo. Drugim etapem badań objęto niemal 1000 osób. Było wśród nich 400 dorosłych oraz 576 osób przed 18. rokiem życia. Młodszych podzielono na trzy grupy wiekowe – 1–3 lat, 4–11 i 12–17 – z których każda składała się ze 192 osób. Wszyscy uczestnicy tego etapu zostali zaszczepieni albo obiema szczepionkami przeciwko Eboli, albo szczepionką przeciwko meningokokom i placebo podanym po 57 dniach. Ponadto dorośli, którzy brali udział w fazie pierwszej otrzymali po dwóch latach dawkę przypominającą A26.ZEBOV, która w ciągu 7 dni wywołała silną odpowiedź immunologiczną. W maju 2021 Johnson&Johnson zapowiedziała, że podaruje tysiące dawek szczepionki przeciwko Eboli, by wspomóc walkę z epidemią, która wybuchła właśnie w Gwinei oraz zapobiec rozszerzaniu się choroby w Afryce Zachodniej. Rozpoczęto program szczepień medyków i innych narażonych osób w Sierra Leone. Dotychczas co najmniej jedną dawkę szczepionki przyjęło 250 000 osób, z czego 200 000 jest w pełni zaszczepionych. Wciąż trwają badania nad skutecznością szczepionki, w tym nad jej podawaniem dzieciom poniżej 1. roku życia. Losy osób zaszczepionych będą śledzone przez 5 lat by sprawdzić, czy szczepionka oferuje długoterminową ochronę. Epidemie Eboli to wciąż realne zagrożenie. W bieżącym roku wybuchły lokalne epidemie w Gwinei oraz Demokratycznej Republice Kongo. « powrót do artykułu
  5. Prowadzony głęboko pod włoskimi Alpami eksperyment XENON1T mógł wykryć ciemną energię, twierdzą członkowie międzynarodowej grupy badawczej, na której czele stali uczeni z Cambridge University. W artykule opublikowanym na łamach Physical Review D uczeni z Wielkiej Brytanii, Włoch, Holandii, Francji i USA donoszą, że część z niewyjaśnionych sygnałów mogło zostać spowodowanych interakcją z ciemną energią, a nie ciemną materią dla której XENON1T został zaprojektowany. XENON1T znajduje się we włoskim Laboratorium Narodowym Gran Sasso położonym 1400 metrów pod masywem Gran Sasso. To wykrywacz ciemnej materii, a jego umiejscowienie głęboko pod ziemią ma chronić przed promieniowaniem kosmicznym generującym fałszywe sygnały. Zgodnie z teoretycznymi założeniami, cząstki ciemnej materii mają zderzać się z atomami w detektorze, a sygnały ze zderzeń będą rejestrowane. Centralna część XENON1T to cylindryczny zbiornik o długości 1 metra wypełniony 3200 kilogramami płynnego ksenonu o temperaturze -95 stopni Celsjusza. Gdy ciemna materia zderzy się z atomem ksenonu, energia trafia do jądra, które pobudza jądra innych atomów. Wskutek tego pobudzenia pojawia się słaba emisja w zakresie ultrafioletu, którą wykrywają czujniki na górze i na dole cylindra. Te same czujniki są też zdolne do zarejestrowania ładunku elektrycznego pojawiającego się wskutek zderzenia. Przed rokiem informowaliśmy, że „Najczulszy detektor ciemnej materii zarejestrował niezwykłe sygnały. Fizycy nie wiedzą, czym one są", a kilka miesięcy później pojawiła się informacja o kilku interesujących hipotezach dotyczących tych sygnałów. Nikt wówczas nie przypuszczał, że rozwiązaniem zagadki może być ciemna energia, gdyż XENON1T nie został przygotowany do jej rejestrowania. Autorzy najnowszych badań stworzyli model fizyczny, który wyjaśnia część z tych niezwykłych sygnałów. Zgodnie z nim, mamy tu do czynienia z cząstkami ciemnej energii, które powstały w regionie Słońca o silnych polach magnetycznych. To, co jesteśmy w stanie obecnie dostrzec stanowi mniej niż 5% wszechświata. Cała reszta jest dla nas ciemna. Wszechświat składa się w 27% z ciemnej materii, a 68% stanowi ciemna energia. Pomimo tego, że obie te składowe są dla nas niewidoczne, znacznie więcej wiemy o ciemnej materii, gdyż jej obecność sugerowano już w latach 20. ubiegłego wieku. O tym, że musi istnieć też ciemna energia dowiedzieliśmy się dopiero w 1998 roku, wyjaśnia doktor Sunny Vagnozzi z Kavli Institute for Cosmology na Cambridge University. Wielkie eksperymenty, jak XENON1T zostały zaprojektowane tak, by bezpośrednio wykrywać ciemną materię, rejestrując zderzenia jej cząstek z cząstkami zwykłej materii. Jednak uchwycenie ciemnej energii jest jeszcze trudniejsze. Chcąc wykryć ciemną energię naukowcy poszukują dowodów jej oddziaływania grawitacyjnego na otoczenie. Wiemy, że w największej skali – całego wszechświata – ciemna energia odpycha obiekty od siebie, dlatego też wszechświat rozszerza się coraz szybciej. Przy tego typu złożonych badaniach często pojawiają się niewytłumaczalne sygnały, które po analizach zwykle okazują się różnego typu zakłóceniami. Gdy w XENON1T zarejestrowano w ubiegłym roku wspomniane już tajemnicze sygnały, pojawiło się kilka pomysłów na to, czym mogą one być. Najpopularniejsze wyjaśnienie brzmiało, że zarejestrowano aksjony, hipotetyczne cząstki tworzące ciemną materię, oraz że pochodziły one ze Słońca. Jednak analizy wykazały, że liczba aksjonów, które musiałyby dotrzeć do nas ze Słońca, by wywołać taki sygnał w XENON1T musiałaby być bardzo duża. Tak duża, że gdyby gwiazdy emitowały tyle aksjonów, to gwiazdy o masie większej od masy Słońca ewoluowałyby w inny sposób, niż ewoluują. Autorzy najnowszych badań przyjęli więc założenie, że tajemnicze sygnały wywołała ciemna energia. I stworzyli model, który pokazuje, co powinien zarejestrować XENON1T gdyby dotarła doń ciemna energia wygenerowana w tachoklinie, obszarze Słońca, w którym pola magnetyczne są wyjątkowo silne. Naukowcy byli zaskoczeni, gdy okazało się, że ich model pasuje do obserwacji. Uzyskane wyniki sugerują bowiem, że wykrywacze takie jak XENON1T mogą być też używane do poszukiwania ciemnej energii. Vagnozzi i jego koledzy zastrzegają jednak, że ich badania wciąż wymagają potwierdzenia. Musimy wiedzieć, że to nie jest jakieś zakłócenie. Jeśli jednak XENON1T coś zarejestrował, to w niedalekiej przyszłości powinniśmy zarejestrować podobne, ale znacznie silniejsze sygnały, mówi Luca Visinelli z Narodowych Laboratoriów Frascati we Włoszech. Uczony ma tutaj na myśli badania prowadzone przez znacznie większe i doskonalsze urządzenia. Takie jak LUX-ZEPLIN, XENONnT czy PandaX-xT, które już rozpoczęły pracę lub w najbliższym czasie ją rozpoczną. « powrót do artykułu
  6. W ramach współpracy Muzeum Bitwy pod Grunwaldem oraz Muzeum Warmii i Mazur 13 września br. do badań antropologicznych na Pomorskim Uniwersytecie Medycznym (PUM) przekazano materiał kostny odkryty w kaplicy pobitewnej w Grunwaldzie. Na materiał osteologiczny składają się kości (obecnie 39.594) i ich fragmenty. Wydobyto je podczas badań wykopaliskowych w latach 1960, 1980 i 1982. Po spakowaniu w 21 kartonowych pudeł masa brutto wynosi aż 578,5 kg. Jak podkreślono w liście intencyjnym podpisanym przez dyrektorów obu placówek, badane już wcześniej kości czekały ponad 60 lat na pojawienie się nowych metod i technik naukowych, które – w ostatniej dekadzie – stały się dostępne. Fascynujące jest to, że będzie można wydobyć z tych kości DNA, co pozwoli określić nie tylko, na jakie choroby chorowali rycerze w tamtym czasie, ale też, jaką mieli dietę. Również i to, z jakich części Europy przybyli, bo wiadomo, że np. dieta śródziemnomorska różniła się od północnoeuropejskiej – wyjawił PAP-owi dyrektor Muzeum Bitwy pod Grunwaldem dr Szymon Drej. Dysponując czaszkami, naukowcy wykonają rekonstrukcje twarzy rycerzy, którzy zginęli w bitwie. Będzie więc można spojrzeć Krzyżakowi w twarz – dodał Drej. Badania planowane są do końca 2023 r. Będzie je prowadził zespół dr. hab. n. med. Andrzeja Ossowskiego (Zakład Genetyki Sądowej PUM w Szczecinie). Kaplicę pod Grunwaldem wznieśli Krzyżacy. Powstała nieopodal miejsca, gdzie znajdował się obóz wojsk zakonnych (i gdzie doszło do ostatniej walki). Budowa rozpoczęła się w 1411 r. z inicjatywy wielkiego mistrza zakonu krzyżackiego w latach 1410-13 Henryka von Plauena. Z różnych miejsc pobojowiska ekshumowano poległych i chowano w masowych grobach przy powstającej kaplicy. Konsekrowano ją 12 marca 1413 r.; uważa się, że byli przy tym obecni wielki mistrz oraz biskup pomezański Jan Ryman. Kaplica otrzymała wezwanie Najświętszej Maryi Panny. Dalsze dzieje kaplicy były dość burzliwe. Do dziś zachowały się tylko szczątki fundamentów. Po zakończeniu badań na PUM muzealnicy chcą zadbać o „spokój doczesny” osób, które zginęły podczas największej bitwy średniowiecznej Europy. Szczątki mają zostać pochowane we wspólnej mogile. Mówi się o pochówku z wszelkimi honorami w pobliżu historycznego pola bitwy, np. w krypcie kościoła parafialnego w Stębarku. « powrót do artykułu
  7. Po trzech latach pracy inżynierom z MIT udało się zwiększyć moc wysokotemperaturowego nadprzewodzącego elektromagnesu dla reaktorów fuzyjnych do rekordowych 20 tesli. Tym samym stworzyli najpotężniejszy magnes tego typu. Osiągnięcie to pozwoli na zbudowanie pierwszej elektrowni fuzyjnej, zdolnej do wygenerowania większej ilości energii niż sama pobiera. Przed zaledwie 3 miesiącami informowaliśmy, że po dziesięciu latach prac projektowych i produkcyjnych firma General Atomics jest gotowa do dostarczenia pierwszego modułu Central Solenoid, jednego z najpotężniejszych magnesów na świecie. Będzie on centralnym elementem reaktora fuzyjnego ITER. Central Solenoid to główny wkład USA w tę instalację. Będzie on generował pole magnetyczne o mocy 13 tesli, czyli 280 000 razy większe od ziemskiego pola magnetycznego. Magnes z MIT generuje pole magnetyczne silniejsze o 50%. Reaktory fuzyjne wytwarzają energię metodą fuzji jądrowej, w czasie której lżejsze pierwiastki łączą się w cięższe. Taki proces zachodzi na Słońcu. Fuzja to pod wieloma względami najdoskonalsze źródło czystej energii. Ilość energii, jaką może dostarczyć zupełnie zmieni reguły gry. Paliwo do fuzji jądrowej można uzyskać z wody, a Ziemia jest pełna wody. To niemal niewyczerpane źródło energii. Musimy tylko dowiedzieć się, jak go używać, mówi profesor Maria Zuber, wiceprezydent MIT ds. badawczych. Osiągnięcie naukowców z MIT daje nadzieję na uzyskanie w laboratorium zysku energetycznego netto drogą fuzji jądrowej. To zaś znakomicie ułatwi i przyspieszy prace nad tą technologią. Teraz, gdy udało się przeprowadzić udane testy tak potężnego magnesu dla reaktorów fuzyjnych konsorcjum MIT-CMS będzie chciało wybudować pierwszą na świecie demonstracyjną elektrownię fuzyjną, zwaną SPARC, uzyskującą dodatni bilans energetyczny. Wspomniany magnes to krok milowy na drodze do jej budowy. Dzięki niemu jest szansa, że SPARC powstanie już za 4 lata. CFS (Commonwealth Fusion Systems) to firma założona w 2018 roku w Plasma Science and Fusion Center na MIT. Jest finansowana m.in. przez włoski koncern ENI, założoną przez Billa Gatesa Breakthrough Energy Ventures  czy singapurską Temasek. Firma współpracuje z Departamentem Energii, MIT oraz Princeton Plasma Physics Laboratory, a jej celem jest wybudowanie kompaktowej elektrowni fuzyjnej opartej na stworzonej na MIT koncepcji tokamaka ARC. Żeby zrozumieć, po co w reaktorach fuzyjnych tak potężne magnesy, trzeba wiedzieć, że do zaistnienia fuzji jądrowej potrzebne są olbrzymie temperatury, sięgające 100 milionów stopni Celsjusza i więcej. Takich temperatur nie wytrzyma żadne ciało stałe. Dlatego też plazmę, w której będzie zachodziła fuzja, trzeba utrzymać z dala od ścian reaktora. Można to zrobić za pomocą silnego pola magnetycznego. I właśnie temu – zawieszeniu plazmy w przestrzeni – służą potężne elektromagnesy. Główna innowacja projektu ARC polega na wykorzystaniu wysokotemperaturowych nadprzewodników, które pozwalają na uzyskanie znacznie silniejszego pola magnetycznego w mniejszej przestrzeni. Materiały pozwalające na stworzenie takiego magnesu pojawiły się na rynku dopiero kilka lat temu. Koncepcja ARC powstała w 2015 roku. Demonstracyjny reaktor SPARC ma być o połowę mniejszy niż pełnowymiarowy ARC i ma posłużyć do przetestowania projektu. Prace nad fuzją jądrową trwają na MIT od dawna. W ubiegłym roku pojawiło się kilka artykułów naukowych, których autorzy donosili, że jeśli uda się wyprodukować takie magnesy, jak założono, to reaktory typu ARC rzeczywiście powinny wytwarzać więcej energii niż zużyją. Nasz projekt wykorzystuje standardową fizykę plazmy oraz projekt i założenia inżynieryjne konwencjonalnego tokamaka, ale łączy je z nową technologią wytwarzania magnesów. Zatem nie potrzebowaliśmy innowacji na kilku polach. Naszym celem było stworzenie odpowiedniego magnesu, a następnie zastosowanie w praktyce tego, czego nauczyliśmy się w ciągu ostatnich kilku dekad, mówi Martin Greenwald z Plasma Science and Fusion Center. To wielka chwila, dodaje Bob Mumgaard, dyrektor wykonawczy CFS. Dysponujemy teraz platformą, która dzięki dziesięcioleciom badań nad tego typu rozwiązaniami jest bardzo zaawansowana z naukowego punktu widzenia i jednocześnie bardzo interesująca z komercyjnego punktu widzenia. To pozwoli nam szybciej budować mniejsze i tańsze reaktory. Trzy lata temu ogłosiliśmy, że zamierzamy zbudować magnes o mocy 20 tesli, który będzie potrzebny do przyszłych reaktorów fuzyjnych. Osiągnęliśmy nasz cel bez żadnych opóźnień, dodaje.   « powrót do artykułu
  8. W nadchodzących dekadach przewidywany jest gwałtowny wzrost zapotrzebowania na akumulatory dla samochodów elektrycznych. Tymczasem już teraz są problemy z dostawami miedzi, kobaltu, litu czy niklu. Możemy więc spodziewać się problemów z realizacją zamówień na metale i wzrostu cen. Niektóre firmy chcą więc wydobywać metale z dna morskiego. Może nie tyle wydobywać, co wysysać, gdyż pomiędzy Meksykiem a Hawajami na dnie spoczywają grudki zawierające więcej kobaltu i niklu niż wszystkie złoża lądowe. Jednak planom takim sprzeciwia się część naukowców, a w ich ślady idą wielkie światowe koncerny. Wydobycie metali znajdujących się na lądach wiąże się z olbrzymim zanieczyszczeniem i zniszczeniem środowiska, łamaniem praw człowieka i emisją gazów cieplarnianych. Dość wspomnieć, że większość światowych zasobów niklu znajduje się pod lasami deszczowymi Indonezji, Demokratyczna Republika Kongo dostarcza 70% kobaltu, a Chiny chętnie używają swojej pozycji na rynku metali ziem rzadkich oraz przetwórcy surowych materiałów w grze politycznej. Im bardziej wyczerpujemy złoża wysokiej jakości, tym bardziej sięgamy po te niższej jakości, z czym wiąże się coraz większe zanieczyszczenie środowiska. Pole konkrecjonośne Clarion-Clipperton (CCZ) rozciąga się pomiędzy Meksykiem a Hawajami. To tam na dnie oceanu, na głębokości kilku tysięcy metrów, spoczywają polimetaliczne konkrecje, grudki zawierające duże ilości różnych metali. Kanadyjska firma Metals Company chce być pierwszą, która dostarczy na rynek metale z tych konkrecji. Ma to się stać w 2024 roku. Jako, że konkrecje leżą na dnie, nie są potrzebne żadne wiercenia czy kopanie. Metals Company chce wysłać statek, który za pomocą specjalnego urządzenia będzie zasysał grudki. Następnie zostaną one przewiezione do zakładu, który pozyska z nich kobalt, nikiel, miedź czy mangan. Zakład taki będzie prawdopodobnie znajdował się w Teksasie, gdyż jest tam łatwy dostęp do portów oraz tania energia ze źródeł odnawialnych. Kanadyjczycy twierdzą, że chcą pozyskiwać metale wyłącznie za pomocą energii odnawialnej i nie produkując przy tym żadnych odpadów stałych. Nie chcemy, by z rynkiem samochodów elektrycznych stało się to, co z rynkiem półprzewodników, który w tym roku ucierpiał z powodu braku surowców. Pytanie brzmi, gdzie będziemy wydobywać metale. Zróbmy to na podmorskich pustyniach, na równinach abisalnych, miejscach, w których życie występuje bardzo rzadko, w przeciwieństwie do życia w lasach deszczowych. Tam na 1 m2 powierzchni występuje 1500 razy mniej życia niż w lasach deszczowych, mówi Craig Shesky, prezes ds. finansowych Metal Company. Jednak sytuacja nie jest taka oczywista. Profesor oceanografii Craig Smith z Uniwersytetu Hawajskiego, który prowadził kilka ekspedycji badawczych w CCZ mówi, że równiny abisalne to bardzo wrażliwy, dziewiczy ekosystem, nietknięty ręką człowieka. I trudno jest w tej chwili ocenić jego wartość. Co prawda ilość biomasy jest tam znacznie mniejsza niż w lasach deszczowych, ale bioróżnorodność jest zadziwiająco duża. Większość gatunków, na które natknęliśmy się podczas naszych badań była wcześniej nieznana nauce. Sądzimy, że to centrum bioróżnorodności, mówi uczony. Jego zdaniem, działania wydobywcze na równinach abisalnych mogą poważnie zaszkodzić, a może nawet całkowicie wytępić wiele gatunków, których jeszcze nie znamy, a osady morskie, wzniesione podczas wydobywania konkrecji, mogą przemieszczać się przez setki kilometrów, zagrażając różnym organizmom na swojej trasie. Poza tym same konkrecje to habitaty tysięcy mikroorganizmów. Shesky odpowiada, że 70% organizmów żywych w tamtych regionach to bakterie, a niedawno prowadzone badania wykazały, że wzruszone podczas prac wydobywczych osady opadają szybciej niż dotychczas sądzono. Powołuje się też na badania, które mówią, że wytwarzanie metali z konkrecji będzie powodowało 10-krotnie mniejszą emisję gazów cieplarnianych, niż pozyskiwanie tych samych metali z rud w złożach lądowych. Problemem dla Metals Company może być nie tylko postawa naukowców, ale niektórych wielkich koncernów. BMW, Google, Samsung i Volvo oświadczyły, że nie będą kupowały metali pozyskanych z konkrecji, dopóki lepiej nie będziemy rozumieli wpływu ich wydobycia na środowisko naturalne. W ubiegłym roku Metals Company przyznała grant w wysokości 2,9 milionów dolarów na zbadanie wpływu działalności wydobywczej w CCZ na środowisko naturalne. Badania mają objąć całą kolumnę wodną, od dna do powierzchni oceanu. Będą je prowadzili naukowcy z Uniwersytetu Hawajskiego, Texas A&M University oraz Japan Agency for Marine-Earth Science and Technology. « powrót do artykułu
  9. Autorzy artykułu opublikowanego w Americal Journal of Clinical Nutrition podważają powszechnie panujące przekonanie, że to nadmierna ilość spożywanego jedzenia prowadzi do otyłości. Ich zdaniem model bilansu energetycznego, zgodnie z którym nadwaga i otyłość pojawiają się, gdy pobieramy więcej energii niż wydatkujemy, zawiera liczne błędy. Proponują stosowanie modelu węglowodanowo-insulinowego, zgodnie z którym nadwagę i otyłość powoduje to, co jemy, a nie ile jemy. Zgodnie ze stosowanym obecnie modelem bilansu energetycznego zachęca się do spożywania mniejszych ilości pokarmów i większej aktywności fizycznej. Jednak działania takie nie przynoszą skutku, a osób z nadwagą i otyłych jest coraz więcej. Jak mówią autorzy wspomnianego artykułu, model bilansu energetycznego bierze pod uwagę podstawy fizyki, bez uwzględniania biologicznych mechanizmów prowadzących do przybierania na wadze. Dlatego też zaproponowali model węglowodanowo-insulinowy, zgodnie z którym ważniejsze jest to co jemy, a nie ile jemy. Ich zdaniem bowiem epidemia otyłości spowodowana jest częściowo przez hormonalną reakcję na zmianę jakości pożywienia, a w szczególności na obecność w dużych ilości cukru i wysoki indeks glikemiczny pokarmów, co prowadzi do zmian w metabolizmie. Wszędzie otacza nas wysoko przetworzona, smaczna żywność, która jest do tego intensywnie reklamowana. W tej sytuacji łatwo przyjmować więcej kalorii niż się potrzebuje, a na nierównowagę energetyczną wpływ ma też siedzący tryb życia. Zgodnie z tą filozofią przyjmowanie zbyt dużych ilości pożywienia w połączeniu z brakiem aktywności fizycznej prowadzi do nadwagi. Problem jednak w tym, że pomimo kampanii informacyjnych zachęcających do jedzenia mniej i ćwiczenia więcej, epidemia otyłości zatacza coraz szersze kręgi. Główny autor artykułu The Carbohydrate-Insulin Model: A Physiological Perspective on the Obesity Pandemic doktor David Ludwig z Boston Children's Hospital i Harvard Medical School mówi, że model bilansu energetycznego nie uwzględnia biologicznych przyczyn przybierania na wadze. Weźmy na przykład pod uwagę okres szybkiego wzrostu nastolatków. W tym czasie młodzi ludzie mogą zwiększyć spożywaną liczbę kalorii o 1000 dziennie. Ale czy to ta zwiększona ilość kalorii powoduje, że rosną czy też nagły wzrost powoduje, że są głodni i się przejadają?, zwraca uwagę Ludwig. Model węglowodanowo-insulinowy zakłada, że przyczyną nadwagi jest to co jemy, a nie ile jemy. Zgodnie z nim przyczyną współczesnej epidemii otyłości są współczesne nawyki żywieniowe, które powodują, że jemy bardzo dużo pokarmów o wysokim indeksie glikemicznym, szczególnie zaś wysoko przetworzonych, łatwych do strawienia węglowodanów. Taka żywność prowadzi do zmian w naszym metabolizmie, których wynikiem jest odkładanie się tłuszczu i przybieranie na wadze. Gdy spożywamy wysoko przetworzone węglowodany nasz organizm zwiększa wydzielanie insuliny, a zmniejsza wydzielanie glukagonu. To zaś powoduje, że komórki tłuszczowe dostają polecenie przechowywania większej ilości kalorii. A skoro więcej energii jest odkładane, to mięśnie i inne aktywne tkanki otrzymują mniej kalorii. Mózg zauważa więc, że ciało nie dostaje wystarczającej ilości energii i generuje sygnały, przez które czujemy się głodni. Jakby jeszcze tego było mało, gdy organizm próbuje przechowywać energię, metabolizm może zwalniać. W ten sposób możemy czuć się głodni, mimo że w naszym organizmie ciągle odkłada się tłuszcz. Dlatego też powinniśmy brać pod uwagę nie tylko to, ile jemy, ale również co jemy oraz jak żywność wpływa na hormony i metabolizm. Zdaniem Ludwiga, poważny błąd modelu bilansu energetycznego polega na tym, że traktuje on wszystkie kalorie tak samo, niezależnie od źródła, z jakiego je przyjmujemy. Model węglowodanowo-insulinowy jest znany nauce od 100 lat. Artykuł opublikowany na łamach The American Journal of Clinical Nutrition jest jego najbardziej wszechstronną analizą. W jej opracowaniu wzięło udział 17 ekspertów z USA, Danii oraz Kanady. Podsumowali oni dziesiątków prac naukowych wspierających model węglowodanowo-insulinowy. Na tej podstawie uważają, że w ramach polityki prozdrowotnej należy zwracać uwagę przede wszystkim na to, co jemy. Zmniejszenie ilości łatwych do strawienia węglowodanów, które zalały sieci spożywcze w obecnej epoce mody na dietę niskotłuszczową, pozytywnie wpłynie na biologiczne mechanizmy gromadzenia się tłuszczu w organizmie. Dzięki temu ludzie mogą tracić na wadze czując się przy tym mniej głodni, a chudnięcie będzie dla nich łatwiejsze, stwierdza Ludwig. « powrót do artykułu
  10. Od początku lipca br. specjaliści z Muzeum Twierdzy Kostrzyn prowadzą stały nadzór archeologiczny nad przebudową ul. Osiedle Warniki i ul. Kardynała Stefana Wyszyńskiego w Kostrzynie nad Odrą. Pod koniec sierpnia rozpoczęły się badania archeologiczne. Wtedy odkryto tu nieznane stanowisko - cmentarzysko sprzed ok. 2500 lat. Jak podkreślono na stronie Muzeum, należy je wiązać z ludnością lokalnej grupy górzyckiej kultury łużyckiej (w 2011 r. nekropolia z tego okresu została odkryta między innymi na kostrzyńskim Starym Mieście, na Rawelinie August Wilhelm). Do 8 września zarejestrowano 45 obiektów archeologicznych; groby ciałopalne stanowią ponad 90% z nich. Przepalone szczątki ludzkie umieszczano głównie w glinianych naczyniach; niektóre są bogato zdobione. W nielicznych przypadkach prochy umieszczano w opakowaniach z surowców organicznych (tkanina czy skóra). W niektórych pochówkach składano dodatkowe naczynia pełniące funkcje przystawek. Przy urnach odkryto ozdoby z brązu i żelaza. Archeolodzy wspominają o żelaznej szpili, za pomocą której spinano szaty czy o ozdobach z brązu stopionych wskutek kremacji. Poza tym odkryto zabytki wykonane z kamienia. W większości urny są w kiepskim stanie. Do ich uszkodzenia mogło dojść w czasie budowy drogi. Była jednak również urna w bardzo dobrym stanie, zachowana w całości - powiedział portalowi Kostrzyn Nad Odrą Nasze Miasto Krzysztof Socha z Muzeum Twierdzy Kostrzyn. Nekropolia znajduje się na podwyższeniu terenu. Archeolodzy przypuszczają, że osada, z którą związane było cmentarzysko, leżała bliżej Warty. Bo, jak podkreśla Socha, woda zapewniała życie. Odkryto także znacznie młodszy grób szkieletowy, prawdopodobnie z okresu średniowiecza. Oprócz tego natrafiono na pojedyncze przedmioty z okresu II wojny światowej. Prace terenowe na cmentarzysku w obrębie pasa drogowego mają zostać zakończone 15 września, ale prawdopodobnie zostaną wznowione, kiedy rozpoczną się roboty ziemne związane z budową chodnika i ścieżki rowerowej. Badania archeologiczne są prowadzone na zlecenie głównego wykonawcy - firmy Maldrobud z Myśliborza. « powrót do artykułu
  11. Najnowsze odkrycie naukowców z Uniwersytetu Przyrodniczego we Wrocławiu dowodzi, że dotychczasowe podejście do korygowania błędów wynikających z opóźnienia wiązki laserowej w atmosferze było wadliwe.  Dlatego proponują zupełnie nowe rozwiązanie, dzięki któremu obserwacje m.in.: kształtu Ziemi, topniejących lodowców oraz zmian poziomu wód oceanicznych będą dokładniejsze. Pomiary laserowe opierają się na rejestracji różnicy czasu pomiędzy momentem wysłania impulsu laserowego na stacji a momentem powrotu tego samego impulsu po tym, gdy zostanie on odbity przez retroreflektor na satelicie lub Księżycu. Podczas pomiaru wiązka laserowa przechodzi dwukrotnie przez atmosferę ziemską, gdzie ulega ugięciu i opóźnieniu. Technologia detektorów laserowych pozwala na uzyskanie dokładności sub-milimerowych. Jednakże błędy wyznaczenia opóźnienia wiązki laserowej w atmosferze są wielokrotnie większe i stanowią główne źródło błędów w pomiarach laserowych do satelitów i Księżyca. Na czym polega nowatorstwo rozwiązania Polaków? Naukowcy z Instytutu Geodezji i Geoinformatyki Uniwersytetu Przyrodniczego we Wrocławiu zaproponowali zupełnie nowe i innowacyjne podejście do korygowania opóźnienia wiązki laserowej w atmosferze. Podejście opiera się na uwzględnieniu grubości warstw atmosfery, przez które przechodzi laser. Do wyznaczenia wartości opóźnienia lasera wykorzystuje się odczyty meteorologiczne na stacji, do których wyliczana jest poprawka zależna od wysokości satelity nad horyzontem oraz od początkowej wartości opóźnienia wiązki lasera. W zaproponowanej metodzie analizuje się wszystkie pomierzone odległości na wszystkich stacjach i wylicza się dla każdej stacji poprawki, które są wprost proporcjonalne do opóźnienia wiązki lasera wynikającego z bezpośrednich pomiarów meteorologicznych i grubości atmosfery, którą musi pokonać laser. Poprawkę meteorologiczną wystarczy wyliczać raz na tydzień dla każdej stacji laserowej, dzięki czemu obliczenia pozostają stabilne nawet dla stacji z niewielką liczbą zarejestrowanych pomiarów laserowych do satelitów, a zarazem błąd wynikający z opóźnienia atmosferycznego zostaje prawie całkowicie usunięty. Metoda opracowana przez polski zespół pozwala na skuteczną eliminację od 75 do 90% błędów systematycznych w pomiarach laserowych wynikających z błędów opóźnienia atmosferycznego. Sposób redukcji błędów meteorologicznych już niedługo ma szansę stać się standardem w laserowych pomiarach odległości do satelitów zwiększając dokładność nawet historycznych obserwacji Księżyca i satelitów, dzięki swojej prostocie i uniwersalności. Pozwala również na wykrycie błędnych odczytów z barometrów, które wcześniej negatywnie wpływały na satelitarne obserwacje Ziemi i Księżyca. Przełoży się to na poprawę przyszłych oraz wcześniejszych obserwacji kształtu Ziemi, tzw. geoidy, zmiany centrum masy Ziemi i obserwacji nieregularności w ruchu obrotowym, obserwacji topniejących lodowców oraz zmian poziomu wód oceanicznych. Po co mierzymy odległości do satelitów? Dzięki pomiarom laserowym do sztucznych i naturalnego satelity Ziemi dowiedzieliśmy się, ile wynosi stała grawitacji i masa Ziemi, o ile zmienia się spłaszczenie Ziemi w czasie, możemy korygować i wyliczać poprawki pozycji satelitów Galileo i GLONASS oraz zidentyfikowaliśmy, gdzie znajduje się środek masy Ziemi i jak przemieszcza się w czasie za sprawą topniejących lodowców na Grenlandii. Pomiary laserowe do Księżyca pozwoliły odkryć, że Księżyc oddala się od Ziemi o 3,8 cm rocznie. Ponadto pozwoliły na dokładny opis wahań w ruchu Księżyca, czyli tzw. libracji oraz zrewidować pochodzenie srebrnego globu. Wrocławskie centrum obliczeniowe pomiarów laserowych Grupa badawcza kierowana przez profesora Krzysztofa Sośnicę od wielu lat zajmuje się rozwojem technik laserowych i mikrofalowych w geodezji satelitarnej, a także wyznaczaniem precyzyjnych orbit sztucznych satelitów i parametrów opisujących Ziemię. W Instytucie Geodezji i Geoinformatyki Uniwersytetu Przyrodniczego we Wrocławiu od 2017 roku funkcjonuje Stowarzyszone Centrum Analiz Międzynarodowej Służby Pomiarów Laserowych do Sztucznych Satelitów i Księżyca (ang. International Laser Ranging Service, ILRS). Centrum odpowiada za monitorowanie jakości orbit satelitów Globalnych Nawigacyjnych Systemów Satelitarnych (GNSS): Galileo, GLONASS, BeiDou i QZSS z wykorzystaniem orbit opartych o obserwacje mikrofalowe i bezpośrednie pomiary laserowe. Jako jedyne na świecie, wrocławskie centrum specjalizuje się w kombinacji dwóch technik obserwacyjnych sztucznych satelitów: laserowej i mikrofalowej GNSS.  « powrót do artykułu
  12. Wielkimi krokami zbliża się kolejny technologiczny przełom, jakim niewątpliwie jest sieć 5G. Jak działa nowy wymiar internetu mobilnego i gdzie już teraz można cieszyć się zasięgiem 5G? Dowiedz się więcej na temat innowacyjnych rozwiązań. Technologia 5G wkracza do Polski. Jak zwykle na początku najszybszy w dziejach internet mobilny dostępny będzie w dużych miastach, ale liczba lokalizacji objętych zasięgiem 5G wciąż rośnie. Wyjaśniamy różnice między 4G a 5G, a także podpowiadamy, gdzie szukać sieci nowej generacji. Czym jest 5G? Na początek warto wyjaśnić, czym właściwie jest sieć 5G i w jakim stopniu zmienia możliwości, które dotąd oferował internet mobilny. Skrót nazwy odnosi się do piątej generacji internetu mobilnego, który ma zastąpić powszechnie wykorzystywaną obecnie sieć 4G, nazywaną również LTE. Z racji faktu, że coraz więcej urządzeń korzysta z sieci (nie tylko elektronika, ale też samochody czy sprzęty RTV i AGD), jest ona coraz częściej przeciążona. Wprowadzenie 5G jest więc nie tylko znakiem kolejnego kroku w rozwoju technologii, ale również odpowiedzią na ogromne zapotrzebowanie użytkowników. Sieć 5G wyprzedza poprzednie generacje pod każdym względem. Prędkość transferu przyspiesza do niewiarygodnego poziomu do 20 GB/s pobierania i do 10 GB/s wysyłania i co bardzo ważne, praktycznie niweluje opóźnienia, które mają wynosić maksymalnie 4 ms. Co oznacza tak krótki czas między wysłaniem danych a ich odbiorem? Dla przykładu gracze online nie mają problemów ze wspólną rozgrywką, jeśli opóźnienie między ich komputerami wynosi 20 ms. Opóźnienie na poziomie 4 ms jest praktycznie niezauważalne dla człowieka, a więc umożliwia np. zdalne wykonywanie operacji. Sieć 5G otwiera zupełnie nowe możliwości dla wielu branż. Jeśli chcesz poznać więcej szczegółów dotyczących nowej generacji internetu mobilnego, zapoznaj się z artykułem poświęconym 5G. 4G LTE a 5G – różnice Zacznijmy od samej technologii. Dotychczasowe generacje internetu mobilnego operowały na tych samych pasmach częstotliwości, czyli obecnie od 800 do 2600 MHz. Oznacza to, chociażby konieczność dzielenia przez operatorów tych pasm między starsze technologie 3G, a nawet 2G. To z kolei przekłada się na obciążenie sieci i jej wydajność. Sieć 5G może działać na dotychczasowych pasmach, ale planowane jest też udostępnienie piątej generacji internetu nowych częstotliwości. Ten zabieg nie tylko zwiększy przepustowość, ale też znacząco wpłynie na zasięg 5G na całym świecie. Kolejną zmianą względem LTE jest sposób działania. Dotychczasowe generacje internetu mobilnego krążyły nieustannie w przestrzeni, czekając w gotowości na potrzeby użytkowników. Działanie sieci 5G przypomina bardziej mierzenie do celu. Wiązki sygnału kształtują się dokładnie tam, gdzie znajdują się urządzenia odbiorcze, czyli np. smartfon czy komputer. Efektem jest znacznie stabilniejsze połączenie. Przejdźmy teraz do liczb. Jak wygląda zestawienie możliwości sieci 4G z 5G? •    5G oferuje aż dziesięciokrotnie szybszy transfer danych. •    Opóźnienie w przesyłaniu danych w 5G jest dziesięciokrotnie krótsze niż w LTE. •    Wzrasta liczba obsługiwanych urządzeń – do miliona na metr kwadratowy. Gdzie szukać zasięgu 5G w Polsce? Pod względem zasięgu piąta generacja internetu mobilnego może być przełomowa i docierać niemal wszędzie. Wymaga to jednak odpowiedniej infrastruktury, która obecnie jest na etapie wdrażania. Prace posuwają się w szybkim tempie, jednak jak zwykle pierwszeństwo w wdrażaniu nowych technologii mają największe ośrodki w kraju, gdzie odnotowuje się najwyższy poziom zapotrzebowania na przepustowość danych internetowych. Za przykład obecności sieci 5G w Polsce w 2021 roku może posłużyć mapa zasięgu operatora Play. Obecnie największe szanse na skorzystanie z możliwości sieci 5G mają mieszkańcy województwa mazowieckiego. Oczywiście najbardziej rozbudowana infrastruktura dotyczy Warszawy, ale z szybszego łącza mogą korzystać również mieszkańcy takich miejscowości jak Legionowo, Grodzisk Mazowiecki czy Otwock. Ponadto stacje bazowe znajdują się również w okolicach Ostrowa Mazowieckiego i nieco dalej, obejmując Łuków czy Sokołów Podlaski. Coraz więcej możliwości korzystania z szybkiego internetu mają też mieszkańcy południowej części kraju, czyli Wrocławia, Krakowa, a także Mielca, Leżajska, Krosna czy turystycznych regionów – Zakopanego, Białki Tatrzańskiej oraz Nowego Targu. W centralnej części Polski, póki co warunki dla 5G znajdziemy w Toruniu, za to dużo więcej ośrodków spotkać można na Wybrzeżu. Zasięgiem 5G objęte jest praktycznie całe Trójmiasto oraz Władysławowo. Nad morzem z szybkiego internetu skorzystamy również w Kołobrzegu i Ustce. We wschodniej części kraju najlepszy zasięg odnajdziemy w Augustowie, Giżycku oraz Mrągowie. Z czasem mapa będzie się regularnie zagęszczać. Prace nad modernizacją stacji bazowych i dostosowania ich do wymogów technologii 5G trwają. Warto dodać, że korzystanie z walorów oferowanych przez internet piątej generacji możliwe jest wyłącznie przy pomocy odpowiednich urządzeń. Dopiero od nieco ponad roku na rynku obecne są smartfony, które obsługują sieć 5G. « powrót do artykułu
  13. Badania przeprowadzone na 105 osobach z nadwagą bądź otyłością wykazały, że spożywanie 1 awokado dziennie spowodowało u kobiet zmianę profilu rozkładu tłuszczu na bardziej korzystny dla zdrowia. Autorzy badań, naukowcy z Uniwersytetu Illinois w Urbana-Champaign, Uniwersytetu Florydzkiego oraz Uniwersytetu Wschodniego Illinois, przez 12 tygodni dostarczali ochotnikom 1 posiłek dziennie (uczestników losowano do grup, w tym do grupy kontrolnej). Artykuł, w którym podsumowano uzyskane wyniki, ukazał się w piśmie Journal of Nutrition. Celem badania nie była utrata wagi. Chcieliśmy zrozumieć, jak jedzenie awokado ma się do rozkładu tkanki tłuszczowej, a to, jak wiemy, ma duży wpływ na zdrowie – wyjaśnia prof. Naiman Khan. W obrębie brzucha mamy podskórną tkankę tłuszczową i tłuszcz, który gromadzi się głębiej, otaczając narządy wewnętrzne. Osoby z większą ilością tkanki tłuszczowej trzewnej [wisceralnej] są bardziej zagrożone cukrzycą, dlatego zależało nam na sprawdzeniu, czy pod wpływem spożycia awokado zmienia się stosunek podskórnej do trzewnej tkanki tłuszczowej – dodaje. Badanych podzielono na dwie grupy. Jedna dostawała posiłek ze świeżym awokado, a druga niemal identyczny w składzie posiłek o podobnej wartości energetycznej, ale bez awokado. Ochotnicy mieli 25-45 lat (61% stanowiły kobiety). Na początku studium i po upływie 12 tygodni naukowcy zbadali uczestników za pomocą absorpcjometrii promieniowania X (DXA). Przeprowadzili też doustny test obciążenia glukozą (ang. Oral Glucose Tolerance Test, OGTT). U kobiet, które spożywały awokado, odnotowano spadki dot. trzewnej tkanki tłuszczowej, a także obniżenie stosunku tłuszczu trzewnego (ang. visceral adipose tissue, VAT) do tłuszczu podskórnego (ang. subcutaneous abdominal adipose tissue, SAAT). Wskazywało to na zmianę rozkładu tkanki tłuszczowej. U mężczyzn nie zauważano podobnego zjawiska. U żadnej z płci nie stwierdzono poprawy w zakresie tolerancji glukozy. Choć codzienne spożywanie awokado nie wpłynęło na tolerancję glukozy, zauważyliśmy, że wzorzec dietetyczny uwzględniający awokado każdego dnia oddziałuje na sposób, w jaki organizm magazynuje tłuszcz. Jest on lepszy dla zdrowia, ale korzyści obserwowano głównie u kobiet – podkreśla prof. Khan. To ważne, by pokazywać, że interwencje dietetyczne mogą modulować rozkład tkanki tłuszczowej. Amerykanie mają nadzieję, że uda się kontynuować badania, tym razem jednak ochotnikom dostarczano by wszystkie posiłki i analizowano inne markery (wskaźniki) dot. stanu przewodu pokarmowego i ogólnego stanu zdrowia; w ten sposób można by uzyskać pełniejszy obraz metabolicznego wpływu spożycia awokado i sprawdzić, czy różnice międzypłciowe się utrzymują. « powrót do artykułu
  14. Dziennikarskie śledztwo przeprowadzone przez The Wall Street Journal wykazało, że Facebook podzielił użytkowników na kategorie i jednym pozwala na więcej niż innym. Wbrew temu, co twierdzą przedstawiciele serwisu, koncern nie stosuje tych samych zasad dla wszystkich. Znani użytkownicy platformy społecznościowej zostali zwolnieni z przestrzegania niektórych lub wszystkich jej zasad. Mowa tutaj o używanym przez Facebooka programie XCheck. Początkowo jego celem było zwiększenie jakości kontroli nad przestrzeganiem zasad Facebooka przez znanych posiadaczy kont w serwisie. XCheck zajmował się celebrytami, politykami czy dziennikarzami. Jednak z czasem przerodził się on w parasol ochronny nad kilkoma milionami wybranych kont. Niektóre z tych kont są wyłączone spod jakiejkolwiek kontroli zasad przestrzegania standardów Facebooka inne zaś mogą publikować materiały, za które zwykli użytkownicy są upominani czy blokowani. Z dokumentów, do których dostęp uzyskali dziennikarze, wynika, że w 2019 roku wykonany przez Facebooka poufny wewnętrzny audyt wykazał istnienie problemu. Nie robimy tego, o czym publicznie zapewniamy. Ci ludzie, w przeciwieństwie do całej reszty, mogą naruszać nasze standardy nie ponosząc żadnych konsekwencji, czytamy w poufnym raporcie. Skutek takich działań Facebooka jest taki, że słynny piłkarz Neymar mógł opublikować nagie zdjęcia kobiety, która oskarżyła go o gwałt, a z uprzywilejowanych kont rozsiewano nieprawdziwe informacje o rzekomym ukrywaniu przez Hillary Clinton istnienia pedofilskiego kręgu czy o tym, jakoby prezydent Trump miał nazwać wszystkich uchodźców „zwierzętami”. Od tamtej pory jest tylko gorzej. W 2020 roku parasolem ochronnym Facebooka objętych było 5,8 miliona kont. Facebook dokładnie wie, że XCheck stanowi poważny problem, że pozwala na naruszanie standardów. Jednak nic z tym nie robi. Teraz serwis może mieć poważny problem, gdyż ktoś wyniósł poufne dokumenty i co najmniej część z nich przekazał Komisji Giełd i Papierów Wartościowych oraz Kongresowi. Zawartość umieszczona na Facebooku przez przeciętnego użytkownika podlega sprawdzeniu przez algorytmy, które pilnują, by użytkownicy nie naruszali zasad. Jeśli algorytmy uznają, że zasady zostały naruszone, treści są ukrywane lub usuwane. Czasami materiał oznaczony przez algorytmy trafia do przeglądu dokonywanego przez moderatorów zatrudnianych przez firmy zewnętrzne, współpracujące z Facebookiem. Jednak inaczej jest w przypadku kont, którymi zajmuje się XCheck. System ten został przygotowany tak, by – jak opisano w poufnych dokumentach Facebooka – zminimalizować szkody PR-owe, do jakich mogłoby dojść, gdyby niesłusznie ocenzurowano treści opublikowane przez wpływowe osoby. Jeśli XCheck stwierdzi, że treści takie mogą naruszać standardy, nie są one usuwane. Trafiają do osobnego systemu przeglądu, dokonywanego przez lepiej przeszkolonych etatowych pracowników. Wiadomo, że wielu pracowników Facebooka mogło dodawać użytkowników do XCheck, a ze wspomnianego audytu wynika, że w 2019 roku robiło tak co najmniej 45 zespołów znajdujących się w  firmie. Wewnętrzny podręcznik obsługi XCheck mówi, że należy tam dodawać konta „warte rozpowszechniania”, „wpływowe lub popularne” czy „ryzykowne pod względem PR”. Widocznym skutkiem takich działań było np. postępowanie Neymara, brazylijskiej gwiazdy piłki nożnej, który w 2019 roku został oskarżony o gwałt. W odpowiedzi Neymar opublikował na Facebooku i Instagramie m.in. korespondencje pomiędzy sobą a oskarżycielką, w tym nazwisko oskarżycielki i jej nagie zdjęcia. Standardowe procedury Facebooka przewidują skasowanie takich zdjęć. Jednak konto Neymara znajduje się pod parasolem ochronnym XCheck. Z tego też system na ponad dobę uniemożliwił moderatorom usunięcie wideo opublikowanego przez Neymara. Audyt wykazał również, że 56 milionów użytkowników mogło zobaczyć zdjęcia, które Facebook określił jako „porno z zemsty”, a wideo zostało udostępnione ponad 6000 razy wraz z komentarzami nieprzychylnymi kobiecie. Zasady Facebooka mówią, że publikacja nagich zdjęć powinna kończyć się nie tylko ich usunięciem, ale również usunięciem konta osoby, która je umieściła. Po tym, jak sprawie Neymara przyjrzało się kierownictwo, zdecydowaliśmy się na pozostawienie jego konta. To wyraźne odejście od naszych zasad, czytamy w audycie Facebooka. Wydaje się, że Facebook nie panuje nad XCheck. Parasol ochronny otwarto nad tak duża liczbą kont, że nikt nie jest w stanie ręcznie sprawdzać zastrzeżeń zgłaszanych przez algorytmy, a pracownicy wciąż dodają nowe konta. Z dokumentów wynika, że na razie Facebook planuje opracowanie zasad postępowania w przypadku poważnych naruszeń dokonywanych przez ludzi chronionych przez XCheck. Jednak będzie to robione z założeniem, że właściciele takich kont mieli „dobre intencje” i przyjęta zostanie zasada „niewinny, póki nie udowodni mu się winy”. To nadal całkowicie inne zasady postępowania, niż te dotyczące wszystkich innych użytkowników. « powrót do artykułu
  15. Obliczenia przeprowadzone na Uniwersytecie w Bonn wskazują, że Model Standardowy powinien zostać poszerzony. Nie możemy być tego jeszcze całkowicie pewni. Nasze obliczenia powinny być nieco bardziej precyzyjne. Jeśli jednak uzyskane wyniki się potwierdzą, będzie to jedno z najważniejszych odkryć w fizyce cząstek w ostatnich latach, mówi główny autor badań Chien-Yeah Seng. Ich wyniki zostały właśnie opublikowane na łamach Physics Letters B. Obowiązujący od kilkudziesięciu lat Model Standardowy opisuje trzy z czterech oddziaływań podstawowych oraz wszystkie znane cząstki. To jedna z najważniejszych teorii fizyki. Oparł się licznym próbom podważenia i wielokrotnie został potwierdzony. Jest modelem świetnie opisującym wszechświat, a jednocześnie wiemy, że jest bardzo niekompletny. Nie opisuje grawitacji, ciemnej materii i ciemnej energii, nie uwzględnia masy neutrino. Bardzo często więc słyszymy o możliwym istnieniu „fizyki poza Modelem Standardowym”. Badania uczonych z Bonn stanowią kolejną – silną – wskazówkę, że fizyka taka istnieje. A naukowcy wywiedli ją z badań nad rozpadem kaonów. Kaony (mezony K) wchodzą w skład promieniowania kosmicznego. Są niestabilne, szybko dochodzi do ich rozpadu. W Modelu Standardowym rozpad ten opisywany jest za pomocą elementu Vus, a jego wartość można wyliczyć na podstawie eksperymentalnych danych. Problem jednak w tym, że dla różnych rodzajów rozpadu, wartość ta jest różna. To może wskazywać na istnienie zjawisk wykraczających poza Model Standardowy. Jednak nie możemy tego być pewni z trzech powodów. Po pierwsze, eksperymentalne pomiary mogą być błędne lub niedokładne. Po drugie, obliczenia dokonywane na ich podstawie mogą być niedokładne. Po trzecie zaś – Model Standardowy może się mylić co do kaonów. Obecnie uważa się, że pierwsza przyczyna problemów z wartością Vus nie wchodzi w rachubę. Potrafimy bowiem z coraz większą precyzją badać Vus, a kolejne eksperymenty dają takie same wyniki. Wciąż jednak nie wiemy, czy obliczenia Vus na podstawie Modelu Standardowego są prawidłowe. Dzieje się tak, gdyż możemy dokonywać tych obliczeń tylko z pewnym przybliżeniem i tylko za pomocą potężnych superkomputerów. W tej chwili nie dysponujemy maszynami, które pozwoliłyby na precyzyjne obliczenie Vus. Żeby uzyskać pewność, co do prawidłowości obliczeń Vus musielibyśmy zaangażować najpotężniejsze komputery na dziesiątki lat. To nie wchodzi w rachubę. Chcemy jednak wiedzieć, czy możemy wierzyć naszym obliczeniom Vus, bo tylko wtedy będziemy mogli stwierdzić, czy w Modelu Standardowym tkwi błąd, wyjaśnia Seng. Badacz wraz z kolegami z Bonn zaproponował nową metodę, która znakomicie skraca czas obliczeń. Podzieliliśmy obliczenia Vus na wiele małych fragmentów. Dzięki temu byliśmy w stanie obliczyć wartość Vus dla rozpadu kaonów znacznie szybciej i znacznie dokładniej niż wcześniej było to możliwe, stwierdza naukowiec. Z obliczeń wynika, że rzeczywiście istnieją rozbieżności w wartościach Vus liczonych na podstawie Modelu Standardowego. To zaś jest silną wskazówką, że na rozpad kaonów wpływ mają zjawiska, których Model Standardowy nie opisuje. Jednak, jak zaznaczono na wstępie, nie możemy być tego całkiem pewni, gdyż obliczenia Senga i jego zespołu wciąż nie są wystarczająco precyzyjne. « powrót do artykułu
  16. Archeolodzy pracujący przy przenoszeniu 3000 ciał ze średniowiecznego cmentarza, gdzie od 1080 roku stał kościół św. Marii poinformowali, że pod normańskim kościołem odkryli jeszcze starszy kościół anglosaski. Niezwykłego odkrycia dokonano podczas prac w miejscu, gdzie przebiegała będzie linia szybkiej kolei HS2. Inwestycja stała się okazją do poznania historii społeczności, która żyła tutaj od około 900 lat. Teraz okazuje się, że ziemia kryje ślady, jakich nie spodziewano się znaleźć. Kościół św. Marii został wybudowany po normańskiej inwazji na Wyspy Brytyjskie. Służył lokalnej społeczności przed 900 lat. Porzucono go w latach 80. XIX wieku, gdy zbudowano nowy kościół. Średniowieczny budynek powoli chylił się ku upadkowi. Z relacji mieszkańców wynika, że w latach 30. XX wieku spadające fragmenty murów zabiły dziecko. W końcu w 1966 roku Korpus Królewskich Inżynierów rozebrał kościół. Przy kościele znajdował się cmentarz parafialny, na którym ostatni pochówek odbył się w 1908 roku. Teraz przez cmentarz i były kościół ma przebiegać linia kolejowa, więc w 2018 roku rozpoczęto tam prace archeologiczne. Dotychczas odkryto tam dobrze zachowane ściany i inne struktury kościoła, niezwykłe rzeźbienia w kamieniach, średniowieczne graffiti i tajemnicze znaki, które mogły być albo fragmentami zegara słonecznego, albo znakami magicznymi. W bieżącym roku 40 archeologów rozpoczęło wydobywanie szczątków kościoła oraz przenoszenie około 3000 ciał osób pochowanych na przestrzeni 9 wieków. Szczątki mają spocząć w innym miejscu, a archeolodzy mogą dzięki temu szczegółowo poznać życie tamtejszej społeczności. Teraz jednak poinformowano o odkryciu, którego nie spodziewano się dokonać. Wszystko wskazuje na to, że w 1080 roku kościół św. Marii został postawiony w miejscu wcześniej istniejącego kościoła. Św. Maria została wzniesiona na ubitej szarej warstwie materiału celowo usypanego przez Normanów. Zatem to, co znajduje się pod tą warstwą, musi pochodzić z czasów sprzed normańskiej inwazji. Archeolodzy odkryli pod normańską warstwą krzemienne ściany tworzące kwadratową strukturę, która została otoczona okrągłym rowem. Znaleziono też kilka pochówków. Specjaliści sądzą, że mają do czynienia z anglosaskim kościołem. Ściany z krzemienia mają grubość 1 metra, co wskazuje, że budowla była wysoka, chociaż nie zajmowała dużej powierzchni. jej wymiary były podobne do wymiarów istniejącego do dzisiaj anglosaskiego kościoła pw. św. Piotra w Barton-upon-Humber. To fantastyczne odkrycie. Nie możemy się doczekać, aż odsłonimy te struktury. Praca na miejscu starego kościoła św. Marii to unikalna szansa na wykopaliska na terenie średniowiecznego kościoła parafialnego, który przez 900 lat służył lokalnej społeczności. [...] Odkrycie pod normańskim budynkiem jeszcze wcześniejszej struktury to coś niezwykłego. Pozostałości budynku, w tym ściany, a nawet część podłóg, dostarczą nam olbrzymiej liczby informacji na temat tego miejsca sprzed czasu powstania normańskiego kościoła w 1080 roku. Odkrycie prenormańskiego, prawdopodobnie anglosaskiego kościół, zdarza się archeologom raz w życiu. Pomoże nam to lepiej zrozumieć historię Stoke Mandeville, ekscytuje się doktor Rachel Wood, która kieruje pracami archeologicznymi. Jakby jeszcze tego było mało, archeolodzy już zauważyli, że do budowy fundamentów prenormańskiego kościoła użyto rzymskich dachówek. Wiadomo, że w okolicy znajdowała się rzymska osada, więc niewykluczone, iż anglosascy budowniczowie wykorzystali znaleziony tam materiał. Badacze po cichu liczą jednak na to, że to materiał z samego miejsca budowy i że pod anglosaskimi fundamentami znajdą jeszcze starsze struktury. Gdy Normanowie Wilhelma Zdobywcy podbili Wyspy Brytyjskie, w całej Anglii zaczęły powstawać liczne kościoły, od niewielkich budynków parafialnych po okazałe katedry w miastach. Wiele z nich powstało na miejscu wcześniejszych struktur anglosaskich. Jednak bardzo rzadko jest okazja, by zbadać pozostałości tych wcześniejszych budowli, gdyż zwykle nie przetrwały one procesu wznoszenia rozległej architektury przez Normanów. Stary kościół św. Marii w Stoke Mandeville, który początkowo badali archeolodzy zatrudnieni przy budowie linii HS2, powstał w 1080 roku, dosłownie kilkanaście lat po normańskim podboju. Był odnawiany w XIII, XIV i XVII wieku i przez setki lat stanowił centrum życia lokalnej społeczności. W latach 80. XIX wieku porzucono go, gdyż wybudowano nowy kościół, bliżej centrum wsi. Średniowieczny kościół rozebrano przed około 60 laty. Budowa linii szybkiej kolei stworzyła niepowtarzalną okazję do szczegółowego zbadania setek lat z życia wiejskiej społeczności Wysp Brytyjskich. Archeolodzy mogą zbadać, jak zmieniał się sam kościół oraz pochówki na przestrzeni wieków. Znaleziono np. dowody na pochówki, w czasie których na zwłokach pozostawiano talerz z solą. Tego typu praktyki grzebalne zauważono już wcześniej w Birmingham, również podczas prac archeologicznych związanych z budową kolei HS2. Inne niezwykłe odkrycie, to znalezienie „łapacza pcheł”, który został złożony do grobu koło głowy pewnego mężczyzny. „Łapacz pcheł” to niewielkie kościane naczynie, które wypełniano niewielką ilością krwi i miodu. Pchły z peruki mężczyzny, zwabione krwią, wchodziły do naczynia i przyklejały się do miodu. Na miejscu wykopalisk ustanowiono polowe muzeum, w którym odbywają się wykłady na temat najnowszych odkryć i historii Stoke Mandeville. Lokalna społeczność chętnie w nich uczestniczy. « powrót do artykułu
  17. Naukowcy poszukujący życia poza Układem Słonecznym zwracają uwagę na planety o podobnej masie, rozmiarach, temperaturze i składzie atmosfery, co Ziemia. Astronomowie z University of Cambridge twierdzą jednak, że istnieje znacznie więcej możliwości, niż tylko znalezienie „drugiej Ziemi”. Na łamach Astrophysical Journal opublikowali artykuł, w którym informują o zidentyfikowaniu nowej klasy planet, na których może istnieć życie. A jako że planety tą są bardziej rozpowszechnione i łatwiejsze do obserwowania niż kopie Ziemi, nie można wykluczyć, że ślady życia poza Układem Słonecznym znajdziemy w ciągu kilku lat. Ta nowa klasa została przez nich nazwana „planetami hyceańskimi”, od złożenia wyrazów „hydrogen” (wodór) i „ocean”. To światy pokryte oceanem o atmosferze bogatej w wodór. Planety hyceańskie otwierają zupełnie nowe możliwości w dziedzinie poszukiwania życia, mówi główny autor badań, doktor Nikku Madhusudhan z Insytutu Astroomii. Wiele z kandydatów na „planety hyceańskie” to obiekty większe i cieplejsze od Ziemi. Ale z ich charakterystyk wynika, że są pokryte olbrzymimi oceanami zdolnymi do podtrzymania życia w takiej formie, jaką znajdujemy z najbardziej ekstremalnych ziemskich środowiskach wodnych. Co więcej, dla planet takich istnieje znacznie większa ekosfera. Ekosfera, przypomnijmy, to taki zakres odległości planety od jej gwiazdy macierzystej, w którym woda na planecie może istnieć w stanie ciekłym. Jak się okazuje, w przypadku „planet hyceańskich” ekosfera jest szersza niż dla planet wielkości Ziemi. W ciągu ostatnich niemal 30 lat odkryliśmy tysiące planet poza Układem Słonecznym. Większość z nich to planety większe od Ziemi, a mniejsze od Neptuna, zwane super-Ziemiami. To zwykle skaliste lub lodowe olbrzymy z atmosferami bogatymi w wodór. Wcześniejsze badania takich planet pokazywały, że jest na nich zbyt gorąco, by mogło tam istnieć życie. Niedawno zespół Madhusudhana prowadził badania super-Ziemi K2-18. Naukowcy odkryli, że w pewnych okolicznościach na planetach takich mogłoby istnieć życie. Postanowili więc przeprowadzić szerzej zakrojone badania, by określić, jakie warunki powinna spełniać planeta i jej gwiazda, by tego typu okoliczności zaszły, które ze znanych egzoplanet je spełniają oraz czy możliwe byłoby zaobserwowanie z Ziemi ich biosygnatur, czyli śladów tego życia. Uczeni stwierdzili, że „planety hyceańskie” mogą być do 2,6 razy większe od Ziemi, temperatura ich atmosfery może dochodzić do 200 stopni Celsjusza, ale warunki panujące w oceanach mogą być podobne do warunków, w jakich w ziemskich oceanach istnieją mikroorganizmy. Do klasy tej należą też „ciemne planety hyceańskie”, których obrót jest zsynchronizowany z ich obiegiem wokół gwiazdy, zatem w stronę gwiazdy zwrócona jest zawsze jedna strona planety. Tego typu ciała niebieskie mogłyby utrzymać życie tylko na stronie nocnej. Planety większe od Ziemi, ale nie bardziej niż 2,6-krotnie, dominują wśród odkrytych planet. Można przypuszczać, że „planety hyceańskie” występują wśród nich dość powszechnie. Dotychczas jednak nie cieszyły się zbyt dużym zainteresowaniem, gdyż skupiano się przede wszystkim na badaniu planet najbardziej podobnych do Ziemi. Jednak sam rozmiar to nie wszystko. Aby potwierdzić, że mamy do czynienia z „planetą hyceańską” musimy też poznać jej masę, temperaturę oraz skład atmosfery. « powrót do artykułu
  18. Dzięki nowemu sposobowi kontroli rozszerzania się materii w swobodnie opadającym kondensacie Bosego-Einsteina udało się zanotować najniższą z zarejestrowanych temperatur. Naukowcy z Niemiec i Francji obrazowali spadek kondensatu przez ponad 2 sekundy. Zanotowali przy tym temperaturę 38 pikokelwinów (10-12 K). Tak niskiej temperatury nigdy wcześniej nie udało się uzyskać. To znacznie chłodniej niż w przestrzeni kosmicznej, której średnia temperatura wynosi 2,7 K. Opracowana przez naukowców metoda umożliwi też lepsze pomiary stałej grawitacji, a być może stanie się alternatywną metodą wykrywania fal grawitacyjnych. Kondensat Bosego-Einsteina to występujący w bardzo niskich temperaturach taki stan skupienia materii, w którym tworzące kondensat atomy zachowują się bardziej jak fale, a nie jak cząstki. Fale te nakładają się na siebie, przez co kondensat zachowuje się jak jedna cząstka. Istnienie takiego stanu materii przewidzieli w 1924 roku Satyendra Nath Bose i Albert Einstein. Po raz pierwszy udało się go uzyskać w 1995 roku. Od tamtej pory laboratoria, które są w stanie go wytworzyć, wykorzystują kondensat do badania kwantowej natury materii. Badania takie prowadzi się, na przykład, za pomocą interferometru atomowego, wykorzystującego falową naturę atomów. Badania prowadzi się na swobodnie opadającym kondensacie Bosego-Einsteina, uwolnionym z pułapki magnetycznej. Jednak zaraz po uwolnieniu kondensatu z pułapki do głosu dochodzą siły oddziałujące pomiędzy cząstkami, które szybko zamieniają się w energię kinetyczna cząstek. Kondensat zaczyna się rozszerzać i jego obserwacja staje się niemożliwa. Dlatego też kluczową kwestią jest ograniczenie rozszerzania się kondensatu. Obecnie stosowane metody pozwalają na efektywną kontrolę kondensatu wzdłuż jego średnicy, ale nie w osi jego swobodnego spadku. W ramach swoich najnowszych badań francusko-niemiecki zespół badawczy zmienił pole magnetyczne w pułapce na oscylujące, zmieniające kształt z kuli w cienką elipsę. Kondensat uwalniany jest w takim momencie, by jego rozszerzanie się wzdłuż osi spadku było jak najmniejsze. Podczas eksperymentów zespół Ernsta Rasela z Uniwersytetu Leibniza w Hanowerze wykorzystał 110-metrową wieżę w Bremie. To wyspecjalizowana budowla służąca badaniom nad swobodnym spadkiem i mikrograwitacją. Uczeni rozpoczęli eksperyment od utworzenia kondensatu Bosego-Einsteina złożonego z około 100 000 atomów rubidu. Kondensat był następnie poddawany swobodnemu spadkowi, który trwał 4,74 sekundy. W czasie spadku był obrazowany za pomocą lasera i kamery. Gdy kondensat opadał bez wykorzystania żadnych technik jego kontrolowania, ulegał degradacji już po 160 milisekundach. Jednak, gdy naukowcy wykorzystali swoją technikę kontroli, byli w stanie obrazować kondensat przez ponad 2 sekundy, a osiągnięta w nim temperatura wyniosła rekordowo niskie 38 pK. Naukowcy nie powiedzieli jednak ostatniego słowa. Twierdzą bowiem, że dzięki bardziej złożonej architekturze soczewek magnetycznych można będzie lepiej kontrolować kondensat. Pomóc też może zmniejszenie liczby atomów w kondensacie. Ich zdaniem można by dzięki temu osiągnąć temperaturę nawet 14 pK. Problemem może być jednak za mała liczba atomów, przez co kondensat szybko stanie się zbyt rzadki, by można było go obserwować. Fizyk Florian Schreck w Amsterdamu pochwalił osiągnięcia kolegów stwierdzając, że to znaczący krok w kierunku badań kondensatu Bosego-Eisteina w warunkach umożliwiających swobodny spadek. Uczony dodał, że bardzo interesujące będzie zastosowanie atomów strontu w miejsce atomów rubidu, gdyż to właśnie stront uważany jest za ten pierwiastek, który pozwoli na wykorzystanie interferometrów atomowych w roli wykrywaczy fal grawitacyjnych. « powrót do artykułu
  19. W końcu pojawiła się szansa na rynkowy debiut akumulatorów litowo siarkowych – urządzeń lżejszych, tańszych, bardziej pojemnych i przyjaznych środowisku niż powszechnie stosowane akumulatory litowo-jonowe. Naukowcy z Monash University i CSIRO poinformowali, że wprowadzenie do katody (elektrody dodatniej) związku glukozy pozwoliło ustabilizować akumulator litowo-siarkowy. Akumulatory takie są od dawna postrzegane jako następcy technologii litowo-jonowej. W ciągu mniej niż dekady technologia ta może doprowadzić do pojawienia się samochodów elektrycznych – w tym autobusów i ciężarówek – które na pojedynczym ładowaniu pokonają trasą pomiędzy Melbourne a Sydney [ok. 900 km – red.]. Może też pozwolić na upowszechnienie się dronów rolniczych, w których niska waga odgrywa zasadniczą rolę, mówi główny autor badań profesor Mainak Majumder. Akumulatory litowo-siarkowe mogą przechowywać od 2 do 5 razy więcej energii na daną jednostkę wagi niż akumulatory litowo-jonowe. Problem jednak w tym, że elektrody akumulatorów litowo-siarkowych ulegają szybkiemu zużyciu. Dzieje się tak z dwóch powodów. Siarkowa katoda ulega podczas pracy dużym zmianom objętości, co ją osłabia i powoduje, że staje się niedostępna dla jonów litu. Z kolei litowa anoda ulega zanieczyszczeniu związkami siarki. W ubiegłym roku naukowcy z Monash wykazali że są w stanie uczynić katodę bardziej dostępną dla jonów litu. Teraz zaś dowiedli, że dodając cukier do katody są w stanie ustabilizować siarkę, przez co zapobiegają jej odkładaniu się na litowej anodzie. Testy wykazały, że taki akumulator z dodatkiem cukru wytrzymuje co najmniej 1000 cykli ładowania-rozładowywania i wciąż zachowuje pojemność większą od akumulatora litowo-jonowego. To daje nadzieję, że akumulatory litowo-siarkowe będą mogły zastąpić ciężkie i kosztowne akumulatory litowo-jonowe. Co ciekawe, badaczy do dodania cukru do katody zainspirował artykuł z dziedziny... geochemii z 1988 roku, którego autorzy opisywali, jak bazujące na cukrach substancje, łącząc się ze związkami siarki, zyskują odporność na degradację w osadach geologicznych. Rozwiązaliśmy wiele problemów znajdujących się po stronie katody. Wciąż jednak konieczne są innowacje, za pomocą których lepiej ochronimy anodę i umożliwimy szerokie rozpowszechnienie się akumulatorów litowo-siarkowych. To rewolucja, która czeka tuż za rogiem, mówi współautorka badań, doktor Mahdokht Shaibani. « powrót do artykułu
  20. Działanie insuliny, jednego z kluczowych hormonów metabolizmu węglowodanów, może być zakłócone m.in. przez nadwagę, co prowadzi do zmniejszenia wrażliwości na insulinę i grozi rozwojem cukrzycy typu 2. oraz chorób układu krążenia. Fińscy naukowcy z Uniwersytetu w Turku zauważyli właśnie, że pozycja stojąca jest powiązana ze zwiększeniem wrażliwości na insulinę. To zaś może oznaczać, że wydłużenie czasu, w którym w ciągu dnia stoimy może pomóc w zapobieganiu chorobom przewlekłym. Cukrzyca typu 2. to jedna z najbardziej rozpowszechnionych chorób cywilizacyjnych. Jest ona związana z insulinoopornością, przez co zwiększa się poziom glukozy we krwi. Trzeba przy tym pamiętać, że cukrzyca typu 2. jest bardzo ściśle związana z trybem życia, przede wszystkim z dietą i aktywnością fizyczną. Wiadomo, że regularna aktywność fizyczna odgrywa ważna rolę w zapobieganiu tej chorobie. Naukowcy z Turku chcieli zaś zbadać związek pomiędzy insulinoopornością a siedzącym trybem życia, aktywnością fizyczną i sprawnością u mało aktywnych dorosłych, u których występuje zwiększone ryzyko rozwoju cukrzycy typu 2. i chorób układu krążenia. Podczas badań, których wyniki opublikowali w Journal of Science and Medicine in Sport, zauważyli, że niezależnie od poziomu aktywności, masy ciała czy sprawności fizycznej, pozycja stojąca zwiększa wrażliwość na insulinę Nigdy wcześniej nie opisane tego związku. Nasze odkryci pokazuje, że powinniśmy część czasu, w którym siedzimy, zastąpić staniem. Szczególnie wówczas, gdy nie jesteśmy aktywni fizycznie, mówi doktorantka Taru Garthwaite. Autorzy badań pokazali też, jak ważny jest odpowiedni skład organizmu. Zwiększony odsetek tłuszczu był ważniejszym czynnikiem wpływającym na wrażliwość na insulinę niż aktywność fizyczna, sprawność czy czas spędzony w pozycji siedzącej. Jednak pozycja stojąca była powiązana ze zwiększeniem wrażliwości na insulinę niezależnie od składu ciała. Wiemy, że regularna aktywność fizyczna jest korzystna dla zdrowia. Wydaje się, że aktywność, sprawność i siedzący tryb życia są powiązane z metabolizmem insuliny, ale nie bezpośrednio, a poprzez ich wpływ na skład organizmu, wyjaśnia Garthwaite. Badania sugerują, że wydłużenie czasu, w którym w ciągu dnia znajdujemy się w pozycji stojącej może pomóc w zachowaniu zdrowia, jeśli nie jesteśmy zbyt mało aktywni fizycznie. W następnym etapie badań Finowie chcą sprawdzić, jak zmiany w codziennej aktywności i braku aktywności wpływają na choroby układu krążenia i choroby metaboliczne. Celem będzie sprawdzenie, czy skrócenie o godzinę czasu, w którym siedzimy, będzie miało wpływ na metabolizm i odkładanie się tkanki tłuszczowej, w tym na wrażliwość na insulinę i regulację poziomu cukru we krwi, wyjaśnia Garthwaite. « powrót do artykułu
  21. Polarnicy z Uniwersytetu Śląskiego zakończyli właśnie kolejną – 56. – wyprawę na Spitsbergen. Na podstawie zebranych danych chcą wskazać różnice w mechanizmie odrywania się mas lodu z lodowców wspartych o dno morza oraz lodowców częściowo pływających. Do tych porównań wykorzystane zostaną wyniki badań Lodowca Paierla oraz Lodowca Hansa – z sierpnia br. oraz z wieloletniej serii obserwacyjnej – poinformował PAP kierownik pierwszego etapu wyprawy, glacjolog prof. Jacek Jania z Centrum Studiów Polarnych UŚ. Wieloletnie badania ekspedycji naukowych UŚ zmierzają do określenia prawidłowości w reakcji lodowców Svalbardu na przyśpieszone ocieplanie Arktyki i globu. Lodowce uchodzące do morza są bardzo wrażliwe na ocieplanie klimatu. Większe topnienie dostarcza wód roztopowych do ich podłoża, co ułatwia poślizg po dnie. Tym samym przyśpiesza ruch, a w konsekwencji +produkcję+ gór lodowych. Takie lodowce zmniejszają swój zasięg dramatyczne, unaoczniając silne ocieplanie Arktyki. Ponadto, lodowce cielące się dostarczają do morza znacznie więcej masy niż te lądowe (wody roztopowe + góry lodowe). A tym samym znacząco oddziałują na wzrost poziomu oceanu światowego – podkreślił. Prof. Jania wskazał, że badanie lodowców uchodzących do morza jest jednym z najtrudniejszych zagadnień glacjologicznych, ze względu na niebezpieczeństwa związane ze zbliżaniem się do „cielących się” klifowych czół lodowców, od których odrywają się góry lodowe – szczególnie w lecie. Z kolei wejście na lodowiec w pobliżu czoła jest równie niebezpieczne z powodu licznych, głębokich szczelin w lodzie. Jednak nasi badacze od kilku dekad specjalizują się w ilościowych studiach szybkości ruchu i utraty masy tych lodowców. Stosowane są coraz nowsze metody – obok obrazów satelitarnych konieczne są również pomiary bezpośrednie w terenie obejmujące m.in. naziemny skaning laserowy dalekiego zasięgu, dający obraz dynamiki niedostępnych czół lodowcowych z dokładnością kilku, kilkunastu cm. Niezbędne są także dane oceanograficzne sprzed czół lodowców kończących się w morzu. Ponadto dla obliczenia intensywności utraty masy lodu traconej na kontakcie z wodą morską istotne są dokładna głębokość i topografia dna fiordu – opowiadał prof. Jania. W tym roku podwodne dane badacze uzyskali dzięki współpracy z amerykańskim statkiem oceanograficznym r/v OceanXplorer 1, który wykonał precyzyjne kartowanie dna zatoki Vestre Burgerbukta przed czołem Lodowca Paierla oraz części podwodnej jego klifu. Wyniki potwierdziły, że ten lodowiec jest częściowo pływający, w najgłębszych partiach fiordu. Jest zatem podobny do bardzo trudnodostępnych lodowców Grenlandii – produkujących wielką ilość gór lodowych i oddziałując na wzrost poziomu oceanu światowego. Może więc stać się pewnym modelem dla nich – wskazał glacjolog. Od lodowców wspartych o dno odłamują się mniejsze góry lodowe. Najnowsze badania pracowników UŚ wykazały, że intensywność ich cielenia zależy od termiki sezonu letniego, ilości wód roztopowych i od temperatury wody morskiej na kontakcie z klifem lodowym. Natomiast lodowce pływające lub częściowo pływające nie są jeszcze dobrze zbadane pod tym względem. Co pewien czas pojawiają się epizody +masywnego cielenia+, kiedy szeroki na 80-100 m pas czoła lodowca odrywa się od jęzora i dostarcza armadę dużych gór lodowych i masę drobnych brył druzgotu lodowego; wtedy nie da się wpłynąć do zatoki przed lodowcem. Przyczyny tych epizodów wymagają zbadania – dodał prof. Jania. Tegoroczna wyprawa na Spitsbergen (a dokładniej – w rejon fiordu Hornsund na południowym Spitsbergenie) była już 56. ekspedycją polarników z Uniwersytetu Śląskiego. Jak wskazał prof. Jania, przez pandemię COVID-19 ciągłość ich długich, wieloletnich serii obserwacyjnych została zagrożona, ponieważ ani w tym, ani poprzednim roku nie udało się zorganizować wiosennej ekspedycji, przypadającej na koniec arktycznej zimy. Lodowce cielące się dostarczają do morza znacznie więcej masy niż te lądowe (wody roztopowe + góry lodowe). A tym samym znacząco oddziałują na wzrost poziomu oceanu światowego Wyprawy w sezonie letnim starają się zapełnić te luki. Jednakże niektóre instrumenty niedoglądane na koniec zimy przestały pracować lub uległy zniszczeniu. Aparaturą interesują się białe niedźwiedzie, a lisy polarne lubią izolację kabli zasilających instrumenty z akumulatorów i powodują zwarcia instalacji – wyjaśnił. Dodał, że tegoroczne prace były dodatkowo utrudnione przez często pojawiające się w rejonie Polskiej Stacji Polarnej niedźwiedzie polarne, stanowiące poważne zagrożenie podczas prac badawczych. Tegoroczna ekspedycja realizowana była w dwóch etapach. W sierpniu badacze prowadzili badania terenowe dla monitoringu ewolucji lodowców arktycznych pod wpływem zmian klimatu. W skład tego zespołu weszli: dr inż. Małgorzata Błaszczyk – geodeta i glacjolog, dr Michał Ciepły – glacjolog, prof. Jacek A. Jania - glacjolog, geomorfolog, kierownik wyprawy, mgr Kamil Kachniarz – glacjolog, doktorant, mgr Aleksandra Osika – geomorfolog, doktorantka, mgr Katarzyna Stachniak – hydrolog, doktorantka oraz lic. Dawid Saferna – magistrant geografii. W drugim etapie, czyli na początku września, kontynuowano badania klimatu i lodowców, poszerzając je o wstępne badania wkraczania roślinności na tereny opuszczone przez topniejący lodowiec. Drugi zespół tworzyli: mgr Tomasz Budzik – klimatolog, kierownik grupy, mgr Mariusz Wierzgoń – botanik, doktorant w Instytucie Biologii, Biotechnologii i Ochrony Środowiska UŚ oraz lic. Natalia Łatacz – magistrantka kierunku geografia. Kolejna wyprawa planowana jest na przyszły rok. « powrót do artykułu
  22. Skrajne wcześniactwo wiąże się z dużym ryzykiem uszkodzenia mózgu. Naukowcy z Uniwersytetu Wiedeńskiego i Medycznego Uniwersytetu Wiedeńskiego znaleźli potencjalny cel terapeutyczny, który może pomóc leczyć takie uszkodzenia. Co interesujące, znajduje się on poza mózgiem, a są nim... bakterie mikrobiomu jelit. Uczeni odkryli, że nadmiar bakterii z rodziny Klebsiella w jelitach skrajnych wcześniaków powiązany jest ze zwiększą obecnością pewnych komórek odpornościowych i rozwojem uszkodzeń mózgu. Wiemy, że wczesny rozwój jelit, mózgu i układu odpornościowego są ściśle ze sobą powiązane. Związek ten nazywany jest osią jelita-układ odpornościowy-mózg. Mikroorganizmy w mikrobiomie jelit – na który składają się setki niezbędnych do życia gatunków bakterii, grzybów, wirusów i innych mikroorganizmów – są u zdrowych osób w stanie równowagi. Jednak u wcześniaków, u których układ odpornościowy i mikrobiom jeszcze się nie w pełni rozwinęły, z dużym prawdopodobieństwem może dojść do zaburzenia tej równowagi. A to negatywnie wpływa na mózg, wyjaśnia główny autor badań, mikrobiolog i immunolog David Seki. Naukowcom udało się zidentyfikować liczne wzorce w mikrobiomie i układzie odpornościowym, które są powiązane z głębokością i postępem uszkodzeń mózgu. Co ważne, takie wzorce często ujawniają się, zanim dojdzie do zmian w mózgu. To zaś wskazuje, że istnieje okienko, w którym u skrajnych wcześniaków będziemy mogli powstrzymać uszkodzenia mózgu lub w ogóle im zapobiec, stwierdza David Berry z Uniwersytetu Wiedeńskiego. Terapie takich zaburzeń będą możliwe dzięki biomarkerom, które Austriakom już udało się zidentyfikować. Nasze badania pokazują, że nadmierny rozrost Klebsielli i powiązany z tym podniesiony poziom subpopulacji limfocytów Tγδ (gamma delta) najprawdopodobniej zwiększają uszkodzenia mózgu. Byliśmy w stanie wyśledzić ten mechanizm, gdyż jako pierwsi szczegółowo zbadaliśmy, jak u specyficznej grupy noworodków zachodzi interakcja pomiędzy układem odpornościowym, mikrobiomem a rozwojem mózgu, wyjaśnia neonatolog Lukas Wisgrill. W badaniach wzięło udział 60 wcześniaków urodzonych przed 28. tygodniem ciąży i ważących mniej niż 1 kilogram. Naukowcy wykorzystali nowoczesne technologie sekwencjonowania genomu, analizowali krew i próbki kału oraz wykorzystywali EEG i rezonans magnetyczny. Jak mówią główni autorzy badań, Angelika Berger i David Berry, to dopiero wstęp do jeszcze lepszego zrozumienia rozwoju wcześniaków. Uczeni chcą przez kolejne lata śledzić losy dzieci, które brały udział w ich badaniu. Dopiero po latach dowiemy się, jak pod względem motorycznym i poznawczym będą się te dzieci rozwijały. Naszym celem jest zrozumienie, w jaki sposób bardzo wczesny rozwój osi jelita-układ odpornościowy-mózg wpływa na długoterminowy rozwój, stwierdza Berger. Ze szczegółowymi wynikami badań można zapoznać się w artykule Aberrant gut-microbiota-immune-brain axis development in premature neonates with brain damage opublikowanym na łamach Cell Host & Microbe. « powrót do artykułu
  23. Inżynierowie od dziesięcioleci szukają coraz szybciej działających i coraz bardziej efektywnych pod względem energetycznym układów pamięci. Jedną z najbardziej obiecujących technologii są pamięci zmiennofazowe. Układy takie działają tysiące razy szybciej niż dyski twarde. Są jednak bardzo energochłonne. Od dawna oczekujemy, że pamięci zmiennofazowe zastąpią obecnie stosowane nośniki pamięci w smartfonach i laptopach. Jedną z przyczyn, dla których tak się nie stało, jest fakt, iż pamięci te zużywają znacznie więcej energii niż konkurencyjne technologie, mówi profesor Eric Pop z Uniwersytetu Stanforda. Pop wraz ze swoimi kolegami właśnie poinformowali pokonaniu kluczowej przeszkody, które uniemożliwiała rozpowszechnienie się pamięci zmiennofazowych. Standardowy układ pamięci zbudowany jest z tranzystorów i innych elementów. Tymczasem układy zmiennofazowe składają się z mieszaniny germanu, antymonu i telluru (GST), zamkniętej pomiędzy elektrodami. W tradycyjnych układach, jak np. kościach flash, dane są przechowywane w wyniku przełączania stanu tranzystora za pomocą prądu elektrycznego, co jest symbolizowane za pomocą cyf 1 i 0. W układach zmiennofazowych 1 i 0 symbolizują wynik pomiaru oporu elektrycznego GST. Typowa pamięć zmiennofazowa może przechowywać informacje o dwóch stanach oporności. Wysoka oporność symbolizowana jest przez 0, a niska oporność przez 1. Używając ciepła generowanego przez elektrody możemy przełączać pomiędzy 0 a 1 w ciągu nanosekund, wyjaśnia współautor badań, doktorant Asir Intisar Khan. Podgrzanie do około 150 stopni Celsjusza zmienia GST w kryształ o niskiej oporności. W temperaturze 600 stopni Celsjusza zachodzi zaś zmiana w stan amorficzny o znacznie większej oporności. Różnice w oporności są na tyle duże, że można w nich przechowywać dane. Są przy tym całkowicie odwracalne za pomocą impulsów elektrycznych podgrzewających GST. Pamięć tego typu jest niezwykle trwała. Możesz wrócić do niej po latach i bez problemu odczytać poziom oporności każdego bitu. Utrzymanie konkretnego stanu pamięci nie wymaga energii, mówi profesor Pop. Jednak dotychczas przełączanie pomiędzy obiema fazami wymagało użycia tak dużej ilości energii, że bardzo szybko wyczerpywałyby się baterie w urządzeniach mobilnych. Naukowcy ze Stanforda rozpoczęli więc prace nad takimi pamięciami zmiennofazowymi, które zużywałyby znacznie mniej energii i można by je było umieścić na elastycznych podłożach z tworzyw sztucznych, używanych w zginanych smartfonach, ubieralnych czujnikach i innej przenośnej elektronice. Takie urządzenia potrzebują tanich i energooszczędnych podzespołów. Jednak wiele elastycznych substratów traci kształt lub nawet roztapia się w temperaturze około 200 stopni Celsjusza i niższej, mówi Alwin Daus. To właśnie on i jego koledzy odkryli, że plastikowe substraty o niskim przewodnictwie cieplnym mogą umożliwić zmniejszenie przepływu prądu w komórkach pamięci zmiennofazowych, powodując, że będą one efektywniej działały. Nasze urządzenie ma 10-krotnie niższą gęstość prądu przełączania gdy jest umieszczone na elastycznym substracie i 100-krotnie mniejszą gdy znajduje się na sztywnym krzemie, wyjaśnia profesor Pop. Uczony dodaje, że kluczem do sukcesu było zastosowanie trzech składników. Są to superkratownica złożona z nanometrowej wielkości warstw materiału przechowującego dane, porowata komórka, czyli otwór nanometrowej wielkości wewnątrz którego znajdują się warstwy superkratownic oraz izolujące termicznie elastyczne podłoże. Razem wszystko to znakomicie poprawiło efektywność energetyczną układu pamięci. Pamięci zmiennofazowe mogą znaleźć bardzo szerokie zastosowania. W przyszłości trafią do przenośnej elektroniki i różnego typu czujników. Czujniki mają bardzo wyśrubowane wymagania co do czasu pracy na bateriach. Zbieranie surowych danych i ich przesyłanie do chmury to proces bardzo nieefektywny. Jeśli moglibyśmy lokalnie przetwarzać dane, do czego potrzebny jest układ pamięci, znakomicie ułatwiłoby to rozwój Internet of Thing, mówi Daus. Jednak pamięci zmiennofazowe mogą tez znakomicie zwiększyć wydajność komputerów. Współczesne komputery korzystają z osobnych układów do przetwarzania i przechowywania danych. Informacje są przetwarzane w jednym układzie i wysyłane do innego, który je przechowuje. Dane ciągle wędrują w tę i z powrotem, a to proces długotrwały i bardzo nieefektywny energetycznie, dodaje Khan. Pamięci zmiennofazowe mogłyby zaś przetwarzać dane w miejscu ich przechowywania. Jednak takie rozwiązanie wymagałoby opracowania zmiennofazowego urządzenia o wielu stanach oporności, z których każdy musiałby być zdolny do przechowywania informacji. Typowa pamięć zmiennofazowa ma dwa stany oporności: wysoki i niski. Nam udało się zaprogramować cztery stabilne stany oporności. A to już ważny krok w kierunku przetwarzania danych w układach pamięci, informuje Khan. « powrót do artykułu
  24. Specjaliści z Mazurskiego Centrum Bioróżnorodności i Edukacji KUMAK wypuścili niedawno do zabagnień 25 żółwików błotnych (Emys orbicularis). Wykluły się one z jaj wykopanych z 2 złóż. Samice złożyły je na wykorzystywanym polu uprawnym, gdzie rosło zboże, dlatego nie było szans na naturalną inkubację. W połowie sierpnia z jaj umieszczonych w inkubatorze zaczęły się wykluwać żółwiki. Dyskretna opieka i wypuszczenie na wolność Jak napisano na profilu KUMAKA na Facebooku, po 3 tygodniach od wyklucia żółwiki nabrały tężyzny. Co ważne, nauczyły się już szukać pokarmu i osiągnęły gotowość do poznawania prawdziwego świata. Przez trzy tygodnie dyskretnie się nimi opiekowaliśmy, ale zależało nam na tym, by żółwie nie oswajały się, by uczyły się przetrwania w naturze. Dlatego gdy kilka dni temu zrobiło się ciepło, wszystkie 25 żółwi wypuściliśmy na wolność – wyjaśnił serwisowi Nauka w Polsce Grzegorz Górecki. Dodał, że do wykopywania i inkubowania jaj w ramach ochrony żółwia błotnego należy się uciekać wyłącznie w wyjątkowych okolicznościach, a więc w sytuacji, gdy samica złoży jaja gdzieś, gdzie są one naprawdę zagrożone. Dwa złoża jaj z pola uprawnego Mazurskie Centrum Bioróżnorodności i Edukacji KUMAK im. prof. K.A. Dobrowolskiego Wydziału Biologii Uniwersytetu Warszawskiego znajduje się Urwitałcie nad Jeziorem Łuknajno koło Mikołajek. Tutejsi naukowcy zajmują się monitoringiem mazurskich siedlisk żółwia błotnego w ramach projektu LIFE "Czynna ochrona rzadkich gatunków płazów i gadów na obszarach Natura 2000 w Europie". Podczas wiosennej kontroli siedliska koło miejscowości Cudnochy zauważyli, że 2 samice złożyły jaja na polu. Zwykle [...] żółwice składają jaja na ciepłych, nasłonecznionych, suchych łąkach. Dwie żółwice złożyły je jednak na polu ornym. Zrobiły to być może dlatego, że zboże było wówczas niskie - wyjaśnił Górecki. Gdy Regionalna Dyrekcja Ochrony Środowiska wyraziła zgodę na wykopanie jaj, zabrano je z pola i umieszczono w inkubatorze. Po kilku tygodniach wykluły się młode. Dwa osobniki nie przeżyły, ostatecznie zostało 25 żółwików. Podawano im pokarm akwariowy. Młode wypuszczono w okolicach bagna, gdzie mieszkają dorosłe żółwie - ich rodzice. Przy wypuszczaniu widzieliśmy, jak nurkują, zakopują się w mule, wyglądają ciekawie z wody, a nawet gonią za jedzeniem. Mamy dopiero początek jesieni, będzie dobrze! - cieszyli się naukowcy we wpisie na Facebooku. Żółwiki muszą sobie radzić same, bo rodzice nie będą im pomagać. Ochrona całych siedlisk Najważniejsza metoda ochrony żółwia, a także lęgów powinna być prowadzona poprzez ochronę całych siedlisk – zaznaczył Górecki. Jak napisała Joanna Kiewisz-Wojciechowska z PAP-u, siedlisko w okolicach wsi Cudnochy zamieszkuje ok. 100-150 E. orbicularis. Drugie siedlisko tego gatunku znajduje się zaś w rejonie Nidzicy. « powrót do artykułu
  25. Uczeni ze Stanford Medicine odkryli gen, który jest odpowiedzialny za większość mechanizmu powodującego pojawianie się pasków, plamek czy łatek zdobiących futro zarówno lamparta jak i domowego Mruczka. Wzorce kolorów to jedna z nierozwiązalnych zagadek biologii. Nie mamy modelowego obiektu do ich badania. U myszy paski czy łaty nie występują, mówi emerytowany profesor genetyki Gregory Barsh. Naukowcy, obserwując zróżnicowanie kolorów i wzorów, jakie widzimy u tygrysów, zebr czy gepardów, zadali sobie pytanie o mechanizm genetyczny leżący u ich podstaw. I częściowo udało się na to pytanie odpowiedzieć. Barsh i jego zespół zidentyfikowali gen DKK4, który reguluje wczesne etapy rozwoju wzorców kolorystycznych widocznych na futrach domowych. Naukowcy przypuszczają, że ten sam gen jest odpowiedzialny za ubarwienie wszystkich gatunków kotów, a może też i innych ssaków. Już wcześniej ten sam zespół zidentyfikował gen odpowiedzialny za zmienność kolorów u kotów pręgowanych. Okazało się, że to ten sam gen, który odpowiada za różnicę wyglądu pomiędzy gepardami a gepardami królewskimi, które mają grubszy, bardziej widoczny wzór na futrze. Z badań nad kotami domowymi wiedzieliśmy, że istnieją jeszcze inne geny odpowiedzialne za tworzenie się wzorców, nie wiedzieliśmy tylko, które to, mówi Barsh. Na trop odpowiedzi trafili w kocich tkankach płodowych. Kluczem okazało się pogrubienie skóry kociego płodu w niektórych regionach. Pogrubienie to tworzyło wzorzec, który odpowiadał późniejszemu wyglądowi futra dorosłego kota. W grubszych regionach skóry futro będzie w przyszłości ciemniejsze, w regionach cieńszych – jaśniejsze. Nazwaliśmy ten etap „ustanowieniem wzorca”, dochodzi do niego na długo przed pojawieniem się kolorów na futrze i na długo zanim mieszki włosowe dojrzeją, mówi Barsh. Etap „ustanowienia” wskazał naukowcom, które komórki są zaangażowane w tworzenie wzorca na futrze oraz czas, kiedy jest on ustalany. To zaś pozwoliło im na zbadanie genomu komórek zaangażowanych w powstawanie wzorca. Okazało się, że w pogrubionej skórze szczególnie aktywny jest gen DKK4, a w skórze cieńszej jego aktywność pozostaje na normalnym poziomie. Żeby jednak dokładniej określić związek pomiędzy DKK4 a wczesnym tworzeniem się wzorca kociej sierści, naukowcy przyjrzeli się kotom abisyńskim. Gatunek ten nie posiada charakterystycznych dla innych kotów pasków czy łatek. Ich futro wybarwione jest różnymi, jakby rozcieńczonymi barwami, z niewielkimi ciemniejszymi obszarami, które wyglądają tak, jakby ktoś za pomocą ołówka lekko przyciemnił wierzch futra. Gdy naukowcy zbadali gen DKK4 Abisyńczyków okazało się, że gen ten posiada mutację, w wyniku której gatunkowi temu brak jest wzorów charakteyrystyczych dla innych kotów. Ta mutacja najwyraźniej znacznie upośledza zdolność DKK4 do wytworzenia wzorców. Gdy zaś gen zostanie usunięty, wspomniane ciemniejsze obszary u kotów abisyńskich nie znikają, ale stają się mniejsze i są gęściej upakowane. Oczywiście każdy z nas przypomni sobie, że widział całkiem białego lub całkiem czarnego kota. Jednak, wbrew pozorom, koty te również posiadają wzorce. Kolor futra decyduje się w dwóch procesach. Jest to proces ustalania się wzorca wybarwienia oraz proces produkcji pigmentu przez mieszki włosowe. U kotów czarnych wzorca nie widać, gdyż mieszki włosowe produkują wszędzie czarny pigmentu. U kotów białych nie widać go, gdyż włosom brakuje pigmentu. Naukowcy nie wiedzą dokładnie, w jaki sposób DKK4 wpływa na tworzenie się wzorca. Wiedzą jednak, że DKK4 wchodzi w interakcje z proteinami z klasy WNT. I to współpraca DKK4 oraz WNT decyduje o wzorcu wybarwienia kociego futra. Dzieje się to już w chwili, gdy embrion ma zaledwie 2-3 milimetry długości. Na całe tygodnie zanim w futrze rozpocznie się produkcja pigmentu. To działanie DKK4 decyduje, gdzie futro będzie ciemniejsze. Zagadką pozostaje, w jaki sposób te obszary skóry „zapamiętują”, że wytworzone tam mieszki włosowe mają wyprodukować ciemniejszy pigment. To nierozwiązana przez nas kwestia. Nie potrafimy połączyć procesu „ustanawiania wzorca” z późniejszym procesem jego tworzenia się. Wciąż próbujemy to określić, przyznaje Barsh. Uczony zauważa, że DKK4 to nie wszystko. Zaangażowane są też inne geny, które decydują – na przykład – dlaczego niektóre koty mają paski, a inne plamki, mówi uczony i zapowiada, że i na te pytania będzie szukał odpowiedzi. « powrót do artykułu
×
×
  • Dodaj nową pozycję...