Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Zanim Mars stał się tak suchy, jak obecnie, panujące na nim warunki kilkukrotnie zmieniały się między wilgotnymi a suchymi. Takie wnioski płyną z analizy zdjęć o wysokiej rozdzielczości wykonanych przez teleskop znajdujących się na pokładzie łazika Curiosity. Obrazy te pozwoliły na zapoznanie się ze strukturą Mount Sharp, góry o 6-kilometrowej wysokości położonej w centrum Krateru Gale. Po raz pierwszy dysponujemy takimi szczegółami wypiętrzenia na Marsie. Pozwala nam to obserwować bardzo stare skały, mówi William Rapin z Instytutu Badań Astrofizycznych i Planetarnych z Francji, który wraz z kolegami z USA analizował obrazy. Skały te pochodzą sprzed ponad 3,5 miliarda lat, z krytycznego okresu, gdy na Marsie wciąż znajdowała się woda, ale już zachodziły na nim olbrzymie globalne zmiany klimatyczne. Warstwy położone u podnóża Mount Sharp noszą cechy warstw, które formowały się w jeziorze. Jednak nad nimi widać warstwy, których wygląd sugeruje, iż powstały w środowisku pustynnym. Jeszcze wyżej położone warstwy wskazują na istnienie wilgotnego klimatu w czasie ich formowania się. Nad nimi zaś naukowcy zauważyli warstwy pochodzące z czasów, gdy na Marsie było sucho. Należałoby się spodziewać, że Mars wysychał stopniowo w miarę przesuwania się w czasie. Tymczasem widać, że następował powrót do bardziej wilgotnych czasów. To bardzo ekscytujące i interesujące odkrycie, mówi Christian Schroeder z University of Stirling. Łazik Curiosity, który wylądował na Marsie w 2012 roku, ma wjechać na Mount Sharp i ją badać. Być może uda się dzięki temu zbadać, co powodowało tego typu zmiany klimatu na Marsie. « powrót do artykułu
  2. Odkrycie mikroorganizmu, który zatrzymał swoją ewolucję na miliony lat może mieć olbrzymie znaczenie dla biotechnologii oraz samego rozumienia ewolucji mikroorganizmów. Musimy być bardzo ostrożni, gdy robimy założenia odnośnie tempa ewolucji i interpretujemy drzewo życia. Możliwe, że niektóre organizmy mogą wejść w okres ewolucyjnego sprintu, a inne niemal zatrzymują ewolucję, mówi Eric Becraft, główny autor badań z Bigelow Laboratory for Ocean Sciences i University of Northern Alabama. Mikroorganizm ten to Candidatus Desulforudis audaxviator, odkryty w 2008 roku przez zespół Tullia Onstotta, który również brał udział w obecnych badaniach. Został znaleziony w południowoafrykańskiej kopalni złota, niemal 3 kilometry pod powierzchnią Ziemi. Czerpie on energię z reakcji chemicznych wywoływanych przez naturalny rozpad pierwiastków promieniotwórczych. Żyje w wypełnionych wodą zagłębieniach w skałach w ekosystemie niezależnym od światła słonecznego czy innych organizmów. Jako, że ma on unikatową biologię i jest całkowicie izolowany, naukowcy chcieli prześledzić jego ewolucję. Przeszukali inne głęboko położone miejsca i znaleźli Candidatus Desulforudis audaxviator w innych kopalniach w RPA oraz w Kalifornii i na Syberii. Jako, że każde z tych środowisk jest inne pod względem chemicznym, dało im to szansę, by sprawdzić, jak różnice środowiskowe wpłynęły na ewolucję mikroorganizmu. Postrzegaliśmy te mikroorganizmy jak mieszkańców izolowanych wysp, jak np. zięby, które Darwin badał na Galapagos, mówi Ramunas Stepanauskas z Bigelow Laboratory. Uczeni przeanalizowali genomy 126 mikroorganizmów w trzech kontynentów i stwierdzili, że są one... niemal identyczne. To było szokujące. Były takie same. To nas zaskoczyło, stwierdził Stepanaukas. Przeprowadzono więc dodatkowe badania, które wykazały, że mikroorganizmy te nie są w stanie przebywać dużych odległości, nie mogą przetrwać na powierzchni, ani przeżyć w obecności tlenu. Upewnili się też, że nie doszło do zanieczyszczenia próbek. W tej chwili najlepsze wyjaśnienie jest takie, że mikroorganizmy nie zmieniły się zbytnio od czasu, gdy przez 175 milionami lat doszło do rozpadu superkontynentu Pangea. To żywe skamieliny z tamtego okresu. To brzmi niesamowicie i jest sprzeczne ze współczesnym rozumieniem ewolucji mikroorganizmów, dodaje Stepanauskas. Naukowcy spekulują, że zatrzymanie ewolucji u tego gatunku to wynik silnych mechanizmów obronnych przeciwko mutacjom. Jeśli mają racje, możemy mieć do czynienia z bardzo rzadkim mechanizmem, na którym może skorzystać biotechnologia. Nauka ta szeroko wykorzystuje bowiem pochodzącą od mikroorganizmów polimerazę DNA. To enzym katalizujący syntezę DNA w czasie replikacji lub naprawy. Szczególnie wartościowe są te enzymy, które są w stanie dokonać katalizy tworząc kopie o jak najmniejszej liczbie różnic z oryginałem. Istnieje wysokie zapotrzebowanie na polimerazę DNA, która nie popełnia zbyt wiele błędów. Takie enzymy są potrzebne do sekwencjonowania DNA, terapii genowej czy tworzenia testów diagnostycznych, wyjaśnia Stepanauskas. Poza zastosowaniami czysto praktycznymi, odkrycie zatrzymanej ewolucji to dowód, że różne gałęzie mikroorganizmów na drzewie życia mogą znacząco różnić się tempem ewolucji od czasu, gdy miały ostatniego wspólnego przodka. Zrozumienie tego jest niezbędne do zrozumienia historii życia na Ziemi, dodaje Becraft. « powrót do artykułu
  3. Smartwatch to w dosłownym tłumaczeniu inteligentny zegarek. I zegarkiem faktycznie jest - tak, jak jego klasyczny odpowiednik, pokaże Ci godzinę, ale to dopiero pierwsza z bardzo wielu wygodnych funkcji. Nic więc dziwnego, że staje się coraz popularniejszym gadżetem. Poza użytecznością wygląda on nowocześnie i estetycznie. Jeżeli chcesz dowiedzieć się więcej na temat zegarka przyszłości, przeczytaj nasz poradnik. Co to jest Smartwatch? Jeżeli rozważasz, zakup smartwatcha to trafiłeś na właściwy artykuł. Jednak zacznijmy od krótkiego wyjaśnienia, czym dokładnie jest urządzenie. Smartwatch to zegarek współpracujący z telefonem komórkowym. Po połączeniu ze smartfonem za pomocą Bluetooth, przejmuje on wiele funkcji telefonu. Za jego pomocą możesz odczytywać wiadomości SMS i e-maile, odbierać i wykonywać połączenia, sprawdzać powiadomienia z portali społecznościowych czy odczytywać prognozę pogody. Użyteczne są też funkcje sportowe - zegarek mierzy puls, ile kalorii spaliliśmy w ciągu dnia, a także ile kroków zrobiliśmy. Ile kosztuje Smartwatch? Przedział cenowy jest bardzo szeroki. Ceny smartwatchy zaczynają się od 100 zł, a kończą na kilku tysiącach. Skupmy się na tych w przystępnej cenie, czyli do 300 zł. Będzie to pomocne, dla tych z Was, którzy zastanawiają się nad zakupem pierwszego smartwatcha. W tym przedziale cenowym dostaniesz urządzenie, które: •    posiada dotykowy ekran, •    ma wspomniane wcześniej funkcje sportowe, •    powiadomi Cię o nieodebranych połączeniach, •    poinformuje Cię o wiadomościach SMS, •    powiadomi Cię o powiadomieniach z social media, Smartwatch - co jeszcze warto wiedzieć? Zanim wybierzesz inteligentny zegarek, zrozum sposób jego działania. Do tego, aby smartwatch połączył się z Twoim telefonem konieczny jest Bluetooth. Parujesz ze sobą urządzenia i gotowe. Zastanawiasz się, czy jeśli posiadasz telefon jednej firmy, możesz kupić smartwatch innej? Odpowiedź brzmi - tak. Do tego, żeby urządzenia współpracowały ze sobą jest konieczny ten sam system operacyjny. Niezależnie jaki smartwatch do 300 zł kupisz, jeżeli posiadasz na przykład telefon Xiaomi, a chcesz kupić smartwatcha Samsung, nie będzie to problem. Oba urządzenia posiadają system Android. Inaczej jest w przypadku Iphone - nie wszystkie smartwatche są z nim kompatybilne. Jeżeli jesteś użytkownikiem Apple, przed zakupem zegarka, sprawdź czy obsługuje on system IOS. Komu sprawdzi się smartwatch? Odpowiedzmy na pytanie dla kogo jest smartwatch - dla każdego. Jednak, w zależności od Twojego trybu życia i wymagań wobec technologii, może być on mniej lub bardziej przydatny. Na pewno polecamy go każdej osobie uprawiającej sport. Smartwatch będzie notował Twoją aktywność fizyczną - dystans przebyty pieszo, na rowerze czy biegiem. W czasie uprawiania sportu jest on też, po prostu, wygodny - nie musisz sięgać do kieszeni. A nawet, co szczególnie spodoba się biegaczom, możesz wyjść z domu bez telefonu. Smartwatch może okazać się szczególnie przydatny w trakcie podróży - niektóre z nich są wodoszczelne, dlatego nic im się nie stanie, jeśli będziesz uprawiał sporty wodne. Bardzo użyteczna jest również funkcja GPS. Posiadające ją Smartwatche to świetny wybór dla dziecka - rodzice bez problemu zlokalizują pociechę w razie potrzeby. Poza tym smartwatch to świetna opcja dla każdej osoby, która chce, żeby technologie wspierały ją podczas zabieganego, pracowitego dnia. Kilka słów podsumowania Smartwatch to, bezsprzecznie, bardzo dobra inwestycja, opłacalna nie tylko dla fanów nowinek technologicznych. Jeżeli zastanawiasz się jaki smarwatch kupić, koniecznie sprawdź portal Magazyn.Ceneo.pl. Znajdziesz tam przydatne informacje na temat różnych modeli, ich rankingi i porównania. « powrót do artykułu
  4. Jeśli zaobserwowałeś u siebie problemy z erekcją, nasz poradnik może Ci się przydać! Zaburzenia erekcji dotykają mężczyzn w każdym wieku. Wiele przyczyn wynika z trybu życia, a niektórych należy szukać w chorobach. Kluczowe w rozwiązywaniu problemów z erekcją jest określenie przyczyny, którą następnie należy zwalczyć. Poniżej przedstawiamy sposoby, które mogą pomóc Ci rozwiązać problemy z zaburzeniami erekcji. Problemy ze wzwodem, dlaczego się pojawiają? Problemy ze wzwodem mogą wynikać z obniżonego poziomu testosteronu w organizmie. Testosteron to męski hormon płciowy, który odpowiada między innymi za popęd seksualny. Przyczyn  należy jednak szukać gdzie indziej. Od czasu do czasu każdy mężczyzna ma problem z erekcją. Może to być spowodowane zmęczeniem, stresem lub problemami w związku. Zaburzenia erekcji pojawiają się również wtedy, gdy dochodzi do nieprawidłowości w obrębie prostaty. Tę przyczynę, jak i wszystkie inne ewentualne powody zaburzeń erekcji, pozwala zweryfikować wizyta u lekarza. Zachęcamy do kontaktu ze specjalistą, zwłaszcza jeśli problemy ze wzwodem utrzymują się dłuższy czas. Bezpośrednią przyczyną zaburzeń erekcji jest słaby przepływ krwi do narządów płciowych. Może to być spowodowane cukrzycą lub schorzeniami w obrębie naczyń krwionośnych. Czasami brak dopływu krwi do penisa spowodowany jest również zdenerwowaniem i stresem przy kontakcie fizycznym. Tabletki na erekcję, czy warto? Ze względu na wzmacnianie przepływu krwi i pomoc w regulowaniu gospodarki hormonalnej organizmu, niezwykłą popularnością cieszą się suplementy wspomagające erekcję lub tabletki o działaniu natychmiastowym. Ich sekret polega właśnie a stymulowaniu przepływu krwi do narządów płciowych, co w przypadku mężczyzn umożliwia osiągnięcie satysfakcjonującej erekcji. Suplementy diety wspomagające erekcję dają trwałe efekty, ale trzeba je stosować co najmniej miesiąc. Z kolei tabletki na erekcję o działaniu natychmiastowym są polecane do okazyjnego stosowania. Nieprzestrzeganie tych zasad może pogłębić problemy z erekcją, ale prawidłowe stosowanie jest bezpieczne. Najpopularniejszym środkiem na potencję sprzedawanym na receptę jest Viagra. Kapsułki o podobnym działaniu można kupić również bez recepty. Są to na przykład tabletki Venicon, czy Libido Extreme Dark Blue. Domowe sposoby na wzmocnienie erekcji Domowe sposoby na wzmocnienie erekcji będą skuteczne w przypadku, kiedy za problemy ze wzwodem odpowiadają czynniki społeczne bądź psychiczne. Bardzo pomocna może okazać się szczera rozmowa z partnerką, w której wyjaśnimy naturę problemu. Zrozumienie ze strony ukochanej osoby może być kluczowe w procesie rozwiązywania trudności z erekcją. Pomocna okaże się również odpowiednia dieta, bogata w witaminę D, C i selen. Do tego warto zainteresować się sportem i ograniczyć lub zupełnie odstawić używki typu papierosy i alkohol. Zaburzenia erekcji, kiedy trzeba iść do lekarza? Badania profilaktyczne są najlepszym sposobem na unikanie i leczenie różnego rodzaju schorzeń. Jeżeli Twoje zaburzenia erekcji nie dają Ci spokoju, nie zwlekaj dłużej, tylko umów się do lekarza. Bardzo często wystarczy jedno badanie, by zlokalizować główne źródło problemów. Własny komfort i zdrowie jest warte pokonania lęku przed badaniami. « powrót do artykułu
  5. W trakcie pandemii Polacy znacznie ograniczyli aktywność fizyczną. Przyczyniło się to w dużym stopniu do tycia mieszkańców naszego kraju. Aż 42 proc. z nas przybrało na wadze średnio 5,7 kg – wynika z sondażu Ipsos COVID 365+. Badanie COVID 365+, którym objęto reprezentatywną próbę 1000 Polaków wskazuje, że obecnie problem nadwagi lub otyłości dotyczy co drugiego mieszkańca Polski. Zostało ono zrealizowane w dniach od 25 lutego do 2 marca 2021 r. Nadwaga i otyłość są jednymi z wiodących czynników zwiększających ryzyko ciężkiego przebiegu COVID-19. Potwierdzają to liczne badania naukowe przeprowadzone na przestrzeni ostatnich miesięcy – przypomina dr hab. Ernest Kuchar, specjalista w dziedzinie chorób zakaźnych i medycyny sportowej Warszawskiego Uniwersytetu Medycznego, cytowany w informacji prasowej przesłanej PAP. Jak dodaje ekspert, zdrowe odżywianie i aktywność fizyczna to dwa podstawowe elementy, tanie i dostępne dla każdego z nas, które mają najistotniejszy wpływ na redukcję zbędnych kilogramów, a co za tym idzie mogą wpływać na łagodniejszy przebieg COVID-19. Polacy mają świadomość, że styl życia, w tym aktywność fizyczna ma korzystny wpływ na zdrowie. W badaniu Ipsos pt. Diet and Health under COVID-19 co trzecia osoba oceniła, że aktywność fizyczna ma największy wpływ na obniżenie ryzyka ciężkiego przebiegu zakażenia koronawirusem. Jednocześnie, aż 43 proc. dorosłych Polaków nie realizuje minimalnego poziomu aktywności, który zgodnie z najnowszymi rekomendacjami Światowej Organizacji Zdrowia wynosi 300 minut umiarkowanego wysiłku fizycznego w tygodniu, wykazało badanie MultiSport Index 2021. Zostało ono zrealizowane przez Kantar na reprezentatywnej, losowej próbie 1000 Polaków powyżej 18. roku życia od 15 stycznia do 18 stycznia 2021 roku. Niestety od wielu lat daleko nam do podium, na którym znajdują się najaktywniejsze fizycznie społeczeństwa w Europie. Utrzymujące się od ponad roku ograniczenia w dostępie do obiektów sportowych z pewnością nie poprawią tych statystyk – podkreśla dr Kuchar. W badaniu MultiSport Index Pandemia przeprowadzonym w czasie pierwszego lockdownu, wiosną 2020 roku, aż 43 proc. aktywnych fizycznie Polaków przyznało, że ograniczyło liczbę treningów. Jako główny powód respondenci wskazali zamknięcie obiektów sportowych. Dr Kuchar zaznacza, że dziś co trzeci Polak podejmuje aktywność fizyczną rzadziej niż raz w miesiącu. Gdy doliczymy do tego godziny spędzone w pozycji siedzącej oraz niewłaściwą dietę i częste podjadanie niezdrowych przekąsek – mamy gotowy przepis na rozwój cukrzycy lub chorób układu krążenia, czyli tzw. schorzeń cywilizacyjnych, które obok pandemii COVID-19, pozostają najważniejszym problemem zdrowotnym i główną przyczyną zgonów – ostrzega specjalista. Zgodnie ze statystykami WHO niewystarczający poziom aktywności fizycznej jest czwartą wiodącą przyczyną śmiertelności na świecie – odpowiada za około 5 mln zgonów rocznie. Brak ruchu jest też bezpośrednią przyczyną 27 proc. przypadków cukrzycy oraz 30 proc. przypadków choroby niedokrwiennej serca. Aktywność fizyczna ma działanie profilaktycznie zarówno w kontekście chorób cywilizacyjnych, jak i funkcjonowania w sezonach infekcyjnych – wspiera naszą odporność, obniżając m.in. ryzyko występowania zakażeń górnych dróg oddechowych aż o 30 proc. – przypomniał dr Kuchar. Jak dodał, ćwiczenia odgrywają też znaczącą rolę w powrocie do zdrowia po COVID-19. Nasz układ limfatyczny, nazywany także układem chłonnym, posiada tylko jedną pompę – mięśnie. Skurcze mięśni stymulują krążenie limfy i zawartych w niej komórek odpornościowych po organizmie. Te wszystkie informacje składają się na jeden, bardzo ważny wniosek – powinniśmy zwracać uwagę na styl życia i pamiętać o codziennej dawce ruchu, która z pewnością przysłuży się naszemu zdrowiu, które dziś jest szczególnie zagrożone i to na wielu poziomach – podsumował ekspert. « powrót do artykułu
  6. W Mastaurze (ok. 120 km na południowy wschód od Izmiru, w pobliżu miasta Nazili) odkryto amfiteatr sprzed ok. 1800 lat, który mógł pomieścić do 20 tys. widzów oglądających walki gladiatorów i zwierząt. Był on częściowo zakryty roślinnością. Archeolodzy uważają, że eliptyczna budowla pochodzi z ok. 200 r. n.e., z czasów Sewerów. Porównując amfiteatr z Turcji z Koloseum, archeolodzy podkreślają, że Koloseum znajdowało się w stolicy, dlatego było większe i bardziej okazałe. W przypadku budowli z Mastaury oś wielka miała długość ok. 100 m (w przypadku Koloseum wynosiła zaś aż 189 m). A oto jak przedstawiały się pozostałe wymiary; w nawiasie podawane są parametry Koloseum. Wysokość ściany zewnętrznej: 25-30 m (vs. 48 m). Obwód: 300 m (vs. 545 m). Centralna arena: 40x30 m (vs. 87x55 m). Liczba widzów: 15-20 tys. (vs. 50 tys.). Konstrukcja była zasłonięta przez krzewy i drzewa. Większa część amfiteatru znajduje się pod ziemią. Fragmenty podziemne są świetnie zachowane. Wyglądają, jakby dopiero je zbudowano. W częściach nadziemnych widoczne są niektóre rzędy siedzeń czy arena walk gladiatorów [...]. Widoczne są łuki i sklepienia [charakterystyczne dla] rzymskiej architektury - opowiada dr Sedat Akkurnaz z Adnan Menderes University. Nie wiemy, za panowania którego cesarza [budowla] powstała, ale zastosowane techniki kamieniarskie i murarskie odpowiadają tym z czasów Sewerów. Za panowania tej dynastii Mastaura była rozwiniętym i bogatym ośrodkiem. W amfiteatrze odbywały się walki gladiatorów i zwierząt. To jedyny taki amfiteatr w Anatolii i bezpośredniej okolicy. Tylko on się zachował - dodaje Akkurnaz. Nie został przekształcony z budynku o innej funkcji. Wiele wskazuje na to, że ludzie z sąsiednich dużych miast - Afrodyzji, Miletu, Prieny, Magnezji koło Sipylosu i Efezu - przyjeżdżali tutaj, by oglądać wielkie krwawe przedstawienia, organizowane w specjalnie do tego celu zaprojektowanym budynku. Amfiteatr został odkryty w lipcu-sierpniu 2020 r. Prace nad jego odsłonięciem zajęły 3 miesiące; trwały jeszcze w grudniu (prowadzono je po uzyskaniu zgody Ministerstwa Kultury i Turystyki). Wycięto wszystkie krzewy i drzewa. Zaczęto zabezpieczać budowlę przed niszczycielskim działaniem natury. Ze względu na pęknięcia i wypadające kamienie na kwiecień br. zaplanowano prace konserwacyjno-murarskie. Rozpoczęło się skanowanie laserowe. Archeolodzy wspominają także o zastosowaniu geofizycznych metod prospekcji. Zespół z Adnan Menderes University i innych uniwersytetów współpracuje z Muzeum Archeologicznym w Aydın.   « powrót do artykułu
  7. Zwłoki zmarłego w 1679 roku biskupa Lund Pedera Winstrupa są jednymi z najlepiej zachowanych XVII-wiecznych ciał. Przed 6 laty informowaliśmy, że podczas skanowania trumny z ciałem duchownego dokonano niezwykłego odkrycia. Okazało się, że u stóp Winstrupa, ukryte w jego szatach, spoczywają szczątki dziecka, urodzonego w 5. lub 6. miesiącu ciąży. Mimo, że wcześniej wielokrotnie otwierano trumnę, dziecka nikt nie zauważył. Naukowcy mieli więc do rozwiązania zagadkę – kim ono było. Małe dzieci nierzadko chowano w trumnach dorosłych. Płód mógł zostać włożony do trumny już po pogrzebie biskupa, gdy trumna znajdowała się w krypcie Katedry w Lund, był więc do niej dostęp, mówi profesor Torbjörn Ahlström, jeden z autorów badań. Umieszczenie trumny w krypcie to jedno, ale umieszczenie płodu w trumnie biskupa to zupełnie inna sprawa. Zaczęliśmy się więc zastanawiać, czy istnieje jakiś związek pomiędzy dzieckiem a duchownym, dodaje uczony. Naukowcy z Uniwersytetu w Sztokholmie przeanalizowali próbki z ciała Pedera Winstrupa oraz szczątki dziecka. Okazało się, że był to chłopiec, spokrewniony z biskupem w drugim pokoleniu. Jako, że ich linie mitochondrialne były różne, ale zgadzały się chromosomy Y, naukowcy stwierdzili, że byli spokrewnieni po linii ojca dziecka. Chłopiec mógł być więc dla biskupa np. bratankiem, wnukiem czy kuzynem. O tym, jakie mogło ich łączyć pokrewieństwo naukowcy dowiedzieli się, analizując informacje o rodzinie Winstrupa. Najbardziej prawdopodobnym jest, że wcześniak był synem Pedera Pedersena Winstrupa, zatem biskup był jego dziadkiem, mówi Maja Krzewińska z Centrum Paleogenetyki Uniwersytetu w Sztokholmie. Syn Pedera Winstrupa, Peder Pedersen nie poszedł w ślady ojca i dziadka. Nie studiował teologii. Bardziej interesowała go inżynieria fortyfikacji. Wiemy, że w 1680 roku, podczas wielkich redukcji Karola XI, kiedy to król skonfiskował szlachcie ziemie, Peder Pedersen Winstrup stracił majątek odziedziczony po ojcu. Ostatnie lata życia spędził prawdopodobnie pod opieką swoich krewnych. Wraz z nim wygasła zasłużona rodzina Winstrupów. Biskup Winstrup był niezwykłym człowiekiem. To on przekonał króla Szwecji do założenia Uniwerystetu w Lund. Był naukowcem, architektem, posiadał drukarnię książek, prowadził eksperymenty naukowe. Warto tutaj przypomnieć, że badanie zwłok biskupa Winstrupa pozwoliło też na określenie momentu w historii, w którym ludzi zaczęła trapić gruźlica.   « powrót do artykułu
  8. Naukowcy z Wildlife Conservation Research Unit (WildCRU) na University of Oxford poinformowali o wykonaniu pierwszych w historii zdjęć dziko żyjącego dujkerczyka skrytego (Philantomba walteri). Gatunek ten, należący do rodzaju Philantomba, został po raz pierwszy opisany naukowo w 2010 roku. Zakończone sukcesem próby sfotografowania dujkerczyka skrytego były prowadzone w Togo przez lokalnego naukowca Delagnona Assou. Niewielką antylopę udało się uwiecznić na zdjęciu dzięki aparatom pułapkowym, rozmieszczonym w Togo w ramach największego projektu badania krajowych ssaków. Zespół złożony z naukowców z Togo, Niemiec i Wielkiej Brytanii umieścił 100 aparatów pułapkowych w największym obszarze chronionym Togo, Parku Narodowym Fazao-Malfakassa. Dzięki nim udało się uwiecznić dujkerczyka i inne rzadkie zagrożone gatunki rodzime. Status dujkerczyka skrytego nie jest znany. Jedyne wcześniej znane ślady tego gatunku to czaszki i zwłoki obserwowane na targach w Beninie, Togo i Nigerii, gdzie sprzedawane są upolowane dziko żyjące zwierzęta. Ta pełna gracji antylopa przez ostatnich 200 lat unikała naukowców. Jednak nie udało jej się uniknąć sideł i ludzi polujących z psami, mówi dyrektor WildCRU, profesor David Macdonald. Polowania na dzikie zwierzęta to jedna z głównych przyczyn utraty bioróżnorodności w krajach rozwijających się. To cały przemysł komercyjnego polowania i sprzedaży mięsa na targowiskach. Obok zagrożeń dla środowiska naturalnego działalność taka niesie też ze sobą zagrożenia dla zdrowia publicznego. Częsty kontakt człowieka z dzikimi zwierzętami i spożywanie ich mięsa oznacza zwiększone ryzyko przeniesienia na nasz gatunek nowych patogenów i powodowanych przez nie chorób. Na zdjęciach wykonanych przez aparaty pułapkowe w Parku Narodowym Fazao-Malfakassa zidentyfikowano 32 gatunki ssaków. W połączeniu z innymi, wcześniejszymi danymi, naukowcy stwierdzili, że na badanym obszarze żyje lub żyło 57 gatunków ssaków, nie wliczając w to nietoperzy. To pokazuje, jak ważny – i to w skali globalnej – jest ten park narodowy. Na zdjęciach, obok dujkerczyka skrytego, zidentyfikowaliśmy też mrównika afrykańskiego i mangustkę długonosą. Dotychczas nie wiedzieliśmy, że gatunki te występują w Togo, dodaje profesor Macdonald. Park Narodowy Fazao-Malfakassa jest jednak zagrożony. Prowadzonych jest w nim wiele rodzajów nielegalnej działalności, od kłusownictwa i wypasu bydła, po wycinkę drzew i zakładanie pól uprawnych. « powrót do artykułu
  9. Nadeszły długo oczekiwane pierwsze wyniki badań w eksperymencie Muon g-2 prowadzonym przez Fermi National Accelerator Laboratory (Fermilab). Pokazują one, że miony zachowują się w sposób, który nie został przewidziany w Modelu Standardowym. Badania, przeprowadzone z bezprecedensową precyzją, potwierdzają sygnały, jakie inni naukowcy zauważali od dekad. Jeśli się potwierdzą, będzie to wyraźnym dowodem, iż miony wykraczają poza Model Standardowy i mogą wchodzić w interakcje z nieznaną cząstką. To wyjątkowy dzień, długo oczekiwany nie tylko przez nas, ale przez całą społeczność fizyków, mówi Graziano Venanzoni, fizyk z Włoskiego Narodowego Instytutu Fizyki Jądrowej, rzecznik eksperymentu Muon g-2. Miony są około 200 razy bardziej masywne niż ich kuzyni, elektrony. Występują w promieniowaniu kosmicznym docierającym do Ziemi, a w akceleratorach cząstek potrafimy uzyskiwać je w dużych ilościach. Podobnie jak elektrony, miony zachowują się tak, jakby zawierały magnes. Jak wiemy ze wzoru wprowadzonego przez Paula Diraca, twórcę teorii kwarków, moment magnetyczny samotnego mionu – współczynnik g – ma wartość 2. Stąd zresztą nazwa eksperymentu Muon g-2. Z czasem do wyliczeń tych wprowadzono niewielkie poprawki, określając dokładną wartość współczynnika. Jednak na mion, podobnie zresztą jak na elektron, wpływa jego otoczenie. Gdy miony krążą w eksperymencie Muon g-2 stykają się z kwantową pianką tworzoną przez pojawiające się i znikające subatomowe cząstki. Interakcja z nimi wpływa na wartość współczynnika g. Model Standardowy pozwala z wielką precyzją wyliczyć tę wartość. Oczywiście uwzględniając przy tym znane nam cząstki. Jeśli więc pojawi się cząstka lub siła nieznana w Modelu Standardowym, współczynnik g przyjmie wartość, która nie jest przezeń przewidziana. To, co mierzymy, odzwierciedla wszystkie interakcje, z jakimi mion miał do czynienia. Jednak gdy teoretycy przeprowadzają swoje obliczenia, biorąc pod uwagę wszystkie znane siły i cząstki Modelu Standardowego, okazuje się, że wynik ich obliczeń jest różny od wyniku naszego eksperymentu. To silna wskazówka, że na mion działa coś, czego nie przewiduje Model, mówi Renee Fatemi, fizyk z University of Kentucky, która jest odpowiedzialna za symulacje w eksperymencie Muon g-2. Zgodnie z akceptowanymi obecnie wyliczeniami teoretyków współczynnik g dla mionu wynosi 2,00233183620(86), a wartość poprawki momentu magnetycznego to 0,00116591810(43). W nawiasach zawarto niepewność wyliczeń. Tymczasem uśrednione wartości, jakie uzyskano podczas najnowszych eksperymentów w Fermilab to 2,00233184122(82) oraz 0,00116592061(41). Istotność statystyczna tej różnicy – czyli w tym przypadku niezgodność obliczeń teoretycznych obliczeń z pomiarami – wynosi aż 4,2 sigma. Przypomnijmy tutaj, że od 5 sigma mówimy w fizyce o odkryciu. Prawdopodobieństwo, że uzyskane wyniki są fałszywe wynosi 1:40 000. Jak zatem widać, fizycy o odkryciu jeszcze nie mówią, ale mają bardzo silne przesłanki, by wierzyć w wyniki eksperymentu. Eksperyment Moun g-2 zaczął w Fermilab pracę w 2018 roku. Korzysta on z nadprzewodzącego magnetycznego pierścienia akumulacyjnego o średnicy ponad 15 metrów. W 2013 roku pierścień ten został przewieziony z Brookhaven National Laboratory, gdzie nie był już potrzebny. To niezwykłe wydarzenie opisywaliśmy przed 8 laty. Przez kolejne 4 lata specjaliści składali, kalibrowali i testowali nowe urządzenie, wyposażając Moun g-2 w najnowsze osiągnięcia techniki i tworząc na jego potrzebny nowe metody badawcze. W eksperymencie tym strumień mionów tysiące razy krąży w pierścieniu z prędkością bliską prędkości światła. Tylko w pierwszym roku działania Muong g-2 z Fermilab zebrał więcej danych niż wszystkie wcześniejsze eksperymenty razem wzięte. Dzięki współpracy ponad 200 naukowców z 35 instytucji naukowych z 7 krajów udało się obecnie dostarczyć szczegółowe dane dotyczące pomiarów ruchu ponad 8 miliardów mionów wykorzystywanych podczas pierwszego sezonu badawczego (rok 2018). Obecnie prowadzone są analizy danych z dwóch kolejnych sezonów (lata 2019–2020). Jednocześnie trwa czwarty sezon, a piąty jest planowany. Połączenie danych ze wszystkich wspomnianych sezonów pozwoli na określenie współczynnika g z jeszcze większą precyzją. Dotychczas przeanalizowaliśmy mniej niż 6% danych, jakie dostarczy nam Muon g-2. Już pierwsze wyniki pokazują, że istnieje interesująca rozbieżność pomiędzy eksperymentem a Modelem Standardowym. W ciągu najbliższych kilku lat dowiemy się znacznie więcej, mówi Chris Polly z Fermilab, który jako student brał udział w badaniach w Brookhaven. « powrót do artykułu
  10. Naukowcy, którzy zsekwencjonowali najstarsze europejskie DNA H. sapiens wykazali, że wielu pierwszych przedstawicieli tego gatunku, miało wśród swoich przodków neandertalczyków. Jednak ludzie ci, których szczątki znaleziono w jaskiniach w Bułgarii i Czechach, nie byli spokrewnieni z późniejszymi Europejczykami. Dotychczas udało się zsekwencjonować genom wielu gatunków ludzi nawet sprzed 430 000 lat. Jednak mamy bardzo niewiele informacji genetycznych z okresu pomiędzy 47 000 a 40 000 lat temu i żadnych danych na temat Homo sapiens sprzed tego okresu. Badania genomu szczątków znalezionych na Syberii i w Rumunii wskazują, że nie ma tutaj związku z późniejszymi migracjami na terenie Europy, ale z drugiej strony człowiek żyjący przed 40 000 lat na terenie dzisiejszych Chin jest spokrewniony z dzisiejszymi mieszkańcami Azji Wschodniej. Ci wcześni mieszkańcy Eurazji, podobnie jak wszyscy współcześni ludzie, których przodkowie nie pochodzą wyłącznie z Afryki, są spokrewnieni z neandertalczykami. Początkowo sądzono, że do pierwszego krzyżowania się doszło 50–60 tysięcy lat temu na terenie Bliskiego Wschodu. Jednak przed kilku laty badania szczątków osobnika żyjącego przed 40 000 lat w Pestera cu Oase w Rumunii wykazały, że neandertalski fragment jego genomu pochodzi sprzed zaledwie 4–6 pokoleń. To zaś pokazuje, że do krzyżowania dochodziło też na terenie Europy. Nie było jednak jasne, czy to izolowany przypadek czy też nie. Tym bardziej, że ten H. sapiens żył w czasach gdy neandertalczycy zaczęli już znikać. Na łamach Nature ukazały się właśnie dwa artykuły, które rzucają sporo światła na związki pomiędzy pierwszymi H. sapiens w Europie, późniejszymi Homo sapiens oraz neandertalczykami. Jednak badania te każą postawić też wiele nowych pytań. Jedno z badań dotyczy zęba i fragmentów kości z jaskini Baczo Kiro w Bułgarii. Drugie zaś to badania niemal kompletnej czaszki z jaskini Zlaty Kun w Czechach. Mateja Hajdinjak i Svant Pääbo z Instytutu Antropologii Ewolucyjnej im. Maxa Plancka (MPI-EVA) w Lipsku, którzy prowadzili badania w Baczo Kiro, donoszą, że wszyscy trzej zmarli tam przedstawiciele H. sapiens, pochodzący sprzed 45 900 – 42 600 lat, mieli neandertalskich przodków. O ile jednak współcześni ludzie spoza Afryki mają około 2% neandertalskiego genomu, ci mieli go 3,4–3,8%. Bliższe badania tego genomu ujawniły, że neandertalscy przodkowie tych ludzi żyli zaledwie 6–7 generacji wcześniej, a do krzyżowania się doszło na terenie Europy. Z kolei kobieta z jaskini Zlaty kun również miała neandertalskich przodków, ale żyli oni 70–80 pokoleń wcześniej, mówi Johannes Kause, paleogenetyk z MPI-EVA, który brał udział w badaniach w Czechach. Ze względu na zanieczyszczenie czaszki nie było możliwe jej dokładne datowanie, jednak – bazując na jej neandertalskich przodkach – Krause podejrzewa, że kobieta zmarła ponad 45 000 lat temu. Żyła zatem w tym samym okresie co ludzie z Baczo Kiro. Ani ludzie z Baczo Kiro, ani kobieta z jaskini Zlaty kun nie byli spokrewnieni z później żyjącymi Europejczykami. To oznacza, że ich linia genetyczna zniknęła. Jednak ku zdumieniu naukowców okazało się, że ludzie z Baczo Kiro są spokrewnieni... ze współczesnymi mieszkańcami Azji Wschodniej i rdzennymi mieszkańcami obu Ameryk. Hajdinjak sądzi, że szczątki z Baczo Kiro należą do populacji, która niegdyś zamieszkiwała Eurazję, ale zniknęła ona z Europy i przetrwała w Azji. Dodatkowo fakt, że kilka osób z Baczo Kiro miało żyjących krótko przed nimi neandertalskich przodków wskazuje, że na terenie Europy rutynowo dochodziło do mieszania pomiędzy H. sapiens i H. neanderthalensis. Naukowcy zwracają też uwagę, że osoby z Baczo Kiro używały technologii IUP (Initial Upper Paleolitic). To technologia przejściowa, poprzedzająca kulturę oryniacką. Jest ona różna od typowych narzędzi neandertalczyków i późniejszych wytworów H. sapiens. Nie można wykluczyć, że powstała ona w wyniku wymiany kulturowej lub została wytworzona przez mieszaną populację neandertalczyków i H. sapiens. « powrót do artykułu
  11. Międzynarodowy zespół astronomów, w którego składzie znajdują się także naukowcy z Uniwersytetu Mikołaja Kopernika w Toruniu, opublikował najdokładniejszą w historii mapę Wszechświata w zakresie niskich częstotliwości radiowych, używając europejskiej sieci odbiorników LOFAR. Aby tego dokonać, obserwowano wielokrotnie te same obszary nieba, by móc je następnie połączyć w jeden obraz o bardzo długiej ekspozycji. Dzięki temu na obrazie wykryto słabe poświaty radiowe od gwiazd, które eksplodowały jako supernowe w dziesiątkach tysięcy galaktyk, rozmieszczonych aż po najdalsze rejony Wszechświata. Specjalne wydanie czasopisma naukowego Astronomy and Astrophysics jest poświęcone czternastu pracom badawczym opisującym sposób powstania map i pierwsze wyniki naukowe. Do tej pory radiowe obserwacje nieba w głównej mierze skupiały się na najjaśniejszej emisji, jaką możemy odebrać, czyli tej pochodzącej od masywnych czarnych dziur znajdujących się w centrum swoich galaktyk. Jednak obraz, jaki powstał na niskich częstotliwościach radiowych dzięki obserwacjom LOFAR-a, jest tak głęboki, że większość obiektów na nim widocznych to galaktyki takie jak nasza Droga Mleczna, których gwiazdy dopiero się tworzą. Połączenie bezprecedensowej czułości tego przeglądu i jego dużego obszaru na niebie - około 300 razy większego niż Księżyc w pełni - pozwala na wykrycie dziesiątek tysięcy galaktyk podobnych do naszej Drogi Mlecznej i położonych nawet na krańcach Wszechświata, w momencie, gdy jeszcze się tworzyły. Co więcej, powstawanie gwiazd zwykle zachodzi w chmurach pyłu, które w zakresie fal widzialnych przesłaniają nam widok. Tymczasem fale radiowe przenikają przez pył, dzięki czemu możemy uzyskać pełny obraz tworzenia się gwiazd w galaktykach. Bardzo dokładne obserwacje wykonane za pomocą instrumentu LOFAR umożliwiły precyzyjne wyznaczenie związku między jasnością galaktyk w zakresie fal radiowych a tempem formowania się nowych gwiazd, a także pomogły w dokładniejszych ocenach liczby nowych gwiazd tworzących się w młodym Wszechświecie. Ponadto unikalny zbiór danych pochodzących z przeglądu LOFAR umożliwił przeprowadzenie szeregu innych badań naukowych, takich jak badanie emisji radiowej pochodzącej z masywnych czarnych dziur w kwazarach czy też ze zderzeń olbrzymich gromad galaktyk. Analiza zebranych danych przyniosła również pewne zaskakujące rezultaty. Powtarzane co pewien czas obserwacje fragmentu nieba pozwoliły na badanie źródeł o zmiennej jasności. Umożliwiło to m.in. wykrycie czerwonego karła – gwiazdy CR Draconis. Gwiazda ta wykazuje wybuchy emisji radiowej, które bardzo przypominają te pochodzące z Jowisza i mogą być wywołane interakcją gwiazdy z nieznaną wcześniej planetą lub być wynikiem bardzo szybkiej rotacji gwiazdy. Obrazy radiowe nieba uzyskuje się w wyniku przetworzenia ogromnej ilości danych. Aby stworzyć obrazy z LOFAR-a, połączono sygnały pochodzące z ponad 70 000 anten wchodzących w skład tego instrumentu, co dało ponad 4 petabajty surowych danych, czyli około miliona płyt DVD. Przetworzenie tej olbrzymiej ilości informacji i interpretacja uzyskanych obrazów możliwa była dzięki zastosowaniu najnowszych osiągnięć matematycznych z zakresu analizy danych. Omawianymi badaniami kierował prof. Philip Best z Uniwersytetu w Edynburgu w Wielkiej Brytanii, a wzięli w nich udział również polscy astronomowie: prof. Krzysztof Chyży, dr Arti Goyal, dr hab. Marek Jamrozy, dr Błażej Nikiel-Wroczyński z Uniwersytetu Jagiellońskiego w Krakowie; dr hab. Magdalena Kunert-Bajraszewska, mgr Aleksandra Wołowska z Uniwersytetu Mikołaja Kopernika w Toruniu; dr hab. Katarzyna Małek z Narodowego Centrum Badań Jądrowych. Międzynarodowy Teleskop LOFAR (LOw Frequency ARray) to transeuropejska sieć anten radiowych, której centrum znajduje się w Exloo w Holandii. LOFAR został zaprojektowany, zbudowany i jest aktualnie obsługiwany przez ASTRON, Holenderski Instytut Radioastronomii. Francja, Irlandia, Łotwa, Holandia, Niemcy, Polska, Szwecja, Włochy i Zjednoczone Królestwo są krajami partnerskimi w konsorcjum Międzynarodowego Teleskopu LOFAR. Polskimi stacjami LOFAR-a kieruje grupa POLFARO, w skład której wchodzą właściciele 3 stacji: Uniwersytet Warmińsko-Mazurski w Olsztynie – stacja Bałdy, Uniwersytet Jagielloński w Krakowie – stacja Łazy, Centrum Badań Kosmicznych PAN w Warszawie – stacja Borówiec; oraz Poznańskie Centrum Superkomputerowo-Sieciowe w Poznaniu. Utrzymanie polskich stacji LOFAR-a finansowane jest przez Ministerstwo Edukacji i Nauki. « powrót do artykułu
  12. Na całym świecie żyją dziesiątki milionów osób, które w różnym stopniu utraciły sprawność fizyczną po urazowym uszkodzeniu mózgu. Nadzieją dla nich może być „klej do mózgu”, czyli specjalny hydrożel, opracowany w Regenerative Biosceinces Center na University of Georgia. Twórcy hydrożelu wykazali właśnie, że nie tylko chroni on przed dalszą utratą tkanki mózgowej po poważnym urazie, ale może również pomagać w regeneracji nerwów. Wyniki badań, opisanych na łamach Science Advances, dostarczają pierwszych wizualnych i funkcjonalnych dowodów na to, że pod wpływem „kleju do mózgu” następuje naprawa obwodów nerwowych. Nasze badania dają nam wgląd w to, jak przebiega regeneracja uszkodzonych regionów mózgu u zwierząt, przed którymi postawiono specyficzne zadania dotyczące sięgnięcia i schwytania przedmiotu, mówi profesor Lohitash Karumbaiah. Uczony stworzył specjalny hydrożel w 2017 roku. Został on zaprojektowany tak, by naśladował strukturę i funkcję cukrów w komórkach mózgu. Żel zawiera kluczowe struktury pozwalające mu na łączenie się z czynnikiem wzrostu fibroblastów i neurotroficznym czynnikiem pochodzenia mózgowego, dwoma ważnymi białkami, które zwiększają przeżywalność i regenerację komórek mózgu po urazie. Przeprowadzone długoterminowe badania wykazały, że po 10 tygodniach u zwierząt, u których zastosowano hydrożel "doszło do naprawy poważnie uszkodzonej tkanki mózgowej. Zwierzęta te szybciej się rehabilitowały, niż te, u których materiału tego nie stosowano". Badania trwały 4-5 lat. Wszystko jest tak szczegółowo udokumentowane, że po przeczytaniu wszystkich zebranych przez nas informacji, każdy uwierzy, iż pojawiła się nowa nadzieja dla ludzi z poważnym uszkodzeniem mózgu, mówi Charles Latchoumane, główny autor badań, który pracuje też w centrum NeurRestore w Lozannie. Centrum to skupia się na badaniach nad odwróceniem utraty funkcji neurologicznych u ludzi cierpiących na chorobę Parkinsone oraz inne schorzenia neurologiczne, do których doszło w wyniku urazu lub udaru.   « powrót do artykułu
  13. Lucy będzie pierwszą w historii misją, która poleci do asteroid trojańskich. Jej panele słoneczne, gdy zostaną przymocowane do pojazdu i w pełni rozwinięte, będą mogły pokryć kilkupiętrowy budynek. Są tak olbrzymie, gdyż Lucy będzie też najdalszą od Słońca misją w dziejach, której źródłem energii będzie Słońce. Teraz NASA poinformowała o zakończonych powodzeniem testach termicznych paneli prowadzonych w komorze próżniowej. Lucy to 13. już misja realizowana w ramach prowadzonego przez NASA Discovery Program. Ma wystartować jesienią bieżącego roku, a za 12 lat doleci do trojańczyków, znajdujący się poza orbitą Jowisza, w odległości 853 milionów kilometrów od Słońca. Olbrzymie panele słoneczne mają zapewnić około 500 watów mocy. To niezbyt wiele, jednak ze względu na sporą odległość od Słońca panele muszą być naprawdę duże. Około godzinę po wystrzeleniu panele będą musiały się rozwinąć i zapewnić Lucy energię. Tych 20 minut, podczas których będą rozwijane, zdecyduje o powodzeniu całej 12-letniej misji. Marsjańskie lądowniki mają swoje 7 minut horroru, my may to, mówi główny naukowiec misji, Hal Levison z Southwestern Institute w Boulder. Dotychczas dwukrotnie przeprowadzono w komorze próżniowej test rozwijania paneli. Gdy są złożone ich grubość wynosi zaledwie 10 cm. Po rozłożeniu każdy z paneli ma średnicę 7,3 metra. Każdy waży 77 kilogramów i... nie jest w stanie utrzymać własnej wagi w polu grawitacyjnym Ziemi. Dlatego też na potrzeby testów skonstruowano specjalną przeciwwagę. Obecnie pojazd Lucy jest składany i testowany. Latem ma trafić na Florydę do Centrum Lotów Kosmicznych im. Kennedy'ego. Start misji zaplanowano na 16 października. Następnie Lucy czeka długi lot do Jowisza i spotkanie z asteroidami. Asteroidy trojańskie, zwane trojanami Jowisza lub po prostu Trojanami, tworzą dwie grupy. Jedna z nich znajduje się w punkcie libracyjnym L4 orbity Jowisza, a druga w punkcie L5. Przyjęło się, że asteroidy z punktu L4 nazywa się imionami greckich bohaterów, dlatego też cała grupa zyskała nieoficjalną nazwę „Greków”. Z kolei asteroidy z punktu L5 zwane są „Trojańczykami”. Obie grupy poruszają się po orbicie Jowisza, a kierunek ruchu powoduje, że Trojańczycy gonią Greków. Co interesujące, zanim taki podział na grupy został ustalony dwie wcześniej odkryte asteroidy – Patroklus i Hektor – zostały już nazwane. W efekcie, w grupie Trojańczyków znajduje się grecki szpieg, a w grupie Greków jest szpieg trojański. Po wystrzeleniu Lucy dwukrotnie przeleci w pobliżu Ziemi. Następnie poleci do L4, czyli Greków. Tam w latach 2027–2028 spotka się z Eurybatesem i jego satelitą Polimele, a następnie z Leukusem i Orusem. Później podąży w kierunku L5 (Trojańczyków). Po drodze odwiedzi Donaldjohansona, asteroidę z głównego pasa, nazwaną tak na cześć odkrywcy szczątków hominina Lucy. Ponownie przeleci też w pobliżu Ziemi. Po dotarciu do Trojańczyków w roku 2033 Lucy przeleci obok podwójnego układu Patroclus-Menoetius. Po wykonaniu zadania Lucy będzie krążyła pomiędzy obiema grupami asteroid trojańskich, odwiedzając każdą z nich co sześć lat.   « powrót do artykułu
  14. Dobra wentylacja pomieszczeń i maseczki skuteczniej powstrzymują rozprzestrzenianie się SARS-CoV-2 niż dystans społeczny, wynika z ostatnich badań przeprowadzonych na University of Central Florida. Oznacza to, że w szkołach, firmach czy innych zamkniętych pomieszczeniach, można przebywać bez konieczności zachowywania dużego dystansu. Wyniki badań, opublikowane na łamach pisma Physics of Fluids, pozwalają lepiej zrozumieć, jakie zasady bezpieczeństwa powinny obowiązywać w pomieszczeniach. Nasze badania nad rozprzestrzenianiem się aerozoli pokazały, że tam, gdzie noszone są maseczki, nie ma potrzeby zachowywania kilkumetrowych odstępów. Innymi słowy, maseczki powodują, że ryzyko zakażenia nie spada wraz ze zwiększającą się odległością pomiędzy ludźmi. To zaś pokazuje, że noszenie maseczek pozwala na zwiększenie liczby osób przebywających w szkołach i innych miejscach, mówi współautor badań, Michael Kinzel z Wydziału Inżynierii Mechanicznej, Lotniczej i Kosmicznej. Na potrzeby swoich badań uczeni stworzyli model komputerowy sali wykładowej, w której przebywają uczniowie oraz nauczyciel. Następnie modelowali przepływ powietrza i obliczali ryzyko zarażenia się wirusem. Wirtualna sala miała 66 metrów kwadratowych powierzchni, a jej sufit znajdował się na wysokości 2,7 metra. Na potrzeby symulacji założono, że każdy z uczniów oraz stojący do nich przodem nauczyciel noszą maseczkę oraz że każdy z nich może być zainfekowany. Symulowano dwa scenariusze, jeden z pomieszczeniem wentylowanym i drugi z niewentylowanym. Uczeni wykorzystali przy tym dwa modele Wellsa-Rileya oraz Computational Fluid Dynamics. Model Wellsa-Rileya jest często używany do szacowania ryzyka przenoszenia chorób w pomieszczeniach zamkniętych, a Computational Fluid Dynamics wykorzystuje się do badania aerodynamiki samochodów, samolotów oraz okrętów podwodnych. Naukowcy wykazali, że maski zapobiegają bezpośredniemu narażeniu innych na kontakt z aerozolami, gdyż powodują, że słaby podmuch ciepłego powietrza roznosi się w pionie, zatem nie dociera do siedzących obok osób. Ponadto system wentylacji z dobrymi filtrami zmniejszał ryzyko infekcji o 40–50% w porównaniu z pomieszczeniami niewentylowanymi. Było to możliwe dzięki temu, że wentylacja wymusza ciągły ruch powietrza, które przechodzi przez filtry, a te wyłapują część aerozoli. Uzyskane wyniki potwierdzają, że Centra Kontroli i Zapobiegania Chorobom (CDC) miały rację zezwalając na zmniejszenie dystansu w klasach z 1,8 do 0,9 metra o ile noszone są maseczki. Wentylacja i maseczki to najważniejsze elementy zapobiegania transmisji. Pierwszą rzeczą, z której można zrezygnować, jest zachowywanie odległości, mówi Kinzel. Badania Kinzela i jego kolegów to część większego projektu, którego celem jest opracowanie mechanizmów kontroli chorób zakaźnych przenoszonych powietrzem oraz lepsze zrozumienie wpływu superroznosicieli na pojawianie się epidemii. « powrót do artykułu
  15. Do 2050 roku rolnictwo będzie musiało zaspokoić potrzeby żywieniowe niemalże 10 mld ludzi. Biorąc pod uwagę dewastację gruntów rolnych i światowe niedobory wody jednym z rozwiązań wydają się być takie trendy jak zero waste czy alternatywne źródła białka, które pozwolą odpowiedzieć na rosnące zapotrzebowanie bez niszczenia środowiska naturalnego. Filozofia „zero waste”  mocno wpisuje się̨ w naszą codzienność, jednak czy kojarzymy to sformułowanie z rolnictwem? Niestety nie, a szkoda. Wbrew powszechnym twierdzeniom, rolnictwo w bardzo wielu zakresach jest zero waste – tłumaczy prof. UPP dr hab. Zuzanna Sawinska z Katedry Agronomii, Wydział Rolnictwa. Ogrodnictwa i Bioinżynierii UPP. Od zarania swych dziejów wykorzystuje w produkcji z dużym powodzeniem np. obornik, czyli odpad z produkcji zwierzęcej. W  kolejnych latach do zastosowania w uprawach wprowadzane były komposty, nawozy zielone, pofermenty z biogazowni czy w ostatnim czasie osady ściekowe jako nawóz – wymienia badaczka. Ale to nie koniec możliwości wykorzystania „odpadów” w produkcji roślinnej. Coraz częściej słyszymy o owadach jako bardzo dobrym źródle białka w żywieniu zwierząt a także ludzi. A co będzie się działo z tym co owady zjedzą i wydalą? Otóż, powstaje z tego naturalny nawóz, który może znaleźć swoje zastosowanie w rolnictwie, ogrodnictwie czy w uprawach hobbystycznych. W jaki sposób, w jakich dawkach, w jakich roślinach i czy w ogóle taki nawóz będzie mógł znaleźć zastosowanie ocenia prof. UPP dr hab. Zuzanna Sawinska z zespołem swoich współpracowników z Katedry Agronomii w ramach prowadzonego dla HiProMine projektu badawczego „Opracowanie technologii wytwarzania nawozu organicznego (w postaci peletu/granulatu) na bazie odchodów Hermetia illucens i zbadanie jego oddziaływania na wybrane rośliny”. Pierwsze wyniki badań są bardzo obiecujące, wskazują że istnieje możliwość zastosowania nawozu z odchodów Hermetia illucens zarówno w uprawie jęczmienia ozimego, życicy trwałej jak i sałaty czy bazylii – wyjaśnia prof. UPP dr hab. Z. Sawinska. Aktualnie testujemy różne dawki tego nawozu, sposoby stosowania, będziemy także sprawdzać jak radzą sobie oceniane w badaniach rośliny w warunkach stresu suszy w przypadku zastosowania tego nawozu, oczywiście w porównaniu z kombinacjami w których nawóz na bazie odchodów Hermetia illucens nie był stosowany. Jeszcze wiele ciekawych obserwacji przed nami - dodaje Prof. UPP dr hab. Zuzanna Sawinska. Badania realizowane są jako podwykonawstwo w ramach badań przemysłowych i rozwojowych w projekcie HiProMine S.A. „Opracowanie technologii wytwarzania nawozu organicznego (w postaci peletu/granulatu) na bazie odchodów Hermetia illucens i zbadanie jego oddziaływania na wybrane rośliny” - działanie 1.1 „Projekty B+R przedsiębiorstw”, Poddziałanie 1.1.1 „Badania przemysłowe i prace rozwojowe realizowane przez przedsiębiorstwa” Programu Operacyjnego Inteligentny Rozwój. « powrót do artykułu
  16. Pierwszy pojazd latający umieszczony przez ludzkość na powierzchni Marsa – śmigłowiec Ingenuity – bez szwanku przetrwał swoją pierwszą samodzielną noc na Czerwonej Planecie. Noc, pod koniec której temperatura spadła do -90 stopni Celsjusza, była poważnym testem dla pojazdu. Tak niskie temperatury mogły uszkodzić jego akumulator lub jeden z podzespołów. W ciągu kilku najbliższych dni Ingenuity odbędzie pierwszy w historii kontrolowany lot w atmosferze Marsa. Od czasu wylądowania łazika Perseverance Ingenuity był podczepiony pod jego podwoziem i to łazik zapewniał mu odpowiednie warunki, przede wszystkim ogrzewanie, chroniące śmigłowiec. Teraz po raz pierwszy musiał sam sobie poradzić na powierzchni Marsa, mówi MiMi Aung, menadżerka projektu Ingenuity. Teraz mamy potwierdzenie, że izolacja sprawuje się dobrze, ogrzewanie działa, a akumulatory zapewniają wystarczająco energii, by śmigłowiec przetrwał noc. Teraz przygotowujemy się do pierwszego lotu. Ingenuity waży 1,8 kilograma i ma być pierwszym wysłanym przez człowieka urządzeniem, które będzie latało w atmosferze Marsa. Lot na Marsie to poważne wyzwanie. Gęstość tamtejszej atmosfery to zaledwie 1% gęstości atmosfery Ziemi. I tę tak rzadką atmosferę trzeba wykorzystać do uzyskania siły nośnej i kontroli pojazdu. Nigdy wcześniej żaden ziemski śmigłowiec nie latał w takich warunkach. Ingenuity został wyposażony w dwa rotory z włókna węglowego. Obracają się one w przeciwnych kierunkach z prędkością 2400 obrotów na minutę. To pięciokrotnie szybciej niż wirniki śmigłowca na Ziemi. Gdyby obracały się wolniej, dron mógłby się nie oderwać od Marsa. Jednak gdyby obracały się szybciej, końcówki wirników zbliżyłyby się do prędkości dźwięku, co wywołałoby falę uderzeniową, a ta zdestabilizowałaby pojazd. Testy Ingenuity mają potrwać przez 30 dni. Inżynierowie NASA mają nadzieję, że w tym czasie uda się wykonać co najmniej 5 lotów. Żaden z nich nie potrwa dłużej niż 90 sekund, Jako, że misja Ingenuity została dołączona do misji łazika Perseverance i nie jest jej częścią, od śmigłowca nie oczekuje się zbyt wiele. To zaś powoduje, że nie musi on spełniać tak wysokich wymagań dotyczących minimalizacji ryzyka. Przez to zastosowany w nim sprzęt nie musi spełniać wyśrubowanych wymagań. Dlatego też wiele elementów śmigłowca zostało wykonanych z powszechnie dostępnych materiałów. Na przykład zastosowano w nim standardowy procesor Snapdragon 801. Dlatego też, ironią losu, śmigłowiec, który ma po po prostu latać, dysponuje mocą obliczeniową o całe rzędy wielkości większą niż łazik, wykonujący złożone badania naukowe. Jako, że moc procesora znakomicie przewyższa moc potrzebną do samego sterowania, Ingenuity wyposażono też w kamerę rejestrującą obraz z prędkością 30 klatek na sekundę oraz oprogramowanie nawigacyjne, które na bieżąco obraz analizuje. Śmigłowiec będzie działał w trybie półautonomicznym. Dostanie z Ziemi szczegółowy plan lotu, który będzie musiał wykonać. Specjaliści z NASA stwierdzili, że najlepszą porą na lot będzie późny poranek. Słońce świeci na tyle mocno, że powinno zapewnić wystarczającą ilość energii do lotu. Jednak później lot mógłby być trudniejszy, gdyż powierzchnia planety rozgrzewa się, przez co atmosfera unosi się i jeszcze bardziej rozrzedza. Jeśli misja Ingenuity się powiedzie, NASA będzie wyposażała w śmigłowce kolejne misje marsjańskie. Drony będą służyły łazikom, i w przyszłości ludziom, jako zwiadowcy, pokazujący, co znajduje się w trudnych do osiągnięcia miejscach, jak klify czy wulkany. Obecnie możemy obserwować Marsa albo z powierzchni, albo z orbity. A 90-sekundowy lot drona pozwoli nam na obejrzenie setek metrów terenu znajdującego się przed nami, mówi Josh Ravich, który kierował zespołem inżynierów projektujących Ingenuity. « powrót do artykułu
  17. Chociaż ogólna teoria względności Einsteina liczy już ponad 100 lat, nadal zawiera wiele dotychczas nieopisanych zjawisk. Naukowcy z Instytutu Geodezji i Geoinformatyki UPWr wraz z przedstawicielami Europejskiej Agencji Kosmicznej (ESA) opublikowali artykuł, który opisuje w sposób kompleksowy, co dzieje się ze sztucznymi satelitami krążącymi wokół Ziemi i jak ogólna teoria względności wpływa na orbity i ruch satelitów. Podczas opisu ruchu udało się odkryć kilka dość nieoczekiwanych efektów i przewidywań, które nigdy wcześniej nie zostały opisane w literaturze. Wyniki prac, prof. Krzysztof Sośnica przedstawił w październiku 2020 r. oraz w marcu 2021 r. na spotkaniu Naukowego Komitetu Doradczego Europejskiej Agencji Kosmicznej (ESA GNSS Science Advisory Committee, GSAC) w ramach specjalnych referatów zaproszonych, które wywołały burzliwą dyskusję, a teraz zostały opublikowane w czasopiśmie naukowym. Ogólna teoria względności Z ogólnej teorii względności wynika szereg efektów, które nie mogły być opisane z wykorzystaniem zasad mechaniki klasycznej. Efekty dotyczą m.in. pojęcia czasu, krzywizny drogi, po jakiej porusza się światło oraz ruchu ciał niebieskich. Naukowcy z IGIG UPWr oraz ESA wzięli pod lupę efekty dotyczące ruchu sztucznych satelitów Ziemi. Pierwszy efekt dotyczący zmiany pozycji perygeum Merkurego względem Słońca, wyprowadził już Albert Einstein. Był to jeden z dowodów, który pozwolił na powszechną akceptację ogólnej teorii względności w środowisku naukowym. Wcześniej niektórzy podejrzewali, że dziwny ruch Merkurego wynika z obecności dodatkowej planety pomiędzy Merkurym a Słońcem, której nadano nazwę Wulkan. Ta hipotetyczna planeta wyjaśniała zmianę pozycji perygeum Merkurego, ale nigdy nie została odkryta. Dopiero Einstein zdołał wyjaśnić zaburzenia w ruchu planet za pośrednictwem nowej teorii opisującej relacje pomiędzy czasem, przestrzenią, grawitacją i materią w sposób kompleksowy. Natomiast wiele innych efektów, działających na pozostałe parametry orbit dotychczas nie zostało opisanych w literaturze. Publikacja naukowców z UPWr i ESA wypełnia tę lukę i przedstawia opis perturbacji parametrów orbit oraz zmianę okresu obiegu satelitów krążących wokół Ziemi. Naukowcy wyprowadzili efekty w sposób analityczny oraz przeprowadzili symulacje potwierdzające prawidłowość swoich przewidywań. Ruch sztucznych satelitów w teorii względności Teoria względności pozwala wydzielić trzy główne efekty działające na ruch satelitów: 1. Efekt Schwarzschilda będący konsekwencją ugięcia czasoprzestrzeni przez masę Ziemi (traktowaną jako regularną kulę), 2. Efekt Lensa-Thirringa będący konsekwencją obrotu Ziemi wokół własnej osi, co generuje powstawanie tzw. wirów czasoprzestrzennych, które pociągają za sobą satelity, 3. Efekt de Sittera zwany również precesją geodezyjną będący konsekwencją zakrzywienia czasoprzestrzeni przez Słońce oraz poruszania się satelitów Ziemi poruszającej się wokół Słońca – jest zatem konsekwencją złożenia dwóch ruchów. W artykule opisano jak wszystkie trzy efekty wpływają na rozmiar i kształt orbit oraz na orientację płaszczyzny orbity względem przestrzeni zewnętrznej. Jakie efekty relatywistyczne udało się opisać po raz pierwszy? Pierwszym efektem, który dotychczas nie był opisany w literaturze, jest zmiana wielkości orbit sztucznych satelitów Ziemi za sprawą zakrzywienia czasoprzestrzeni przez Ziemię. Odkryto, że dłuższa półoś orbity wszystkich ziemskich satelitów zmniejsza się o 17,7 mm. Naukowców zaskoczyło to, że wartość ta jest stała niezależnie od tego, na jakiej wysokości orbituje satelita. Czy to satelita niski orbitujący na wysokości 300 km, czy satelita geostacjonarny znajdujący się na wysokości 36 000 km zmiana wynosi tyle samo. Dodatkowym zaskoczeniem była sama wartość zmiany dłuższej półosi orbity, gdyż jest ona dokładnie dwukrotnością promienia Schwarzschilda, czyli promienia czarnej dziury o masie Ziemi. Gdyby udało się ścisnąć całą masę Ziemi do kuli o promieniu 8,9 mm, wówczas Ziemia stałaby się czarną dziurą. Nic, nawet światło nie mogłoby się z niej wydostać. Promień czarnej dziury nazywa się promieniem Schwarzschilda lub horyzontem zdarzeń, zza którego żadna informacja nie może się wydostać. Naukowcy odkryli, że zmiana dużej półosi wszystkich satelitów Ziemi wynosi dokładnie dwa razy więcej niż promień Schwarzschilda. Nawet, gdyby Ziemia zapadła się i stałaby się czarną dziurą, to efekt działający na wszystkie satelity Ziemi wynosiłbym -17,7 mm; nieważne, czy satelity krążyłyby wysoko czy nisko nad czarną dziurą. Autorzy artykułu wyprowadzili wzór na zmianę orbity, która jest opisywana prostym, uniwersalnym dla wszystkich ciał niebieskich, równaniem: -4GM/c^2, gdzie G jest stałą grawitacji, M - masą ciała niebieskiego (np. Ziemi), a c - prędkością światła w próżni. Drugim efektem opisanym po raz pierwszy w pracy naukowców jest efekt zmiany kształtu orbit sztucznych satelitów. Naukowcy dowiedli, że ogólna teoria względności zmienia kształt orbit w ten sam sposób w przypadku orbit eliptycznych i kołowych. Wszystkie orbity ulegają spłaszczeniu, można powiedzieć "eliptyzacji", w podobny sposób. Jest to dość zaskakujące, gdyż logika wskazywałaby na to, że efekt zmiany kształtu powinien być większy dla orbit eliptycznych, natomiast dla orbit kołowych powinien być zaniedbywalny. Trzecim niespodziewanym efektem było to, że wartość tzn. precesji geodezyjnej silnie zależy od kąta nachylenia Słońca względem płaszczyzny orbity satelity. Naukowcy wykazali, że efekt precesji geodezyjnej jest największy dla satelitów geostacjonarnych krążących nad równikiem. Wcześniej nikt nie zwrócił na to uwagi, gdyż brano pod uwagę jedynie efekt średni, a nie rzeczywisty wynikający z geometrii satelita-Ziemia-Słońce. Naukowcy NASA zaprojektowali misję Gravity Probe B, której celem było potwierdzenie efektu precesji geodezyjnej. Misja posiadała kąt nachylenia względem płaszczyzny równika 90 stopni. Gravity Probe B kosztowała w sumie 750 milionów USD. Tymczasem naukowcy z IGIG i ESA dowiedli, że znacznie lepszym rozwiązaniem byłoby wykorzystanie satelitów krążących nisko nad równikiem oraz orbit nad którymi Słońce nachylone jest pod maksymalnym możliwym kątem, odpowiadającym nachyleniu płaszczyzny ekliptyki względem równika. Wówczas, misja przyniosłaby o wiele lepsze rezultaty w zakresie dokładności wyznaczonego efektu precesji geodezyjnej. Ostatecznie, naukowcy wykazali, że ogólna teoria względności w słabych polach grawitacyjnych (zaniedbując utratę energii związaną z falami grawitacyjnymi), w długich interwałach zachowuje moment pędu satelitów i energię satelitów krążących wokół Ziemi. Jednakże w krótkich interwałach, zasady zachowania energii i pędu, a także prawa Keplera są złamane, co jest w szczególności widoczne w przypadku orbit eliptycznych. Ze szczegółami pracy zespołu profesora Sośnicy można zapoznać się w artykule General relativistic effects acting on the orbits of Galileo satellites. « powrót do artykułu
  18. Rozwiązaniem problemu pomiędzy szybkością działania komputerów kwantowych a koherencją kubitów może być zastosowanie dziur, twierdzą australijscy naukowcy. To zaś może prowadzić do powstania kubitów nadających się do zastosowania w minikomputerach kwantowych. Jedną z metod stworzenia kubitu – kwantowego bitu – jest wykorzystanie spinu elektronu. Aby uczynić komputer kwantowy tak szybkim, jak to tylko możliwe, chcielibyśmy mieć możliwość manipulowania spinami wyłącznie za pomocą pola elektrycznego, dostarczanego za pomocą standardowych elektrod. Zwykle spiny nie reagują na pole elektryczne, jednak z niektórych materiałach spiny wchodzi w niebezpośrednie interakcje z polem elektrycznym. Mamy tutaj do czynienia z tzw. sprzężeniem spinowo-orbitalnym. Eksperci zajmujący się tym tematem obawiają się jednak, że gdy taka interakcja jest zbyt silna, wszelkie korzyści z tego zjawiska zostaną utracone, gdyż dojdzie do dekoherencji i utraty kwantowej informacji. Jeśli elektrony zaczynają wchodzić w interakcje z polami kwantowymi, które im aplikujemy w laboratorium, są też wystawione na niepożądane zmienne pola elektryczne, które istnieją w każdym materiale. Potocznie nazywamy to „szumem”. Ten szum może zniszczyć delikatną informację kwantową, mówi główny autor badań, profesor Dimi Culcer z Uniwersytetu Nowej Południowej Walii. Nasze badania pokazują jednak, że takie obawy są nieuzasadnione. Nasze teoretyczne badania wykazały, że problem można rozwiązać wykorzystując dziury – które można opisać jako brak elektronu – zachowujące się jak elektrony z ładunkiem dodatnim, wyjaśnia uczony. Dzięki wykorzystaniu dziur kwantowy bit może być odporny na fluktuacje pochodzące z tła. Co więcej, okazało się, że punkt, w którym kubit jest najmniej wrażliwy na taki szum, jest jednocześnie punktem, w którym działa on najszybciej. Z naszych badań wynika, że w każdym kwantowym bicie utworzonym z dziur istnieje taki punkt. Stanowi to podstawę do przeprowadzenia odpowiednich eksperymentów laboratoryjnych, dodaje profesor Culcer. Jeśli w laboratorium uda się osiągnąć te punkty, będzie można rozpocząć eksperymenty z utrzymywaniem kubitów najdłużej jak to możliwe. Będzie to też stanowiło punkt wyjścia do skalowania kubitów tak, by można było je stosować w minikomputerach. Wiele wskazuje na to, że takie eksperymenty mogą zakończyć się powodzeniem. Profesor Joe Salfi z University of British Columbia przypomina bowiem: Nasze niedawne eksperymenty z kubitami utworzonymi z dziur wykazały, że w ich wypadku czas koherencji jest dłuższy, niż się spodziewaliśmy. Teraz widzimy, że nasze obserwacje mają solidne podstawy teoretyczne. To bardzo dobry prognostyk na przyszłość. Praca Australijczyków została opublikowana na łamach npj Quantum Information. « powrót do artykułu
  19. Naukowcy potwierdzili, że bor, składnik domowych środków czystości, pomaga w zwiększeniu wydajności reaktorów fuzyjnych. Specjaliści z Princeton Plasma Physics Laboratory (PPPL) przeprowadzili eksperymenty, w czasie których wykazali, że pokrycie wewnętrznych elementów tokamaka borem poprawia wydajność reakcji. Nasze eksperymenty dokładniej pokazują, jak to działa. Pozwolą nam one ocenić, czy kontrolowane wstrzykiwanie proszku z boru może być wykorzystane w przyszłości do pomocy w pracy reaktorów fuzyjnych, mówi fizyk Alessandro Bortolon, główny autor artykułu w Nuclear Fusion. Fuzja jądrowa wykorzystuje procesy podobne do tych, jakie zachodzą w Słońcu. Lżejsze pierwiastki łączą się w cięższe. W ten sposób powstaje niemal niewyczerpane źródło czystej i bezpiecznej energii. Naukowcy od dziesięcioleci próbują opanować fuzję. Najnowsze eksperymenty wykazały, że wstrzykiwanie boru pozwala na łatwiejsze uzyskanie w plazmy o odpowiednich parametrach w tokamakach, których wewnętrzne elementy pokryte są lekkimi pierwiastkami, jak węgiel. Autorzy obecnych badań bazowali na eksperymentach prowadzonych wcześniej w Axially Symmetric Divertor Experiment-Upgrade (ASDEX-U) należącym do Instytutu Fizyki Plazmy im. Maxa Plancka w Niemczech. Wówczas wykazano, że dzięki wstrzykiwaniu boru możliwe jest uzyskanie wysokiej jakości plazmy w tokamaku pokrytym wolframem. Eksperymenty dla tokamaka pokrytego węglem są ważne z dwóch powodów. Po pierwsze, wiele tokamaków korzysta z tego pierwiastka. Po drugie – pokazuje to, że wstrzykiwanie boru może być przydatne w różnego rodzaju tokamakach. Najnowsze eksperymenty uzupełniły też lukę w wiedzy dotyczącej sposobu osadzania się boru. Intuicja podpowiada, że gdy sproszkowany bor opada na plazmę, rozpuszcza się w niej i gdzieś osadza. Dotychczas jednak nikt nie próbował nawet potwierdzić istnienia w plazmie warstwy boru. Nie było na ten temat żadnych informacji. Przeprowadzone przez nas badania są pierwszymi, podczas których bezpośrednio wykazano i zmierzono to zjawisko, dodaje Bortolon. Okazuje się, że warstwa boru zapobiega zanieczyszczeniu plazmy przez materiał z samego tokamaka. Materiał taki może rozrzedzić plazmę i ją zdestabilizować. Im zaś plazma bardziej czyta, tym bardziej stabilna i tokamak może dłużej działać. Technika wstrzykiwania boru może uzupełniać lub nawet zastąpić wykorzystywaną obecnie technikę dostarczania boru do tokamaka. W chwili obecnej uzupełnienie tokamaka o bor wymaga wyłączenia go nawet na kilka dni, a wykorzystuje się w niej toksyczne gazy. Wstrzykiwanie boru eliminuje te problemy. Jeśli wykorzystujesz technikę wstrzykiwania sproszkowanego boru, nie musisz wszystkiego przerywać i wyłączać tokamaka. Nie musisz też przejmować się pracą z toksycznym gazem. Nowa technika będzie niezwykle przydatna podczas przyszłej codziennej pracy tokamaków, dodaje Bortolon. « powrót do artykułu
  20. Turecka żandarmeria otrzymała anonimową informację o działalności złodziei zabytków. Mieli oni wydobywać coś spod ziemi w trudno dostępnym górzystym regionie w okręgu Aliaga w prowincji Izmir. Policjanci udali się na miejsce i zatrzymali na gorącym uczynku dwóch mężczyzn, którzy wykopywali zabytki z głębokości 2 metrów. Okazało się, że rabusie dokonali interesującego odkrycia. Eksperci, którzy przybyli na miejsce orzekli, że złodzieje natrafili na bizantyjski klasztor z piękną mozaiką sprzed 1500 lat. Znalezisko i jego okolice zostały objęte ochroną. Na razie trwają prace w terenie, jednak już teraz wiemy, że mozaika zostanie wydobyta i przeniesiona do muzeum. Znaleźliśmy mozaikę podłogową. Znajdował się tutaj klasztor, który posiadał bazylikę, mówi Hunkar Keser, dyrektor muzeum archeologicznego w Izmirze. Eksperci szacują, że klasztor był wykorzystywany pomiędzy IV a XIV wiekiem. Mozaika, z inskrypcją w grece, jest cennym znaleziskiem archeologicznym. « powrót do artykułu
  21. Zdrowia, spokoju, rodziny i przyjaciół wokół. Nie tylko w czasie Wielkanocy, ale każdego dnia. Wszystkiego dobrego, Ania, Jacek i Mariusz. « powrót do artykułu
  22. Kolorowe pisanki nierozerwalnie wiążą się z Wielkanocą. Same jajka miały znaczenie symboliczne już epoce przedchrześcijańskiej. Poganie uznawali je za symbol odnowienia, nowego życia. Wczesne chrześcijaństwo przyjęło tę symbolikę, odnosząc ją do Jezusa Chrystusa oraz do nowego życia dla wiernych wyznawców Zbawiciela. Jednak zwyczaj malowania jajek w kontekście Wielkanocy najprawdopodobniej pojawił się dopiero w XIII wieku. W tym czasie Kościół zabraniał spożywania mięsa i nabiału (w tym jajek) przez cały okres Wielkiego Postu. Jednak kury – które były ważnym źródłem protein – nie przestawały się nieść. Oznaczało to olbrzymie marnotrawstwo ważnego źródła białka. Kościelne przepisy nie zabraniały jednak przechowywania jajek. Dlatego też te jajka, które kury zniosły pod koniec Wielkiego Postu, gotowano na twardo, gdyż w takim stanie można było je przechować do czasu zakończenia okresu wielkopostnego. A okres ten kończy Wielkanoc. Nic więc dziwnego, że Wielkanoc zaczęła kojarzyć się z przechowywanymi ugotowanymi na twardo jajkami. Z czasem takie jajka zaczęto ozdabiać. Tak prawdopodobnie powstała znana nam obecnie pisanka. Tradycja pisanek liczy sobie więc co najmniej kilkaset lat. Przechodziła w tym czasie zmienne koleje losów. Wiele z wzorów czy technik byłoby już zapomnianych, gdyby nie twórcy, którzy kultywują tradycję zdobienia jajek. Pani Danuta Sroka jest jedną z najbardziej interesujących polskich twórczyń pisanek. Tworzyła je już w dzieciństwie, początkowo pod okiem babci. Od 1995 roku dokumentuje swoje prace. Pani Danuta ozdabia wydmuszki kurze, gęsie i strusie. Wykorzystuje przy tym różne techniki, w tym te najbardziej znane: batikowe (wosk), skrobane (rytownicze), naklejane (wycinanki) oraz złocone. Jak powiedziała portalowi Katolsk.no jajka wielkanocne pisane woskiem przypisane są do regionu lubelskiego, opoczyńskiego i podlaskiego. Pisanki skrobane utożsamia się z Opolszczyzną, oklejane występują na Kurpiach, a naklejane w regionie łowickim. Muszę jednak podkreślić, że przypisanie jakiegoś typu pisanek tylko do wybranych regionów jest bardzo dużym uproszczeniem. W rzeczywistości pisanki w tych samych technikach występują w całej Polsce. Zajmują się nimi ludzie z pasją, często nie zastanawiając się nad ich pochodzeniem i klasyfikacją. Ulubionym typem artystki są pisanki drapane. Wstępnie nie wymagają wiele obróbki. Oprócz zrobienia wydmuszki, ufarbowania na jeden kolor i wysuszenia, nie potrzebują niczego więcej. Wystarczy je tylko na koniec… wydrapać. Wykonuję te pisanki już od wielu lat i muszę przyznać, że są coraz bardziej deprymujące… Długo zastanawiam się nad wzorem, niczego nigdzie nie podglądam, z premedytacją unikam patrzenia na własne wcześniejsze prace… Na początku twórczości postawiłam sobie za punkt honoru nigdy nie powtórzyć żadnego wzoru, a z biegiem lat staje się to coraz trudniejsze, mówi pani Danuta. Początkującym twórcom pisanek oraz rodzicom, którzy chcą po prostu zrobić je z dziećmi, artystka zaleca pisaki, bibułkę czy kolorowy papier i nożyczki. Tradycyjne techniki pisankowe są bowiem naprawdę trudne. Nieustannie zadziwia mnie odwaga ludzi, którzy zaopatrują się w kistkę (lejek do pisanek batikowych) tuż przed samymi świętami z rozbrajająca ufnością, że przygotują sobie szybko udane pisanki! A batik w pisankach jest jedną z najtrudniejszych i pracochłonnych technik, jeśli nie najtrudniejszą. Kistka jest mechanicznie bardzo kapryśnym i nieprzewidywalnym narzędziem. Trzeba długo ćwiczyć, żeby ją „wyczuć”. Dla mnie pisanki batikowe to „wyższa szkoła jazdy”. Wykonuję je rzadko, ale mam do nich ogromny sentyment, bo przypominają mi babcię, od której nauczyłam się je robić. Pani Danuta tak wspomina swoje pierwsze doświadczenia z batikiem. Swoją pierwszą kistkę zobaczyłam w wieku 6-7 lat. Babcia zawołała mnie do siebie, wycięła kawałek blaszki z puszki po konserwie, zwinęła w lejek i przymocowała drutem do patyczka. Nałożyła do lejka strasznie ciemnego wosku z szuflady w starym kredensie, rozgrzała nad świeczką i… ot tak sobie, lekko i zgrabnie, z tajemniczym uśmiechem na twarzy, zaczęła pisać po skorupce. Potem pisanka trafiła do wywaru z cebuli. Prawdziwa magia zaczęła się, gdy jajko było ugotowane, a babcia delikatnie, jeszcze gorące, wycierała je w szmatce. Spod wosku wyjrzały wiatraczki, pazurki, grabki i słońce. Pamiętam swój ogromny zachwyt, który trwa zresztą do dziś. Samego jednak pisaka jeszcze długo nie dostałam do ręki. Prostsze są pisanki malowane kolorowymi woskami, Nakłada się je szpilką, a nałożonego wosku już się nie usuwa. W ten sposób szybko możemy osiągnąć spektakularne efekty. Uzależnione, oczywiście, od naszych zdolności plastycznych. Wiele satysfakcji dają też naklejanki. Pani Danuta szczególnie upodobała sobie wzory wycinanki koszaliński, której jest autorką. Ulubione pisanki Danuty Sroki, pisanki drapane, powstają poprzez ufarbowanie wydmuszki na gorąco w jednym kolorze (w wywarach z warzyw lub barwnikach syntetycznych) i wydrapanie na nich wzoru ostrym narzędziem. Pani Danuta używa skalpela. Spod ręki artystki wychodzą też pisanki wycinankowe. Danuta Sroka wykonuje je z papieru glansowanego. Główny element dekoracyjny stanowi tutaj wycinanka koszalińska. Podczas pracy nad nią wzór nie jest rysowany na papierze, a wychodzi bezpośrednio spod ręki. Tylko dwie rzeczy artystka uważa za kłopotliwe w tej dziedzinie: zdobycie odpowiednich nożyczek i przyklejanie wycinanek na powierzchnię jajka. Zasadnicze znaczenie w wycinankarstwie ma znajomość symetrii osiowej i precyzja w wycinaniu drobnych detali, czytamy na witrynie Agnusek.com. Stosunkowo nową techniką w pisankarstwie są pisanki złocone. Powstają one w kilku etapach. Najpierw należy jajka pomalować na jeden kolor, następnie czarnym tuszem za pomocą stalówki nanoszone są kontury wzoru. Kontury wypełnia się złotą emalią (lakier i osobno złoty metalowy pigment) za pomocą pędzelka. Na koniec ponownie kontruje się złocone kształty. Nie można też zapomnieć o najtrudniejszej z technik – batiku. Tutaj potrzebujemy kilku kolorowych farb, naturalnego wosku, pisaka (szpilki lub kopystki), podgrzewacza (świeczki, lampki naftowej) oraz naturalnego kwasu. Zajrzyjmy ponownie na witrynę Agnusek.com: technika batikowa na pisankach polega na nanoszeniu na przemian kolejnych warstwo wosku i farbowania w barwnikach w kolejności od barwy najjaśniejszej do coraz ciemniejszej. Na końcu autorka całkowicie usuwa wosk z pisanki odsłaniając wzór. To jednak tylko jeden z czterech typów batiku. Typ drugi to pisanki wstępnie zafarbowane na jeden kolor, wypisane woskiem, a następnie trawione kwasem. W ten sposób powstają pisanki batikowe trawione, które charakteryzują się tym, że wzór na pisance jest ciemniejszy niż tło. Trzeci rodzaj pisanek batikowych to te, gdzie jajka w naturalny kolorze pisze się woskiem. Wosk jest pozostawiany lub częściowo tylko usuwany. W końcu rodzaj czwarty to białe jajka na których pisze się kolorowymi woskami. « powrót do artykułu
  23. W czasie gdy strażacy walczyli z pożarem dachu, zespół medyczny ze szpitala w Błagowieszczeńsku kontynuował zabieg na otwartym sercu. Operację można było kontynuować dzięki oddymiającym wentylatorom i awaryjnej linii zasilającej. Zabieg był prowadzony na parterze (na szczęście nie docierała tu woda wykorzystywana przez strażaków). W akcji gaśniczej brało udział ok. 60 strażaków i 28 jednostek sprzętu. Z dachu obiektu unosił się czarny dym. Ewakuowano ponad 120 osób, w tym 67 pacjentów. Poza tym wyniesiono wartościowy sprzęt medyczny. Operacja zakończyła się pomyślnie. Stan przewiezionego do innego szpitala chorego jest ponoć stabilny. Musieliśmy ocalić tego człowieka i zrobiliśmy wszystko, co w naszej mocy - podkreśla główny chirurg Walentin Fiłatow. W 2-godzinnej operacji wziął udział 8-osobowy zespół. Zabieg rozpoczął się tuż przed wybuchem pożaru. Lekarka Antonina Smolina dodała, że ekipa zachowała zimną krew i nie doszło do wybuchu paniki. Ministerstwo ds. Sytuacji Nadzwyczajnych ujawniło, że szpital zbudowano w 1907 r. i że ogień rozprzestrzeniał się po drewnianym stropie lotem błyskawicy. Wydaje się, że przyczyną zdarzenia było zwarcie. Gubernator obwodu amurskiego Wasilij Orłow pochwalił profesjonalizm zarówno zespołu lekarsko-pielęgniarskiego, jak i strażaków. Warto dodać, że to jedyny szpital w regionie ze specjalistycznym oddziałem kardiologicznym.     « powrót do artykułu
  24. Prezydent Biden wezwał Kongres, by przyznał 50 miliardów USD na wsparcie rodzimego przemysłu półprzewodnikowego. Jeśli Kongres wyrazi zgodę, będzie oznaczało to spory wzrost w porównaniu z ubiegłorocznymi ustawami American Foundries Act of 2020 i Creating Helpful Incentives to Produce Semiconductors, gdzie na wsparcie przewidziano 37 miliardów USD. Prezydent Biden wierzy, że w naszym kraju powinniśmy wytwarzać technologie i towary, które spełniają dzisiejsze wymagania i pozwolą wykorzystać przyszłe szanse, oświadczył Biały Dom. Biden chce, by w ramach Departamentu Handlu powstało nowe biuro, które zajmie się monitorowaniem krajowego przemysłu półprzewodnikowego i wsparciem inwestycji w tym zakresie. Prezydent chciałby uzyskać w Kongresie wsparcie obu największych partii, jednak jest to mało prawdopodobne. Lider mniejszości, Mitch McConnell, skrytykował plan Białego Domu, nazywając go koniem trojańskim, za którym ukrywają się podwyżki podatków szkodzące przedsiębiorstwom i klasie średniej. Jednak propozycję Bidena trzeba widzieć w szerszym kontekście. Tylko w bieżącym roku wydatki inwestycyjne dwóch wielkich azjatyckich producentów półprzewodników – TSMC i Samsunga – sięgną co najmniej 55,5 miliarda dolarów. Zatem w ciągu roku będzie to kwota większa, niż rozłożona na wiele lat propozycja Bidena. Ponad 70 lat temu cała światowa produkcja półprzewodników odbywała się w USA. Obecnie w Stanach Zjednoczonych produkowanych jest 12% półprzewodników powstających na świecie. Co prawda USA produkują większość kluczowego oprogramowania i sprzętu dla przemysłu półprzewodnikowego, ale same półprzewodniki powstają głównie na Tajwanie, w Korei Południowej i Chinach. W ubiegłym miesiącu największy amerykański producent półprzewodników, Intel, ogłosił, że wchodzi na rynek produkcji chipów na zlecenie. Chce na nim konkurować z TSMC i Samsungiem. Rozpoczyna od zainwestowania 20 miliardów USD w Arizonie. Do życia powoływane jest osobne przedsiębiorstwo o nazwie Intel Foundry Services. Co istotne, plany Intela nie są uzależnione od rządowego wsparcia. Rosnąca dominacja Samsunga i TSMC niesie ze sobą istotne skutki biznesowe i geopolityczne. Południowokoreański Samsung znajduje się w zasięgu broni atomowej Korei Północnej, a Tajwanowi wciąż zagrażają Chiny, uznające ten kraj za swoją zbuntowaną prowincję. Od kilkunastu miesięcy USA i poszczególne kraje Europy próbują zmniejszyć swoje uzależnieni od dostaw półprzewodników z zagranicy i chcą odbudować możliwości produkcyjne swojego przemysłu półprzewodnikowego. Jednak tego typu działania mogą spalić na panewce. Jak mówi Bill McClean, prezes firmy IC Insight specjalizującej się w badaniu rynku półprzewodników, by realistycznie myśleć o przynajmniej częściowym powrocie przemysłu półprzewodnikowego do USA rząd musiałby wydawać co najmniej 30 miliardów USD rocznie przez co najmniej pięć lat. Z kolei Mark Liu, przewodniczący TSMC stwierdza, że rządowe projekty budowy własnych krajowych łańcuchów dostaw mogą skończyć się zablokowaniem zdolności produkcyjnych i spadkiem marginesu zysku. Zdaniem Liu, działania takie są nierealistyczne z ekonomicznego punktu widzenia. Oczywiście sensownym jest, by największe światowe gospodarki były w stanie produkować układy scalone na potrzeby swojej obronności i infrastruktury na własnym terytorium. Jednak przeniesienie całego łańcucha dostaw i samodzielność w dziedzinie półprzewodników jest całkowicie nieefektywna. Te dodatkowe moce produkcyjne nie byłyby ekonomicznie opłacalne, stwierdza Liu. Na razie nie wiadomo, jak miałoby wyglądać wzmocnienie pozycji USA na rynku produkcji półprzewodników. Czy polegałoby to na zachęceniu TSMC i Samsunga do budowy fabryk w Stanach Zjednoczonych, czy na wsparciu dla rodzimych producentów czy też byłoby połączeniem obu tych projektów. Wiadomo za to, że TSMC i Samsung zapowiedziały zwiększenie inwestycji w USA, jednocześnie zaś lobbują o wsparcie rządowe. « powrót do artykułu
  25. Stanisław Ulam bez wątpienia był wizjonerem. Jako jeden z pierwszych naukowców używał komputerów do pracy naukowej. Zaproponował też prezydentowi Kennedy'emu, aby sfinansował badania umożliwiające wysłanie ludzi na Księżyc i pracował nad wynalezieniem nuklearnego napędu stosowanego w pojazdach kosmicznych. Jednak największym osiągnięciem lwowskiego matematyka było stworzenie bomby wodorowej. Całe przedsięwzięcie trzymano w ścisłej tajemnicy, a dokumenty z tego okresu wciąż nie zostały udostępnione. Naukowiec mówił, że bomba uczyni wojnę niemożliwą, lecz nie wiedział, jak bardzo się myli. Dlaczego Ulam został zapomniany, choć jego wynalazki zmieniły świat, w którym żyjemy?
×
×
  • Dodaj nową pozycję...