Jump to content
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderators
  • Content Count

    34145
  • Joined

  • Last visited

    Never
  • Days Won

    138

KopalniaWiedzy.pl last won the day on October 27

KopalniaWiedzy.pl had the most liked content!

Community Reputation

236 Outstanding

7 Followers

About KopalniaWiedzy.pl

  • Rank
    Duch Kopalni
  • Birthday 05/01/2006

Informacje szczegółowe

  • Płeć
    Nie powiem

Recent Profile Visitors

The recent visitors block is disabled and is not being shown to other users.

  1. Ludzie, Ziemia czy gwiazdy pojawili się dlatego, że w pierwszej sekundy istnienia wszechświata wytwarzane było więcej materii niż antymaterii. Ta asymetria była niezwykle mała. Na każde 10 miliardów cząstek antymaterii pojawiało się 10 miliardów + 1 cząstka materii. Ta minimalna nierównowaga doprowadziła do stworzenia materialnego wszechświata, a fenomenu tego współczesna fizyka nie potrafi wyjaśnić. Z teorii wynika bowiem, że powinna powstać dokładnie taka sama liczba cząstek materii i antymaterii. Grupa fizyków-teoretyków stwierdziła właśnie, że nie można wykluczyć, iż w naszych możliwościach leży wykrycie nietopologicznych solitonów Q-balls, a ich wykrycie pozwoliłoby odpowiedzieć na pytanie, dlaczego po Wielkim Wybuchu pojawiło się więcej materii niż antymaterii. Obecnie fizycy uważają, że asymetria materii i antymaterii pojawiła się w pierwszej sekundzie po Wielkim Wybuchu, a w jej czasie rodzący się wszechświat gwałtownie zwiększył swoje wymiary. Jednak przetestowanie teorii o inflacji kosmologicznej jest niezwykle trudne. Żeby ją sprawdzić musielibyśmy wykorzystać olbrzymie akceleratory cząstek i dostarczyć im więcej energii, niż jesteśmy w stanie wyprodukować. Jednak amerykańsko-japoński zespół naukowy, w skład którego wchodzą m.in. specjaliści z japońskiego Kavli Institute for the Physics and Mathematics of the Universe (Kavli IPMU) i Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) uważają, że do przetestowania tej teorii można wykorzystać nietopologiczne solitony Q-ball. Jedna z teorii dotyczących nierównowagi materii i antymaterii mówi bowiem, że pojawiła się ona w wyniku złożonego procesu tzw. bariogenezy Afflecka-Dine'a. To w jej przebiegu miały pojawić się Q-balle. Profesor Graham White, główny autor badań z Kavli IPMU wyjaśnia, czym jest Q-ball. Mówi, że jest bozonem, jak bozon Higgsa. Bozon Higgsa pojawia się, gdy pole Higgsa zostaje wzbudzone. Jednak w polu Higgsa mogą pojawiać się też inne elementy, jak grudki. Jeśli mamy pole bardzo podobne do pola Higgsa, które ma pewien ładunek, nie ładunek elektryczny, ale jakiś ładunek, wówczas taka grudka ma ładunek taki, jak jedna cząstka. Jako, że ładunek nie może po prostu zniknąć, całe pole musi „zdecydować” czy tworzy grudki czy cząstki. Jeśli utworzenie grudek będzie wymagało mniej energii, będą powstawały grudki. Łączące się ze sobą grudki stworzą Q-ball, mówi. Często mówimy, że takie Q-balle istnieją przez jakiś czas. W miarę rozszerzania się wszechświata zanikają one wolniej niż promieniowanie tła, w końcu większość energii wszechświata skupia się w Q-ballach. W międzyczasie pojawiają się niewielkie fluktuacje w gęstości promieniowania, które skupiają się tam, gdzie dominują Q-balle. Gdy zaś Q-ball się rozpada, jest to zjawisko tak gwałtowne, że pojawiają się fale grawitacyjne. Możemy je wykryć w nadchodzących dekadach. Piękno poszukiwań fal grawitacyjnych polega na tym, że wszechświat jest całkowicie dla nich przezroczysty, wędrują więc do jego początku, mówi White. Zdaniem teoretyków, generowane przez znikające Q-balle fale mają odpowiednie charakterystyki, by można je było zarejestrować za pomocą standardowych wykrywaczy fal grawitacyjnych. Szczegóły badań zostały opublikowane w serwisie arXiv. « powrót do artykułu
  2. Jedną z najtrudniejszych umiejętności językowych jest rozumienie składni zdań złożonych. W 2019 roku naukowcy zauważyli, że istnieje korelacja pomiędzy wysokimi umiejętnościami używania narzędzi, a zdolnością do rozumienia złożonej składni. Szwedzko-francuski zespół naukowy informuje, że obie te umiejętności – sprawnego posługiwania się narzędziami oraz złożoną składnią – korzystają z tych samych zasobów neurologicznych w tym samym regionie mózgu. To jednak nie wszystko. Okazało się, że rozwijanie jednej z tych umiejętności wpływa na drugą. Uczeni z francuskiego Narodowego Instytutu Zdrowia i Badań Medycznych (Inserm), Narodowego Centrum Badań Naukowych (CNRS), Université Claude Bernard Lyon 1, Université Lumière Lyon 2 i Karolinska Institutet zauważyli, że trening w posługiwaniu się narzędziami poprawia zdolność rozumienia złożonych zdań. I na odwrót. Jeśli ćwiczymy rozumienie złożonych zdań, poprawiają się nasze umiejętności posługiwania się narzędziami. Odkrycie to można będzie wykorzystać podczas rehabilitacji osób, które częściowo utraciły zdolności językowe. Przez długi czas uważano, że używanie języka to niezwykle złożona umiejętność, która wymaga wyspecjalizowanych obszarów mózgu. Jednak w ostatnich latach pogląd ten ulega zmianie. Kolejne badania wskazują, że ośrodki kontroli niektórych funkcji językowych, na przykład odpowiadające za rozumienie słów, są też zaangażowane w kontrolowanie funkcji motorycznych. Jednak badania obrazowe nie dostarczały dowodów na istnienie związku pomiędzy używaniem języka i narzędzi. Z drugiej jednak strony badania paloneurobiologiczne wykazały, że obszary mózgu odpowiedzialne za posługiwanie się językiem rozwijały się u naszych przodków w okresach większego rozwoju technologicznego, gdy wśród naszych praszczurów rozpowszechniało się użycie narzędzi. Naukowcy, analizujący dostępne dane, zaczęli się zastanawiać czy jest możliwe, by używanie narzędzi, operowanie którymi wymaga wykonywania złożonych ruchów, było kontrolowane przez te same obszary mózgu co używanie funkcji językowych. W 2019 roku Claudio Brozzoli z Inserm i Alice C. Roy z CNRS wykazali, że osoby, które szczególnie dobrze posługują się narzędziami, zwykle też lepiej posługują się złożoną składnią zdań w języku szwedzkim. Naukowcy postanowili bliżej przyjrzeć się temu zjawisku i zaplanowali serię eksperymentów, w czasie których wykorzystano m.in. rezonans magnetyczny. Badanych proszono o wykonanie testów związanych z użyciem 30-centymetrowych szczypiec oraz zdań złożonych w języku francuskim. Dzięki temu uczeni zidentyfikowali obszary mózgu odpowiedzialne za wykonywanie każdego z tych zadań oraz wspólnych dla obu zadań. Jako pierwsi stwierdzili, że używanie narzędzi i złożonej składni aktywuje ten sam obszar w jądrze podstawnym w mózgu. Wówczas zaczęli zastanawiać się, czy ćwicząc jedną z tych umiejętności, można by wpływać na drugą. Uczestników badań poproszono więc o wypełnienie testów rozumienia złożonych zdań. Testy takie wypełniali 30 minut przed i 30 minut po ćwiczeniu ze szczypcami. Ćwiczenie to polegało na użyciu dużych szczypiec do umieszczenia niewielkich kołków w otworach odpowiadających im kształtem, ale o różnej orientacji. Przed i po takim ćwiczeniu porównywano, jak uczestnicy badań radzą sobie z rozumieniem prostszego i bardziej złożonego zdania. Okazało się, że po ćwiczeniu ze szczypcami badani lepiej radzili sobie ze zrozumieniem trudniejszych zdań. Z kolei w grupie kontrolnej, która używała dłoni do wkładania kołków w otworach, nie zauważono tego typu poprawy rozumienia zdań. Teraz naukowcy opracowują protokoły rehabilitacji osób, które utraciły część umiejętności językowych, ale zachowały zdolności motoryczne. Jednocześnie zauważają, że ich badania lepiej pomagają nam zrozumieć ewolucję H. sapiens. Gdy nasi przodkowie zaczęli wytwarzać i używać narzędzi, znacznie zmieniło ich to mózg i wpłynęło na zdolności poznawcze, co mogło doprowadzić do pojawienia się innych funkcji, jak zdolności językowe, stwierdzają naukowcy. « powrót do artykułu
  3. Trwa renowacja ostatniego fortepianu należącego do Fryderyka Chopina - instrumentu marki Pleyel z 1848 roku. Zaplanowano ją na 3-12 grudnia. Prace prowadzi zespół Paula McNulty'ego. Pokazy konserwatorskie (w ramach biletu do Muzeum Fryderyka Chopina) można oglądać od 7 do 12 grudnia. Historia instrumentu Chopin dostał najnowszy instrument z paryskiej wytwórni Camille'a Pleyela pod koniec listopada 1848 r. Jak podkreślono w komunikacie Narodowego Instytutu Fryderyka Chopina (NIFC), fortepian o numerze seryjnym 14810 znajdował się w dwóch ostatnich mieszkaniach Chopina i był ostatnim, na którym kompozytor grał i tworzył. Po śmierci Chopina instrument został zakupiony przez jego uczennicę Jane Stirling, a następnie podarowany przez nią siostrze Fryderyka, Ludwice Jędrzejewiczowej. Przetransportowany drogą morską znalazł się w Warszawie w sierpniu 1850 roku. Co ciekawe, w skrzyni instrumentu nadal znajduje się lakowa pieczęć carskiego urzędu celnego. Widać także dedykację autorstwa Jane Stirling "pour Louise" (dla Ludwiki). Dzieci i wnuki Ludwiki dbały o cenną pamiątkę. W 1924 r. została ona sprzedana Muzeum Narodowemu w Warszawie. Fortepian wystawiano tam do wybuchu powstania warszawskiego. Po zakończeniu powstania Niemcy wywieźli go do Austrii. Instrument wrócił do Warszawy w kwietniu 1946 r. W latach 50. przez pewien czas był eksponowany w Żelazowej Woli, a w 1958 roku został przekazany przez Muzeum Narodowe w depozyt, a później na własność Towarzystwu im. Fryderyka Chopina i przetransportowany do Pałacu Ostrogskich – siedziby warszawskiego Muzeum Chopina. Od 2005 roku jest depozytem w Narodowym Instytucie Fryderyka Chopina. Renowacje Pod koniec lat 50. przeprowadzono pierwszą renowację instrumentu. Podczas tego remontu wymieniono struny, kołki i okleinę młotków, a także polakierowano skrzynię. Ponieważ struny zmieniono na wykonane ze stali wysokowęglowej o silnym naciągu, zmieniło to oryginalną barwę brzmienia fortepianu; eksperci obawiali się również negatywnego wpływu tego zabiegu na kondycję całego instrumentu w dłuższej perspektywie. Przed 3 laty NIFC zlecił szczegółowe badania fortepianu. Laboratorium Analiz i Nieniszczących Badań Obiektów Zabytkowych LANBOZ przeprowadziło m.in. skanowanie i analizy chemiczne oraz wykonało zdjęcia RTG. Oprócz tego oględzinami fortepianu zajął się prof. Benjamin Vogel, instrumentoznawca w zakresie budownictwa fortepianów i lutnictwa, który współpracuje z wieloma muzeami w kraju i za granicą jako ekspert od zabytkowych instrumentów. Okazało się, że konieczna jest renowacja. Amerykański specjalista Paul McNulty uznał, że najważniejsza jest regulacja mechaniki i wymiana strun na bliższe pierwowzorowi. Dzięki dobremu stanowi zachowania zdecydowanej większości elementów (fortepian przez prawie sto lat, poza nielicznymi wyjątkami, nie był używany w celach wykonawczych, a jedynie eksponowany jako obiekt muzealny) istnieje realna szansa na pełne przywrócenie walorów instrumentu, a w szczególności jego oryginalnego brzmienia. « powrót do artykułu
  4. W ubiegłym roku donosiliśmy, że po raz pierwszy od ponad 100 lat norwescy archeolodzy wydobyli okręt wikingów, na którym pochowano władcę. Teraz Norweski Instytut Badań nad Dziedzictwem Kulturowym (NIKU) informuje, że w pobliżu okrętu znajduje się kilka długich domów, w tym jeden z największych, jakie kiedykolwiek znaleziono w Skandynawii. Odkrycia dokonano w Gjellestad, miejscowości o dużym znaczeniu w epoce żelaza i epoce wikingów. Odkrycie tych długich domów potwierdza, że Gjellestad było ważnym ośrodkiem, mówi doktorant Lars Gustavsen z NIKU. Dotychczas za pomocą georadaru zidentyfikowano pięć długich domów, z których jeden mierzył aż 60 metrów długości i 15 szerokości. Tymczasem długość typowego długiego domu z tego okresu wynosiła 20–30 metrów. Ten nowo odkryty był więc olbrzymi. Jako, że wielkość domu była powiązana z zamożnością właściciela, musiał w nim mieszkać ktoś znaczny. Nie wiemy, ile lat liczą sobie te domy i jakie funkcje pełniły. Wykopaliska i datowanie pozwolą nam odpowiedzieć na te pytania, stwierdzili archeolodzy. Oprócz domów odkryto też znaleziono, że w pobliżu znajdowały się kurhany, które jednak zostały zniszczone podczas prac polowych w XIX wieku. Najnowszego odkrycia dokonano w ramach projektu „Viking Nativity: Gjellestad Across Boarders”. Jego celem jest określenia historii rozwoju Gjellestad na przestrzeni całej epoki żelaza. Już przed trzema laty, gdy po raz pierwszy archeolodzy wpadli na trop okrętu w kurhanie, wiadomo było, że jest to zapowiedzą kolejnych odkryć. Pochówki na okrętach nigdy bowiem nie występują osobno. Z czasem przypuszczenia się potwierdziły. Odkrycie kurhanów nie było tak naprawdę zaskoczeniem, gdyż kurhany są tez w okolicznych lasach. Ponadto już wcześniej na polecenie gminy Viken prowadzono tutaj badania i dokonano odkryć wskazujących, że powinno być więcej kurhanów, mówi  Gustavsen. W ciągu kilku najbliższych lat prawdopodobnie dowiemy się więcej o związkach pomiędzy długimi domami, wrakiem i znaczeniem tego miejsca, dodaje. « powrót do artykułu
  5. Dobór odpowiednich podzespołów w komputerze ma ogromny wpływ na płynność rozgrywki czy wydajność wykonywanej pracy. Warto dowiedzieć się, które komponenty mają największe znaczenie pod tym względem. Procesor – serce komputera CPU, czyli właśnie procesor, to miejsce, w którym nieustannie przeprowadzane są obliczenia odpowiedzialne za pracę całego systemu. Przez centralną jednostkę obliczeniową przechodzą wszystkie polecenia do wykonania przez komputer. Szybkość tego podzespołu określa się na podstawie taktowania zegara, czyli liczby cykli otwierania i zamykania tranzystorów na sekundę. Wartość ta w nowych układach jest naprawdę wysoka – 1 GHz oznacza miliard cykli na sekundę, a taktowanie najnowszych procesorów może nawet przekraczać 5 GHz. Dodatkowo parametr ten jest zazwyczaj podawany w odniesieniu do jednego rdzenia, podczas gdy najpopularniejsze modele korzystają z 4, 6 lub 8 rdzeni. Liczba cykli bezpośrednio wyznacza liczbę operacji, które może wykonać CPU – wyższe taktowanie przekłada się zatem na szybsze działanie aplikacji, gier i każdego innego procesu. Wymiana procesora może dodatkowo pociągnąć za sobą konieczność zastosowania innej płyty głównej. Powodem jest obecność różnych gniazd do obsługi procesora. Intel i AMD korzystają z nieco odmiennych formatów. Co więcej, poszczególne generacje CPU zwykle wprowadzają drobne zmiany w tej kwestii. Choć płyta główna sama w sobie ma niewielki wpływ na szybkość komputera, jej konfiguracja wpływa na dobór innych komponentów, takich jak właśnie procesor czy RAM. Aby znaleźć najlepszą płytę główną dla siebie, odwiedź https://www.sferis.pl/plyty-glowne-2894/gigabyte. Chłodzenie procesora – istotna kwestia Ważną kwestią, na którą warto zwrócić uwagę, jest również chłodzenie procesora. Spora część modeli jest sprzedawanych od razu z tego typu elementem, jednak nie jest to reguła. Propozycje bez chłodzenia producenta to najczęściej najwydajniejsze modele z danej generacji, w przypadku których większość osób i tak stawia na dedykowane rozwiązania. Odpowiednie chłodzenie pozwala zapewnić, że procesor będzie w stanie pracować na wysokich obrotach bez ryzyka awarii. Zdecydowanie nie zaleca się korzystania z CPU bez żadnego chłodzenia – w takiej sytuacji wystarczy kilka sekund, by jednostka obliczeniowa uległa nieodwracalnemu zniszczeniu. Kiedy warto zainwestować w wydajną kartę graficzną? Ten podzespół odpowiada za renderowanie grafiki, a dodatkowo może wspierać obliczenia głównej jednostki. Modele od najlepszych producentów można znaleźć między innymi na https://www.sferis.pl/karty-graficzne-2889/gigabyte. Wydajna karta graficzna to wymóg przede wszystkim dla graczy i osób wykonujących intensywne prace związane z renderowaniem obrazu. Jej wpływ na szybkość komputera zależy jednak od tego, w jaki sposób korzystamy ze sprzętu. Największe zmiany odczujemy właśnie w przypadku gier i programów do obsługi wideo. Jeżeli jednak komputer służy nam przede wszystkim do przeglądania internetu i innych, mniej wymagających zadań, możemy ograniczyć wydatki, stawiając na procesor wyposażony w zintegrowaną grafikę. Nośniki danych – rodzaj napędu ma spore znaczenie W tym przypadku rozróżniamy dwa główne typy nośników: •    HDD, czyli dysk twardy – jego działanie opiera się na magnesowaniu odpowiednich części ruchomych talerzy; •    SSD, czyli napęd półprzewodnikowy – wszystkie operacje są wykonywane czysto elektronicznie, z pomocą tranzystorów. Jak wygląda różnica pomiędzy nimi w codziennym zastosowaniu? Niemal wszystkie argumenty przemawiają za SSD. Przesył danych w najnowszych modelach sięga nawet kilku gigabajtów na sekundę, podczas gdy najwydajniejsze HDD osiągają zwykle maksymalnie 600 MB/s. To sprawia, że zarówno sam system, jak i wszelkie programy oraz aplikacje będą uruchamiać się i działać o wiele szybciej. Dodatkowo SSD pracuje znacznie ciszej, zachowując przy tym wyższą wydajność energetyczną. « powrót do artykułu
  6. Bakteria wąglika atakuje ludzkość od niepamiętnych czasów. Badania przeprowadzone w Cornell College of Veterinary Medicine wykazały, że w toku ewolucji ludzie wielokrotnie nabywali większej odporności na wąglika. Doszło do tego wówczas, gdy w ich diecie w większym stopniu pojawiło się mięso przeżuwaczy czy po upowszechniania się rolnictwa. Dzięki temu Homo sapiens, przede wszystkim Europejczycy i ich potomkowie, posiada mniej receptorów umożliwiających zakażenie wąglikiem. Znaleźliśmy dowody na wieloetapową adaptację ludzi do współistnienia z wąglikiem. To najważniejsze nasze odkrycie, mówi profesor Charles Danko, który stał na czele grupy badawczej. Głównym gospodarzem wąglika są przeżuwacze, jak krowy czy owce. Zwierzęta, pożywiając się, wdychają spory wąglika znajdujące się w trawie, zarażają się i wkrótce giną od toksyn wytwarzanych przez bakterie. Z rozkładających się ciał zwierząt bakterie wracają do gleby i roślin i cykl się powtarza. Zanim Danko nie przeprowadził swoich badań, nie było jasne, jak ludzie zostali włączeni w ten cykl. Naukowcy badali ekspresję genów u wielu różnych gatunków i prowadzili badania na próbkach pobranych od ludzi i naczelnych. Okazało się, że receptor toksyny wąglika ANTXR2, który umożliwia wniknięcie toksyny do komórek, jest obecny u wielu gatunków ssaków, w tym u naczelnych. Ekspresja genu ANTXR2 jest stała na przestrzeni ponad 100 milionów lat ewolucji. Jednak okazuje się, że u ludzi doszło do olbrzymiego jej spadku. I to nas zainteresowało, mówi Danko. Na przykładzie przeprowadzonych badań dobrze widać ewolucję w praktyce. Wynika z nich bowiem, że pierwsi ludzie, którzy pojawili się w subsaharyjskiej Afryce, coraz częściej zjadali zwierzęta przeżuwające. Mieli więc większy kontakt z wąglikiem niż ich zwierzęcy przodkowie. Wąglik musiał doprowadzić do wymarcia wielu z pierwszych społeczności. Przeżyli ci ludzie, którzy posiadali naturalną odporność na wąglika, np. mieli mniej receptorów ANTXR2. Następnie naukowcy sprawdzili różne populacje pod kątem ekspresji wspomnianego genu. Wzięli pod lupę m.in. Europejczyków, Chińczyków, Japończyków i Joruba. Odkryli, że u wszystkich widoczne jest zmniejszenie ekspresji tego receptora. Jednak u Europejczyków jest ona najmniejsza. Zgadza się to z wcześniejszymi obserwacjami, z których wynikało, że Europejczycy są mniej wrażliwi na toksynę wąglika niż Azjaci czy Afrykanie. Nasze badania dowodzą, że Europejczycy dłużej niż inne populacje mają kontakt z wąglikiem, stwierdza Danko. To nabywanie odporności zgodne jest z wzorcami ludzkiej migracji i rozprzestrzeniania się rolnictwa. Jednym z przykładów takiego kontaktu jest „choroba sortowaczy wełny”. To płucna, wyjątkowo śmiercionośna odmiana wąglika, która w XIX wieku zabijała osoby sortujące wełnę. W kolejnym etapie badań Danko i jego grupa chcą m.in. zbadać inne populacje ludzkie, w tym i takie, które były historycznie bardziej izolowane, pod kątem odporności na wąglika. Mają zamiar sprawdzić, czy i w ich przypadku da się zauważyć dotychczas obserwowany wzorzec wspólnej ewolucji. Szczegóły badań znajdziemy w artykule Multiple stages of evolutionary change in anthrax toxin receptor expression in humans. « powrót do artykułu
  7. Niedawno zidentyfikowany wariant Omikron koronawirusa SARS-CoV-2 wywołał spore poruszenie wśród ekspertów. Tym, czego najbardziej obawiają się specjaliści, jest duża liczba zmian w tym wariancie. Zawiera on bowiem ponad 30 mutacji w białku S. Tym, które umożliwia wirusowi infekowanie komórek naszego organizmu. Na razie nie wiemy, czy Omikron jest bardziej zaraźliwy, czy powodowana nim choroba przebiega w inny sposób niż w przypadku wcześniejszych wariantów i czy obecnie dostępne szczepionki są równie skuteczne w jego przypadku. W RPA ukazały się właśnie wstępne wyniki badań sugerujących, że Omikron może z trzykrotnie większym prawdopodobieństwem może ponownie infekować ludzi. Wyniki tych badań nie zostały jeszcze opublikowane w recenzowanym czasopiśmie. Wydaje się, że Omikron pojawił się bardzo szybko, a specjaliści próbują zrozumieć, jak doszło do pojawienia się tak wielu mutacji w tak krótkim czasie. Jedną z możliwych dróg pojawienia się tak mocno zmutowanego wariantu jest jego wcześniejsze krążenie w izolowanej populacji, w której miał więcej możliwości zmiany niż w populacji ogólnej. Później mógł się rozprzestrzenić po poza tę populację. Alternatywnym wyjaśnieniem jest pojawienie się wielu mutacji u pojedynczej osoby. Taki scenariusz jest możliwy w przypadku osoby o osłabionym układzie odpornościowym, na przykład u nosiciela wirus HIV. RPA, gdzie po raz pierwszy odkryto wariant Omikron, ma największą na świecie populację nosicieli HIV. Mimo, że w międzyczasie zidentyfikowali starsze przypadki Omikrona w USA i Europie, scenariusza o dużej liczbie mutacji u pojedynczej osoby nie można wykluczyć. Masz układ odpornościowy składa się m.in. z komórek CD4+, które stymulują inne limfocyty T do ataku. U osób ze zdrowym układem odpornościowym limfocyty T niszczą komórki zarażone wirusem. Jednak u osób z osłabionym układem odpornościowym liczba komórek CD4+ T jest niewielka. Dlatego też może u nich dojść do długotrwałej infekcji. W trakcie jej trwania organizm nie jest jednak całkowicie bezbronny. Wytwarza on bowiem limfocyty B. Rozpoczyna się wyścig zbrojeń pomiędzy wirusem a układem odpornościowym. Atak ze strony limfocytów B jest na tyle słaby, że nie jest w stanie oczyścić organizmu z wirusa, jednak wywiera presję ewolucyjną na wirusa, który zaczyna mutować, by uniknąć ataku. Wiemy, że taki scenariusz jest możliwy, gdyż już przed kilkoma miesiącami w RPA opisano przypadek nosicielki wirusa HIV, która przez ponad pół roku była zarażona SARS-CoV-2. W tym czasie wirus w jej organizmie uległ licznym mutacjom, a część z nich pojawiła się w białku S. Jeszcze inną możliwą drogą nabycia tak wielu mutacji w krótkim czasie jest pojawienie się ich wśród zwierząt. Wiele dowodów wskazuje na to, że SARS-CoV-2 pochodzi od nietoperzy, znamy też przykłady przechodzenia tego wirusa z ludzi na zwierzęta. Nie można więc wykluczyć, że jakieś zwierzęta zaraziły się od ludzi SARS-CoV-2, w ich organizmach wirus zetknął się z zupełnie innym środowiskiem, inną presją ze strony układu odpornościowego, nabył wielu mutacji i ponownie zaraził człowieka. Jednak, jak podkreśla Gonzalo Bello z Instytutu Oswaldo Cruza w Rio de Janeiro, który badał brazylijską odmianę Gamma, taka droga nabycia dużej liczby mutacji to obecnie wyłącznie spekulacja. Dobre zrozumienie historii i ewolucji wariantu Omikron będzie wymagało zidentyfikowania pierwszego pacjenta lub społeczności, w której się pojawił. To jednak będzie bardzo trudne, gdyż wychwytujemy jedynie niewielką część zarażonych ludzi. Jednak im więcej przypadków Omikrona zostanie znalezionych, a ich genomy zsekwencjonowane, tym większe prawdopodobieństwo, że uda się określić obszar i czas, w którym po raz pierwszy się pojawił. « powrót do artykułu
  8. NASA uruchomiła system monitoringu asteroid nowej generacji. Dzięki niemu Agencja lepiej będzie mogła ocenić zagrożenie, jakie dla naszej planety stwarzają poszczególne asteroidy.  Obecnie znamy 27 744 asteroid bliskich Ziemi. Jest wśród nich 889 obiektów o średnicy przekraczającej 1 km i 9945 asteroid o średnicy ponad 140 metrów. Jednak w najbliższym czasie ich liczba znacznie się zwiększy. Stąd potrzeba doskonalszego algorytmu oceny zagrożenia. W ciągu najbliższych lat prace rozpoczną nowocześniejsze, bardziej zaawansowane teleskopy. Można się więc spodziewać szybkiego wzrostu liczy nowo odkrytych asteroid, których orbity trzeba będzie obliczyć i nadzorować. W kulturze popularnej asteroidy są często przedstawiane jako obiekty chaotyczne, gwałtownie zmieniające kurs i zagrażające Ziemi. W rzeczywistości jednak są niezwykle przewidywalne i krążą wokół Słońca po znanych orbitach. Czasem jednak z obliczeń wynika, że orbita asteroidy znajdzie się blisko Ziemi. Wówczas, ze względu na niewielkie niepewności co do dokładnej pozycji asteroidy, nie można całkowicie wykluczyć uderzenia. Astronomowie używają się złożonych systemów monitorowani i obliczania orbit, które automatycznie obliczają ryzyko zderzenia asteroidy z Ziemią. Należące do NASA Center for Near Earth Object Studies (CNEOS) oblicza orbity dla każdej znanej asteroidy i przekazuje dane do Planetary Defense Coordinatio Office (PDCO). Od 2002 roku CNEOS wykorzystuje w tym celu oprogramowanie Sentry. Pierwsza wersja Sentry to bardzo dobre oprogramowanie, które działa od niemal 20 lat. Wykorzystuje bardzo sprytne algorytmy. W czasie krótszym niż godzina potrafi z dużym prawdopodobieństwem ocenić ryzyko zderzenia z konkretną asteroidą w ciągu najbliższych 100 lat, mówi Javier Roa Vicens, który stał na czele grupy pracującej nad Sentry-II, a niedawno przeniósł się do SpaceX. Sentry-II korzysta z nowych bardziej dokładnych i wiarygodnych algorytmów, które potrafią obliczyć ryzyko uderzenia z dokładnością wynoszącą ok. 5 na 10 000 000. Ponadto bierze pod uwagę pewne elementy, których nie uwzględniało Sentry. Gdy asteroida wędruje w Układzie Słonecznym, o jej orbicie decyduje przede wszystkim oddziaływanie grawitacyjne Słońca. Wpływ na jej orbitę ma też grawitacja planet. Sentry z dużą dokładnością potrafi obliczyć wpływ sił grawitacyjnych, pokazując, w którym miejscu przestrzeni kosmicznej asteroida znajdzie się za kilkadziesąt lat. Jednak Sentry nie uwzględnia sił innych niż grawitacja. A najważniejszymi z nich są siły oddziałujące na asteroidę w wyniku ogrzewania jej przez Słońce. Asteroidy obracają się wokół własnej osi. Zatem są ogrzewane przez Słońce z jednej strony, następnie ogrzana strona odwraca się od Słońca i stygnie. Uwalniana jest wówczas energia w postaci promieniowania podczerwonego, która działa jak niewielki, ale stały napęd. To tzw. efekt Jarkowskiego. Ma on niewielki wpływ na ruch asteroidy w krótki terminie, jednak na przestrzeni dekad i wieków może znacząco zmienić orbitę asteroidy. Fakt, że Sentry nie potrafił automatycznie uwzględniać efektu Jarkowskiego był poważnym ograniczeniem. Za każdym razem, gdy mieliśmy do czynienia z jakimś szczególnym przypadkiem – jak asteroidy Apophis, Bennu czy 1950 DA – musieliśmy ręcznie dokonywać skomplikowanych długotrwałych obliczeń. Dzięki Sentry-II nie będziemy musieli tego robić, mówi Davide Farnocchia, który pracował przy Sentry-II. Ponadto oryginalny algorytm Sentry miał czasem problemy z określeniem prawdopodobieństwa kolizji, gdy orbita asteroidy miała znaleźć się niezwykle blisko Ziemi. Na takie asteroidy w znaczący sposób wpływa grawitacja planety i w takich przypadkach gwałtownie rosła niepewność co do przyszłej orbity asteroidy po bliskim spotkaniu z Ziemią. Sentry mógł mieć wówczas problemy i konieczne było przeprowadzanie ręcznych obliczeń i wprowadzanie poprawek. W Sentry-II nie będzie tego problemu. Co prawda takie szczególne przypadki stanowią obecnie niewielki odsetek wszystkich obliczeń, ale spodziewamy się, że po wystrzeleniu przez NASA misji NEO Surveyor i uruchomieniu Vera C. Rubin Observatory, ich liczba wzrośnie, musimy więc być przygotowani, mówi Roa Vicens. NASA zdradza również, że istnieje zasadnicza różnica w sposobie pracy Sentry i Sentry-II. Dotychacz gdy teleskopy zauważyły nieznany dotychczas obiekt bliski Ziemi astronomowie określali jego pozycję na niebie i wysyłali dane to Minor Planet Center. Dane te były wykorzystywane przez CNEOS do określenia najbardziej prawdopodobnej orbity asteroidy wokół Słońca. Jednak, jako że istnieje pewien margines niepewności odnośnie obserwowanej pozycji asteroidy wiadomo, że orbita najbardziej prawdopodobna nie musi być tą prawdziwą. Rzeczywista orbita asteroidy mieści się w znanych granicach niepewności pomiarowej. Sentry, by obliczyć prawdopodobieństwo zderzenia z Ziemią, wybierał zestaw równomiernie rozłożonych punktów w obszarze niepewności pomiarowej, uwzględniając przy tym jednak tę część obszaru, w której z największym prawdopodobieństwem znajdowały się orbity zagrażające Ziemi. Każdy z punktów reprezentował nieco inną możliwą rzeczywistą pozycję asteroidy. Następnie dla każdego z nich algorytm określał orbitę asteroidy w przyszłości i sprawdzał, czy któraś z nich przebiega blisko Ziemi. Jeśli tak, to skupiał się na tej orbicie, wyliczając dla niej prawdopodobieństwo uderzenia. Sentry-II działa inaczej. Wybiera tysiące punktów rozłożonych na całym obszarze niepewności pomiarowej. Następnie sprawdza, które z możliwych punktów w całym regionie są powiązane z orbitami zagrażającymi Ziemi. Innymi słowy, Sentry-II nie jest ograniczony założeniami dotyczącymi tego, gdzie na obszarze marginesu błędu pomiarowego mogą znajdować się orbity najbardziej zagrażające Ziemi. Bierze pod uwagę cały obszar, dzięki czemu może wyłapać też bardzo mało prawdopodobne scenariusze zderzeń, które mogły umykać uwadze Sentry. Farnocchia porównuje to do szukania igły w stogu siana. Igły to możliwe zderzenia, a stóg siana to cały obszar błędu pomiarowego. Im większa niepewność odnośnie pozycji asteroidy, tym większy stóg siana, w którym trzeba szukać. Sentry sprawdzał stóg siana wielokrotnie, szukając igieł wzdłuż pojedynczej linii przebiegającej przez cały stóg. Sentry-II nie korzysta z żadnej linii. Szuka w całym stogu. Sentry-II to olbrzymi postęp w dziedzinie zidentyfikowania nawet najmniej prawdopodobnych scenariuszy zderzenia wśród olbrzymiej liczby wszystkich scenariuszy. Gdy konsekwencje przyszłego uderzenia asteroidy mogą być naprawdę katastrofalne, opłaca się poszukać nawet tych mało prawdopodobnych scenariuszy, mówi Steve Chesley, który stał na czele grupy opracowującej Sentry i pomagał przy pracy nad Sentry-II. Szczegółowy opis Sentry-II znajdziemy na łamach The Astronomical Journal. Poniższy film pokazuje zaś w jaki sposób określono orbitę asteroidy Bennu z uwzględnieniem sił grawitacyjnych i niegrawitacyjnych.   « powrót do artykułu
  9. W Hadrianopolis w Paflagonii odkryto żelazną maskę, która ok. 1800 lat temu należała do rzymskiego kawalerzysty. Archeolodzy natrafili na nią podczas wykopalisk ufortyfikowanej struktury. Archeolodzy pracują na tym stanowisku od 2003 r. Dotąd odkryli 14 struktur, w tym 2 łaźnie, 2 świątynie, willę czy ufortyfikowany budynek na planie kwadratu. W oparciu o forteczną ścianę przypuszczamy, że budynek pełnił funkcje wojskowe. Żelazną maskę odkryliśmy podczas wykopalisk prowadzonych właśnie w tym miejscu - opowiada dr Ersin Çelikbaş z Uniwersytetu w Karabüku. Podobne znaleziska i stratygraficzne położenie sugerują, że maska pochodzi z III w. n.e. Archeolodzy uważają, że w Hadrianopolis mógł stacjonować rzymski garnizon. Çelikbaş wyjaśnia, że Rzym chciał chronić imperium, budując na jego krańcach bazy zabezpieczające przed różnymi zagrożeniami pochodzącymi z regionu Morza Czarnego. Wydaje się, że Hadrianopolis było jednym z takich ośrodków. Wykopaliska mają być kontynuowane. « powrót do artykułu
  10. W zeszłym roku podczas lockdownu Jim Irvine udał się na spacer po polu swojego ojca w Ruthland. Jego uwagę przyciągnęła rozrzucona rzymska ceramika. Później zauważył wyróżniki roślinne budynku, a wreszcie mozaikę. Irvine skontaktował się z archeologami z Leicestershire County Council. Gdy na miejscu zjawili się Richard Clark i Peter Liddle, potwierdzili wagę znaleziska. Dobrze zachowana mozaika przedstawiała postaci ludzkie, konie i rydwany. Zważywszy na wagę odkrycia, udało się pozyskać środki na pilne badania archeologiczne, które zostały przeprowadzone w sierpniu 2020 r. przez Służbę Archeologiczną Uniwersytetu w Leicester (ULAS). Dzięki kolejnym funduszom z Historic England, posługując się georadarem, ustalono, że znajdował się tu kompleks budynków. Choć jego stan był bardzo dobry, dalsze analizy wykazały, że ze względu na płytkie położenie ryzyko uszkodzenia podczas przyszłych prac polowych jest wysokie. Biorąc to wszystko pod uwagę, rozpoczęto starania, by uznać stanowisko za zabytek archeologiczny (pod koniec listopada 2021 r. procedura się zakończyła). Ostatnie wykopaliska, w których wzięli przedstawiciele ULAS oraz Szkoły Archeologii i Historii Starożytnej (SAAH), w tym studenci, miały miejsce rok po początkowym odkryciu. Pozostałości mozaiki mierzą 11 na niemal 7 m. Podczas jej odsłaniania w pewnym momencie stało się jasne, że sceny przedstawiają pojedynek Achillesa i Hektora. To unikat w skali Wielkiej Brytanii. W Europie takie przedstawienia również są rzadkie. Naukowcy wskazują, że historię opowiedziano w 3 panelach w stylu, który przywodzi na myśl komiks. Na pierwszym panelu widać pojedynek Achillesa i Hektora w zaprzężonych w konie rydwanach. Środkowy panel przedstawia Achillesa, który ciągnie ciało Hektora za rydwanem oraz ojca Hektora Priama, który prosi o wydanie ciała zwyciężonego. Na ostatnim panelu widnieje scena wymiany Hektora za wagę jego ciała w złocie. Widać, że mozaika jest dziełem uzdolnionego artysty. Gama wykorzystanych kolorów, przywiązanie do szczegółów i sposób, w jaki niektóre postaci wykraczają poza gilosz, sugerują, że wzorem dla tego dzieła mógł być należący do właściciela willi iluminowany manuskrypt. Ciekawych informacji dostarczyło także badanie warstw nad mozaiką. Okazało się, że gdy pomieszczenie przestało być wykorzystywane jako jadalnia/pokój rozrywkowy, wielokrotnie palił się tu ogień, przez co mozaika została uszkodzona. Powyżej znajdowały się warstwy gruzu: to skutek stopniowego walenia się budynku albo celowego wyburzenia. Na wierzchu odkryto 2 szkielety. Ludzi tych pochowano w obrębie pomieszczenia, co sugeruje, że było nadal widoczne nad powierzchnią gruntu. Na razie naukowcy czekają na wyniki datowania pochówków. Pomieszczenie z mozaiką stanowiło część dużej willi, wykorzystywanej między III a IV w. n.e. Podczas wspomnianych wcześniej badań geofizycznych i archeologicznych odkryto szereg innych budynków, w tym stodoły, możliwą łaźnię oraz okrągłe struktury. Całość była otoczona rowami granicznymi. Rodzinna wycieczka przez pola zmieniła się w niezwykłe odkrycie. Gdy znalazłem w pszenicy niezwykłą ceramikę, zacząłem głębiej drążyć tę kwestię. Przyglądając się zdjęciu satelitarnemu, dostrzegłem wyraźne wyróżniki roślinne - jakby ktoś narysował coś kredą na ekranie. W tym momencie doznałem olśnienia. Tak zaczęła się ta historia. Odkrycie archeologiczne wypełniło większość mojego wolnego czasu w zeszłym roku - podkreśla Jim Irvine. Willa, jej mozaika i otaczający kompleks stanowią najbardziej wyróżniające się znalezisko w najnowszej historii archeologicznej Ruthland - dodaje Richard Clark, archeolog hrabstw Leicestershire i Rutland. Naukowcy zapowiadają, że znaleziska będą nadal badane przez ULAS, Historic England oraz innych brytyjskich specjalistów, w tym Davida Neala, czołowego eksperta od mozaiki. W związku z przyznaniem miejscu statusu zabytku archeologicznego Historic England współpracuje z właścicielem pola, by pomóc mu w przekształceniu ziemi w pastwisko. Na przyszły rok planowany jest kolejny sezon wykopalisk. Na wzór herosów Achilles z 1. panelu jest nagi i zauważalnie większy od przeciwnika. Jego konie - Balios i Ksantos - są różnie  umaszczone. Widzimy tutaj scenę walki na rydwanach. Tymczasem w Iliadzie Achilles i Hektor walczyli pieszo. Zresztą starożytni Grecy nie wyobrażali sobie pojedynków na rydwanach. Służyły one wyłącznie do rozbijania szyków piechoty. Mimo że drugi panel jest uszkodzony, widać wleczone za Achillesowym rydwanem krwawiące ciało Hektora. Scenie tej przygląda się król Troi Priam. Achilles dzierży czerwoną tarczę, w którą w poprzednim panelu był wyposażony Hektor (tym samym wróciła ona do prawowitego właściciela). W materiale filmowym o mozaice mowa jest także o pistrixie (wężu czy potworze morskim). Wg narratorki, potwór morski może symbolizować wodę, prawdopodobnie morze, albo stanowić personifikację rzeki Skamander. Ostatni panel przedstawia Priama, który dostarcza okup za ciało syna. Na środku stoi służący z wagą na ramionach. Z jednej strony znajduje się ciało Hektora, a po drugiej złoty talerz, do którego Priam dokłada kolejne złote naczynia. Lewa połowa panelu jest mocno spalona, ale przyglądając się układowi kamieni, da się dostrzec zarys dzierżącego włócznię i tarczę siedzącego Achillesa. Towarzyszą mu dwaj stojący greccy żołnierze. Ubrania postaci na trzecim panelu przypominają rzymskie ubrania z okresu powstania mozaiki. Już same rozmiary mozaiki czynią ją niezwykle interesującym zabytkiem. Jednak to nie wszystko. Przedstawia ona bowiem alternatywną wersję wykupienia ciała Hektora przez Priama. W Iliadzie Herod pisze, że Achilles jeszcze żywemu  Hektorowi zapowiada, że nie odda jego ciała rodzinie, nawet gdyby oferowali równą wagę w złocie. Później zmienia zdanie i oddaje zabitego Hektora Priamowi w zamian za złoto i cenne tkaniny. Homer nie wspomina tutaj o wymianie ciała z jego wagę w złocie. Tymczasem na mozaice widzimy scenę, w której na jednej szali leży ciało Hektora, na drugą zaś Priam kładzie złoto. Taki obraz spopularyzował jeden z najwybitniejszych twórców greckiej tragedii, Ajschylos, w zaginionym obecnie dziele opowiadającym o tych wydarzeniach. I, jak widzimy, obraz ten był popularny nawet 700-800 lat później na rubieżach Imperium Romanum.   « powrót do artykułu
  11. "Echoes" to interaktywna instalacja autorstwa Mathiasa Gmachla. Powstała z ok. 4,5 t stali i mierzy ponad 17 m. Przedstawia podświetlonego walenia. Gdy widz za bardzo się do niego zbliży i przekroczy pewną granicę, światła rzeźby przygasają, a ścieżka dźwiękowa przycicha do momentu, aż człowiek odejdzie na "bezpieczną" odległość. Zabieg ten ma pokazać, co się dzieje, gdy ludzie zawłaszczają przestrzeń, której inni mieszkańcy Ziemi potrzebują, by przetrwać. Oceany mają swoje własne środowisko dźwiękowe, które jest kluczowe do tego, by zwierzęta morskie mogły wykorzystywać dźwięk do komunikacji, orientacji i unikania zagrożeń. Ludzka działalność staje się coraz głośniejsza, co [...] prowadzi do zmian fizjologicznych i behawioralnych u morskiej fauny. W niektórych przypadkach kończy się to śmiercią - podkreślono w opisie projektu, udostępnionym przez Gmachla na Facebooku. Wymyśliłem, by umieścić zagrożone zwierzęta w mieście i stworzyć ludziom przestrzeń do refleksji nad kwestią naszej przyszłości. Uważam, że to prosty sposób na przekazanie, czym jest wyginięcie: wszystko cichnie i zanika - tłumaczy artysta. Od początku prac Gmachl wiedział, że chce wzorować powstającą strukturę na rocznym płetwalu błękitnym. To krytyczny, związany z usamodzielnieniem, czas w życiu tego zwierzęcia. Projekt powstał we współpracy z Dzielnicą Muzeów (MuseumsQuartier) w Wiedniu i Lugano Arte e Cultura. Do 11 czerwca instalacja znajdowała się w stolicy Austrii, a od 25 czerwca do 12 października walenia można było podziwiać w Parco Ciani w Lugano. Obecnie "Echoes: A Voice From Uncharted Waters" stanowi ozdobę 12. edycji festiwalu Luminothérapie w Montrealu. O innych projektach tego twórcy można poczytać na stronie Loop.pH.   « powrót do artykułu
  12. Międzynarodowy zespół naukowy, na którego czele stoją uczeni z Holandii, informuje, że nie znalazł śladów ciemnej materii w galaktyce AGC 114905. Obecnie powszechne jest przekonanie, że galaktyki mogą istnieć wyłącznie dzięki ciemnej materii, której oddziaływanie utrzymuje je razem. Przed dwoma laty Pavel Mancera Piña i jego zespół z Uniwersytetu w Groningen poinformowali o zidentyfikowaniu sześciu galaktyk, zawierających niewiele lub nie zawierających w ogóle ciemnej materii. Wówczas usłyszeli od swoich kolegów, by lepiej poszukali, a przekonają się, że musi tam ona być. Teraz, po prowadzonych przez 40 godzin obserwacjach za pomocą Very Large Array (VLA) uczeni potwierdzili to, co zauważyli wcześniej – istnienie galaktyk bez ciemnej materii. AGC 114905 znajduje się w odległości 250 milionów lat świetlnych od Ziemi. To skrajnie rozproszona galaktyka (UDG – ultra diffuse galaxy) karłowata, ale określenie „karłowata” odnosi się w jej przypadku do jasności, a nie wielkości. Galaktyka jest bowiem wielkości Drogi Mlecznej, ale zawiera około 1000-krotnie mniej gwiazd. Przeprowadzone obserwacje i analizy przeczą przekonaniu, jakoby wszystkie galaktyki, a już na pewno karłowate UDG, mogły istnieć tylko dzięki utrzymującej je razem ciemnej materii. Pomiędzy lipcem a październikiem 2020 roku naukowcy przez 40 godzin zbierali za pomocą VLA dane dotyczące ruchu gazu w tej galaktyce. Na podstawie obserwacji stworzyli grafikę pokazującą odległość gazu od galaktyki na osi X oraz jego prędkość obrotową na osi Y. To standardowy sposób badania obecności ciemnej materii. Tymczasem analiza wykazała, że ruch gazu w AGC 114905 można całkowicie wyjaśnić odwołując się wyłącznie do widocznej materii. Tego oczekiwaliśmy i spodziewaliśmy się, gdyż potwierdza to nasze wcześniejsze obserwacje. Problem jednak pozostaje, gdyż obecnie obowiązujące teorie mówią, że AGC 114905musi zawierać ciemną materię. Nasze obserwacje wskazują, że jej tam nie ma. Po kolejnych badaniach mamy zatem coraz większą rozbieżność między teorią a obserwacjami, stwierdza Pavel Mancera Piña. Naukowcy próbują więc wyjaśnić, co stało się z ciemną materią. Wedle jednej z wysuniętych przez nich hipotez, AGC 114905 mogłaby zostać pozbawiona ciemnej materii przez wielkie sąsiadujące z nią galaktyki. Problem w tym, że nie ma takich galaktyk. Zeby wyjaśnić ten brak ciemnej materii na gruncie powszechnie akceptowanego modelu kosmologicznego Lambda-CDM musielibyśmy wprowadzić do niego parametry o ekstremalnych wartościach, znajdujących się daleko poza akceptowanym zakresem. Również na gruncie alternatywnego modelu – zmodyfikowanej dynamiki newtonowskiej – nie jesteśmy w stanie wyjaśnić ruchu gazu w tej galaktyce. Uczeni mówią, że istnieje pewne założenie, które mogłoby zmienić wnioski z ich badań. Założeniem tym jest kąt, pod jakim sądzą, że obserwowali AGC 114905. Jednak kąt ten musiałby się bardzo mocno różnić od naszych założeń, by we wnioskach było miejsce na istnienie ciemnej materii, mówi współautor badań Tom Oosterloo. Tymczasem zespół badań kolejną UDG. Jeśli i tam nie znajdzie śladów ciemnej materii, będzie to bardzo silnym potwierdzeniem dotychczasowych spostrzeżeń. Warto tutaj przypomnieć, że już 3 lata temu donosiliśmy, że zespół z Yale University odkrył pierwszą galaktykę bez ciemnej materii. Metoda wykorzystana przez Holendrów jest bardziej wiarygodna i odporna na zakłócenia. « powrót do artykułu
  13. Badania nad rodzicami z Rosji i USA oraz nad literaturą dziecięcą w obu krajach pokazują różnice kulturowe w podejściu do wychowania dzieci w obu krajach. Naukowcy zauważyli, że rosyjscy rodzice z większym prawdopodobieństwem niż amerykańscy czytają swoim dzieciom historie, w których opisywane są negatywne emocje, jak strach, złość czy smutek. W USA kładzie się nacisk na wartość emocji pozytywnych, jak szczęście czy duma, mówi współautorka badań, profesor psychologii Amy Halberstadt. W Rosji jest to bardziej zróżnicowane. Wydaje się, że rosyjska kultura ceni wszystkie emocje, w tym negatywne, i jest dla niej ważne, by od nich się uczyć, stwierdza profesor psychologii Yulia Chentsova-Dutton z Georgetown University. Jako że historie, które słyszymy i czytamy jako dzieci często mówią o emocjach, które później cenimy, chcieliśmy zobaczyć, jak w tej kwestii różnią się obie kultury, dodaje. Naukowcy przeprowadzili dwa badania. W pierwszym z nich udział wzięło 322 rodziców, któe miały dzieci w wieku poniżej 10 lat. Należeli oni do trzech grup: 72 rodziców urodziło się w USA i tam mieszkało, 72 rodziców urodziło się w Rosji, ale mieszkało w USA, 178 rodziców urodziło się w Rosji i mieszkało w Rosji. Naukowcy poprosili tych rodziców, by opisali, do jakiego stopnia książki, które czytają swoim dzieciom, zawierają 10 różnych emocji: 6 pozytywnych i 4 negatywne. Nie było różnicy pomiędzy grupami jeśli chodzi o częstotliwość pojawiania się w literaturze emocji pozytywnych. Każdy lubi książki z takimi emocjami, zauważa Anita Adams z University of Kentucky. Jednak rosyjscy rodzice czytali dzieciom książki z większą liczbą negatywnych emocji. Z kolei rodzice rosyjsko-amerykańscy znajdowali się gdzieś pomiędzy tymi grupami". Kiedy uczeni poprosili rodziców o ocenę ocenę smutku, okazało się, że rosyjscy rodzice bardziej cenili smutek niż rodzice amerykańscy. "To nadawanie smutkowi większej wartości wydaje się jedną z przyczyn, dla których rodzice ci w większym stopniu angażują się ze swoimi dziećmi w emocje negatywne, wyjaśnia Halberstadt. Podczas drugich badań uczeni przeanalizowali 40 najlepiej sprzedających się książek dla dzieci w wieku przedszkolnym w USA i Rosji. Analizowali zarówno tekst, jak i ilustracje, by ocenić zakres i częstotliwość pojawiania się w nich emocji negatywnych i pozytywnych. Stwierdzili, że w rosyjskich książkach dla dzieci znajdziemy szersze spektrum emocji. Tekst w rosyjskiej literaturze dziecięcej częściej opisywał złość i smutek niż tekst w literaturze amerykańskiej. Z kolei ilustracje w rosyjskich książkach dla dzieci częściej przedstawiały szczęście, złość i strach, niż w książkach amerykańskich. Nasze badania pokazują, jak różnie w przeżywanie emocji ze swoimi dziećmi angażują się rodzice rosyjscy i amerykańscy. Wydaje się, że rosyjscy rodzice z większym prawdopodobieństwem mają szansę na wspieranie swoich dzieci w przeżywaniu trudnych emocji jak gniew czy smutek, dodają uczeni. Zauważają, że przyszłe badania mogłoby pokazać, jaki wpływ ma to na wyposażenie dzieci w narzędzia do radzenia sobie z negatywnymi emocjami. Szczegóły badań opisano w artykule And they all lived unhappily ever after: Positive and negative emotions in American and Russian picture books. « powrót do artykułu
  14. Michał Styczyński z Wydziału Biologii Uniwersytetu Warszawskiego odkrył, że bakterie z Antarktyki wytwarzają naturalną substancję z grupy melanin. Można by ją wykorzystać w kremach z filtrem UV, zastępując syntetyczny oksybenzon, który przyczynia się do wymierania koralowców. Środek ten zaburza gospodarkę hormonalną parzydełkowców, uniemożliwiając im rozmnażanie się. Uczony zauważył, że pod wpływem odpowiedniego stresu środowiskowego bakterie wytwarzają substancję z grupy melanin. Może ona potencjalnie posłużyć do zastąpienia nią oksybenzonu. Antarktyka jest jednym z najbardziej ekstremalnych regionów na Ziemi. Charakteryzuje się ona bardzo niskimi temperaturami, dochodzącymi do -90 °C, wysoką ekspozycją na promieniowanie UV, niską dostępnością substancji odżywczych, a także obecnością silnie zasolonych zbiorników wodnych. Organizmy występujące w tak skrajnych warunkach musiały wykształcić szereg cech adaptacyjnych umożliwiających im przeżycie. Zimnolubne bakterie, określane jako psychrofile lub psychrotoleranty, wytwarzają m.in. specyficzne metabolity wtórne, takie jak barwniki ochronne, dzięki którym mogą optymalnie funkcjonować w polarnym środowisku, mówi Styczyński. Naturalną melaninę można by wytwarzać na skalę przemysłową namnażając bakterie w laboratorium i poddając je następnie odpowiedniej stymulacji. Jednak to nie jedyna zaleta bakterii arktycznych. Badania wykazały, że wytwarzają one też karotenoidy posiadające bardzo silne właściwości przeciwutleniające. Również i one mogą odegrać ważną rolę. Wytwarzane przez bakterie związki, ze względu na swoją specyficzną, wielonienasyconą strukturę i wynikające z niej właściwości przeciwutleniające, zapobiegają szkodliwemu działaniu promieniowania UV. Ponadto odgrywają one istotną rolę w kontrolowaniu płynności błon i chronią komórki bakteryjne przed uszkodzeniem na skutek zamarzania. Tego rodzaju substancje mają zdolność wychwytywania wolnych rodników, dlatego są w centrum zainteresowania laboratoriów produkujących preparaty kosmetyczne do pielęgnacji skóry o działaniu przeciwstarzeniowym. Na rynku obowiązują jednak ścisłe normy i restrykcje, które definiują zawartość zanieczyszczeń pochodzących z syntezy chemicznej. Nasze odkrycia wskazują, że przemysł kosmetyczny mógłby na dużo większą skalę korzystać z substancji pochodzenia naturalnego, dodaje Michał Styczyński. Niezwykle ważną cechą bakterii antarktycznych jest fakt, że łatwo jest je hodować. Ze względu na ich fizjologię organizmy te mają niewielkie wymagania odnośnie temperatury i dostępności pokarmu. Nie ma żadnych większych przeszkód natury technologicznej, by tą drogą pozyskiwać naturalne substancje na skalę przemysłową. Bakterie z Antarktydy mogą też wspomagać wzrost roślin. Mogą zwiększać dostępność mikroelementów, co można wykorzystać w rolnictwie. W praktyce można więc wykorzystać szczepy bakterii do zwiększania jakości i biomasy roślin uprawnych, chronić je przed chorobami, a także redukować ilość stosowanych nawozów chemicznych, wyjaśnia naukowiec. Komercjalizacją odkryć ma zająć się spółka Biotemist, utworzona przy Uniwersytecie Warszawskim. « powrót do artykułu
  15. NASA wybrała trzy firmy, które mają opracować koncepcje komercyjnych stacji kosmicznych i innych podobnych instalacji w przestrzeni pozaziemskiej. Podpisanie umów Space Act Agreement ma na celu ułatwienie rozwoju komercyjnego rynku na niskiej orbicie okołoziemskiej. Wybrane przedsiębiorstwa otrzymają w pierwszym etapie finansowania 415,6 miliona dolarów. Umowy Space Act Agreement zostały podpisane z Blue Origin (umowa opiewa na 130 milionów USD), Nanoracks LLC (160 milionów USD) oraz Notrthrop Grumman Systems Corporation (125,6 miliona USD). Celem NASA jest zapewnienie stałej obecności USA na niskiej orbicie okołoziemskiej nie tylko na Międzynarodowej Stacji Kosmicznej, ale również na innych platformach. Współpraca i dofinansowanie przez NASA ma zachęcić prywatne amerykańskie firmy do budowy niezależnych komercyjnych stacji kosmicznych, z których będą mogły korzystać zarówno agendy rządowe, jak i klienci prywatni. Prywatne firmy zapewniają obecnie transport na niską orbitę okołoziemską. Teraz nawiązujemy z amerykańskimi przedsiębiorstwami współpracę, której celem jest powstanie miejsc, które ludzie będą mogli odwiedzać, żyć na nich i pracować. Dla dobra ludzkości NASA nadal będzie wyznaczała więc drogi w kosmosie, ułatwiając jednocześnie komercyjną działalność w przestrzeni kosmicznej, powiedział Bill Nelson, administrator NASA. W ramach obecnie podpisanych umów NASA dofinansuje pierwszą z dwóch faz projektu przeniesienia aktywności z Międzynarodowej Stacji Kosmicznej do stacji komercyjnych. W pierwszej fazie prywatne firmy we współpracy z NASA mają przygotować projekty stacji kosmicznych umieszczonych na niskiej orbicie okołoziemskiej. Stacje te mają spełniać wymagania zarówno sektora rządowego jak i prywatnego. Faza tam ma trwać jeszcze w roku 2025. Pierwsza z wymienionych firm, Blue Origin, współpracuje już z Sierra Space nad komercyjną stacją Orbital Reef, która ma zostać uruchomiona jeszcze w obecnej dekadzie. Partnerami tego projektu są m.in. Boeing, Redwire Space, Genesis Engineering oraz Arizona State University. Projekt Orbital Reef zakłada, że będzie to park biznesowy o wielorakim przeznaczeniu. Stacja ma służyć różnym potrzebom biznesowym i ma mieć możliwość rozbudowywania w miarę pojawiania się nowych potrzeb. Ma zostać przygotowana pod kątem sektora prywatnego, rządowego i naukowego. Z kolei Nanoracks, we współpracy z firmami Voyager Space i Lockheed Martin, pracuje nad Starlabem. Ta stacja ma być zbudowana w całości na Ziemi i zostać wystrzelona w 2027 roku. Ma to być komercyjna stacja przeznaczona do prowadzenia zaawansowanych badań naukowych. Pomieści do czterech astronautów i będzie stale zamieszkana. Na jej pokładzie znajdzie się George Washington Carver Science Park składający się z czterech głównych elementów: laboratorium biologicznego, laboratorium hodowli roślin, laboratorium badań fizycznych i laboratorium badań materiałowych. Ponadto znajdzie się tam też miejsce na prowadzenie innych prac badawczych. Starlab zostanie zaprojektowana tak, by możliwe było dołączanie do niej kolejnych modułów badawczych, jeśli pojawiłaby się taka potrzeba. Wydaje się, że najbardziej ambitne plany ma Northrop Grumman. Firma pracuje nad modułową stacją kosmiczną, w której wykorzysta doświadczenie zdobyte w ciągu dekad współpracy z NASA. W skład stacji wejdą m.in. już sprawdzone elementy, jak pojazd towarowy Cygnus zaopatrujący obecnie Międzynarodową Stację Kosmiczną. Stacja ma służyć zarówno celom naukowym, turystycznym jak i zadaniom przemysłowym. Jej projekt ma umożliwiać rozbudowę poza zadania określone na początku. Mają się na niej znaleźć liczne miejsca dokujące, habitaty, laboratoria czy urządzenia do generowania sztucznej grawitacji. Wiadomo, że partnerem Northropa Grummana jest firma Dynetics. O innych partnerach mamy dowiedzieć się w przyszłości. W drugiej fazie współpracy NASA z wymienionymi przedsiębiorstwami odbędzie się proces certyfikowania komercyjnych stacji kosmicznych na potrzeby ich używania przez astronautów NASA oraz potencjalne złożenie przez NASA ofert i podpisanie komercyjnych umów na korzystanie przez NASA z tych stacji oraz świadczenie przez ich właścicieli usług na rzecz Agencji. Ma to obniżyć koszty funkcjonowania NASA i zwolnić ją z konieczności posiadania własnej infrastruktury na niskiej orbicie okołoziemskiej, dzięki czemu w większym stopniu będzie mogła skupić na misji Artemis, czyli działaniach na orbicie Księżyca i jego powierzchni oraz przygotowaniach do załogowej misji na Marsa. NASA przewiduje, że w przyszłości będzie potrzebowała możliwości stałego pobytu i treningu co najmniej 2 swoich astronautów na niskiej orbicie, wsparcia z niskiej orbity dla narodowego laboratorium kosmicznego oraz możliwości prowadzenia na niskiej orbicie około 200 projektów naukowych rocznie. Liczy na to, że plany te będzie mogła zrealizować dzięki komercyjnym partnerom. NASA chce doprowadzić do sytuacji, w której prywatny biznes będzie posiadał na niskiej orbicie okołoziemskiej własną infrastrukturę i będzie nią zarządzał. Dzięki temu, że NASA będzie jednym z wielu klientów, Agencja liczy na obniżenie kosztów własnej działalności na niskiej orbicie okołoziemskiej i skierowaniu zasobów na eksplorację dalszych części kosmosu. « powrót do artykułu
×
×
  • Create New...