-
Liczba zawartości
37640 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Po 16 latach badań opublikowano wyniki eksperymentu, który miał poszukać luk w ogólnej teorii względności Einsteina. Teorię poddano testom w ekstremalnych warunkach, wykorzystując w tym celu parę pulsarów, które obserwowano przez siedem różnych teleskopów. Teraz, na łamach Physical Review X naukowcy informują o zaobserwowaniu nowych zjawisk relatywistycznych. Ich istnienie teoretycznie przewidziano wcześniej, ale dopiero teraz udało się je zaobserwować. Wielokrotnie udowodniono, że ogólna teoria względności (OTW) Einsteina się sprawdza, jednak wiemy, że nie mówi ona ostatniego słowa w dziedzinie teorii grawitacji. Ponad 100 lat po jej sformułowaniu naukowcy wciąż poszukują w niej luk, mówi doktor Robert Ferdmanz University of East Anglia. Uczony przypomina, że OTW jest niekompatybilna z oddziaływaniami podstawowymi opisywanymi przez mechanikę kwantową. Dlatego też uczeni na całym świecie poddają teorię Einsteina wymagającym testom, by znaleźć jej słabości. Odkrycie znacznego odejścia od OTW byłoby ważnym odkryciem, które otworzyłoby nam drzwi do nowej fizyki, wykraczającej poza nasze aktualne rozumienie wszechświata. A to z kolei mogłoby ewentualnie doprowadzić do opracowania teorii unifikującej wszystkie podstawowe siły natury. Dlatego też zespół pod kierunkiem Michaela Kramera z Instytutu Radioastronomii im. Maxa Plancka w Bonn, rozpoczął przed laty jeden z najbardziej rygorystycznych testów teorii względności. Pulsar to wysoce namagnetyzowana wirująca kompaktowa gwiazda, która z biegunów magnetycznych emituje promieniowanie elektromagnetyczne. Masa pulsarów naszych jest większa od masy Słońca, ale ich średnica wynosi zaledwie około 20 kilometrów. Są to więc niewiarygodnie gęste obiekty, które jak latarnie morskie omiatają przestrzeń kosmiczną za pomocą fal radiowych, wyjaśnia Ferdman. Naukowcy postanowili przyjrzeć się podwójnemu pulsarowi, który odkryli w 2003 roku. To najbardziej precyzyjne laboratorium do testowania teorii Einsteina. Teorii, która powstała, gdy ani nie wiedziano o istnieniu takich gwiazd, ani nie istniała technologia pozwalająca na ich badanie, mówią uczeni. Zwykle pulsar podwójny składa się z pulsara i obiektu typu gwiazdowego (np. białego karła, gwiazdy neutronowej). Uczeni wzięli na warsztat niezwykle rzadki typ pulsara podwójnego, w którym oba obiekty są pulsarami. Gwiazdy wędrują wokół siebie wykonując pełne okrążenie w ciągu 147 sekund, pędząc przy tym z prędkością około 1 miliona km/h. Jedne z obserwowanych pulsarów wiruje z prędkością około 44 razy na sekundę. Jego towarzysz jest młodszy i wiruje z prędkością 2,8 obrotu na sekundę. Jednak to ruch pulsarów względem siebie tworzy idealne laboratoriów do testów teorii grawitacji. Układ PSR J0737–3039A/B obserwowano za pomocą siedmiu teleskopów z USA, Australii, Francji, Niemiec, Holandii i Wielkiej Brytanii. Dzięki temu osiągnęli niezwykłą precyzję pomiarową. Byliśmy w stanie przetestować kamień węgielny teorii Einsteina, fale grawitacyjne, z dokładnością 1000-krotnie większą niż współczesne wykrywacze fal grawitacyjnych i 25-krotnie większą niż badania pulsara podwójnego Hulse-Taylora (PSR B1913+16), za którego odkrycie i analizę Hulse i Taylor otrzymali Nagrodę Nobla, cieszy się profesor Kramer. Analizowaliśmy drogę fotonów fal radiowych emitowanych przez pulsar i badaliśmy ją w silnym polu grawitacyjnym drugiego pulsara. Po raz pierwszy obserwowaliśmy, że fotony były spowalniane nie tylko przez silne zakrzywienie czasoprzestrzeni w pobliżu towarzyszącego pulsara, ale również, że są one odginane o 0,04 stopnia. Nigdy wcześniej tego nie obserwowano, mówi profesor Ingrid Stairs z University of British Columbia. Dzięki temu, że wykorzystano tak niezwykły obiekt jak pulsar, który bardzo szybko się obraca, jest o 30% bardziej masywny od Słońca i ma zaledwie 24 kilometry średnicy, można było przetestować wiele koncepcji OTW. Oprócz fal grawitacyjnych i rozchodzenia się światła mogliśmy nawet zmierzyć dylatację czasu w polu grawitacyjnym. Gdy badaliśmy emisję elektromagnetyczną pulsara musieliśmy wziąć pod uwagę słynne równanie E=mc2. Okazało się, że nasz pulsar traci w ciągu sekundy aż 8 milionów ton masy. Jednak tylko pozornie jest to dużo. To zaledwie 3 części na tysiąc miliardów miliardów jego masy całkowitej, dodaje profesor Dick Manchester z australijskiego CSIRO. Naukowcy zauważyli też kolejny efekt relatywistyczny. Z dokładnością do 1 części na milion zmierzyli zmiany orientacji orbity pulsara. Efekt ten znany jest też z orbity Merkurego, jednak w przypadku badanego pulsara jest 140 000 razy silniejszy. Połączenie różnych technik pomiarowych pozwoliło też stwierdzić, że odległość pomiędzy Ziemią a pulsarem podwójnym wynosi 2400 lat świetlnych i zawęzić margines błędu do 8%. To bardzo istotne, gdyż wyniki wielu badań odległych obiektów były bardzo niepewne ze względu na niepewność odnośnie ich położenia. Zebraliśmy o tym systemie wszelkie możliwe informacje i na tej podstawie zbudowaliśmy perfekcyjnie spójny obraz, wykorzystując w tym celu wiele dziedzin fizyki: fizykę jądrową, grawitację, fizykę ośrodka międzygwiezdnego, fizykę plazmy i wiele innych, dodaje profesor Bill Coles z University of California San Diego. Uzyskane w ten sposób wyniki zgadzają się i uzupełniają wyniki innych eksperymentów. Osiągnęliśmy niespotykaną dotychczas precyzję. Przyszłe eksperymenty, z użyciem jeszcze większych teleskopów, pokażą jeszcze więcej, mówi Kramer. « powrót do artykułu
-
Na dniach ruszają Wrocławskie Seminaria Ornitologiczne Zakładu Ekologii Behawioralnej Uniwersytetu Wrocławskiego. Jest to wydarzenie z ponad 40-letnią tradycją. Po raz pierwszy seminaria będą miały formułę spotkań online. Pierwsze, poświęcone rozrodowi błotniaka stawowego (Circus aeruginosus) na stawach hodowlanych, odbędzie się już 16 grudnia. Inicjatorem tych spotkań był prof. Andrzej Dyrcz, który zresztą nadal jest gospodarzem seminariów. Na początku były to kameralne spotkania (pierwsze odbyło się w 1978 lub 1979 r.), które z czasem przerodziły się w otwarte dla publiczności seminaria na salach wykładowych w dawnym Instytucie Zoologicznym UWr. Szesnastego grudnia dr hab. Zbigniew Kasprzykowski, mgr Urszula Zaremba i prof. dr hab. Artur Goławski z Uniwersytetu Przyrodniczo-Humanistycznego w Siedlcach opowiedzą o rozrodzie błotniaka stawowego na stawach hodowlanych. Badania prowadzono przez 5 lat na stawach rybnych na wschodzie Polski. Jak wyjaśniono w zapowiedzi wydarzenia, monitorowano 94 lęgi błotniaków stawowych, od momentu złożenia jaj do wylotu piskląt. Najważniejsze problemy badawcze, to: wpływ czynników środowiskowych na przeżywalność lęgów oraz znaczenie statusu pisklęcia w kontekście jego wzrostu i kondycji. Wyniki są wstępem do wyjaśniania zjawiska kainizmu u ptaków drapieżnych. Kolejne seminaria zaplanowano już na 2022 r. Oto pełen program: 13 I - Liczenia punktowe a metoda kartograficzna – jak oceniać liczebność mysikrólika i zniczka w okresie lęgowym? – dr Grzegorz Neubauer, mgr Julia Barczyk, dr Marta Cholewa (Wrocław); 27 I - Dlaczego trzcinniczki i inne ptaki rozwodzą się? – dr hab. Lucyna Hałupka (Wrocław); 17 II - Wierny jak rudzik? – mgr Oliwia Karpińska (Siedlce); 24 II - Coevolution between Cuckoo and hosts – dr Marcel Honza (Brno); 10 III - Kodowanie informacji w głosach dzięciołów – dr hab. Ewa Węgrzyn (Rzeszów); 24 III - tytuł zostanie podany w terminie późniejszym – dr Marcin Tobółka (Poznań). Półtoragodzinne seminaria będą się odbywać w czwartki, początek o godzinie 17. Zachęcamy do udziału! Jak wziąć udział w spotkaniach? Organizatorzy apelują, by nie zwlekać z zapisami na ostatnią chwilę i wyjaśniają, że seminaria będą odbywały się na platformie Teams. Aby dostać zaproszenie na spotkanie, należy wypełnić formularz. Na podany adres zostanie wysłany link do spotkania. Można się zapisać od razu na wszystkie spotkania. Tutaj znajdziecie formularz zapisów na webinarium 16 grudnia. « powrót do artykułu
-
W zbiorach Muzeum Narodowego we Wrocławiu (MNW) od 65 lat znajduje się lustro. Jak podkreśliła Elżbieta Gajewska-Prorok, kustoszka w Dziale Szkła, to jeden z wielu zabytków, które w nieznanych okolicznościach [i często w złym stanie, związanym z nieodpowiednim przechowywaniem] trafiły do zbiorów muzealnych kilka lat po zakończeniu wojny. Tajemnice związane z jego dziejami udało się ostatnio częściowo odtworzyć. Rama bez tafli Przed konserwacją i restauracją lustro z MNW było ramą bez tafli. Ośmioboczna rama wykonana została z drewna, pokryta folią cynową i obłożona cienkimi lustrzanymi szybkami ze stylizowaną dekoracją forlaną rytowaną na awersie oraz formowanymi na gorąco elementami szklanymi w kolorach różowym i żółtym: skręcanymi spiralnie pręcikami, karbowanymi wstęgami i rozetami kwietnymi. Wstęgi z kwiatami, umieszczone w partiach załamania ramy, maskowały połączenia lustrzanych szybek. Płytkom nadano właściwości lustrzane za pomocą podlewy amalgamatu rtęci i cyny. Metodę polegającą na podlewaniu tafli szklanych amalgamatem (stopem rtęci z cyną bądź ołowiem) opracowano w XV w. w Wenecji. Lustra rtęciowe wytwarzano w Europie niemal do połowy XIX w. Później z warstwy rtęciowej zrezygnowano na rzecz warstwy srebrnej. W pewnym momencie wprowadzono również związki innych białych metali, np. platyny. Konserwacja we wrocławskiej pracowni Na początku br. lustro ze zbiorów MNW trafiło do pracowni Sławomira Oleszczuka, który zajmuje się konserwacją szkła zabytkowego. Odnowiony zabytek można oglądać na wystawie stałej "Sztuka europejska XV-XX wieku". Przeprowadzone przeze mnie wstępne badania zabytku przed konserwacją ujawniły fragmenty gazet francuskich: z 25 lipca 1801 (10 ͤ Anne 7 Thermidor) oraz z 1889, stanowiących podkład lustrzanych płytek. Na tej podstawie można określić powstanie zwierciadła najwcześniej na koniec 1801 r. - ujawniła Gajewska-Prorok. Burzliwe dzieje Republiki Weneckiej Warto przypomnieć, że w 1796 r. Republika Wenecka została zajęta przez Francuzów, a w 1797 r. zlikwidowana (pokój w w Campo Formio), w wyniku czego większość jej ziem przypadła Austrii. Po kilku latach, w 1805 roku, Napoleon odebrał Wenecję Austrii, aby zintegrować ją z królestwem Włoch, którego został królem. Po klęsce Napoleona i kongresie wiedeńskim, w roku 1815 miasto zostało ponownie włączone do Cesarstwa Austriackiego i stało się częścią ziem Habsburgów do 1848 roku - tłumaczy kustoszka. Na podstawie znalezionych gazet wiadomo, że lustro powstało w Wenecji w drugiej połowie 1801 albo po 1805 r., gdy nie było problemu z dostępem do francuskich gazet. Obecność fragmentu z 1889 r. wskazuje zaś na naprawę lustra pod koniec XIX w. we Francji. Gajewska-Prorok dywaguje, że być może już wtedy zwierciadło znajdowało się w obiegu antykwarycznym. Weneckie lustro oktogonalne w lustrzanych ramach Zwierciadło ze zbiorów MNW należy do typu weneckich luster oktagonalnych w szerokich lustrzanych ramach; został on wypracowany w Wenecji w połowie XVII w. Obecnie ośmioboczne zwierciadła w lustrzanych ramach z formowanymi na gorąco nakładkami są najbardziej rozpoznawalną formą zwierciadła weneckiego. W pracowniach luster na Murano wytwarza się do dzisiaj metodami tradycyjnymi zwierciadła w tym typie. « powrót do artykułu
-
- zwierciadło
- lustro
-
(i 5 więcej)
Oznaczone tagami:
-
Świat zmaga się z rosnącym kryzysem antybiotykooporności. Nadmierne używanie antybiotyków w medycynie, przemyśle spożywczym czy kosmetycznym, prowadzi do pojawiania się bakterii opornych na działanie antybiotyków. Przedostające się do środowiska antybiotyki, a w niektórych rzekach ich stężenie 300-krotnie przekracza bezpieczny poziom, wymuszają na patogenach ciągłą ewolucję w kierunku antybiotykooporności. Nawet w jelitach dzieci odkryto setki bakteryjnych genów antybiotykooporności. Bez nowych antybiotyków lub innych rozwiązań realny staje się scenariusz, w którym ludzie znowu zaczną umierać z powodu zwykłych zakażeń czy niegroźnych obecnie chorób. Jedną ze strategii spoza repertuaru środków chemicznych jest wykorzystanie metod fizycznych, jak światło ultrafioletowe, promieniowanie gamma czy ciepło. Metody są skuteczne w dezaktywowaniu patogenów, jednak prowadza do poważnych uszkodzeń tkanek, przez co nie mogą być stosowane w praktyce klinicznej. Dlatego też część naukowców zainteresowała się światłem widzialnym. W niskim natężeniu jest ono bezpieczne dla tkanek, a jednocześnie posiada zdolność dezaktywacji bakterii, wirusów i innych patogenów. Zajmujących się tym problemem specjalistów szczególnie interesują lasery femtosekundowe, emitujące ultrakrótkie impulsy światła, których czas trwania liczy się w femtosekundach (1 femtosekunda to 1/1 000 000 000 000 000 sekundy). Naukowcy z Washington University School of Medicine wykazali, że ultrakrótkie impulsy w zakresie światła widzialnego – o długości fali 415–425 nm – mogą być efektywną bronią przeciwko antybiotykoopornym bakteriom i ich przetrwalnikom. Naukowcy przetestowali laser na na metycylinoopornym gronkowcu złocistym (MRSA) oraz E. coli. Bakterie te są wysoce odporne na działanie licznych środków fizycznych i chemicznych. Laser testowano też na przetrwalnikach Bacillus cereus, które mogą powodować zatrucia pokarmowe i są w stanie przetrwać gotowanie. Testy wykazały, że laser dezaktywuje 99,9% bakterii poddanych jego działaniu. Naukowcy wyjaśniają, że przy pewnej mocy ich laser zaczyna dezaktywować wirusy. Po zwiększeniu mocy robi to samo z bakteriami. Jego światło pozostaje jednak bezpieczne dla ludzkich tkanek. Dopiero zwiększenie mocy o cały rząd wielkości zabija komórki. Zatem istnieje pewne okienko terapeutyczne, które pozwala na jego bezpieczne wykorzystanie. Ultrakrótkie impulsy laserowe dezaktywują patogeny, nie szkodząc ludzkim białkom i komórkom. Wyobraźmy sobie, że przed zamknięciem rany, operujący chirurg mógłby zdezynfekować ją za pomocą lasera. Myślę, że już wkrótce technologia ta może być wykorzystywana do dezynfekcji produktów biologicznych in vitro, a w niedalekiej przyszłości do dezynfekcji krwioobiegu. Pacjentów można by poddać dializie i jego krew przepuścić przez laserowe urządzenie ją dezynfekujące, mówi główny autor badań Shew-Wei Tsen. Tsen wraz z profesorem Samuelem Achilefu od lat badają zdolność ultrakrótkich impulsów laserowych do zabijania patogenów. Już wcześniej wykazali, że dezaktywują one wirusy i „zwykłe” bakterie. Teraz, we współpracy z profesor mikrobiologii Shelley Haydel z Arizona State University, rozszerzyli swoje badania na przetrwalniki oraz antybiotykooporne bakterie. Wirusy i bakterie zawierają gęsto upakowane struktury proteinowe. Laser dezaktywuje je wprowadzając te struktury w tak silne wibracje, że niektóre z wiązań w proteinach pękają. Taki pęknięty koniec stara się jak najszybciej z czymś połączyć i najczęściej łączy się z inną strukturą, niż ta, z którą był dotychczas powiązany. W ten sposób wewnątrz patogenu pojawiają się nieprawidłowe połączenia wewnątrz protein i pomiędzy nimi, co powoduje, że białka nie funkcjonują prawidłowo i patogen przestaje funkcjonować. Wszystko, co pochodzi od ludzi czy zwierząt może zostać zanieczyszczone patogenami. Wszelkie produkty krwiopochodne, zanim zostaną wprowadzone do organizmu pacjenta, są skanowane pod kątem obecności patogenów. Problem jednak w tym, że musimy wiedzieć, czego szukamy. Jeśli pojawiłby się nowy wirus krążący we krwi, jak np. miało to miejsce w latach 70. i 80. w przypadku wirusa HIV, to mógłby dostać się z takimi preparatami do krwioobiegu. Ultrakrótkie impulsy lasera to metoda, która pozwali upewnić się, że produkty krwiopochodne są wolne od patogenów. Zarówno tych znanych, jak i nieznanych, mówi Tsen. Więcej na temat badań grupy Tsena przeczytamy na łamach Journal Biophotonic. « powrót do artykułu
-
W 2013 roku na północy Chin w pobliżu miasta Turfan znaleziono grób około 30-letniego mężczyzny, a w nim niemal kompletną skórzaną zbroję łuskową. Zachowała się ona tylko dzięki wyjątkowo suchemu klimatowi. Badania niezwykłego znaleziska podjął się międzynarodowy zespół z Niemiec, Rosji, USA i Chin prowadzony przez Patricka Wertmanna z Uniwersytetu w Zurichu. Zakończone właśnie badania wykazały, że zbroja pochodzi sprzed ok. 2700 lat i nie jest produktem miejscowym. Zbroje łuskowe składały się z metalowych łusek przyszytych do materiału. Chroniły one wojownika, nie krępując jego ruchów. Początkowo były bardzo cenne. Ze względu na koszt materiału oraz żmudny proces produkcyjny, pozwolić mogła sobie na nie elita. Bardzo rzadko znajduje się je pochowane wraz z właścicielem. Z czasem jednak, gdy pojawiły się wielkie imperia i ich armie, zbroje takie zaczęto wytwarzać bardziej masowo, korzystając przy tym z tańszych materiałów jak skóra. Na podstawie budowy i szczegółów konstrukcyjnych zbroi naukowcy doszli do wniosku, że powstała ona w imperium nowoasyryjskim pomiędzy rokiem 786 p.n.e. a 543 p.n.e. Zbroja była złożona z około 5444 mniejszych i 140 większych łusek i wraz z podściółką oraz pasami ściągającymi ważyła 4-5 kilogramów. Przypominała kamizelkę, chroniącą przód tułowia, biodra, boki oraz dół pleców. Można było ją szybko założyć bez niczyjej pomocy, a dzięki pasom można ją było dostosować do różnych wielkości ciała. Zbroje takie były produkowane w dużej liczbie, mówi Patrick Wertmann. Wraz z rozpowszechnieniem się rydwanów w IX wieku pojawiła się specjalna zbroja dla jeźdźców. Później stała się ona standardowym wyposażeniem wojsk imperium nowoasyryjskiego. Znaleziona w Chinach zbroja, chociaż nie jest identyczna, częściowo pod względem stylistycznym i funkcjonalnym przypomina zbroję o nieznanym pochodzeniu przechowywanym w Metropolitan Museum of Art w Nowym Jorku. Naukowcy nie wykluczają, że są to zbroje różnych jednostek tej samej armii. Ta z Met Museum mogła być zbroją piechura, ta znaleziona w Chinach była zbroją jeźdźca. Nie wiadomo, czy zbroja z Chin należała do miejscowego najemnika walczącego w armii asyryjskiej, który przywiózł ją do domu czy też była zdobyczą wojenną. Nawet mimo tego, że nie jesteśmy stwierdzić, w jaki sposób zbroja łuskowa trafiła z Asyrii na północ Chin, jest ona jednym z rzadkich dowodów transferu technologii pomiędzy wschodem a zachodem Eurazji na początkach pierwszego tysiąclecia przed naszą erą, mówi Wertmann. Szczegóły badań opublikowano na łamach Quaternary International. « powrót do artykułu
-
Amerykański Narodowy Instytut Alergii i Chorób Zakaźnych (NIAID) poinformował, że wstępne badania szczepionki mRNA przeciwko HIV dały pozytywne rezultaty. Badania,przeprowadzone na myszach oraz nie człowiekowatych wykazały, że szczepionka jest bezpieczna i wygenerowała pożądaną reakcję przeciwciał i komórek w odpowiedzi na wirusa podobnego do HIV. Rezusy, którym podano pierwszą dawkę szczepionki, a następnie dawki przypominające, były narażone na 79% mniejsze ryzyko infekcji SHIV (simian-human immunodeficiency virus) niż zwierzęta niezaszczepione. Pomimo czterech dekad poszukiwań, szczepionka przeciwko HIV wciąż nie istnieje. Ta eksperymentalna szczepionka mRNA ma liczne cechy, dzięki którym może pokonać niedociągnięcia innych eksperymentalnych szczepionek przeciwko HIV. To obiecująca technologia, mówi dyrektor NIAID, Anthony Fauci. Eksperymentalna szczepionka przeciwko HIV zawiera mRNA kodujące dwie kluczowe proteiny wirusa HIV – Env i Gag. Po domięśniowym podaniu komórki zaszczepionych zwierząt wytwarzają cząstki podobne do wirusa (VLP), zawierające Env na swojej powierzchni. Jako, że nie mają pełnego materiału genetycznego nie mogą się ani namnażać, ani wywołać choroby. Jednak wywołują reakcję ze strony układu odpornościowego. Podczas badań na myszach po podaniu dwóch dawek szczepionki przeciwciała pojawiły się u wszystkich zwierząt. Proteina Env, którą wytworzyły myszy z instrukcji przekazanych przez mRNA zawarte w szczepionkach, był bardzo podobny do Env wytwarzanej przez wirusa HIV. To duży postęp w porównaniu z wcześniejszymi szczepionkami. Prezentacja na powierzchni każdej VLP licznych kopii autentycznej osłonki wirusa HIV to jedna z olbrzymich zalet naszej szczepionki. Dzięki temu zaszczepienie symuluje prawdziwą infekcję i może odegrać olbrzymią rolę w uzyskaniu pożądanej reakcji ze strony układu odpornościowego, mówi główny autor badań, doktor Paolo Lusso. Po obiecujących testach na myszach, szczepionka Env-Gag VLP mRNA była testowana na makakach. Na różnych grupach zwierząt zastosowano różne schematy podawania szczepionki. Jednak każdej grupie po podaniu oryginalnej szczepionki przez rok podawano dawki przypominające składające się z Gag mRNA i ENV mRNA wirusów HIV z dwóch innych kladów niż ten, którego białka wykorzystano w oryginalnej szczepionce. Używano różnych wariantów wirusa, by jak najbardziej uwrażliwić układ odpornościowy na najbardziej zachowywany pomiędzy wirusami obszar Env. Mimo, że podawano wysokie dawki mRNA zwierzęta dobrze tolerowały szczepionkę, pojawiły się tylko łagodne przejściowe skutki uboczne, jak np. utrata apetytu. Do 58. tygodnia wszystkie zwierzęta posiadały w organizmach mierzalny poziom przeciwciał, które atakowały większość z 12 testowanych szczepów HIV. Od początku 60. tygodnia wszystkie zaszczepione zwierzęta oraz niezaszczepioną grupę kontrolną, co tydzień wystawiano wirusa SHIV, podając im go do nosa. Po 13 tygodniach 2 z 7 zaszczepionych makaków wciąż nie były zainfekowane. Makaki, które nie były szczepione, zaraziły się średnio po 3 tygodniach. Makaki, które były zaszczepione i się zaraziły, zarażały się średnio po 8 tygodniach. Wirusa SHIV użyto, gdyż HIV-1 nie replikuje się u makaków. Obecnie pracujemy nad udoskonaleniem zarówno samej szczepionki, jak i protokołu szczepień. To powinno zwiększyć efektywność naszej szczepionki, dzięki czemu potrzebna będzie mniejsza liczba dawek przypominających. Jeśli szczepionka okaże się bezpieczna i efektywna, przygotujemy się do I fazy badań klinicznych na zdrowych dorosłych ochotnikach, mówi doktor Lusso. « powrót do artykułu
- 3 odpowiedzi
-
- HIV
- szczepionka
-
(i 1 więcej)
Oznaczone tagami:
-
Na EK Draconis zauważono gigantyczny koronalny wyrzut masy. Był on 10-krotnie potężniejszy niż tego typu zjawiska zaobserwowane na Słońcu. Może stanowić dla nas poważne ostrzeżenie, gdyż EK Draconis to gwiazda podobna do Słońca. Silny koronalny wyrzut masyw kierunku Ziemi mógłby zakończyć się katastrofą dla naszej coraz bardziej stechnicyzowanej cywilizacji. Scenariusz takiej katastrofy opisywaliśmy już wcześniej. Koronalny wyrzut masy może mieć poważne skutki dla Ziemi i ludzi, mówi główny autor badań, Yuta Notsu z University of Colorado, Boulder. A teraz okazuje się, że takie zjawiska mogą być znacznie silniejsze niż sądziliśmy. Notsu i jego koledzy obserwowali EK Draconis, gwiazdę będącą młodszą wersją Słońca. Znajduje się ona 111 lat świetlnych od Ziemi, w Gwiazdozbiorze Smoka. W kwietniu ubiegłego roku zauważyli olbrzymi koronalny wyrzut masy. Taki wyrzut może – przynajmniej teoretycznie – mieć również miejsce na Słońcu, mówi uczony. Nasze badania pozwolą nam lepiej zrozumieć, jak przez miliardy lat koronalne wyrzuty masy wpływały na Ziemię czy Marsa". Koronalne wyrzuty masy to olbrzymie obłoki plazmy wyrzucane w przestrzeń międzyplanetarną. Są jednym z najważniejszych czynników kształtujących pogodę kosmiczną. Plazma pędzi z prędkością sięgającą tysięcy kilometrów na sekundę, a gdy dotrze do Ziemi zaburza magnetosferę, może uszkadzać satelity i sieci energetyczne. Koronalne wyrzuty masy często pojawiają się po rozbłyskach słonecznych. W 2019 roku Notsu i jego zespół opublikowali pracę naukową, w której poinformowali o zaobserwowaniu rozbłysków nawet setki razy potężniejszych niż te obserwowane na Słońcu. Wówczas zaczęli się zastanawiać, czy takim rozbłyskom mogą towarzyszyć równie silne koronalne wyrzuty masy. Obserwowane przez nas superrozbłyski były znacznie silniejsze niż znane nam ze Słońca. Podejrzewaliśmy więc, że mogą wiązać się ze znacznie potężniejszymi koronalnymi wyrzutami masy. Jednak do niedawna było to tylko przypuszczenie, przyznaje uczony. Żeby sprawdzić to przypuszczenie naukowcy zajęli się obserwacją DK Draconis. To jakby młodsza wersja Słońca. Gwiazda ta liczy sobie zaledwie 100 milionów lat. Wygląda tak, jak Słońce przed 4,5 miliardami lat. Uczeni obserwowali gwiazdę za pomocą Transiting Exoplanet Survey Satellite NASA i SEIMEI Telescope należącego do Uniwersytetu w Kioto. Piątego kwietnia ubiegłego roku zaobserwowali olbrzymi rozbłysk na DK Draconis. A około 30 minut później zauważyli początek koronalnego wyrzutu masy. Mogli obserwować tylko moment jego narodzin, ale już on robił wrażenie. Wyrzut był olbrzymi, a uwolniony z powierzchni gwiazdy materiał poruszał się z prędkością około 1,5 miliona kilometrów na godzinę. Notsu uspokaja jednak, że tego typu zjawiska zdarzają się niezwykle rzadko, a i tak znacznie częściej mają miejsce w przypadku gwiazd młodych. Ich badanie może nam sporo powiedzieć o historii Ziemi i Marsa. Koronalne wyrzuty masy mogły bowiem zadecydować o losie obu planet u zarania Układu Słonecznego. « powrót do artykułu
-
- DK Draconis
- koronalny wyrzut masy
-
(i 1 więcej)
Oznaczone tagami:
-
Podczas badań archeologiczno-architektonicznych na Ostrowie Tumskim, prowadzonych w ramach przebudowy oraz remontu Muzeum Archidiecezjalnego we Wrocławiu, na dziedzińcu wewnętrznym między Domem Kapituły, Muzeum Archidiecezjalnym a biblioteką kapitulną odkryto klatkę schodową z XVII-XIX w. i relikty budynku z XIV w. Wojewódzki Urząd Ochrony Zabytków we Wrocławiu poinformował, że klatka schodowa prowadziła do piwnicy Domu Kapituły (niewykluczone, że pełniła również funkcję zadaszenia wejścia). Oprócz tego natrafiono na dobrze zachowany bruk z rynsztokiem oraz wspomniane na początku relikty budynku z XIV w. (najpewniej gospodarczego). Jak zapowiada Konserwator, bruk zostanie zachowany i odtworzony w takiej samej formie z oryginalnego materiału po badaniach całego dziedzińca. Prace będą nadal prowadzone; do zbadania pozostała bowiem jeszcze większa część dziedzińca. Prace wykopaliskowe obejmują także piwnice Domu Kapituły. Jak napisał Andrzej Zwoliński z Gazety Wrocławskiej, prowadzone są tam badania stratygraficzne - na ich podstawie odkryto historyczne malowidła i miejsca po pierwotnych, dzisiaj już zamurowanych, przejściach. Część przejść zostanie odkuta i przywrócona do pierwotnej funkcji, część będzie wyeksponowana. Na zdjęciach udostępnionych przez Urząd na Facebooku widać np. przejście między piwnicą a parterem, które zostało zamurowane w czasach nowożytnych. « powrót do artykułu
- 1 odpowiedź
-
- Ostrów Tumski
- Wrocław
- (i 5 więcej)
-
Naszym rozmówcą jest dr n. med. Tomasz Stępień, adiunkt w Instytucie Psychiatrii i Neurologii i koordynator wyjątkowego projektu Digital Brain. Doktor Stępień specjalizuje się w neuropatologii, jest autorem licznych prac naukowych z tej dziedziny. Poza tym opiekuje się największym zbiorem mózgów na świecie. Jest Pan koordynatorem projektu Digital Brain. Na czym on polega? Kto będzie mógł korzystać z cyfrowych zasobów platformy? Digital Brain to projekt digitalizacji, gromadzonych od przeszło pół wieku, zasobów Instytutu Psychiatrii i Neurologii. Wychodząc naprzeciw potrzebom środowiska naukowego i medycznego, przy współpracy z Centrum Projektów Polska Cyfrowa i Ministerstwem Cyfryzacji, powołano do życia projekt o nazwie Digital Brain. Głównym celem przyświecającym autorom projektu było zdigitalizowanie skolekcjonowanego materiału archiwalnego Zakładu Neuropatologii, Instytutu Psychiatrii i Neurologii. W grupie docelowej projektu znalazły się także instytucje szkolnictwa wyższego, jednostki naukowe, placówki medyczne, przedsiębiorcy rozwijający innowacyjne technologie medyczne, organizacje pozarządowe zajmujące się ochroną zdrowia. Platforma Digital Brain powstała przede wszystkim z myślą o lekarzach, naukowcach różnych specjalności, psychologach, studentach, dziennikarzach popularnonaukowych, a także wszystkich tych, którzy są zainteresowani neuronauką. Dzięki takiej formie szerzenia wiedzy udostępnione zasoby nauki będą cennym materiałem dla lekarzy i naukowców poszukujących czynników patogenetycznych, prowadzących badania nad nowymi biomarkerami i terapiami w jednostkach chorobowych. Czy mógłby Pan opowiedzieć o historii zbiorów Instytutu Psychiatrii i Neurologii? Przeczytałam, że archiwizację fragmentów mózgu zapoczątkowała wybitna polska neuropatolog, prof. Ewa Osetowska. Od lat 50. kolekcja się rozrastała. Czy to prawda, że obecnie należy do największych na świecie? Jak ma się jej wielkość do zasobów Harvard Brain Tissue Resource Center czy LIBD? W zasobach Instytutu Psychiatrii i Neurologii znajduje się ogromny, unikalny zbiór mózgów Zakładu Neuropatologii, obejmujący materiał gromadzony od 1952 roku do chwili obecnej przez kolejne pokolenia neuropatologów. Archiwizację fragmentów mózgów zainicjowała wybitna polska neuropatolog, prof. Ewa Osetowska. Kolekcja obejmuje zbiór fragmentów mózgów utrwalonych w zbuforowanym roztworze formaliny, bloczki parafinowe, preparaty histologiczne i immunohistochemiczne oraz protokoły neuropatologiczne z kilkudziesięciu jednostek chorobowych. Mózg przeznaczony do diagnostyki neuropatologicznej zostaje umieszczony w zbuforowanym roztworze formaliny w celu utrwalenia. Sekcja utrwalonego mózgu przeprowadzana jest metodą Spielmeyera. Podczas sekcji mózgu został sporządzony protokół badania neuropatologicznego wraz z wykazem pobranych wycinków mózgu. Do protokołu badania neuropatologicznego zostały dołączone dane kliniczne i patologiczne. Pobrane fragmenty mózgu zostały zatopione w parafinie. Skrojone 5-8-μm preparaty zostały zabarwione metodami histologicznymi oraz metodami immunohistochemicznymi przy użyciu odpowiednich przeciwciał. Po wykonaniu diagnostyki mikroskopowej fragmenty mózgów, bloczki, preparaty i protokoły badania neuropatologicznego zostają zarchiwizowane. Całość stworzyła zasoby o unikalnym charakterze, które są gotowym materiałem do dalszych badań. Wyjątkowy charakter zasobów Instytutu Psychiatrii i Neurologii podkreśla fakt, że jest największa tego typu kolekcja na świecie. « powrót do artykułu
-
Niedawno zidentyfikowany kompleks proteinowy fabkin reguluje metabolizm i może odgrywać kluczową rolę w rozwoju cukrzycy typu I oraz II, informują naukowcy z Harvard T.H. Chan School of Public Health. O swoim odkryciu poinformowali na łamach Nature. Uczeni przypominają, że uwalnianie energii nagromadzonej w komórkach tłuszczowych jest niezwykle ważnym elementem strategii przeżycia w okresach niedoboru pożywienia. Jednak niekontrolowana lub chroniczna lipoliza połączona z insulinoopornością lub niedoborem insuliny niszczy równowagę metaboliczną, stwierdzają. Naukowcy od dziesięcioleci poszukiwali sygnału, który jest zaangażowany w przekazywanie informacji o zasobach energetycznych komórek tłuszczowych w celu wygenerowania odpowiedniej reakcji układu hormonalnego, w tym produkcji insuliny przez trzustkę. Odkryliśmy, że fabkin to hormon, który kontroluje te funkcje za pośrednictwem bardzo nietypowe mechanizmu molekularnego, mówi jeden z głównych autorów badań, Gökhan S. Hotamisligil. Naukowcy wykazali, że gdy białko wiążące kwasy tłuszczowe (FABP4 – fatty-acid-binding protein 4) jest wydzielane przez komórki tłuszczowe i trafia do krwioobiegu, łączy się z enzymami NDPK (kinaza difosforanów nukleozydów) oraz ADK (kinaza adenozynowa), tworząc kompleks proteinowy o nazwie fabkin. W kompleksie tym FABP4 modyfikuje działanie NDPK i ADK tak, że regulują one poziomy ATP i ADP, niezwykle ważnych molekuł biorących udział w transporcie energii w komórkach. Naukowcy odkryli, że na powierzchni komórek znajdują się receptory wyczuwające stosunek ATP do ADP i reagujące na zmieniający się stan energetyczny. W ten sposób fabkin reguluje funkcjonowanie tych komórek. Naukowcy odkryli, że poziom fabkin we krwi myszy i ludzi z cukrzycą typu 1. i 2. był wysoki. Stwierdzili również, że zablokowanie aktywności fabkin zapobiegało rozwinięciu się obu typów cukrzycy u zwierząt. Odkrycie znaczenia fabkin wymagało od nas przemyślenia sposobu funkcjonowania hormonów. Jestem niezwykle podekscytowana zidentyfikowaniem fabkin, a jeszcze bardziej długoterminowymi implikacjami tego odkrycia", mówi główna autorka badań Kacey Prentice. « powrót do artykułu
-
Opracowany w Belgii nowy materiał do produkcji ubrań może nas ogrzewać lub chłodzić, wszystko zależy od tego, którą stroną go włożymy. Symulacje przeprowadzone przez Muluneha Abebe i jego kolegów z belgijskiego Uniwersytetu w Mons wykazały, że ubrania z tego materiału zapewniają komfort termiczny w temperaturach różniących się nawet o 13 stopni. Gdy znajdujemy się na zewnątrz około połowy ciepła tracimy przez zjawiska przewodnictwa i konwekcji. Ogrzewać możemy się nakładając kolejne warstwy ubrań. Jednak drugą część ciepła tracimy przez promieniowanie podczerwone, zarówno ze skóry jak i powierzchni okrywających nas ubrań. W tym wypadku możemy bronić się przed utratą ciepła blokując promieniowanie podczerwone, lub też chłodzić się – zwiększając je. Już podczas wcześniejszych badań belgijscy naukowcy wykazali, że niektóre materiały mogą efektywnie absorbować promieniowanie podczerwone z powierzchni naszej skóry, a następnie efektywnie je uwalnia do otoczenia. W ten sposób ułatwiają nam chłodzenie się. Dotychczas jednak tego typu materiały zawierały nieprzepuszczalne membrany, które więziły powietrze i wilgoć, więc ich noszenie byłoby niekomfortowe. Abebe i jego zespół zaprezentowali teoretyczny model materiału o grubości 20 mikrometrów, który składa się z dwóch różnych warstw. Jednej wytworzonej z włókien dielektrycznych, drugiej z włókien metalicznych. Włókna dielektryczne emitują duże ilości promieniowania podczerwonego, zaś włókna metaliczne charakteryzuje niska emisja. Po stworzeniu takiego modelu naukowcy obliczyli jego właściwości transmisji promieniowania podczerwonego, jego odbijania i absorpcji. Z obliczeń wynika, że jeśli materiał dotykałby skóry, zapobiegałby ucieczce ciepła i odczuwalibyśmy komfortowe ciepło w temperaturze nawet 11 stopni Celsjusza. Z kolei po odwróceniu na drugą stronę efektywnie by nas chłodził w temperaturze dochodzącej do 24 stopni Celsjusza. Nowy materiał byłby elastyczny i wygodny w używaniu, a przestrzenie między włóknami umożliwiałyby ucieczkę wilgoci. Abebe przyznaje, że ze względu na wysokie koszty wytworzenia takiego materiału, na pewno nie pojawi się on na rynku w najbliższym czasie. Jednak uczeni mają nadzieję, że ich badania zainspirują kolejne grupy naukowe i w końcu pojawią się wygodne tanie ubrania o właściwościach chłodzących i ogrzewających. Materiał został opisany na łamach Physical Review Applied. « powrót do artykułu
-
- tkanina
- chłodzenie
-
(i 2 więcej)
Oznaczone tagami:
-
Adres IP może posłużyć między innymi do określenia lokalizacji danego sprzętu, co znacznie zmniejsza prywatność w sieci i może narazić użytkowników na różnego rodzaju problemy. Jego zmiana nie jest jednak zbyt trudna ani czasochłonna. Jak można to zrobić? Dlaczego warto zmieniać adres IP? Sam adres IP to podstawowy identyfikator urządzenia w sieci. Jego wartość może być łatwo powiązana z fizyczną lokalizacją komputera czy innego sprzętu. Nie jest to zazwyczaj informacja, którą chcemy dzielić się z całym internetem – z tego względu warto zastanowić się nad ukryciem adresu IP, aby zwiększyć swoją prywatność. Dodatkowo w pewnych sytuacjach dostęp do interesujących nas treści może być zablokowany na danym adresie IP. Można to zrobić na wiele sposobów. Niektóre z metod potrafią całkowicie zaszyfrować taką informację, inne zamaskować, a pozostałe – zmienić adres na tymczasowy. Zależnie od rodzaju połączenia można także po prostu zresetować router lub ponownie połączyć się z siecią w celu uzyskania nowego adresu IP. Jakie sposoby pozwolą cieszyć się zwiększonym poziomem bezpieczeństwa w internecie? Sieć mobilna Przeglądając internet z poziomu smartfona czy innego urządzenia mobilnego, zazwyczaj nie mamy stałego IP. Operator „wypożycza” konkretne adresy na pewien okres, który zwykle nie przekracza 48 godzin. Co więcej, w przypadku całkowitego rozłączenia z siecią i ponownego połączenia również powinniśmy otrzymać nowy adres. Warto mieć jednak na uwadze, że historia IP przypisanych do danego urządzenia zwykle jest zapisywana, choć znajduje ona zastosowanie głównie w kontekście czynności sądowych. Publiczne Wi-Fi Dostępne publicznie sieci Wi-Fi działają na podobnej zasadzie – adresy są przypisywane tymczasowo. Korzystanie z takiego połączenia pozwoli zatem na korzystanie za każdym razem z innego IP. Mimo tego musimy w tym przypadku zachować pewną ostrożność, szczególnie w przypadku punktów dostępu bez hasła. Do tego typu sieci dostęp może mieć każdy – z odpowiednimi narzędziami łatwo będzie przechwycić nasze dane. Serwer proxy – przesłanie ruchu przez inny komputer W tym przypadku komunikacja z internetem przechodzi przez serwer proxy przed dotarciem do docelowej strony. Witryna lub usługa otrzymująca żądanie nie widzi zatem naszego adresu IP – zamiast niego pojawia się adres serwera. W ten sposób możemy skorzystać ze stałego lub tymczasowego IP, by przykryć „tożsamość” własnego urządzenia. Dodatkowo, jeżeli dana strona znajduje się w tymczasowej pamięci serwera, możemy liczyć na szybsze ładowanie. Tego typu rozwiązania zazwyczaj nie idą jednak w parze z szyfrowaniem, które może znacznie zwiększyć bezpieczeństwo w sieci. Wirtualna sieć prywatna, czyli VPN Sieci tego rodzaju znajdują wiele zastosowań – jednym z nich jest ochrona prywatności użytkowników internetu. Podstawowe zasady działania są bardzo podobne jak w przypadku proxy, jednak usługi VPN oferują także szyfrowanie. Kolejną przewagą nad proxy jest bardziej uniwersalne działanie – gdy korzystamy z nieszyfrowanego proxy, witryny mogą wykryć taki rodzaj połączenia i zablokować treść. Zarówno z pomocą proxy, jak i VPN możemy ominąć między innymi blokady lokalizacyjne i zmienić adres IP, jednak wirtualna sieć prywatna zapewnia znacznie więcej zabezpieczeń i wyższy poziom ochrony danych. Jak wybrać najlepszy VPN? Firm oferujących takie serwisy jest naprawdę sporo – warto sprawdzić dostępne opcje, a przede wszystkim zapoznać się z opiniami ekspertów od cyberbezpieczeństwa oraz samych użytkowników. Korzystanie z VPN może kosztować od kilku do kilkudziesięciu złotych miesięcznie. Istnieją także darmowe propozycje, jednak ich funkcje mogą być ograniczone, a ponadto takie rozwiązania najczęściej wiążą się ze słabszymi zabezpieczeniami. Przeglądarka Tor Z wykorzystaniem protokołu Tor oraz tzw. trasowania cebulowego możemy bezpiecznie przeglądać zarówno zwykłe strony, jak i te dostępne tylko w obrębie sieci Tor. Musimy przy tym liczyć się z niższą prędkością przesyłu danych ze względu na bardziej skomplikowany ruch sieciowy, jednak poziom anonimowości przy takim rozwiązaniu jest bardzo wysoki. Ukryty zostaje nie tylko adres IP, lecz także praktycznie wszystkie informacje o użytkowniku. Poszczególne żądania są szyfrowane warstwowo, a kolejne węzły sieci odczytują informacje warstwa po warstwie. W ten sposób docelowy punkt ma dostęp do danych dotyczących wyłącznie ostatniego routera na trasie. Nie jest to jednak rozwiązanie gwarantujące stuprocentowe bezpieczeństwo – choć dotarcie do danych użytkownika jest znacznie utrudnione, istnieją narzędzia i mechanizmy pozwalające na złamanie przynajmniej części zabezpieczeń. Więcej: https://www.dobryvpn.pl/ « powrót do artykułu
-
Zaprojektowany przez Wojciecha Samołyka kolekcjonerski gramofon Oscar wzbogaci zbiory powstającej łódzkiej Mediateki. Gramofon zaprezentowano na konferencji prasowej w Bibliotece Wolność. Mediateka będzie jedyną instytucją publiczną z takim sprzętem; może się nim pochwalić kilku prywatnych kolekcjonerów na świecie. Oscar jest wart kilkadziesiąt tysięcy złotych. Same materiały, z których go wykonano, kosztują ok. 30 tys. zł. Wojciech Samołyk - z wykształcenia architekt - jest zafascynowany brazylijskim architektem Oscarem Niemeyerem. Dizajn gramofonu to swego rodzaju hołd dla tego twórcy i jego superprojektu budynku parlamentu z modernistycznego miasta Brasília. W pewnym momencie, widząc ten obiekt na zdjęciach z lotu ptaka, zrozumiałem, że układ form stworzony przez Niemeyera to jest także gramofon! Postanowiłem oddać hołd mojemu mistrzowi, realizując jego słynne dzieło jako "Tribute to Oscar Niemeyer" - w postaci gramofonu Tentogra Oscar - powiedział twórca marki Tentogra w wywiadzie udzielonym Wojciechowi Pacule z magazynu High Fidelity. Wg Samołyka, hipernowoczesna konstrukcja Mediateki także łączy się z projektem Brazylijczyka. We wpisie na witrynie firmowej Samołyk przyznał, że skonstruowanie gramofonu Oscar było jego idée fixe; prace nad nim trwały ponad rok. Samołyk, absolwent Politechniki Łódzkiej, już wcześniej, bo na przełomie wieków, próbował potraktować budowę gramofonu podobnie jak projekt architektoniczny. Niestety, wtedy nie było jeszcze możliwości technicznych, trudno było zdobyć odpowiednie komponenty. Napęd Oscara zasilany jest wyłącznie baterią, po to by uzyskać jak najbardziej stabilne obroty - daje to znaczącą różnicę w jakości dźwięku. Waga gramofonu ze stolikiem wynosi ~100 kg. Fundatorem sprzętu, który za kilka miesięcy trafi do Mediateki, jest Henryk Ulacha, prezes łódzkiej firmy Varitex. Mediateka, która powstaje przy ul. Moniuszki 5, ma być jedną z filii Biblioteki Miejskiej w Łodzi. Dagmara Śmigielska zapowiedziała, że w zbiorach płyt Mediateki znajdą się pozycje z polską i zagraniczną muzyką rockową, jazzową czy klasyczną - od lat 50. po czasy współczesne. Przed przekazaniem do Mediateki Oscar postoi w honorowym miejscu w bibliotece przy placu Wolności. « powrót do artykułu
- 1 odpowiedź
-
- Biblioteka Wolności
- Łódź
-
(i 5 więcej)
Oznaczone tagami:
-
Norwegowie i Szwedzi całkowicie wytępili miejscowe wilki
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Norwegowie i Szwedzi doprowadzili do całkowitej zagłady żyjącej na wolności rodzimej populacji wilka. Wilki, żyjące obecnie w obu krajach, to populacja fińska. I jej grozi zagłada w wyniku chowu wsobnego. Ostatni w Norwegii wolny wilk zginął około roku 1970. Pierwotna norwesko-szwedzka populacja wilków prawdopodobnie nie pozostawiła po sobie żadnego śladu w genomie współczesnych wilków żyjących w Norwegii i Szwecji, mówi Hans Stenøien, dyrektor Muzeum Uniwersyteckiego Norweskiego Uniwersytetu Nauki i Technologii (NTNU). Jeszcze do niedawna mogliśmy się łudzić, że około 400 wilków żyjących na pograniczu szwedzko-norweskim to pozostałość lokalnej populacji, która jakimś cudem uszła z życiem przed myśliwymi. Jednak najnowsze badania genetyczne rozwiały wszelkie wątpliwości. Wilki zamieszkujące Norwegię i Szwecję najprawdopodobniej pochodzą od wilków, które emigrowały tutaj z Finlandii, mówi profesor Stenøien. Przeprowadziliśmy największe na świecie badania genetyczne wilków, dodaje. Uczony nie wyklucza, że w ogrodach zoologicznych poza Norwegią można znaleźć oryginalne norwesko-szwedzkie wilki.Jednak nie mają one już nic wspólnego z tymi, które żyją na terenie obu krajów. Wilk pojawił się w Norwegii około 12 000 lat temu. Ludzie wytępili lokalną populację około 1970 roku. Co interesujące, obecna populacja norwesko-szwedzka różni się od fińskiej. Jednak nie na tyle, by mówić tutaj o osobnych populacjach. Nie znaleźliśmy żadnej wskazówki na istnienie jakiejś specjalnej unikatowej cechy adaptacyjnej u tych wilków, mówią badacze. Przyczyna różnicy jest bardzo prozaiczna. Jest nią chów wsobny. Populacja żyjąca w Norwegii i Szwecji jest bardzo mała, z ograniczonym dopływem genów z zewnątrz. To najprawdopodobniej oznacza, że pochodzi ona od bardzo małej liczby zwierząt, które przybyły z Finlandii. Małe zróżnicowanie genetyczne oznacza zaś, że wszelkie wady łatwiej rozpowszechniaj się w takiej populacji. Brak różnorodności powoduje, że wilki te są bardziej podane na różne choroby i dziedziczenie wad genetycznych, dodaje Stenøien. Projekt badań nad norweskimi wilkami rozpoczął się przed pięcioma laty na zamówienie Stortingu, norweskiego parlamentu. Jest on prowadzony przez NTNU we współpracy z Uniwersytetem w Kopenhadze. Badacze mieli do dyspozycji materiał genetyczny od ponad 1800 wilków z całego świata, przede wszystkim z Europy. Około 500 próbek nie było wystarczająco dobrej jakości. Badania oparto więc na około 1300 próbkach. Naukowcy porównywali całe genomy zwierząt. Dodatkowym spostrzeżeniem, obok wytępienia przez ludzi oryginalnej populacji norwesko-szwedzkiej, jest stwierdzenie, że obecnie zamieszkująca tam zwierzęta mogą stanowić najczystszą pod względem genetycznym populację wilka na świecie. Uczeni przeanalizowali bowiem próbki pobrane od 56 ras psów, by zbadać, jak wiele psiej domieszki jest w norwesko-szwedzkim wilku. Wilki w naszym kraju są wśród posiadających najmniejszą domieszkę psich genów. A może nawet są najczystszą na świecie wilczą populacją, dodaje Stenøien. Kwestia wilków wywołuje w Norwegii wiele emocji. Wszyscy pamiętają bowiem ciągnące się przez wiele dekad kłótnie, gdy pojawiła się plotka, jakoby wilki z ogrodów zoologicznych zostały wypuszczone na wolność. Dlatego Stenøien, pytany o możliwość wzbogacenia puli genetycznej obecnej populacji norwesko-szwedzkiej wilkami oryginalnej populacji mieszkającymi obecnie w ogrodach zoologicznych, w ogóle nie chce o tym rozmawiać. Mówi jedynie, że takie wzbogacenie byłoby możliwe, jednak wymagałoby to dużych zasobów, wiele pracy i byłoby kosztowne. Jednak trudno wyobrazić sobie awantury, jakie przetoczyłyby się przez Norwegię, gdyby z ogrodów zoologicznych rzeczywiście przywieziono wilki i wypuszczono je na wolność. « powrót do artykułu -
Ile przestrzeni potrzebuje łoś? I jak z niej korzysta?
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Łoś to jeden z największych lądowych ssaków Europy, jednak dotychczas niewiele było wiadomo na temat użytkowania przestrzeni przez te zwierzęta na południowym skraju zasięgu ich występowania. Prowadzone w ostatnich latach badania w rejonie Biebrzy i na Polesiu pozwoliły sprawdzić, jak dużych obszarów potrzebują do życia łosie i co wpływa na wielkość użytkowanych przez nie areałów. Łosie w rejonie Biebrzy i na Polesiu śledzone były w latach 2012-2018. Naukowcy z Instytutu Biologii Ssaków PAN w Białowieży, Uniwersytetu w Białymstoku i Uniwersytetu Przyrodniczego w Lublinie przeanalizowali blisko 560 tys. lokalizacji łosi noszących obroże GPS. Urządzenia te namierzały pozycję łosi co godzinę, dzięki czemu można było szczegółowo poznać trasy wędrówki łosi oraz obszary, jakie użytkują one w różnych momentach roku. Wielkość sezonowych areałów wykorzystywanych przez łosie była bardzo zmienna i wahała się od kilku do ponad 130 kilometrów kwadratowych - informują autorzy badania w materiale przesłanym PAP. Autorzy badania zauważają, że część łosi nie zajmowała stacjonarnych areałów i prowadziła koczowniczy tryb życia. Okazało się, że sposób użytkowania przestrzeni i wielkość sezonowych areałów w największym stopniu zależy od strategii migracyjnych łosi. Osobniki migrujące, które latem i zimą zajmują różne środowiska bardziej dostosowane do ich sezonowych potrzeb, użytkują bardziej stacjonarne i istotnie mniejsze areały (średnio 9,7 km2) niż łosie, które nie wykazują migracji sezonowych (średnio 14,3 km2). Aby zaspokoić swoje potrzeby pokarmowe, osiadłe łosie muszą użytkować większe areały, które obejmują mozaikę różnych środowisk, oferującą pokarm zarówno latem, jak i zimą. Ponadto stwierdziliśmy, że latem łosie były istotnie bardziej stacjonarne i użytkowały mniejsze areały (średnio 9,0 km2) niż zimą (średnio 15,9 km2). Wynika to zapewne z większego zróżnicowania, dostępności i odnawialności pokarmu latem niż zimą, gdy łosie żerują głównie w ubogich borach sosnowych – informuje jeden z prowadzących badania, dr hab. Rafał Kowalczyk z IBS PAN w Białowieży. Wielkość areałów zależała też od płci zwierząt. Samce użytkowały dwukrotnie większe sezonowe areały (średnio 19,6 km2) niż samice (9,6 km2). Może to wynikać z dymorfizmu płciowego i większych potrzeb pokarmowych i energetycznych samców, charakteryzujących się większymi rozmiarami ciała – dodaje dr Kowalczyk. Co ciekawe, wykazaliśmy również wysokie zróżnicowanie wielkości areałów łosi zamieszkujących te same obszary. Może to wskazywać, że dla sposobu użytkowania przestrzeni i decyzji dotyczących żerowania, poza czynnikami środowiskowymi, znaczenie ma też osobowość poszczególnych łosi – precyzuje dr Tomasz Borowik z IBS PAN, który analizował dane. Badania pokazały, że łosie dopasowują użytkowanie przestrzeni i wielkość sezonowych areałów do rozmieszczenia oraz dostępności zasobów w czasie i przestrzeni. Biorąc pod uwagę silną zależność wielkości areałów łosi od struktury środowiska, wszelkie zmiany klimatu i związane z tym zmiany środowiskowe będą również wpływać na strategie migracyjne i sposób użytkowania przestrzeni przez łosie. Może to mieć skutki dla dynamiki populacji łosi oraz poziomu konfliktów powodowanych przez te duże zwierzęta. Wyniki swoich badań naukowcy przedstawili w Behavioral Ecology and Sociobiology. « powrót do artykułu-
- łoś
- przestrzeń
-
(i 4 więcej)
Oznaczone tagami:
-
Lek na erekcję może pomagać w leczeniu... choroby Alzheimera
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Badania prowadzone m.in. przez Cleveland Clinic sugerują, że sildenafil, lek stosowany w leczeniu zaburzeń erekcji (Viagra) i pierwotnego nadciśnienia płucnego (Revatio), może być obiecującym środkiem do zapobiegania i leczenia choroby Alzheimera. Grupa badawcza, na czele której stał Feixiong Cheng z Cleveland Clinic Genomic Medicine Institute wykorzystała metody obliczeniowe do przeanalizowania już zatwierdzonych leków, które mogłyby być przydatne w walce z chorobą alzheimera. Analizowano też dane ponad 7 milionów pacjentów. Okazało się, że wśród wszystkich sprawdzonych w ten sposób leków używanie sildenafilu wiąże się z 69-procentowym spadkiem ryzyka rozwoju choroby Alzheimera. To zaś oznacza, że warto przeprowadzić badania kliniczne pod kątem wykorzystania sildenafilu w leczeniu alzheimera. Nasze badania wykazały jedynie istnienie korelacji pomiędzy używaniem sildenafilu a zmniejszoną liczbą przypadków alzheimera. Dlatego też planujemy obecnie badania mechanistyczne oraz II fazę randomizowanych testów klinicznych, których celem będzie sprawdzenie istnienia związku przyczynowo-skutkowego oraz ewentualnych korzyści z przyjmowania sildenafilu przez osoby z chorobą Alzheimera. Uważamy też, że nasza metoda może zostać wykorzystana do poszukiwania leków na inne choroby neurodegeneracyjne, w tym na chorobę Parkinsona czy stwardnienie zanikowe boczne, oświadczył Cheng. Wykorzystanie już zatwierdzonych leków do walki z kolejnymi chorobami to bardzo dobra alternatywa dla czasochłonnego i kosztownego procesu odkrywania nowych leków. Naukowcy przyjrzeli się ponad 1600 lekom zatwierdzonym przez FDA. W przypadku takich leków nie tylko znamy zagrożenia związane z ich stosowaniem, ale możemy też prześledzić skutki ich używania na olbrzymich grupach pacjentów stosujących je na co dzień. Analiza takich danych może wskazać, czy któryś z leków nie ma wpływu na choroby inne niż te, na które jest stosowany. Po tym, jak wstępne analizy wskazały na potencjalne zalety sildenafilu, naukowcy wzięli pod lupę ponad 7 milionów Amerykanów, poszukując związku pomiędzy używaniem tego środka a chorobą Alzheimera. Okazało się, że w grupie, która używała sildenafilu przez ponad 6 lat występuje o 69% mniej przypadków choroby Alzheimera niż w grupie, która tego środka nie używała. Porównano też używanie sildenafilu z innymi lekami i okazało się, że u pacjentów używających losartanu sildenafil zmniejsza ryzyko Alzheimera o 55%, u korzystających z metforminy o 63%, o 65% u tych, którzy zażywają diltiazem i 64% u przyjmujących glimepiryd. Bardzo ważny jest fakt, że użycie sildenafilu może zmniejszać ryzyko wystąpienia choroby Alzheimera u osób a chorobą wieńcową, nadciśnieniem i cukrzycą typu II. Te wszystkie schorzenia zwiększają ryzyko zgonu zarówno z powodu alzheimera jak ogólne ryzyko zgonu, zaznacza Cheng. Uczeni stworzyli też model choroby Alzheimera, wykorzystując w tym celu komórki macierzyste pacjentów. Okazało się, że pod wpływem sildenafilu komórki mózgu szybciej się rozwijały, hiperfosforylacja białka tau ulegała zmniejszeniu. Więcej na ten temat można przeczytać w artykule opublikowanym na łamach Nature Aging. « powrót do artykułu-
- sildenafil
- choroba Alzheimera
-
(i 1 więcej)
Oznaczone tagami:
-
Gdy w 2017 roku specjaliści z Albion Archeology odkryli dużą, nieznaną wcześniej osadę rzymską, nie wyróżniała się ona niczym szczególnym. Obok niej, czego również można było się spodziewać, znajdował się cmentarz. Dopiero dalsze wykopaliska pokazały, że trafiono na wyjątkowe miejsce. Jedna z pochowanych tam osób została bowiem ukrzyżowana. Miejscowość Fenstanton leży przy dawnej Via Devana, drodze łączącej rzymskie miasta w Cambridge i Godmanchester. W regionie tym istniało wiele rzymskich osad, jednak ta wydaje się szczególnie istotna. Jej powierzchnia w czasach rzymskich wynosiła co najmniej 6 hektarów i być może znajdowało się tam skrzyżowanie dróg. O jej znaczeniu może świadczyć też fakt,że odkryto tam szczątki wczesnego anglosaskiego budynku typu grubhouse, o podłodze wpuszczonej w ziemię. To pokazuje, że była zasiedlona również po czasach rzymskich. Nie niewielkim rzymskim cmentarzu znaleziono zwłoki 40 dorosłych i 5 dzieci. Większość grobów pochodzi z IV wieku, a ich zawartość została niedawno szczegółowo przeanalizowana. Większość ze zmarłych była w złym stanie zdrowia, trapiły ich choroby zębów, malaria, na szkieletach widoczne są ślady urazów, w tym złamań. Najbardziej interesujący okazał się jednak szkielet oznaczony numerem 4926. Jego kość piętową poziomo przebijał 5-centymetrowy żelazny gwóźdź. Badania wykazały, że szkielet należał do mężczyzny w wieku 25–35 lat o typowym dla ówczesnych czasów wzroście 170 cm. Datowanie radiowęglowe wykazało, że zmarł pomiędzy rokiem 130 a 360. Szkielet 4926 został pochowany w otoczeniu 12 żelaznych gwoździ oraz drewnianej struktury. Naukowcy sądzą, że był to rodzaj drewnianego panelu, na którym jego ciało położono po zdjęciu z krzyża. Na szkielecie widoczne są urazy, których doznał przed śmiercią. Mężczyzna miał złamanych 6 żeber, prawdopodobnie od uderzenia miecza, a złamania dopiero zaczęły się goić. Na kościach nóg widać ślady infekcji lub zapalenia, kości piszczelowe są cieńsze niż być powinny. To znak, że przez dłuższy czas był związany lub skuty. Gwóźdź 13., który tkwił w pięcie, odkryto dopiero w laboratorium, podczas mycia szczątków. Obok na kości widoczne jest wgłębienie, świadczące o tym, że za pierwszym razem nie udało się go przybić do krzyża. Kara ukrzyżowania była powszechnie stosowana w świecie rzymskim. Jednak dotychczas znaleziono niezwykle mało kości noszących dowody na jej stosowanie. Nie zawsze bowiem stosowano gwoździe. Zwykle ofiarę przywiązywano do krzyża, a ofiary nie mogły liczyć na zwykły pogrzeb. Z kolei tam, gdzie używano gwoździ, zwykle były one po egzekucji wyjmowane z ciała i wykorzystywane ponownie, wyrzucane lub wykorzystywane jako amulety. Tutaj mamy szczęśliwe dla nas połączenie dobrego zachowania się zwłok oraz pozostawionego w ciele gwoździa. To pozwoliło mi zbadać ten unikatowy przykład ukrzyżowania, mówi doktor Corine Duhing z University of Cambridge. Uczona mówi, że to najlepiej na świecie zachowany przykład ukrzyżowania w czasach rzymskich. To pokazuje, że nawet w tak małej osadzie na krańcach imperium nie można było uniknąć tej barbarzyńskiej kary, dodaje uczona. Szczegółowe wyniki wykopalisk w Fenstaton zostaną opublikowane w przyszłym roku. Oprócz ludzkich szczątków znaleziono tam wiele artefaktów, w tym emaliowane brosze, dużą liczbę monet, zdobioną ceramikę oraz dużą liczbę kości zwierzęcych. Nie były one powiązane z żadnym ze zmarłych. Pozostałości dużych budynków i drogi pokazują, że była to ważna, zamożna osada. Niewykluczone, że była ona utrzymywana jako miejsce odpoczynku dla podróżnych. Stosowania kary ukrzyżowania zabronił dopiero Konstantyn Wielki w 337 roku. Jednak już wcześniej, bo w 212 zakazano stosowania tej kary w odniesieniu do obywateli. Krzyżowani mogli być zaś niewolnicy. Nie wiemy, czy ukrzyżowany mężczyzna był niewolnikiem czy tylko był przez jakiś czas więziony przed śmiercią. Jednak mimo to został w sposób standardowy pochowany na lokalnym cmentarzu. Być może – spekulują archeolodzy – pomimo zakazu, kara ukrzyżowania wciąż była stosowana na dzikich rubieżach Imperium. « powrót do artykułu
-
- ukrzyżowanie
- Rzym
-
(i 1 więcej)
Oznaczone tagami:
-
Ludzie, Ziemia czy gwiazdy pojawili się dlatego, że w pierwszej sekundy istnienia wszechświata wytwarzane było więcej materii niż antymaterii. Ta asymetria była niezwykle mała. Na każde 10 miliardów cząstek antymaterii pojawiało się 10 miliardów + 1 cząstka materii. Ta minimalna nierównowaga doprowadziła do stworzenia materialnego wszechświata, a fenomenu tego współczesna fizyka nie potrafi wyjaśnić. Z teorii wynika bowiem, że powinna powstać dokładnie taka sama liczba cząstek materii i antymaterii. Grupa fizyków-teoretyków stwierdziła właśnie, że nie można wykluczyć, iż w naszych możliwościach leży wykrycie nietopologicznych solitonów Q-balls, a ich wykrycie pozwoliłoby odpowiedzieć na pytanie, dlaczego po Wielkim Wybuchu pojawiło się więcej materii niż antymaterii. Obecnie fizycy uważają, że asymetria materii i antymaterii pojawiła się w pierwszej sekundzie po Wielkim Wybuchu, a w jej czasie rodzący się wszechświat gwałtownie zwiększył swoje wymiary. Jednak przetestowanie teorii o inflacji kosmologicznej jest niezwykle trudne. Żeby ją sprawdzić musielibyśmy wykorzystać olbrzymie akceleratory cząstek i dostarczyć im więcej energii, niż jesteśmy w stanie wyprodukować. Jednak amerykańsko-japoński zespół naukowy, w skład którego wchodzą m.in. specjaliści z japońskiego Kavli Institute for the Physics and Mathematics of the Universe (Kavli IPMU) i Uniwersytetu Kalifornijskiego w Los Angeles (UCLA) uważają, że do przetestowania tej teorii można wykorzystać nietopologiczne solitony Q-ball. Jedna z teorii dotyczących nierównowagi materii i antymaterii mówi bowiem, że pojawiła się ona w wyniku złożonego procesu tzw. bariogenezy Afflecka-Dine'a. To w jej przebiegu miały pojawić się Q-balle. Profesor Graham White, główny autor badań z Kavli IPMU wyjaśnia, czym jest Q-ball. Mówi, że jest bozonem, jak bozon Higgsa. Bozon Higgsa pojawia się, gdy pole Higgsa zostaje wzbudzone. Jednak w polu Higgsa mogą pojawiać się też inne elementy, jak grudki. Jeśli mamy pole bardzo podobne do pola Higgsa, które ma pewien ładunek, nie ładunek elektryczny, ale jakiś ładunek, wówczas taka grudka ma ładunek taki, jak jedna cząstka. Jako, że ładunek nie może po prostu zniknąć, całe pole musi „zdecydować” czy tworzy grudki czy cząstki. Jeśli utworzenie grudek będzie wymagało mniej energii, będą powstawały grudki. Łączące się ze sobą grudki stworzą Q-ball, mówi. Często mówimy, że takie Q-balle istnieją przez jakiś czas. W miarę rozszerzania się wszechświata zanikają one wolniej niż promieniowanie tła, w końcu większość energii wszechświata skupia się w Q-ballach. W międzyczasie pojawiają się niewielkie fluktuacje w gęstości promieniowania, które skupiają się tam, gdzie dominują Q-balle. Gdy zaś Q-ball się rozpada, jest to zjawisko tak gwałtowne, że pojawiają się fale grawitacyjne. Możemy je wykryć w nadchodzących dekadach. Piękno poszukiwań fal grawitacyjnych polega na tym, że wszechświat jest całkowicie dla nich przezroczysty, wędrują więc do jego początku, mówi White. Zdaniem teoretyków, generowane przez znikające Q-balle fale mają odpowiednie charakterystyki, by można je było zarejestrować za pomocą standardowych wykrywaczy fal grawitacyjnych. Szczegóły badań zostały opublikowane w serwisie arXiv. « powrót do artykułu
- 2 odpowiedzi
-
Jedną z najtrudniejszych umiejętności językowych jest rozumienie składni zdań złożonych. W 2019 roku naukowcy zauważyli, że istnieje korelacja pomiędzy wysokimi umiejętnościami używania narzędzi, a zdolnością do rozumienia złożonej składni. Szwedzko-francuski zespół naukowy informuje, że obie te umiejętności – sprawnego posługiwania się narzędziami oraz złożoną składnią – korzystają z tych samych zasobów neurologicznych w tym samym regionie mózgu. To jednak nie wszystko. Okazało się, że rozwijanie jednej z tych umiejętności wpływa na drugą. Uczeni z francuskiego Narodowego Instytutu Zdrowia i Badań Medycznych (Inserm), Narodowego Centrum Badań Naukowych (CNRS), Université Claude Bernard Lyon 1, Université Lumière Lyon 2 i Karolinska Institutet zauważyli, że trening w posługiwaniu się narzędziami poprawia zdolność rozumienia złożonych zdań. I na odwrót. Jeśli ćwiczymy rozumienie złożonych zdań, poprawiają się nasze umiejętności posługiwania się narzędziami. Odkrycie to można będzie wykorzystać podczas rehabilitacji osób, które częściowo utraciły zdolności językowe. Przez długi czas uważano, że używanie języka to niezwykle złożona umiejętność, która wymaga wyspecjalizowanych obszarów mózgu. Jednak w ostatnich latach pogląd ten ulega zmianie. Kolejne badania wskazują, że ośrodki kontroli niektórych funkcji językowych, na przykład odpowiadające za rozumienie słów, są też zaangażowane w kontrolowanie funkcji motorycznych. Jednak badania obrazowe nie dostarczały dowodów na istnienie związku pomiędzy używaniem języka i narzędzi. Z drugiej jednak strony badania paloneurobiologiczne wykazały, że obszary mózgu odpowiedzialne za posługiwanie się językiem rozwijały się u naszych przodków w okresach większego rozwoju technologicznego, gdy wśród naszych praszczurów rozpowszechniało się użycie narzędzi. Naukowcy, analizujący dostępne dane, zaczęli się zastanawiać czy jest możliwe, by używanie narzędzi, operowanie którymi wymaga wykonywania złożonych ruchów, było kontrolowane przez te same obszary mózgu co używanie funkcji językowych. W 2019 roku Claudio Brozzoli z Inserm i Alice C. Roy z CNRS wykazali, że osoby, które szczególnie dobrze posługują się narzędziami, zwykle też lepiej posługują się złożoną składnią zdań w języku szwedzkim. Naukowcy postanowili bliżej przyjrzeć się temu zjawisku i zaplanowali serię eksperymentów, w czasie których wykorzystano m.in. rezonans magnetyczny. Badanych proszono o wykonanie testów związanych z użyciem 30-centymetrowych szczypiec oraz zdań złożonych w języku francuskim. Dzięki temu uczeni zidentyfikowali obszary mózgu odpowiedzialne za wykonywanie każdego z tych zadań oraz wspólnych dla obu zadań. Jako pierwsi stwierdzili, że używanie narzędzi i złożonej składni aktywuje ten sam obszar w jądrze podstawnym w mózgu. Wówczas zaczęli zastanawiać się, czy ćwicząc jedną z tych umiejętności, można by wpływać na drugą. Uczestników badań poproszono więc o wypełnienie testów rozumienia złożonych zdań. Testy takie wypełniali 30 minut przed i 30 minut po ćwiczeniu ze szczypcami. Ćwiczenie to polegało na użyciu dużych szczypiec do umieszczenia niewielkich kołków w otworach odpowiadających im kształtem, ale o różnej orientacji. Przed i po takim ćwiczeniu porównywano, jak uczestnicy badań radzą sobie z rozumieniem prostszego i bardziej złożonego zdania. Okazało się, że po ćwiczeniu ze szczypcami badani lepiej radzili sobie ze zrozumieniem trudniejszych zdań. Z kolei w grupie kontrolnej, która używała dłoni do wkładania kołków w otworach, nie zauważono tego typu poprawy rozumienia zdań. Teraz naukowcy opracowują protokoły rehabilitacji osób, które utraciły część umiejętności językowych, ale zachowały zdolności motoryczne. Jednocześnie zauważają, że ich badania lepiej pomagają nam zrozumieć ewolucję H. sapiens. Gdy nasi przodkowie zaczęli wytwarzać i używać narzędzi, znacznie zmieniło ich to mózg i wpłynęło na zdolności poznawcze, co mogło doprowadzić do pojawienia się innych funkcji, jak zdolności językowe, stwierdzają naukowcy. « powrót do artykułu
-
Trwa renowacja ostatniego fortepianu należącego do Fryderyka Chopina - instrumentu marki Pleyel z 1848 roku. Zaplanowano ją na 3-12 grudnia. Prace prowadzi zespół Paula McNulty'ego. Pokazy konserwatorskie (w ramach biletu do Muzeum Fryderyka Chopina) można oglądać od 7 do 12 grudnia. Historia instrumentu Chopin dostał najnowszy instrument z paryskiej wytwórni Camille'a Pleyela pod koniec listopada 1848 r. Jak podkreślono w komunikacie Narodowego Instytutu Fryderyka Chopina (NIFC), fortepian o numerze seryjnym 14810 znajdował się w dwóch ostatnich mieszkaniach Chopina i był ostatnim, na którym kompozytor grał i tworzył. Po śmierci Chopina instrument został zakupiony przez jego uczennicę Jane Stirling, a następnie podarowany przez nią siostrze Fryderyka, Ludwice Jędrzejewiczowej. Przetransportowany drogą morską znalazł się w Warszawie w sierpniu 1850 roku. Co ciekawe, w skrzyni instrumentu nadal znajduje się lakowa pieczęć carskiego urzędu celnego. Widać także dedykację autorstwa Jane Stirling "pour Louise" (dla Ludwiki). Dzieci i wnuki Ludwiki dbały o cenną pamiątkę. W 1924 r. została ona sprzedana Muzeum Narodowemu w Warszawie. Fortepian wystawiano tam do wybuchu powstania warszawskiego. Po zakończeniu powstania Niemcy wywieźli go do Austrii. Instrument wrócił do Warszawy w kwietniu 1946 r. W latach 50. przez pewien czas był eksponowany w Żelazowej Woli, a w 1958 roku został przekazany przez Muzeum Narodowe w depozyt, a później na własność Towarzystwu im. Fryderyka Chopina i przetransportowany do Pałacu Ostrogskich – siedziby warszawskiego Muzeum Chopina. Od 2005 roku jest depozytem w Narodowym Instytucie Fryderyka Chopina. Renowacje Pod koniec lat 50. przeprowadzono pierwszą renowację instrumentu. Podczas tego remontu wymieniono struny, kołki i okleinę młotków, a także polakierowano skrzynię. Ponieważ struny zmieniono na wykonane ze stali wysokowęglowej o silnym naciągu, zmieniło to oryginalną barwę brzmienia fortepianu; eksperci obawiali się również negatywnego wpływu tego zabiegu na kondycję całego instrumentu w dłuższej perspektywie. Przed 3 laty NIFC zlecił szczegółowe badania fortepianu. Laboratorium Analiz i Nieniszczących Badań Obiektów Zabytkowych LANBOZ przeprowadziło m.in. skanowanie i analizy chemiczne oraz wykonało zdjęcia RTG. Oprócz tego oględzinami fortepianu zajął się prof. Benjamin Vogel, instrumentoznawca w zakresie budownictwa fortepianów i lutnictwa, który współpracuje z wieloma muzeami w kraju i za granicą jako ekspert od zabytkowych instrumentów. Okazało się, że konieczna jest renowacja. Amerykański specjalista Paul McNulty uznał, że najważniejsza jest regulacja mechaniki i wymiana strun na bliższe pierwowzorowi. Dzięki dobremu stanowi zachowania zdecydowanej większości elementów (fortepian przez prawie sto lat, poza nielicznymi wyjątkami, nie był używany w celach wykonawczych, a jedynie eksponowany jako obiekt muzealny) istnieje realna szansa na pełne przywrócenie walorów instrumentu, a w szczególności jego oryginalnego brzmienia. « powrót do artykułu
-
- ostatni fortepian Chopina
- Pleyel
-
(i 3 więcej)
Oznaczone tagami:
-
W ubiegłym roku donosiliśmy, że po raz pierwszy od ponad 100 lat norwescy archeolodzy wydobyli okręt wikingów, na którym pochowano władcę. Teraz Norweski Instytut Badań nad Dziedzictwem Kulturowym (NIKU) informuje, że w pobliżu okrętu znajduje się kilka długich domów, w tym jeden z największych, jakie kiedykolwiek znaleziono w Skandynawii. Odkrycia dokonano w Gjellestad, miejscowości o dużym znaczeniu w epoce żelaza i epoce wikingów. Odkrycie tych długich domów potwierdza, że Gjellestad było ważnym ośrodkiem, mówi doktorant Lars Gustavsen z NIKU. Dotychczas za pomocą georadaru zidentyfikowano pięć długich domów, z których jeden mierzył aż 60 metrów długości i 15 szerokości. Tymczasem długość typowego długiego domu z tego okresu wynosiła 20–30 metrów. Ten nowo odkryty był więc olbrzymi. Jako, że wielkość domu była powiązana z zamożnością właściciela, musiał w nim mieszkać ktoś znaczny. Nie wiemy, ile lat liczą sobie te domy i jakie funkcje pełniły. Wykopaliska i datowanie pozwolą nam odpowiedzieć na te pytania, stwierdzili archeolodzy. Oprócz domów odkryto też znaleziono, że w pobliżu znajdowały się kurhany, które jednak zostały zniszczone podczas prac polowych w XIX wieku. Najnowszego odkrycia dokonano w ramach projektu „Viking Nativity: Gjellestad Across Boarders”. Jego celem jest określenia historii rozwoju Gjellestad na przestrzeni całej epoki żelaza. Już przed trzema laty, gdy po raz pierwszy archeolodzy wpadli na trop okrętu w kurhanie, wiadomo było, że jest to zapowiedzą kolejnych odkryć. Pochówki na okrętach nigdy bowiem nie występują osobno. Z czasem przypuszczenia się potwierdziły. Odkrycie kurhanów nie było tak naprawdę zaskoczeniem, gdyż kurhany są tez w okolicznych lasach. Ponadto już wcześniej na polecenie gminy Viken prowadzono tutaj badania i dokonano odkryć wskazujących, że powinno być więcej kurhanów, mówi Gustavsen. W ciągu kilku najbliższych lat prawdopodobnie dowiemy się więcej o związkach pomiędzy długimi domami, wrakiem i znaczeniem tego miejsca, dodaje. « powrót do artykułu
-
- wikingowie
- długi dom
-
(i 2 więcej)
Oznaczone tagami:
-
Szybkość komputera – jakie podzespoły mają znaczenie?
KopalniaWiedzy.pl dodał temat w dziale Artykuły
Dobór odpowiednich podzespołów w komputerze ma ogromny wpływ na płynność rozgrywki czy wydajność wykonywanej pracy. Warto dowiedzieć się, które komponenty mają największe znaczenie pod tym względem. Procesor – serce komputera CPU, czyli właśnie procesor, to miejsce, w którym nieustannie przeprowadzane są obliczenia odpowiedzialne za pracę całego systemu. Przez centralną jednostkę obliczeniową przechodzą wszystkie polecenia do wykonania przez komputer. Szybkość tego podzespołu określa się na podstawie taktowania zegara, czyli liczby cykli otwierania i zamykania tranzystorów na sekundę. Wartość ta w nowych układach jest naprawdę wysoka – 1 GHz oznacza miliard cykli na sekundę, a taktowanie najnowszych procesorów może nawet przekraczać 5 GHz. Dodatkowo parametr ten jest zazwyczaj podawany w odniesieniu do jednego rdzenia, podczas gdy najpopularniejsze modele korzystają z 4, 6 lub 8 rdzeni. Liczba cykli bezpośrednio wyznacza liczbę operacji, które może wykonać CPU – wyższe taktowanie przekłada się zatem na szybsze działanie aplikacji, gier i każdego innego procesu. Wymiana procesora może dodatkowo pociągnąć za sobą konieczność zastosowania innej płyty głównej. Powodem jest obecność różnych gniazd do obsługi procesora. Intel i AMD korzystają z nieco odmiennych formatów. Co więcej, poszczególne generacje CPU zwykle wprowadzają drobne zmiany w tej kwestii. Choć płyta główna sama w sobie ma niewielki wpływ na szybkość komputera, jej konfiguracja wpływa na dobór innych komponentów, takich jak właśnie procesor czy RAM. Aby znaleźć najlepszą płytę główną dla siebie, odwiedź https://www.sferis.pl/plyty-glowne-2894/gigabyte. Chłodzenie procesora – istotna kwestia Ważną kwestią, na którą warto zwrócić uwagę, jest również chłodzenie procesora. Spora część modeli jest sprzedawanych od razu z tego typu elementem, jednak nie jest to reguła. Propozycje bez chłodzenia producenta to najczęściej najwydajniejsze modele z danej generacji, w przypadku których większość osób i tak stawia na dedykowane rozwiązania. Odpowiednie chłodzenie pozwala zapewnić, że procesor będzie w stanie pracować na wysokich obrotach bez ryzyka awarii. Zdecydowanie nie zaleca się korzystania z CPU bez żadnego chłodzenia – w takiej sytuacji wystarczy kilka sekund, by jednostka obliczeniowa uległa nieodwracalnemu zniszczeniu. Kiedy warto zainwestować w wydajną kartę graficzną? Ten podzespół odpowiada za renderowanie grafiki, a dodatkowo może wspierać obliczenia głównej jednostki. Modele od najlepszych producentów można znaleźć między innymi na https://www.sferis.pl/karty-graficzne-2889/gigabyte. Wydajna karta graficzna to wymóg przede wszystkim dla graczy i osób wykonujących intensywne prace związane z renderowaniem obrazu. Jej wpływ na szybkość komputera zależy jednak od tego, w jaki sposób korzystamy ze sprzętu. Największe zmiany odczujemy właśnie w przypadku gier i programów do obsługi wideo. Jeżeli jednak komputer służy nam przede wszystkim do przeglądania internetu i innych, mniej wymagających zadań, możemy ograniczyć wydatki, stawiając na procesor wyposażony w zintegrowaną grafikę. Nośniki danych – rodzaj napędu ma spore znaczenie W tym przypadku rozróżniamy dwa główne typy nośników: • HDD, czyli dysk twardy – jego działanie opiera się na magnesowaniu odpowiednich części ruchomych talerzy; • SSD, czyli napęd półprzewodnikowy – wszystkie operacje są wykonywane czysto elektronicznie, z pomocą tranzystorów. Jak wygląda różnica pomiędzy nimi w codziennym zastosowaniu? Niemal wszystkie argumenty przemawiają za SSD. Przesył danych w najnowszych modelach sięga nawet kilku gigabajtów na sekundę, podczas gdy najwydajniejsze HDD osiągają zwykle maksymalnie 600 MB/s. To sprawia, że zarówno sam system, jak i wszelkie programy oraz aplikacje będą uruchamiać się i działać o wiele szybciej. Dodatkowo SSD pracuje znacznie ciszej, zachowując przy tym wyższą wydajność energetyczną. « powrót do artykułu -
Bakteria wąglika atakuje ludzkość od niepamiętnych czasów. Badania przeprowadzone w Cornell College of Veterinary Medicine wykazały, że w toku ewolucji ludzie wielokrotnie nabywali większej odporności na wąglika. Doszło do tego wówczas, gdy w ich diecie w większym stopniu pojawiło się mięso przeżuwaczy czy po upowszechniania się rolnictwa. Dzięki temu Homo sapiens, przede wszystkim Europejczycy i ich potomkowie, posiada mniej receptorów umożliwiających zakażenie wąglikiem. Znaleźliśmy dowody na wieloetapową adaptację ludzi do współistnienia z wąglikiem. To najważniejsze nasze odkrycie, mówi profesor Charles Danko, który stał na czele grupy badawczej. Głównym gospodarzem wąglika są przeżuwacze, jak krowy czy owce. Zwierzęta, pożywiając się, wdychają spory wąglika znajdujące się w trawie, zarażają się i wkrótce giną od toksyn wytwarzanych przez bakterie. Z rozkładających się ciał zwierząt bakterie wracają do gleby i roślin i cykl się powtarza. Zanim Danko nie przeprowadził swoich badań, nie było jasne, jak ludzie zostali włączeni w ten cykl. Naukowcy badali ekspresję genów u wielu różnych gatunków i prowadzili badania na próbkach pobranych od ludzi i naczelnych. Okazało się, że receptor toksyny wąglika ANTXR2, który umożliwia wniknięcie toksyny do komórek, jest obecny u wielu gatunków ssaków, w tym u naczelnych. Ekspresja genu ANTXR2 jest stała na przestrzeni ponad 100 milionów lat ewolucji. Jednak okazuje się, że u ludzi doszło do olbrzymiego jej spadku. I to nas zainteresowało, mówi Danko. Na przykładzie przeprowadzonych badań dobrze widać ewolucję w praktyce. Wynika z nich bowiem, że pierwsi ludzie, którzy pojawili się w subsaharyjskiej Afryce, coraz częściej zjadali zwierzęta przeżuwające. Mieli więc większy kontakt z wąglikiem niż ich zwierzęcy przodkowie. Wąglik musiał doprowadzić do wymarcia wielu z pierwszych społeczności. Przeżyli ci ludzie, którzy posiadali naturalną odporność na wąglika, np. mieli mniej receptorów ANTXR2. Następnie naukowcy sprawdzili różne populacje pod kątem ekspresji wspomnianego genu. Wzięli pod lupę m.in. Europejczyków, Chińczyków, Japończyków i Joruba. Odkryli, że u wszystkich widoczne jest zmniejszenie ekspresji tego receptora. Jednak u Europejczyków jest ona najmniejsza. Zgadza się to z wcześniejszymi obserwacjami, z których wynikało, że Europejczycy są mniej wrażliwi na toksynę wąglika niż Azjaci czy Afrykanie. Nasze badania dowodzą, że Europejczycy dłużej niż inne populacje mają kontakt z wąglikiem, stwierdza Danko. To nabywanie odporności zgodne jest z wzorcami ludzkiej migracji i rozprzestrzeniania się rolnictwa. Jednym z przykładów takiego kontaktu jest „choroba sortowaczy wełny”. To płucna, wyjątkowo śmiercionośna odmiana wąglika, która w XIX wieku zabijała osoby sortujące wełnę. W kolejnym etapie badań Danko i jego grupa chcą m.in. zbadać inne populacje ludzkie, w tym i takie, które były historycznie bardziej izolowane, pod kątem odporności na wąglika. Mają zamiar sprawdzić, czy i w ich przypadku da się zauważyć dotychczas obserwowany wzorzec wspólnej ewolucji. Szczegóły badań znajdziemy w artykule Multiple stages of evolutionary change in anthrax toxin receptor expression in humans. « powrót do artykułu
-
Skąd się wziął Omikron? Naukowcy wciąż szukają jego źródła
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Niedawno zidentyfikowany wariant Omikron koronawirusa SARS-CoV-2 wywołał spore poruszenie wśród ekspertów. Tym, czego najbardziej obawiają się specjaliści, jest duża liczba zmian w tym wariancie. Zawiera on bowiem ponad 30 mutacji w białku S. Tym, które umożliwia wirusowi infekowanie komórek naszego organizmu. Na razie nie wiemy, czy Omikron jest bardziej zaraźliwy, czy powodowana nim choroba przebiega w inny sposób niż w przypadku wcześniejszych wariantów i czy obecnie dostępne szczepionki są równie skuteczne w jego przypadku. W RPA ukazały się właśnie wstępne wyniki badań sugerujących, że Omikron może z trzykrotnie większym prawdopodobieństwem może ponownie infekować ludzi. Wyniki tych badań nie zostały jeszcze opublikowane w recenzowanym czasopiśmie. Wydaje się, że Omikron pojawił się bardzo szybko, a specjaliści próbują zrozumieć, jak doszło do pojawienia się tak wielu mutacji w tak krótkim czasie. Jedną z możliwych dróg pojawienia się tak mocno zmutowanego wariantu jest jego wcześniejsze krążenie w izolowanej populacji, w której miał więcej możliwości zmiany niż w populacji ogólnej. Później mógł się rozprzestrzenić po poza tę populację. Alternatywnym wyjaśnieniem jest pojawienie się wielu mutacji u pojedynczej osoby. Taki scenariusz jest możliwy w przypadku osoby o osłabionym układzie odpornościowym, na przykład u nosiciela wirus HIV. RPA, gdzie po raz pierwszy odkryto wariant Omikron, ma największą na świecie populację nosicieli HIV. Mimo, że w międzyczasie zidentyfikowali starsze przypadki Omikrona w USA i Europie, scenariusza o dużej liczbie mutacji u pojedynczej osoby nie można wykluczyć. Masz układ odpornościowy składa się m.in. z komórek CD4+, które stymulują inne limfocyty T do ataku. U osób ze zdrowym układem odpornościowym limfocyty T niszczą komórki zarażone wirusem. Jednak u osób z osłabionym układem odpornościowym liczba komórek CD4+ T jest niewielka. Dlatego też może u nich dojść do długotrwałej infekcji. W trakcie jej trwania organizm nie jest jednak całkowicie bezbronny. Wytwarza on bowiem limfocyty B. Rozpoczyna się wyścig zbrojeń pomiędzy wirusem a układem odpornościowym. Atak ze strony limfocytów B jest na tyle słaby, że nie jest w stanie oczyścić organizmu z wirusa, jednak wywiera presję ewolucyjną na wirusa, który zaczyna mutować, by uniknąć ataku. Wiemy, że taki scenariusz jest możliwy, gdyż już przed kilkoma miesiącami w RPA opisano przypadek nosicielki wirusa HIV, która przez ponad pół roku była zarażona SARS-CoV-2. W tym czasie wirus w jej organizmie uległ licznym mutacjom, a część z nich pojawiła się w białku S. Jeszcze inną możliwą drogą nabycia tak wielu mutacji w krótkim czasie jest pojawienie się ich wśród zwierząt. Wiele dowodów wskazuje na to, że SARS-CoV-2 pochodzi od nietoperzy, znamy też przykłady przechodzenia tego wirusa z ludzi na zwierzęta. Nie można więc wykluczyć, że jakieś zwierzęta zaraziły się od ludzi SARS-CoV-2, w ich organizmach wirus zetknął się z zupełnie innym środowiskiem, inną presją ze strony układu odpornościowego, nabył wielu mutacji i ponownie zaraził człowieka. Jednak, jak podkreśla Gonzalo Bello z Instytutu Oswaldo Cruza w Rio de Janeiro, który badał brazylijską odmianę Gamma, taka droga nabycia dużej liczby mutacji to obecnie wyłącznie spekulacja. Dobre zrozumienie historii i ewolucji wariantu Omikron będzie wymagało zidentyfikowania pierwszego pacjenta lub społeczności, w której się pojawił. To jednak będzie bardzo trudne, gdyż wychwytujemy jedynie niewielką część zarażonych ludzi. Jednak im więcej przypadków Omikrona zostanie znalezionych, a ich genomy zsekwencjonowane, tym większe prawdopodobieństwo, że uda się określić obszar i czas, w którym po raz pierwszy się pojawił. « powrót do artykułu- 193 odpowiedzi
-
- Omikron
- koronawirus
-
(i 1 więcej)
Oznaczone tagami:
-
NASA uruchomiła system monitoringu asteroid nowej generacji. Dzięki niemu Agencja lepiej będzie mogła ocenić zagrożenie, jakie dla naszej planety stwarzają poszczególne asteroidy. Obecnie znamy 27 744 asteroid bliskich Ziemi. Jest wśród nich 889 obiektów o średnicy przekraczającej 1 km i 9945 asteroid o średnicy ponad 140 metrów. Jednak w najbliższym czasie ich liczba znacznie się zwiększy. Stąd potrzeba doskonalszego algorytmu oceny zagrożenia. W ciągu najbliższych lat prace rozpoczną nowocześniejsze, bardziej zaawansowane teleskopy. Można się więc spodziewać szybkiego wzrostu liczy nowo odkrytych asteroid, których orbity trzeba będzie obliczyć i nadzorować. W kulturze popularnej asteroidy są często przedstawiane jako obiekty chaotyczne, gwałtownie zmieniające kurs i zagrażające Ziemi. W rzeczywistości jednak są niezwykle przewidywalne i krążą wokół Słońca po znanych orbitach. Czasem jednak z obliczeń wynika, że orbita asteroidy znajdzie się blisko Ziemi. Wówczas, ze względu na niewielkie niepewności co do dokładnej pozycji asteroidy, nie można całkowicie wykluczyć uderzenia. Astronomowie używają się złożonych systemów monitorowani i obliczania orbit, które automatycznie obliczają ryzyko zderzenia asteroidy z Ziemią. Należące do NASA Center for Near Earth Object Studies (CNEOS) oblicza orbity dla każdej znanej asteroidy i przekazuje dane do Planetary Defense Coordinatio Office (PDCO). Od 2002 roku CNEOS wykorzystuje w tym celu oprogramowanie Sentry. Pierwsza wersja Sentry to bardzo dobre oprogramowanie, które działa od niemal 20 lat. Wykorzystuje bardzo sprytne algorytmy. W czasie krótszym niż godzina potrafi z dużym prawdopodobieństwem ocenić ryzyko zderzenia z konkretną asteroidą w ciągu najbliższych 100 lat, mówi Javier Roa Vicens, który stał na czele grupy pracującej nad Sentry-II, a niedawno przeniósł się do SpaceX. Sentry-II korzysta z nowych bardziej dokładnych i wiarygodnych algorytmów, które potrafią obliczyć ryzyko uderzenia z dokładnością wynoszącą ok. 5 na 10 000 000. Ponadto bierze pod uwagę pewne elementy, których nie uwzględniało Sentry. Gdy asteroida wędruje w Układzie Słonecznym, o jej orbicie decyduje przede wszystkim oddziaływanie grawitacyjne Słońca. Wpływ na jej orbitę ma też grawitacja planet. Sentry z dużą dokładnością potrafi obliczyć wpływ sił grawitacyjnych, pokazując, w którym miejscu przestrzeni kosmicznej asteroida znajdzie się za kilkadziesąt lat. Jednak Sentry nie uwzględnia sił innych niż grawitacja. A najważniejszymi z nich są siły oddziałujące na asteroidę w wyniku ogrzewania jej przez Słońce. Asteroidy obracają się wokół własnej osi. Zatem są ogrzewane przez Słońce z jednej strony, następnie ogrzana strona odwraca się od Słońca i stygnie. Uwalniana jest wówczas energia w postaci promieniowania podczerwonego, która działa jak niewielki, ale stały napęd. To tzw. efekt Jarkowskiego. Ma on niewielki wpływ na ruch asteroidy w krótki terminie, jednak na przestrzeni dekad i wieków może znacząco zmienić orbitę asteroidy. Fakt, że Sentry nie potrafił automatycznie uwzględniać efektu Jarkowskiego był poważnym ograniczeniem. Za każdym razem, gdy mieliśmy do czynienia z jakimś szczególnym przypadkiem – jak asteroidy Apophis, Bennu czy 1950 DA – musieliśmy ręcznie dokonywać skomplikowanych długotrwałych obliczeń. Dzięki Sentry-II nie będziemy musieli tego robić, mówi Davide Farnocchia, który pracował przy Sentry-II. Ponadto oryginalny algorytm Sentry miał czasem problemy z określeniem prawdopodobieństwa kolizji, gdy orbita asteroidy miała znaleźć się niezwykle blisko Ziemi. Na takie asteroidy w znaczący sposób wpływa grawitacja planety i w takich przypadkach gwałtownie rosła niepewność co do przyszłej orbity asteroidy po bliskim spotkaniu z Ziemią. Sentry mógł mieć wówczas problemy i konieczne było przeprowadzanie ręcznych obliczeń i wprowadzanie poprawek. W Sentry-II nie będzie tego problemu. Co prawda takie szczególne przypadki stanowią obecnie niewielki odsetek wszystkich obliczeń, ale spodziewamy się, że po wystrzeleniu przez NASA misji NEO Surveyor i uruchomieniu Vera C. Rubin Observatory, ich liczba wzrośnie, musimy więc być przygotowani, mówi Roa Vicens. NASA zdradza również, że istnieje zasadnicza różnica w sposobie pracy Sentry i Sentry-II. Dotychacz gdy teleskopy zauważyły nieznany dotychczas obiekt bliski Ziemi astronomowie określali jego pozycję na niebie i wysyłali dane to Minor Planet Center. Dane te były wykorzystywane przez CNEOS do określenia najbardziej prawdopodobnej orbity asteroidy wokół Słońca. Jednak, jako że istnieje pewien margines niepewności odnośnie obserwowanej pozycji asteroidy wiadomo, że orbita najbardziej prawdopodobna nie musi być tą prawdziwą. Rzeczywista orbita asteroidy mieści się w znanych granicach niepewności pomiarowej. Sentry, by obliczyć prawdopodobieństwo zderzenia z Ziemią, wybierał zestaw równomiernie rozłożonych punktów w obszarze niepewności pomiarowej, uwzględniając przy tym jednak tę część obszaru, w której z największym prawdopodobieństwem znajdowały się orbity zagrażające Ziemi. Każdy z punktów reprezentował nieco inną możliwą rzeczywistą pozycję asteroidy. Następnie dla każdego z nich algorytm określał orbitę asteroidy w przyszłości i sprawdzał, czy któraś z nich przebiega blisko Ziemi. Jeśli tak, to skupiał się na tej orbicie, wyliczając dla niej prawdopodobieństwo uderzenia. Sentry-II działa inaczej. Wybiera tysiące punktów rozłożonych na całym obszarze niepewności pomiarowej. Następnie sprawdza, które z możliwych punktów w całym regionie są powiązane z orbitami zagrażającymi Ziemi. Innymi słowy, Sentry-II nie jest ograniczony założeniami dotyczącymi tego, gdzie na obszarze marginesu błędu pomiarowego mogą znajdować się orbity najbardziej zagrażające Ziemi. Bierze pod uwagę cały obszar, dzięki czemu może wyłapać też bardzo mało prawdopodobne scenariusze zderzeń, które mogły umykać uwadze Sentry. Farnocchia porównuje to do szukania igły w stogu siana. Igły to możliwe zderzenia, a stóg siana to cały obszar błędu pomiarowego. Im większa niepewność odnośnie pozycji asteroidy, tym większy stóg siana, w którym trzeba szukać. Sentry sprawdzał stóg siana wielokrotnie, szukając igieł wzdłuż pojedynczej linii przebiegającej przez cały stóg. Sentry-II nie korzysta z żadnej linii. Szuka w całym stogu. Sentry-II to olbrzymi postęp w dziedzinie zidentyfikowania nawet najmniej prawdopodobnych scenariuszy zderzenia wśród olbrzymiej liczby wszystkich scenariuszy. Gdy konsekwencje przyszłego uderzenia asteroidy mogą być naprawdę katastrofalne, opłaca się poszukać nawet tych mało prawdopodobnych scenariuszy, mówi Steve Chesley, który stał na czele grupy opracowującej Sentry i pomagał przy pracy nad Sentry-II. Szczegółowy opis Sentry-II znajdziemy na łamach The Astronomical Journal. Poniższy film pokazuje zaś w jaki sposób określono orbitę asteroidy Bennu z uwzględnieniem sił grawitacyjnych i niegrawitacyjnych. « powrót do artykułu