-
Liczba zawartości
37638 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Od początku pandemii COVID-19 możemy oglądać w mediach zdjęcia i grafiki reprezentujące koronawirusa SARS-CoV-2. Wyobrażamy go sobie jako sferę z wystającymi białkami S. Obraz ten nie jest do końca prawdziwy, gdyż w rzeczywistości wirion – cząstka wirusowa zdolna do przetrwania poza komórką i zakażania – jest elipsoidą, która może przyjmować wiele różnych kształtów. Z rzadka jest to kształt kulisty. Teraz naukowcy z kanadyjskiego Queen's University oraz japońskiego Okinawa Institute of Science and Technology (OIST) przeprowadzili modelowanie komputerowe, podczas którego zbadali, jak różne kształty wirionów wpływają na zdolność SARS-CoV-2 do infekowania komórek. Naukowcy sprawdzali, jak wiriony o różnych kształtach przemieszczają się w płynie, gdyż to właśnie wpływa na łatwość transmisji. Gdy wirion trafi do naszych dróg oddechowych, przemieszcza się w nosie i płucach. Chcieliśmy zbadać jego mobilność w tych środowiskach, mówi profesor Eliot Fried z OIST. Uczeni modelowali dyfuzję rotacyjną, która określa, z jaką prędkością cząstki obracają się wokół osi prostopadłej do powierzchni błony. Cząstki bardziej gładkie i bardziej hydrodynamiczne napotykają mniejszy opór i obracają się szybciej. W przypadku koronawirusa prędkość obrotu wpływa na zdolność do przyłączenia się do komórki i jej zainfekowania. Jeśli cząstka obraca się zbyt szybko, może mieć zbyt mało czasu na interakcję z komórką i jej zarażenie. Gdy zaś obraca się zbyt wolno, może nie być w stanie przeprowadzić interakcji w odpowiedni sposób, wyjaśnia profesor Fried. Uczeni modelowali elipsoidy spłaszczone i wydłużone. Sfera to rodzaj elipsoidy obrotowej, która ma wszystkie trzy półosie równe. Elipsoida spłaszczona ma jedną oś krótszą od dwóch pozostałych, elipsoida wydłużona – jedną oś dłuższą od dwóch pozostałych. Możemy sobie to wyobrazić przyjmując, że elipsoida spłaszczona, to kula, która zmienia kształt tak, by stać się monetą, a elipsoida wydłużona to kula, która próbuje stać się prętem. Oczywiście w przypadku wirionów zmiany są bardzo subtelne. Aby uzyskać większy realizm, naukowcy dodali do swoich elipsoid wystające białka S, symbolizowane przez kule na powierzchni elipsoidy. Przyjęliśmy też założenie, że każde z białek S ma ten sam ładunek elektryczny, przez co odpychają się od siebie, to zaś powoduje, że są równomiernie rozłożone na całej powierzchni elipsoidy, dodaje doktor Vikash Chaurasia z OIST. Analizy wykazały, że im bardziej kształt wirionu odbiega od kształtu kuli, tym wolniej się on obraca. To może oznaczać, że łatwiej mu będzie przyłączyć się do komórki i ją zarazić. Autorzy badań przyznają, że ich model jest uproszczony, jednak pozwala nam lepiej zrozumieć właściwości koronawirua i jedne z czynników wpływających na łatwość, z jaką nas zaraża. « powrót do artykułu
-
- SARS-CoV-2
- koronawirus
-
(i 3 więcej)
Oznaczone tagami:
-
Teleskop Webba sfotografował swoją pierwszą egzoplanetę
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
Teleskop Webba wykonał pierwsze zdjęcia planety pozasłonecznej. Na fotografiach widzimy gazowego olbrzyma HIP65426b. To planeta o masie od 5 do 10 razy większej od Jowisza, która powstała zaledwie 15–20 milionów lat temu. Znajduje się w odległości 385 lat świetlnych od Ziemi. Na czele zespołu badawczego, który wykonał zdjęcia, stał profesor Sasha Hinkley z University of Exeter. To bardzo ważny moment nie tylko dla Webba, ale dla astronomii. Dzięki Webbowi, obserwując za jego pomocą skład chemiczny planet, możemy bowiem opisywać zjawiska fizyczne na nich zachodzące, stwierdza uczony. Planeta została odkryta w 2017 roku za pomocą urządzenia SPHERE na Very Large Telescope. Dysponowaliśmy jedynie jej obrazami wykonanymi w krótkich falach podczerwieni, które pokazywały dość wąski zakres emisji z planety. Większość planet pozasłonecznych wykrywamy metodami pośrednimi, np. rejestrując regularne spadki jasności ich gwiazd, świadczące o tym, że na tle gwiazdy przeszła planeta. Wykonanie bezpośredniego obrazowania planety jest znacznie trudniejszym wyzwaniem, gdyż gwiazdy są wielokrotnie jaśniejsze od planet, więc ich blask przesłania nam krążące wokół nich planety. W przypadku HIP65426b różnica jasności między planetą a jej gwiazdą wynosiła od kilku do ponad 10 tysięcy. Nowe zdjęcia wykonano w kilku różnych zakresach podczerwieni: 3,00 mikrometrów (to zdjęcie wykonało urządzenie NIRCam), 4,44 mm (NIRCam), 11,4o mm (MIRI) oraz 15,50 (MIRI). Fotografii takich nie można wykonać z Ziemi, gdyż przeszkadza światło podczerwone emitowane przez naszą atmosferę. Bezpośrednie obrazowanie planety było możliwe dzięki temu, że znajduje się ona 100-krotnie dalej od swojej gwiazdy macierzystej niż Ziemia od Słońca. Do pozwoliło Webbowi odróżnić ją od gwiazdy. Instrumenty NIRCam i MIRI są wyposażone w koronografy. To zestaw niewielkich masek, które blokują światło gwiazd, pozwalając dojrzeć obiekty, które w innym przypadku byłyby niewidoczne przez blask gwiazdy. « powrót do artykułu-
- Teleskop Webba
- JWST
-
(i 4 więcej)
Oznaczone tagami:
-
W bawarskiej miejscowości Endsee archeolodzy prowadzili wykopaliska wczesnośredniowiecznego pochówku, gdy trafili na żelazną ramę. Szybko okazało się, że to... żelazne składane krzesło z około 600 roku. To zaledwie drugie wczesnośredniowieczne żelazne składane krzesło znalezione na terenie Niemiec. To co na pierwszy rzut oka wydaje się współczesny przedmiotem, daje nam wyjątkowy wgląd w życie klas wyższych i wczesne użycie mebli, wyjaśnia profesor Mathias Pfeil, szef Bawarskiego Krajowego Biura Ochrony Zabytków. Krzesło, które po złożeniu ma wymiary 70x45 cm, znajdowało się w grobie kobiety, której wiek w chwili śmierci określono wstępnie na 40–50 lat. Zmarłą ubrano w naszyjnik z wielokolorowych szklanych koralików. Znaleziono też przy niej dwie brosze zapinane na szyi, płaską broszę z almandynu, duży koralik wykonany techniką millefiori oraz przęślik. Krzesło znajdowało się u stóp kobiety, a obok niego złożono kość zwierzęcą, prawdopodobnie krowie żebro, stanowiące część ofiary. Resztki drewnianych paneli sugerują, że zmarłą pochowano w zamkniętej komorze grobowej. Obok grobu kobiety odkryto drugi, niemal równoległy pochówek mężczyzny zorientowany w osi wschód-zachód. Na ostatnią drogę mężczyzna został wyposażony w pas z zapięciem z brązu, przypiętą do pasa sakiewkę, pełne wyposażenie bojowe, na które składała się lanca, tarcza oraz spatha czyli długi miecz używany przez jazdę rzymską. Przedmioty takie jak składane krzesło są niezwykle rzadko znajdowane w grobach. Specjaliści uważają, że stanowią one specjalny prezent grobowy, oznaczający, że zmarły dzierżył wysokie stanowisko lub miał wysoki status społeczny. Dotychczas w grobach na terenie całej Europy znaleziono jedynie 29 wczesnośredniowiecznych składanych krzeseł, z czego zaledwie 6 to krzesła żelazne. Krzesła takie zwykle znajdowane są w grobach kobiet. Składne krzesła z żelaza i brązu były znane już starożytnym Rzymianom. Najbardziej znane z nich, sella curulis, czyli krzesło kurulne, należało do insygniów władzy. Początkowo przysługiwało ono królom, później również wysokim rangą urzędnikom. « powrót do artykułu
-
- Bawaria
- składane krzesło
-
(i 2 więcej)
Oznaczone tagami:
-
Ręczne planowanie harmonogramu pracy to złożone i czasochłonne zadanie. Osoba wykonująca to zadanie powinna znać przepisy prawa pracy regulujące czas pracy pracowników. Przerwy dzienne i tygodniowe powinny być uważnie monitorowane, aby dać uniknąć chaosu w firmie. Grafik pracy online, czyli przyszłość zastępuje przeszłość? Notatki papierowe, różne karteczki samoprzylepne czy notatniki są coraz częściej zastępowane przez nowoczesne, oparte na sztucznej inteligencji aplikacje z dostępem do Internetu. Innowacyjne funkcje, takie jak grafik online, znacznie ułatwiają pracę. To ciekawy rodzaj oprogramowania, które z pewnością przyda się w prawie każdej firmie, niezależnie od skali prowadzonej działalności biznesowej, branży rynkowej itp. Planowanie i zarządzanie godzinami pracy nigdy nie było łatwiejsze i wydajne. Na tym etapie należy dołożyć wszelkich starań, aby harmonogram był dobrze zorganizowany, ponieważ zły harmonogram zdezorganizować pracę w firmie. Grafik pracy online — co to jest? Grafik pracy online jest skutecznym i dokładnym narzędziem do tworzenia planów lekcji w każdej firmie. Oprogramowanie tego typu posiada również opcję przesyłania przypomnień o zadaniach, które są wysyłane do pracowników telefonicznie lub mailowo, co pozwala im lepiej planować różne zadania w firmie. Ponadto, aplikacje online mogą tworzyć harmonogramy pracy szybciej niż planowanie ręczne. Jest to szybsza, wygodniejsza i bezpieczniejsza metoda. Program działa w trybie online, dzięki czemu można go uruchomić z dowolnego miejsca z dostępem do Internetu. Grafik czasu pracy online a przepisy prawne Program rozkładu jazdy zawsze jest zgodny z obowiązującymi przepisami. Aplikacja jest bardzo funkcjonalna i może automatycznie wykrywać błędy w Twoim harmonogramie, dzięki czemu możesz natychmiast dostosować grafik do indywidualnych potrzeb. System pozwoli znaleźć Ci optymalne rozwiązania. Dzięki tak doskonałemu programowi cała firma korzysta z wygodnego i wygodnego zarządzania zadaniami, głównie na poziomie online. Grafik czasu pracy online Dobrze zorganizowany i efektywny grafik pracy to podstawa dobrze funkcjonującej firmy. Jego stworzenie nie jest jednak łatwe, a wyzwania rosną wraz z liczbą zarejestrowanych pracowników. Rozwój technologiczny ułatwia to zadanie dzięki dedykowanym systemom, które pozwalają tworzyć i monitorować harmonogramy pracy online. Jaki powinien być program do przygotowywania grafików pracy online? Przede wszystkim tworzenie grafiku pracy online powinno być łatwe i intuicyjne. Złożone i nieprzyjazne wizualnie systemy nic nie robią, a jedynie utrudniają zadanie. Wybierz oprogramowanie, które jest łatwe w użyciu. Takie narzędzia powinny nie tylko posiadać wszystkie systemy niezbędne do tworzenia i tworzenia grafików i grafików pracy. Muszę one również dawać możliwość zarządzania grafikami urlopów, raportami o godzinach i wynikach pracy itp. Pracodawca może dzięki temu uniknąć kosztów niepotrzebnych nadgodzin. Odpowiednio wdrożony system online to realne korzyści biznesowe dla firmy. Do takich systemów należy na przykład system inEwi, który umożliwia stworzenie elektronicznego grafiku pracy. Interesujące informacje na ten temat można znaleźć na stronach: https://inewi.pl/Funkcje/Grafiki-Pracy oraz na: https://inewi.pl/Elektroniczny-Obieg-Dokumentow. « powrót do artykułu
-
Ze względu na specyficzną konstrukcję domu, odległość budynku od sieci cieplnej umożliwiającej instalację centralnego ogrzewania oraz z szeregu innych powodów wiele osób szuka alternatywnych sposobów na ogrzanie poszczególnych pomieszczeń, całego domu lub tarasu. Część konsumentów jest zainteresowana ogrzewaniem, które w przyszłości potencjalnie mogłoby być zasilane z odnawialnych źródeł energii, inni szukają rozwiązań, których wdrożenie nie wymaga kosztownych remontów. W efekcie tych poszukiwań wiele osób decyduje się na ogrzewanie elektryczne, w tym konwektory i piece akumulacyjne, a także systemy ogrzewania powierzchniowego jak ogrzewanie podłogowe, ścienne i sufitowe. Jedną z metod elektrycznego ogrzewania są promienniki podczerwieni. Ogrzewanie za ich pomocą stale zyskuje na popularności ze względu na szereg zalet nad innymi formami ogrzewania elektrycznego, jak i tego, które pochodzi z innych źródeł. Ponieważ montaż promienników podczerwieni nie jest inwazyjny i nie wymaga kosztownych remontów, mogą one stanowić również uzupełnienie innych rodzajów ogrzewania. Czym jest i jak działa promiennik podczerwieni? Promienniki podczerwieni to płaskie panele zasilane energią elektryczną. Grzałka będąca częścią urządzenia sprawia, że emitowane jest promieniowanie podczerwone niewidoczne dla ludzkiego oka. Powierzchnia przedmiotów, ludzi i zwierząt, które znajdują się w pewnej odległości od promiennika, podlega ogrzaniu. Efekt komfortowego ciepła odczuwalny jest już po chwili działania urządzenia. Jest to cecha, która wyraźnie odróżnia promienniki podczerwieni od zwykłych grzejników konwekcyjnych. Tradycyjne grzejniki powodują cyrkulację nagrzanego powietrza, które ostatecznie unosi się ku górze. Promienniki podczerwieni natomiast ogrzewają przede wszystkim powierzchnie rzeczy w swoim otoczeniu, a nie samo powietrze. Nagrzane powierzchnie oczywiście są w stanie częściowo oddawać ciepło. Poza sprawnym dostarczaniem komfortu cieplnego charakterystyka działania promienników podczerwieni wiąże się z dodatkowymi korzyściami. Ponieważ ten rodzaj urządzeń nie wprawia w ruch powietrza, a wraz z nim kurzu i brudu, promienniki ciepła stanowią znacznie zdrowszą metodę ogrzewania dla alergików i astmatyków. Ogrzewanie podczerwienią nie wysusza również powietrza w pomieszczeniu. Pewien stopień wilgotności pomaga zachować zdrowie gardła, całych dróg oddechowych oraz spojówek oczu, które są wrażliwe na suchość powietrza. Ile kosztuje ogrzewanie promiennikiem podczerwieni? Ostateczne koszty montażu i późniejszej eksploatacji ogrzewania pomieszczeń przez elektryczne promienniki podczerwieni mogą zależeć od wielu indywidualnych czynników takich jak stopień ocieplenia domu, sprawność wybranego modelu, rodzaj konstrukcji domu (ogrzewanie promiennikowe polecane jest zwłaszcza w przypadku konstrukcji szkieletowych). To czy promiennik podczerwieni będzie dobrym wyborem pod względem ekonomicznym, zależy od oczekiwań użytkownika względem tego typu urządzenia. Czy chodzi o pojedynczy promiennik, którego zadaniem będzie jedynie dogrzanie stanowiska pracy lub czy promienniki na podczerwień mają stanowić jedyne źródło ciepła całego domu? Przy obecnych kosztach energii elektrycznej ogrzewanie promiennikiem na podczerwień jest szacunkowo oszczędniejsze od ogrzewania ekogroszkiem, gazem ziemnym, pelletem lub olejem opałowym. W ocenie kosztów warto mieć na uwadze też koszty montażu, które w przypadku promienników na podczerwień są niskie, a sama instalacja nie wymaga inwazyjnych remontów. Promiennik promiennikowi nierówny - o technologiach i funkcjonalnościach Wszystkie promienniki na podczerwień zapewnią komfort cieplny, ale różne modele urządzeń mogą się sprawdzać w różnych warunkach, odpowiadać na specyficzne zapotrzebowanie. Aby upewnić się, że kupiony promiennik podczerwieni spełni wszystkie oczekiwania, warto zapoznać się z kilkoma cechami, którymi mogą wyróżniać się poszczególne modele: Wodoodporność — część urządzeń jest zgodna z różnym stopniem normy IP, która opisuje poziom odporności na kurz i wodę. Zwróć uwagę na ten parametr, jeśli chcesz ogrzać łazienkę, w której często panuje wysoka wilgotność powietrza. IP54 powinno w zupełności wystarczyć, gdyż urządzenia o tym poziomie szczelności są w stanie wytrzymać nawet delikatne zachlapania. Wbudowane oświetlenie — ponieważ promienniki podczerwieni montuje się pod sufitem, stanowią idealne urządzenie, aby zintegrować je z systemem oświetlenia, zwłaszcza jeśli mamy do czynienia z niewielkim pomieszczeniem, gdzie samo umieszczenie promiennika pod sufitem nie zostawia wiele miejsca na dodatkowy montaż żyrandola. Nóżki w zestawie lub możliwość ich zastosowania — jeśli promiennik podczerwieni ma służyć jedynie dogrzewaniu pewnych pomieszczeń np. stanowiska pracy lub miejsca snu, nóżki lub nóżki na kółkach umożliwią łatwe stawianie urządzenia na podłodze i przenoszenie go, tylko w czasie, gdy potrzebne jest chwilowe dogrzanie. Obsługa aplikacji — coraz więcej modeli urządzeń oferujących ogrzewanie na podczerwień ma wsparcie dla aplikacji na smartfony, dzięki której łatwo zdalnie sterować promiennikiem. Aplikacje mobilne umożliwiają także skonfigurowanie wielu różnych scenariuszy automatyzacji ogrzewania za pomocą promienników np. włączanie i wyłączanie urządzeń powiązane ze wschodami i zachodami słońca. Zwracając uwagę na te cechy urządzeń, na pewno będziesz w stanie wybrać promiennik podczerwieni, który spełni Twoje indywidualne oczekiwania i już niedługo będziesz się cieszyć nowoczesnym, zdrowym i oszczędnym ogrzewaniem. Potrzebujesz pomocy w wyborze promiennika? Sprawdź artykuł o tym, jak wybrać promiennik podczerwieni. « powrót do artykułu
-
Ból to pożyteczny sygnał alarmowy, informujący nas o uszkodzeniu tkanek czy chorobie i skłaniający do wycofania się z nieprzyjemnej sytuacji oraz poszukania pomocy u lekarza. Gdy rana się zagoi, ból powinien ustąpić, ale wiele osób cierpi na ból nawet po całkowitym zagojeniu się rany. Co więcej, olbrzymia liczba osób na całym świecie zmaga się z chronicznym bólem, któremu w wielu przypadkach nie potrafimy przypisać żadnej przyczyny w postaci zranienia czy choroby. Mimo że z chronicznym bólem zmagają się miliony ludzi, wciąż jest on jednym z najsłabiej zarządzanych przez medycynę problemów zdrowotnych. Na łamach Science Translational Medicine ukazał się artykuł, którego autorzy informują o potencjalnych nowych metodach leczenia chronicznego bólu, a metody w zaskakujący sposób wiążą się z... nowotworem płuc. Autorami odkrycia są naukowcy z Instytutu Biotechnologii Molekularnej Austriackiej Akademii Nauk, Wydziału Medycyny Uniwersytetu Harvarda oraz Boston Children's Hospital. Już poprzednio wykazaliśmy, że neurony wytwarzają specyficzny metabolit, BH4, który napędza takie rodzaje chronicznego bólu jak ból neuropatyczny czy zapalny. Stężenie BH4 bardzo dobrze korelowało z intensywnością bólu. Uznaliśmy więc szlak sygnałowy BH4 za dobry cel poszukiwania nowych terapii przeciwbólowych, mówi Shane Cronin z Instytutu Biotechnologii Molekularnej. Naukowcy zaczęli więc poszukiwanie leków, które mogłyby obniżyć poziom BH4 w neuronach. W tym celu dokonali „analizy fenotypowej” 1000 substancji leczniczych zatwierdzonych przez FDA. Analiza ta pozwoliła im na poszukiwanie konkretnych, obecnych już na rynku, leków, które mogłyby pomóc. Analiza pozwoliła np. połączyć znane przeciwbólowe działanie niektórych substancji, jak kapsaicyna czy klonidyna, ze szlakiem sygnałowym BH4. Dzięki analizie dokonaliśmy też zaskakujących odkryć. Zauważyliśmy że flufenazyna – lek psychotropowy używany w leczeniu schizofrenii – blokuje szlak BH4 w uszkodzonych nerwach. Wykazaliśmy też, że działa w przypadku chronicznego bólu, mówi Cronin. Naukowcy przeprowadzili eksperymenty na myszach i stwierdzili, że flufenazyna wykazuje działanie przeciwbólowe już w niskich, bezpiecznych dla ludzi dawkach. Uczeni odkryli niespodziewany związek pomiędzy szlakiem sygnałowym BH4 a szlakiem sygnałowym EGFR/KRAS, który jest istotnym elementem powstawania i progresji wielu nowotworów. Okazało się, że zablokowanie szlaku EGFR/KAS zmniejsza wrażliwość na ból poprzez zmniejszenie poziomu BH4. Jako, że geny EGFR i KRAS są dwoma najczęściej podlegającymi mutacjom genami w nowotworach płuc, naukowcy przyjrzeli się BH4 w przypadkach nowotworów płuc na modelu mysim. Ku ich zdumieniu usunięcie ważnego enzymu GCH1 ze szlaku sygnałowego BH4 skutkowało zmniejszeniem liczby guzów oraz znacznym wydłużeniem życia myszy z nowotworem płuc z mutacją KRAS. Odkrycie wspólnych elementów chronicznego bólu i nowotworów płuc otwiera nowe możliwości leczenia obu schorzeń. Jednym z najbardziej interesujących aspektów badań jest odkrycie mechanistycznego związku pomiędzy bólem a nowotworem płuc. Ten sam wyzwalacz, który rozpoczyna wzrost guza płuc wydaje się być zaangażowany w uruchamianie ścieżki chronicznego bólu, jaki często przecież odczuwają osoby chore na nowotwory. Wiemy też, że nerwy czuciowe mogą napędzać nowotwory, a to wyjaśniałoby zaklęty krąg nowotworów i związanego z nimi bólu, stwierdza Josef Penninger, dyrektor Instytutu Biotechnologii Molekularnej. Zrozumienie tego wzajemnego związku będzie pomocne nie tylko w leczeniu nowotworów, ale również pozwoli poprawić jakość życia pacjentów nowotworowych i ulżyć ich bólowi, dodaje. « powrót do artykułu
-
Błyskotliwie łącząc tematy nauki i zbrodni, „Smak trucizny” ujawnia, jak jedenaście znanych substancji wpływa na organizm człowieka – na kanwie morderstw, w których ich użyto. Czytelnicy powieści kryminalnych doskonale wiedzą, że trucizna jest jedną z niezmiennie powracających metod wybieranych przez morderców. Można ją niepostrzeżenie dodać komuś do drinka, posmarować nią grot strzały lub klamkę, a nawet sprawić, że dostanie się do powietrza, którym oddychamy. Ale jak działa? Łącząc elementy historii medycyny oraz opisów rzeczywistych przestępstw, Neil Bradbury zgłębia tę metodę zabijania. Obok informacji o prawdziwych zabójcach i ich zbrodniach – tych osławionych, tych zapomnianych i tych wciąż nierozwiązanych – pojawiają się równie intrygujące dzieje samych trucizn: jedenastu cząsteczek śmierci, które niszcząc ciało człowieka, paradoksalnie pokazały nam, jak funkcjonuje nasz organizm. Poczynając od niebezpiecznej genezy powstania ginu z tonikiem, kończąc na przesyconej arszenikiem tapecie z sypialni Napoleona – „Smak trucizny” zabiera czytelnika w fascynującą podróż przez skomplikowane procesy, które nas utrzymują przy życiu... lub nie. Neil Bradbury jest profesorem fizjologii i biofizyki na Rosalind Franklin University of Medicine and Science, gdzie wykłada i prowadzi badania nad chorobami genetycznymi. Laureat wielu nagród za wyjątkowe podejście do nauczania fizjologii. Wyniki swoich badań prezentuje na całym świecie, jest autorem ponad osiemdziesięciu artykułów naukowych oraz współautorem kilku książek. Obecnie mieszka w Illinois z żoną i dwoma psami rasy border collie. „Smak trucizny” jest jego debiutem literackim. Premiera książki: 27.09.2022 Przeplata zdumiewające opowieści o prawdziwych zdarzeniach z pasjonującą historią najbardziej osławionych trucizn na świecie. Czytelnicy będą na przemian bawić się, bać i uczyć. Lydia Kang, współautorka bestsellera „Szarlatani: najgorsze pomysły w dziejach medycyny” Dzieło grozy pełne spontanicznej energii – zawarte w nim opowieści sprawią, że będziesz nieufnie obserwować współlokatorów i wąchać podaną ci kawę. Judy Melinek, współautorka bestsellera „Ciało nie kłamie” Cudownie wnikliwa i zajmująca. Czuje się entuzjazm Bradbury'ego dla poruszanego w książce tematu. Fascynująca lektura od początku do końca. Kathryn Harkup, autorka bestsellera „A is for Arsenic: The Poisons of Agatha Christie” Na przestrzeni wieków truciciele działali coraz sprytniej, a naukowcy coraz precyzyjniej potrafili wyjaśnić działanie trucizn. Nie mogłam się oderwać od lektury. Musiałam wiedzieć, jak i dlaczego specjaliści w dziedzinie kryminalistyki rozwiązują zagadki zbrodni, które jeszcze do niedawna mogły uchodzić za doskonałe. Penny Le Couteur, współautorka bestsellera „Guziki Napoleona: jak 17 cząsteczek zmieniło historię” Neil Bradbury pisze dowcipnie, błyskotliwie i ze znawstwem, a jego debiut pisarski z pewnością zaszokuje i zachwyci czytelników. Książka ogromnie mi się podobała i wam również przypadnie do gustu. Lindsey Fitzharris, autorka bestsellera „Rzeźnicy i lekarze. Makabryczny świat medycyny i rewolucja Josepha Listera” Absorbująca, fascynująca książka Bradbury'ego o niektórych spośród najokropniejszych zabójców w dziejach ludzkości – trucicielach. Jego fuzję nauki i zbrodni, popartą gruntownymi badaniami, czyta się jak thriller. Kate Winkler Dawson, autorka „American Sherlock: Murder, Forensics, and the Birth of American CSI”
-
Profesor Jadwiga Maria Giebultowicz i jej zespół z Oregon State University (OSU) ostrzegają, że nadmierna ekspozycja na niebieskie światło – które jest emitowane m.in. przez smartfony, telewizory i ekrany komputerowe – może zaburzać podstawowe czynności życiowy komórek i przyspieszać proces starzenia się. Nie od dzisiaj wiemy, że ten rodzaj światła uszkadza wzrok i zaburza rytm dobowy. Dane zebrane przez zespół Giebultowicz sugerują, że może ono przyspieszać starzenie się oraz procesy neurodegeneracyjne. Naukowcy z Oregonu wykorzystali podczas swoich badań muszki owocówki (Drosophila melanogaster), które w wyniku modyfikacji genetycznych przyszły na świat bez oczu. Część zwierząt była przez 10 lub 14 dni poddana ciągłej ekspozycji niebieskiego światła, część była trzymana w ciemności. Naukowcy porównywali następnie profile metaboliczne zwierząt. Analiza danych ujawniła, że pod wpływem niebieskiego światła u muszek doszło do znacznych zmian w poziomie występowania różnych metabolitów. Szczególnie dramatyczne zmiany zaszły w głowach zwierząt poddanych działaniu niebieskiego światła przez 14 dni. Doszło do znacznego zwiększenia kwasu bursztynowego i zmniejszenia poziomów kwasu pirogronowego i cytrynowego, co wskazuje na zaburzenia w produkcji energii. U muszek tych pojawiły się oznaki neurodegeneracji, a bliższa analiza pokazała zmniejszenie poziomu wielu neuroprzekaźników, w tym kwasu gamma-aminomasłowego (GABA) i glutaminianu. Nieprawidłowości te sugerują, że niebieskie światło zaburza homeostazę mózgu, czyli jego zdolność do utrzymywania stałych parametrów. Nadmierna ekspozycja na niebieskie światło, na jaką narażamy się korzystając z telewizorów, laptopów i smartfonów, może mieć niekorzystny wpływ na wiele komórek naszego organizmu, od komórek skóry i tkanki tłuszczowej, po neurony, mówi doktor Giebultowicz. Jako pierwsi pokazaliśmy, że konkretne metabolity – związki chemiczne pozwalające naszym komórkom na prawidłowe funkcjonowanie – ulegają zmianie u muszek owocówek wystawionych na działanie niebieskiego światła, dodaje. Zdaniem uczonej, ograniczenie ekspozycji na niebieskie światło może być dobrą strategią zachowania dłużej młodości. Już wcześniej prowadzone na OSU badania wykazały, że owocówki wystawione na działanie światła uruchamiają geny chroniące przed stresem i żyją krócej, niż zwierzęta trzymane w całkowitej ciemności. Naukowcy chcieli teraz zrozumieć, dlaczego tak się dzieje, przyjrzeli się więc poziomowi różnych metabolitów w komórkach zwierząt. Kwas bursztynowy jest niezbędny do produkcji paliwa dla komórek. Jego wysoki poziom w komórce można porównać do paliwa obecnego w dystrybutorze, które jednak nie przedostaje się do zbiornika samochodu. Niepokojący był też fakt, że po wystawieniu na działanie niebieskiego światła zmniejszał się poziom molekuł odpowiedzialnych za komunikację pomiędzy neuronami, zauważa uczona. Jako że molekuły sygnałowe w komórkach muszek i ludzi są takie same, więc istnieje prawdopodobieństwo, że negatywne skutki ekspozycji na światło niebieskie będą dotyczyły też ludzi. Tę kwestię naukowcy będą badali na hodowlach ludzkich komórek. Profesor Giebultowicz zaznacza przy tym, że muszki poddano działaniu dość mocnego światła, ludzie są zwykle narażeni na jego mniej intensywne oddziaływanie, więc uszkodzenie komórek może być mniej dramatyczne. Na ile jednak jest ono istotne dowiemy się z przyszłych badań. « powrót do artykułu
- 10 odpowiedzi
-
- niebieskie światło
- komórka
-
(i 3 więcej)
Oznaczone tagami:
-
Przejścia dla zwierząt nad autostradami nie tylko pomagają w zachowaniu bioróżnorodności, ale też zwiększają bezpieczeństwo i pozwalają zaoszczędzić podatnikowi spore kwoty. Analiza ekonomiczna przeprowadzona przez naukowców z Washington State University wskazuje, że w promieniu 10 mil od przejścia liczba wypadków z udziałem zwierząt jest mniejsza o od 1 do 3 rocznie na każdą milę. To zaś oznacza, że dzięki każdemu z przejść podatnik oszczędza rocznie od 235 do 443 tysięcy dolarów. Obecnie w stanie Washington znajdują się 22 przejścia dla zwierząt, jednak wkrótce może ich być znacznie więcej, gdyż w ubiegłym roku w budżecie federalnym przeznaczono 350 milionów USD na budowę takich przejść. Koszt budowy pojedynczego przejścia waha się od 500 000 USD w przypadku tunelu prowadzącego pod jezdnią, po 6 milionów USD gdy budowany jest most nad wielopasmową autostradą. Autor badań, doktorant Wisnu Sugiarto, przeanalizował dane z wypadków drogowych z lat 2011–2020. Przyjrzał się informacjom dotyczącym wypadkom z okolic 13 przejść dla zwierząt i porównał je z liczbą wypadków, gdy przejść tych jeszcze nie było. Dane takie porównywał z tymi odcinkami dróg, gdzie w ogóle nie ma przejść dla zwierząt. Zauważył, że w promieniu kilkunastu kilometrów od przejść liczba kolizji jest mniejsza, a im bliżej przejścia, tym mniej wypadków. Polegał przy tym na danych ze stanowego Wydziału Transportu. Nie są to pełne dane, gdyż obowiązek informowania o kolizji ze zwierzęciem nakładany jest tylko wówczas, gdy straty przekroczyły 1000 USD. W przyszłości badacz chce uzupełnić swoje informacje o dane z firm ubezpieczeniowych, co powinno dać pełniejszy obraz i pokazać jeszcze większe korzyści płynące z budowania przejść. W badanym okresie każdego roku notowano w stanie ponad 1600 wypadków z udziałem dzikich zwierząt, z czego około 10% kończyło się zranieniem człowieka. Zdarzały się też przypadki śmiertelne wśród ludzi. Z badań wynika, że najczęściej dochodzi do zderzeń z jeleniami, a średni koszt takiego wypadku to 9000 USD. Kamery pułapkowe pokazują też, że jelenie najczęściej korzystają z mostów nad autostradami. Natomiast tunele pod drogami są bardziej popularne wśród drapieżników, jak niedźwiedzie. W większość wypadków zaangażowani byli kierowcy, którzy obserwowali drogę i nie zajmowali się w czasie jazdy np. pisaniem SMS-ów. Często mówi się o wydarzeniach, na które mamy i nie mamy wpływu. Kierowca może jechać ostrożnie, ale zwierzęta pojawiają się na drogach i jest ryzyko wypadku. Badania pokazują, że ryzyko to można zmniejszyć, dodaje Sugiarto. Podobne wyniki dały wcześniejsze badania prowadzone w kilku innych stanach. « powrót do artykułu
-
- przejście dla zwierząt
- wypadki
-
(i 1 więcej)
Oznaczone tagami:
-
Inżynierowie z NASA naprawili sondę Voyager 1. Jak informowaliśmy w maju, sonda, znajdująca się w odległości ponad 23 miliardów kilometrów od Ziemi, zaczęła przysyłać nieprawidłowe dane. Były one wysyłane z systemu AACS, do którego od 45 lat należy kontrola nad prawidłową orientacją pojazdu. Jednym z jego zadań jest dopilnowanie, by antena Voyagera była skierowana dokładnie na Ziemię. Wszystko działało prawidłowo, jednak odczyty z AACS nie oddawały tego, co rzeczywiście dzieje się z sondą. Sygnał z Voyagera 1 nie tracił mocy, co wskazywało, że antena jest precyzyjnie ustawiona w stronę Ziemi. Dane przysyłane z AACS czasem wyglądały na generowane losowo, innymi razy nie oddawały żadnego stanu, w jakim urządzenie mogło się znaleźć. Jakby tego było mało, błąd w AACS nie uruchomił żadnego z zabezpieczeń Voyagera. Po miesiącach pracy inżynierowie w końcu znaleźli źródło problemu. Okazało się, że AACS zaczął przesyłać dane za pośrednictwem komputera, który przestał pracować wiele lat temu. I to ten komputer uszkadzał dane. NASA nie zna natomiast samej przyczyny błędy. Nie wiadomo, dlaczego AACS zaczął przesyłać dane tą drogą. Susanne Dodd, odpowiedzialna za Voyagera, podejrzewa, że stało się tak w momencie, gdy centrum kontroli nakazało Voyagerowi przesyłanie danych przez jeden z dobrze działających komputerów. Niewykluczone, że komenda ta została zniekształcona przez komputer, który przekierował dane z AACS do wadliwej maszyny. Jeśli tak, to oznacza, że któryś ze znajdujących się na pokładzie Voyagera elementów wygenerował błąd. A inżynierowie nie wiedzą jeszcze, który to element. Specjaliści nie ustają w poszukiwaniu źródła problemów, jednak w tej chwili wygląda na to, że misja Voyagera nie jest zagrożona. Jesteśmy szczęśliwi, że telemetria wróciła. Dokonamy teraz pełnego przeglądu układów pamięci AACS i przeanalizujemy wszystko, co system ten robił. To powinno tam pomóc w odnalezieniu przyczyny problemu. Jesteśmy optymistami, chociaż przed nami jeszcze dużo pracy, dodaje Dodd. Voyager 1 i Voyager 2 pracują już przez 45 lat. To znacznie dłużej niż pierwotnie planowano. Oba pojazdy znajdują się już w przestrzeni międzygwiezdnej. « powrót do artykułu
-
NASA wyznaczyła nowy termin startu misji Artemis I. Zaplanowano go na 3 września, a okno startowe otwiera się o godzinie 20:17 czasu polskiego i pozostanie otwarte przez 2 godziny. W przygotowaniach do misji swój udział mają też polscy naukowcy. Specjaliści z Instytutu Fizyki Jądrowej PAN skonstruowali innowacyjne urządzenia do pomiaru promieniowania wewnątrz Oriona. Na pokładzie pojazdu załogowego Orion znajdują się dwa fantomy, Helga i Zohar. Wyposażono je w liczne czujniki promieniowania jonizującego, których celem jest zbadanie poziomu promieniowania, na jakie będą narażeni astronauci. Badania realizowane są w ramach eksperymentu MARE koordynowanego przez Niemieckie Centrum Badań Kosmicznych. Bierze w nim udział wiele instytucji naukowych z całego świata, w tym z Polski. Naukowcy z Zakładu Fizyki Radiacyjnej i Dozymetrii Instytutu Fizyki Jądrowej PAN dostarczyli dawkomierze termolumienscencyjne i detektory śladów cząstek jądrowych. Po powrocie Oriona na Ziemię urządzenia będą analizowane w laboratoriach IFJ PAN. W połączeniu z danymi z innych czujników pozwolą one na określenie dawek i charakteru promieniowania, na jakie będą narażeni astronauci podczas lotu na Księżyc. MARE to pierwsze tego typu badania prowadzone poza niską orbitą okołoziemską. Start Artemis I planowany był na 29 sierpnia. Podczas odliczania, na 40 minut przed startem, okazało się, że jednego z silników nie można schłodzić do wymaganej temperatury -251 stopni Celsjusza. Ponadto zauważono wyciek wodoru i jego przepływem trzeba było sterować ręcznie. Przed kolejnym zaplanowanym startem inżynierowie z NASA zmodyfikują i przetestują procedury tankowania. W ramach nowych procedur test chłodzenia silników odbędzie się o 30–45 minut wcześniej, podczas fazy szybkiego napełniania wodorem członu głównego. Dodatkowo zmodyfikowano stanowisko startowe tak, by ułatwić inżynierom dostęp do miejsca, w którym pojawił się wyciek wodoru, dzięki czemu łatwiej będzie można zaradzić powtórzeniu się tego problemu. « powrót do artykułu
-
- 1
-
-
- Instytut Fizyki Jądrowej PAN
- Orion
-
(i 2 więcej)
Oznaczone tagami:
-
Dwudziestego siódmego sierpnia do Uniwersyteckiego Szpitala Klinicznego (USK) we Wrocławiu trafił z Tromsø w Norwegii ok. 50-letni pacjent, który potrzebuje pilnego przeszczepu serca. Trzynastego sierpnia Polak przeszedł rozległy zawał serca. Ze względu na deficyt dawców i na fakt, że w Norwegii jest tylko jeden ośrodek przeszczepowy, transport do kraju był dla niego jedynym ratunkiem. Było to duże wyzwanie logistyczne i medyczne. O pacjencie w potrzebie poinformowała USK pracująca w Norwegii polska lekarka. Podróż samolotem (Cessna Babcock Scandinavian AirAmbulance) trwała ok. 8 godzin. Jak wyjaśnił anestezjolog z USK, dr n. med. Stanisław Zieliński, zniszczone zawałem serce pacjenta nie pracuje samodzielnie. Mężczyzna żyje, bo jest podłączony do specjalistycznej aparatury. Ilość aparatury, sprzętu, do którego był podłączony pacjent, musiała być stale obsługiwana przez siedem osób. Do samego przeniesienia pacjenta z samolotu do karetki potrzebnych było aż 11 osób - tłumaczył „Gazecie Wrocławskiej” Miłosz Raszek, koordynator ds. transportu medycznego. Dalszy transport zaplanowano wzdłuż takiej trasy, by uniknąć nierówności, które mogłyby doprowadzić do rozłączenia aparatury podtrzymującej życie pacjenta. W USK pacjentowi wszczepiono pompę wspomagającą lewą komorę serca typu HeartMate. Teraz oczekuje na przeszczep. Cała akcja była możliwa dzięki Mateuszowi Rakowskiemu, koordynatorowi ds. transplantacji serca USK. Słowa uznania należą się także Miłoszowi Raszkowi, koordynatorowi ds. transportu medycznego USK, który zarządzał całym skomplikowanym przedsięwzięciem przetransportowania pacjenta do naszego szpitala, oraz lek. Jakubowi Jankowskiemu, koordynatorowi ds. mechanicznego wspomagania krążenia. I wreszcie: ogromny szacunek dla obu ekip medycznych – i polskiej, i norweskiej. Dziękujemy Wam za Wasze oddanie i bohaterstwo! - napisano na profilu USK na Facebooku. « powrót do artykułu
-
- transport lotniczy
- Norwegia
-
(i 4 więcej)
Oznaczone tagami:
-
Podczas rekreacyjnego nurkowania w czasie urlopu Szczepan Skibicki, pracownik Muzeum Wojska w Białymstoku, znalazł średniowieczny miecz. Prawdopodobnie jest to miecz z Rusi Kijowskiej z X w. Jak podkreślono we wpisie Muzeum na Facebooku, w oczy rzucają się bogaty warsztat wytwórcy, a także materiał bardzo dobrej jakości. Jak tylko zdałem sobie sprawę z tego, czym może być przedmiot, który mam przed sobą, niezwłocznie go wydobyłem i zabezpieczyłem, aby przekazać do Muzeum Wojska w Białymstoku. Odkrycie zostało także niezwłocznie zgłoszone do Podlaskiego Wojewódzkiego Konserwatora Zabytków oraz Miejskiego Konserwatora Zabytków, a o konsultację archeologiczną poprosiliśmy archeologów z Muzeum Podlaskiego w Białymstoku. W komunikacie Wojewódzkiego Urzędu Ochrony Zabytków w Białymstoku ujawniono, że oprócz miecza znaleziono fragmenty ceramiki, gwoździe i inne drobne elementy metalowe. Muzeum nie ujawnia miejsca dokonania znaleziska (wiadomo, że miało to miejsce w województwie podlaskim). Na stanowisku planowane są bowiem pogłębione prace archeologiczne; wezmą w nich udział także archeolodzy podwodni. Nie wiemy, czy to jest jednostkowy przypadek, czy jest tam więcej artefaktów. Takie cuda zdarzają się w muzeum raz na 40 lat, bowiem ponad 40 lat temu, przy pogłębianiu rzeki Supraśl, [...] też odnaleziono miecz wczesnośredniowieczny z XI wieku, który do tej pory znajduje się w naszych zbiorach - mówił na wtorkowej konferencji cytowany przez PAP dyrektor Muzeum Wojska Robert Sadowski. Szczepan Skibicki wyjaśnił, że miecz znajdował się w takim miejscu, że trzeba go było wydobyć, bo dalsze przebywanie tam groziło zniszczeniem broni. Aby zabezpieczyć miecz przed działaniem powietrza, zabytek umieszczono w wodzie destylowanej. Obecny na konferencji Aleksander Piasecki z Muzeum Podlaskiego w Białymstoku dodał, że jest to miecz w typie wikińskim, który datuje się prawdopodobnie na X w. Już teraz widać na głowicy miecza ślady bardzo rzadkiego zdobienia, miecz jest najpewniej wykonany z bardzo dobrej jakościowo stali, bądź w Nadrenii, bądź na Kijowszczyźnie. Piasecki przedstawił 3 hipotezy na temat tego, w jaki sposób miecz trafił w miejsce, gdzie znalazł go Skibicki. Po pierwsze, w grę wchodzi rozmycie grobu. Po drugie, ktoś mógł go zgubić podczas potyczki przy przeprawie. Po trzecie, niewykluczone, że wrzucono go do rzeki w ramach obrzędów. « powrót do artykułu
-
- Szczepan Skibicki
- Muzeum Wojska w Białymstoku
-
(i 3 więcej)
Oznaczone tagami:
-
Naukowcy z Princeton Plasma Physics Laboratory (PPPL) wykazali, że opracowany przez nich system dostarczania sproszkowanego boru do reaktora fuzyjnego pozwala na bieżąco zabezpieczać ściany reaktora i zapobiegać pogarszaniu właściwości plazmy. Jej stopniowe zanieczyszczania wolframem jest szkodliwe dla całej reakcji i stanowi jedną przeszkód na drodze ku zbudowaniu praktycznego reaktora fuzyjnego. Fuzja jądrowa to szansa na produkcję taniej, czystej i bezpiecznej energii. Wciąż jednak, z powodów licznych trudności technicznych, ludzkość nie potrafi zbudować reaktora fuzyjnego, który wytwarzałby więcej energii niż zostało do niego dostarczone i utrzymywał proces reakcji przez długi czas. W reaktorach fuzyjnych – ich najbardziej rozpowszechnionym rodzajem jest tokamak – coraz częściej stosuje się wolfram. Pierwiastek ten jest bowiem bardzo odporny na wysokie temperatury. Plazma może jednak uszkadzać wolframowe ściany reaktora, co prowadzi do przenikania wolframu do plazmy i jej zanieczyszczenia. Bor chroni wolfram przed negatywnym oddziaływaniem i zapobiega jego przenikaniu do plazmy. Poza tym absorbuje niepożądane pierwiastki, jak np. tlen, które mogą przeniknąć do plazmy z innych źródeł. Pierwiastki te mogą prowadzić do schłodzenia plazmy i przerwania reakcji. Potrzebowaliśmy sposobu na pokrywanie reaktora borem bez konieczności wyłączania pola magnetycznego tokamaka i nasz system to zapewnia, mówi Grant Bodner z PPPL. Eksperymenty prowadzono we W Environment in Steady-State Tokamak (WEST), którego operatorem jest francuska Komisja Energetyki Alternatywnej i Energii Atomowej (CEA). WEST – którego pierwsza litera nazwy pochodzi od symbolu chemicznego wolframu – to jeden z niewielu tokamaków którego ściany są całkowicie wykonane z wolframu. Ponadto jest to urządzenie charakteryzujące się rekordowo długimi czasami utrzymania reakcji. Został on wybrany jako miejsce eksperymentu również dlatego, że jego nadprzewodzące magnesy są zbudowane z materiału, który będzie wykorzystywany do budowy magnesów dla przyszłych reaktorów fuzyjnych. Fuzja jądrowa (reakcja termojądrowa) to proces, który zachodzi na Słońcu. W jej ramach dochodzi do połączenia lżejszych pierwiastków w cięższy, a w procesie tym powstają duże ilości energii. Żeby przeprowadzić fuzję konieczne są bardzo wysokie temperatury. I właśnie te wysokie temperatury to poważny problem. Sięgają one milionów stopni i są zagrożeniem dla materiałów, z których zbudowany jest reaktor. Dlatego też odporny na wysokie temperatury wolfram pokrywa się chroniącym go borem. Jednak wewnątrz reaktora panują ekstremalne warunki i ochronna powłoka ulega zużyciu. Trzeba ją nakładać ponownie. Konieczne było zatem opracowanie sposobu na odtwarzanie powłoki bez konieczności częstego wyłączania reaktora. Wrzucanie boru do pracującego tokamaka jest jak sprzątanie mieszkania bez przerywania codziennych czynności. To bardzo pomocne, oznacza bowiem, że nie potrzebujesz przeznaczać dodatkowego czasu na sprzątanie, obrazowo wyjaśnia Alberto Gallo z CEA. Opracowane przez Amerykanów urządzenie montuje się na górze tokamaka. Wykorzystuje ono precyzyjne aktuatory przesypujące proszek ze zbiorników do komory próżniowej tokamaka. Zastosowany mechanizm pozwala na dokładne ustawienie ilości i tempa wsypywania proszku. Urządzenie jest uniwersalne i może pracować też z innymi materiałami, nie tylko z borem. Przyda się więc też w inaczej zbudowanych reaktorach fuzyjnych. Może być ono bardzo użyteczne w przyszłości, mówi Bodner. Wyniki eksperymentów zaskoczyły samych twórców urządzenia. Okazało się bowiem, że wsypywany bor nie tylko zabezpieczał wolfram. Zauważyliśmy, że gdy wrzucaliśmy proszek, zwiększał się stopień uwięzienia plazmy, dzięki czemu miała ona wyższą temperaturę, a to wspomagało reakcję, dodaje Bodner. Zjawisko to było szczególnie pomocne, gdyż dochodziło do niego bez pojawiania się niekorzystnego trybu pracy H-mode. To stan, w którym ma miejsce znaczny wzrostu uwięzienia plazmy, co grozi niestabilnością plazmy brzegowej (ELMs – Edge Localised Modes). ELMs prowadzą zaś do odprowadzania ciepła poza plazmę, co zmniejsza efektywność całej reakcji i grozi uszkodzeniem elementów reaktora. Możliwość uzyskania tak dobrego uwięzienia plazmy, jak w trybie H-mode, jednak bez wchodzenia w tryb H-mode i ryzyka pojawienia się ELMs, to świetna wiadomość, cieszy się Bodner. W najbliższej przyszłości naukowcy planują eksperymenty, w ramach których chcą sprawdzić, ile z dostarczanego boru rzeczywiście tworzy powłokę ochronną na ścianach reaktora. Wiedza ta pozwoli na zoptymalizowanie pracy systemu dostarczania proszku. Określą też, kiedy należy dosypywać bor. Podkreślają, że ich systemu należy używać tylko, gdy jest to konieczne. Każde dodatkowe zanieczyszczenie, nawet bor, może zmniejszyć efektywność reaktora, gdyż plazma staje się mniej czysta. Dlatego też chcemy określić minimalną ilość boru, jaką musimy dodawać, by uzyskać pożądane efekty, wyjaśnia Bodner. « powrót do artykułu
-
- reaktor fuzyjny
- reaktor termojądrowy
-
(i 3 więcej)
Oznaczone tagami:
-
Reintrodukcja bizona zwiększa bioróżnorodność prerii i zwiększa jej odporność na suszę, informują naukowcy z Kansas State University. Wnioski takie wysunięto na podstawie trwających ponad 30 lat danych prowadzony w Konza Praire Biological Station. W przeszłości bizon był dominującym przeżuwaczem Ameryki Północnej. Szacuje się, że na kontynencie żyły dziesiątki milionów tych zwierząt. Biali koloniści zaczęli je masowo zabijać, najczęściej dla rozrywki. W 1889 roku na świecie pozostało 1091 zwierząt, w tym część w niewoli. W 1910 roku rozpoczęto program odnowienia gatunku. Obecnie populacja zwiększyła się do około 150 000 osobników. Jednak większość zwierząt to hybrydy z bydłem domowych. Genetycznie czyste są tylko dwie populacje, w amerykańskim Yellowstone National Park i kanadyjskim Elk Island National Park. Bizony były integralną częścią północnoamerykańskich prerii, zanim zostały usunięte z 99% obszaru Wielkich Równin. Proces ten miał miejsce zanim przeprowadzono jakiekolwiek badania, więc nie wiemy, jaki wpływ miało usunięcie bizonów z prerii, mówi profesor Zak Ratajczak, główny autor najnowszych badań. Uczeni prowadzili swoje obserwacje w ekoregionie Flint Hill. To największy zachowany obszar prerii typowej (wysokiej). Badania roślinności prowadzono na trzech różnych obszarach. Na jednym z nich w ogóle nie było dużych przeżuwaczy, na drugim reintrodukowano bizony, która pozostawały tam przez cały rok, na trzecim zaś prowadzono sezonowy wypas bydła domowego. Z naszych badań wynika, że w wyniku wytępienia bizonów Wielkie Równiny utraciły znaczącą część bioróżnorodności. Reintrodukcja rodzimej megafauny pozwala przywrócić tę bioróżnorodność, stwierdza Ratajczak. Również wprowadzenie bydła domowego zwiększa bioróżnorodność, jednak pozostaje ona zdecydowanie mniejsza w porównaniu z obszarami występowania bizonów. Tam, gdzie jest to możliwe, powinno się prowadzić reintrodukcję bizonów, gdyż ma to pozytywny wpływ na przyrodę, dodaje uczony. Naukowcy sprawdzali też, jak bizony wpływają na odporność roślinności na ekstrema klimatyczne. Dzięki temu, że badania trwały tak długo, objęły też jeden z najpoważniejszych epizodów ekstremalnej suszy na Wielkich Równinach, jaki miał miejsce po katastrofalnym Dust Bowl z lat 30. ubiegłego wieku. Okazało się, że obszar, na którym występowały bizony, był bardziej odporny na suszę niż pozostałe obszary. To potwierdza inne badania, z których wiemy, że bioróżnorodność zwiększa odporność ekosystemu. A odporność ta staje się coraz ważniejsza w obliczu zmian klimatu, mówi Ratajczak. Wcześniej przeprowadzone badania pokazały, że bizony potrafią kształtować swój ekosystem. Okazało się bowiem, że manipulują pastwiskiem tak, by trawa rosła jak najkorzystniej dla nich, a odpowiednie gryzienie trawy pozwala bizonom na migracje wedle odmiennych wzorców niż migracje innych gatunków. « powrót do artykułu
-
Czteroletni Lucas, ważny członek stada pingwinów przylądkowych w San Diego ZOO, dostał neoprenowo-gumowe buty ortopedyczne, które pomogą mu radzić sobie z chorobą - zapaleniem skóry palców i podeszwy stóp (ang. bumblefoot). Zespół weterynaryjny przygotował je we współpracy z organizacją Thera-Paw. Jak podkreślono w komunikacie prasowym, buty na miarę mają zabezpieczać już istniejące zmiany i zapobiegać powstawaniu nowych. Znam Lucasa od dawna. Jestem szczęśliwa, mogąc mu dać szansę na normalne życie - mówi dr Beth Bicknese. Buty są wyściełane i zapinane, powinny więc pozwolić Lucasowi na pełne uczestnictwo w życiu kolonii i wykazywanie zachowań typowych dla pingwinów [...]. Problemy zdrowotne Lucasa zaczęły się przeszło 3 lata temu. Samiec zapadł wtedy na zapalenie kręgosłupa, w wyniku którego mięśnie nóg uległy osłabieniu. Ptak nie mógł utrzymywać prawidłowej postawy w czasie stania (z podłożem stykały się obszary kończyny, które zwykle są uniesione). Pingwinowi podawano leki przeciwbólowe, przechodził też rehabilitację i zabiegi akupunktury. Ponieważ choroba nie ustępowała i na kończynach zaczęły się tworzyć bolesne zmiany, weterynarze z ZOO zwrócili się z prośbą o pomoc do organizacji Thera-Paw, która zajmuje się projektowaniem i wytwarzaniem produktów rehabilitacyjnych/wspomagających dla zwierząt. Po dopasowaniu butów opiekunowie Lucasa zaobserwowali szereg korzystnych zmian. Chód pingwina się poprawił, dzięki czemu łatwiej mu się przemieszczać przez skalisty habitat. Poza tym jego postawa zbliżyła się do prawidłowej, co pozwoliło mu skuteczniej zachowywać równowagę w czasie stania. « powrót do artykułu
-
- Lucas
- pingwin przylądkowy
- (i 4 więcej)
-
Zwierzęta, które żyją dłużej i mają mniej potomstwa są bardziej odporne na gwałtowne zjawiska pogodowe związane ze zmianami klimatu – jak susze czy wielkie opady – niż krócej żyjące małe zwierzęta. Z badań przeprowadzonych Christie Le Coeur z Uniwersytetu w Oslo oraz Owena Jonesa i Johna Jacksona z Uniwersytetu Danii Południowej dowiadujemy się, że niedźwiedzie czy żubry lepiej radzą sobie z ekstremalnymi wydarzeniami pogodowymi niż myszy czy lemingi. Naukowcy przeanalizowali dane dotyczące zmian populacji 157 gatunków ssaków na całym świecie. Dla każdego z gatunków dysponowali danymi obejmującymi co najmniej 10 lat, a informacje te porównali z danymi pogodowymi. Sprawdzali, jak liczebność populacji i liczba potomstwa zmieniały się w czasach występowania ekstremalnych zjawisk pogodowych. Zauważyliśmy bardzo wyraźny wzorzec. Zwierzęta, które żyją dłużej i mają mniej potomstwa są mniej wrażliwe na ekstrema pogodowe niż zwierzęta żyjące krócej i posiadające więcej potomstwa. Lamy, długo żyjące gatunki nietoperzy czy słonie lepiej radzą sobie w takich warunkach niż myszy, oposy czy krytycznie zagrożony kanguroszczurnik pędzloogonowy, stwierdzają autorzy badań. Duże długo żyjące zwierzęta lepiej radzą sobie np. z suszą. Susza nie wpływa tak bardzo na ich zdolność do przetrwania, reprodukcji i wychowania młodych jak w przypadku małych zwierząt. Mogą zainwestować całą swoją energię w wychowanie jednego potomka lub poczekać na lepsze czasy. W przypadku małych zwierząt dochodzi w czasie takich wydarzeń do dużych zmian populacji. Na przykład w czasie przedłużającej się suszy znika znaczna część bazy pokarmowej gryzoni – owady, nasiona, kwiaty i owoce – a zwierzęta te głodują, gdyż mają bardzo ograniczone zasoby tłuszczu. Z drugiej strony, gdy warunki życiowe się poprawią, populacja takich zwierząt szybko się zwiększa. W przeciwieństwie do wielkich ssaków mają one jednorazowo wiele młodych. Małe ssaki szybko reagują na ekstrema pogodowe. Ma to swoje dobre i złe strony. Dlatego też ich wrażliwość na gwałtowne zjawiska pogodowe nie jest równoznaczna z ryzykiem wyginięcia, wyjaśnia John Jackson. Uczony dodaje, że zdolność do przetrwania zmian klimatu to nie jedyny wskaźnik ryzyka dla gatunku. Niszczenie habitatów, kłusownictwo, zanieczyszczenia, wprowadzanie gatunków inwazyjnych to czynniki, które zagrażają wielu gatunkom. Często bardziej niż zmiany klimatu, stwierdza naukowiec. Przeprowadzone badania nie tylko poszerzają naszą wiedzę o wspomnianych 157 gatunków, ale pozwalają lepiej zrozumieć, jak zwierzęta mogą reagować na zmiany klimatyczne. W przyszłości będziemy doświadczali bowiem coraz bardziej gwałtownych ekstremów pogodowych. Zwierzęta będą musiały sobie z tym radzić. Nasza analiza pokazuje, jak różne gatunki – w zależności od ich cech ogólnych – będą reagowały na zmiany. Dotyczy to też tych gatunków, odnośnie których mamy niewiele danych, mówi Owen Jones. Jednym z takich gatunków jest na przykład niezwykły kanguroszczurnik pędzloogonowy. To krytycznie zagrożony wyjątkowy torbacz, który żywi się głównie wykopanymi z ziemi grzybami, a dietę uzupełnia bulwami, owadami czy żywicą. Niewiele wiemy o tym gatunku, ale fakt, że jest on wielkości myszy pozwala przypuszczać, że będzie reagował na zmiany klimatu podobnie jak one. « powrót do artykułu
-
Naukowcy z NASA zakończyli sześciodniową kampanię obserwacyjną, której celem było potwierdzenie obliczeń orbity Dimorphosa, asteroidy, która jest celem misji DART – pierwszej w historii próby zmiany trajektorii asteroidy. Misja ma na celu przetestowanie systemu obrony Ziemi przed asteroidami. Pomiary wykonane na początku 2021 roku były głównym elementem, który pozwolił nam się upewnić, że misja DART przybędzie w odpowiednie miejsce o odpowiednim czasie, by uderzyć w Dimorphosa. Właśnie potwierdziliśmy nasze pomiary i widzimy, że nie musimy dokonywać żadnych korekt kursu, DART zmierza dokładnie w kierunku celu, mówi Andy Rivkin z Laboratorium Fizyki Stosowanej na Uniwersytecie Harvarda. Dimorphos jest księżycem większej asteroidy, Didymosa. Celem misji DART jest uderzenie w Dimorphosa i spowodowanie zmiany jego orbity. Jeśli to się uda, Dimorphos znajdzie się bliżej Didymosa i skróci się czas, w jakim obiega większą asteroidę. Pomiar tego zjawiska jest bardzo prosty, jednak astronomowie będą chcieli się upewnić, że nic innego nie wpłynęło na zmianę orbity. W wpłynąć na nią mogą bardzo subtelne zjawiska, jak np. ogrzewanie jej powierzchni przez Słońce. Musimy sprawdzić wszelkie zjawiska fizyczne, jakie mają miejsce w tym systemie asteroid. Nie chcemy w ostatniej chwili zorientować się, że jest coś, czego nie wzięliśmy pod uwagę. Musimy być pewni, że zmiany, które zajdą po zderzeniu będą tylko i wyłącznie wynikiem oddziaływania DART, wyjaśnia Nick Moskovitz, astronom z Lowell Observatory. Pomiędzy końcem września a początkiem październik Didymos i Dimorphos znajdą się najbliżej Ziemi w ciągu ostatnich lat. Asteroidy będzie dzieliło od naszej planety niecałe 11 milionów kilometrów. Właśnie wtedy nastąpi uderzenie. Jeszcze do niedawna asteroidy znajdowały się zbyt daleko, by można było je obserwować za pomocą naziemnych teleskopów. Od lipca DART Investigation Team wykorzystuje potężne teleskopy w Arizonie i Chile – Lowell Discovery Telescope, Magellan Telescope i Southern Astrophysical Research Telescope – do obserwowania asteroid i zmian ich jasności. Krótkie noce na półkuli północnej, sezon monsunów w Arizonie oraz zimowe burze w Chile utrudniały obserwację. Mimo to udało się zarejestrować 11 zmian jasności Didymosa spowodowanych przejściem Dimorphosa na tle większej asteroidy. To pozwoliło na precyzyjne określenie okresu orbitalnego i obliczenie, w którym miejscu będzie Dimorphos w momencie, gdy uderzy weń DART. W październiku obserwacje zostaną powtórzone. Astronomowie spodziewają się, że zaobserwują wówczas Dimorphosa na innej orbicie, a zmiana ta będzie spowodowana uderzeniem przez pojazd wysłany z Ziemi. Do zderzenia ma dojść 26 września. « powrót do artykułu
-
Z powodu problemów, jakie pojawiły się w jednym z 4 silników głównego stopnia rakiety nośnej, dzisiejszy start misji Artemis I został odwołany. Inżynierowie szukają teraz przyczyny kłopotów. Jeśli je znajdą i problem zostanie naprawiony, próbę kolejnego startu można będzie podjąć 2 września. Wtedy to, o godzinie 18:48 czasu polskiego otworzy się kolejne, 2-godzinne, okno startowe. Jeśli i wówczas się nie uda, NASA może próbować w innych oknach. Czym są okna startowe? Wyobraźmy sobie, że znajdujemy się na środku stadionu lekkoatletycznego i chcemy spotkać się z jednym z biegnących po bieżni zawodników. Możemy go gonić, ale wymaga to od nas, żebyśmy biegli szybciej od niego.Zużyjemy przy tym sporo energii. Znacznie rozsądniej jest obliczyć, kiedy biegacz znajdzie się w najbardziej korzystnym miejscu, byśmy mogli go przechwycić i w odpowiednim momencie wyruszyć na spotkanie. Obliczenia muszą być precyzyjne, byśmy nie przybyli ani zbyt wcześnie, ani zbyt późno. Optymalny czas do wyruszenia to właśnie nasze okno startowe. I podobnie wygląda to w przypadku misji kosmicznych. Okno startowe to po prostu okres, w którym pojazd kosmiczny może o wyznaczonym czasie osiągnąć wyznaczony punkt w przestrzeni. Bierze się przy tym pod uwagę możliwości napędu rakiety nośnej oraz trasę obiektu kosmicznego, z którym nasz pojazd ma się spotkać. Dlatego też okna są różne podczas różnych misji. Na przykład w przypadku misji na Marsa okno startowe otwiera się co 780 dni. Z kolei podczas misji Voyager 2 skorzystano ze zdarzającej się raz na 175 lat okazji, by pojazd kosmiczny mógł odwiedzić Jowisza, Saturna, Urana i Neptuna. Z drugiej zaś strony mamy przykład misji Rosetta, która początkowo miała badać kometę 46P/Wirtanen, ale okazja ta uległa zaprzepaszczeniu z powodu przełożenia startu i dla misji wybrano nowy cel, kometę 67P/Czuriumow-Gierasimienko. Okienka startowe misji Artemis I Na wybór okna startowego dla Artemis I wpływają cztery elementy. NASA chce umieścić Oriona na odległej wstecznej orbicie Księżyca. To wysoce stabilna orbita, z dwoma punktami Lagrange'a. Znajdujący się na niej pojazd porusza się w kierunku przeciwnym do kierunku Księżyca wokół Ziemi. Dotychczas z orbity tej korzystał tylko jeden pojazd, chiński Chang'e 5. Żeby wejść na tę orbitę konieczne jest uruchomienie w odpowiednim punkcie i momencie silników, które wprowadzą pojazd w lot do Księżyca. Manewr ten zwany jest TLI (Trans-Lunar Injection), a precyzja jego wykonania jest niezwykle ważna. To jeden z elementów, który należy brać pod uwagę przy obliczaniu okna startowego. Drugim elementem są warunki oświetleniowe. Opracowane przez NASA zasady misji mówią, że Orion nie może jednorazowo znajdować się w cieniu dłużej niż przez 90 minut. Potrzebuje bowiem promieni słonecznych dla swoich paneli, ponadto powinien utrzymywać optymalną temperaturę. Kolejne elementy są związane z procesem lądowania. W jego trakcie Orion ma wejść w górne partie ziemskiej atmosfery, następnie na chwilę je opuścić i ponownie – ostatecznie już – zanurzyć się w atmosferze. By jednak tego dokonać, pojazd musi w odpowiednim czasie osiągnąć odpowiednią trajektorię względem Ziemi. Ostatni zaś element to czas lądowania. Orion ma wylądować na oceanie w ciągu dnia, po to, by oczekującym ekipom łatwiej było kapsułę odnaleźć i podjąć. Jak już wspomnieliśmy, najbliższe okno startowe dla Artemis I otworzy się 2 września. Jeśli NASA podejmie próbę startu i się ona nie uda, to można ją będzie powtórzyć 5 września. NASA opublikowała kalendarz [PDF] dostępnych okien startowych pomiędzy sierpniem 2022 a lipcem 2023. Okna startowe będą dostępne w czasie ponad 140 dni. Jednak dodatkowe zasady oraz plan misji nie pozwalają na skorzystanie ze wszystkich z nich. Po pierwsze, zasady NASA mówią, że – jeśli rakieta nośna została zatankowana – to pomiędzy 1. a 2. próbą startu musi upłynąć co najmniej 48 godzin, a pomiędzy 2. a 3. próbą co najmniej 72 godziny. Po drugie zaś, niektóre okna startowe pozwalają na przeprowadzenie misji trwającej 38 do 42 dni, a niektóre – od 26 do 28 dni. Decyzja więc, co do wyboru okna nie jest oczywista. A plany zawsze może pokrzyżować pogoda. « powrót do artykułu
- 3 odpowiedzi
-
- okno startowe
- okienko startowe
-
(i 3 więcej)
Oznaczone tagami:
-
Przed paroma dniami toruński archeolog Michał Grabowski zauważył podczas spaceru brzegiem Wisły relikty konstrukcji drewnianych. Jego zdaniem, mogła to być szkuta - płaskodenna łódź do przewożenia towarów z XV-XVI w. Podejrzenia te potwierdzili pracownicy Wojewódzkiego Urzędu Ochrony Zabytków i specjalizujący się w archeologii podwodnej naukowcy z Instytutu Archeologii Uniwersytetu Mikołaja Kopernika (IA UMK), którzy dokonali oględzin stanowiska pod mostem drogowym im. J. Piłsudskiego. Następnego dnia rano archeolodzy z IA UMK przeprowadzili interwencyjne badania archeologiczne. Wykonali dokumentację in situ. Następnie wydobyli 3 fragmenty szkuty. Przetransportowano je do IA UMK. Tam przejdą badania, m.in. dendrochronologiczne. Zostaną także poddane konserwacji. Elementy [wykonanej z dębiny] łodzi były łączone ze sobą kołkami drewnianymi (bez użycia elementów metalowych), co jest charakterystyczną techniką szkutniczą dla czasów, na które wstępnie wydatowano szkutę - napisano na profilu Wojewódzkiego Urzędu Ochrony Zabytków w Toruniu na FB. « powrót do artykułu
-
Gdy patrzymy na rakietę, wygląda jakby była w stylu retro. Ale to całkowicie różna, nowa, wysoce zaawansowana rakieta oraz pojazd kosmiczny, powiedział niedawno Bill Nelson, dyrektor NASA. SLS przypomina rakietę Saturn V, najpotężniejsza rakietę nośną w historii, która zawiozła człowieka na Księżyc. A jej morelowy kolor pochodzi od natryskiwanej izolacji i jest niemal identyczny z kolorem izolacji, który pamiętamy z wielkiego zewnętrznego zbiornika paliwa promów kosmicznych. Takich podobieństw jest więcej. Znaczna część sprzętu, wykorzystanego w misji Artemis, była już używana. Cztery silniki główne oraz części dwóch silników wspomagających napędzały promy kosmiczne. Podobnie zresztą jak silnik manewrowy modułu serwisowego Oriona. Artemis korzysta też z podstawowych założeń inżynieryjnych opracowanych przed dekadami na potrzeby misji Apollo. Wystarczy przyjrzeć się kształtowi kapsuły Orion, która przypomina Command Module z Apollo. Przedstawiciele NASA mówią, że nie ma potrzeby zmieniać projektów, które zostały dobrze opracowane w przeszłości i się sprawdziły. Istnieją takie podstawowe aspekty eksploracji kosmosu, które nie są zależne od pieniędzy. Prawa fizyki nie uległy zmianie od lat 60. A już wtedy wymyślono kształt kapsuły, który bardzo dobrze radzi sobie w z wejściem w atmosferę przy prędkości 32 machów, mówi Jim Geffre, jeden z menedżerów odpowiedzialnych za kapsułę Orion. A inżynier John Cassani, który brał udział przy pracach nad misjami Pioneer, Mariner i był menedżerem projektów misji Voyager, Gallileo i Cassini, dodaje: Misja, podczas której używa się zbyt wiele nowych technologii, nosi nazwę „Porażka”. Artemis korzysta, oczywiście, z nowych technologii. Kapsułą Orion zarządzają dwa komputery, z których każdy składa się z dwóch modułów (FCM) nadzorujących systemy nawigacji, napędu, komunikacji i inne. Mamy tutaj poczwórną redundancję. Gdy którykolwiek z modułów zacznie pracować inaczej niż trzy pozostałe, resetuje się, a po restarcie ponownie sprawdza, czy jego dane zgadzają się z innymi. Gdyby zdarzyło się tak, że awarii ulegną wszystkie cztery moduły, na pokładzie Oriona znajduje się piąty, całkowicie niezależny komputer, działający na innym kodzie, który ma sprowadzić kapsułę na Ziemię. Unowocześniono też system nawigacyjny Oriona. Nie jest to już sekstans, jak w przypadku Apollo, ale system automatycznie śledzący położenie gwiazd i porównujący je z bazą danych. W ten sposób Orion określa swoje położenie w przestrzeni. Jest też kamera obserwująca Ziemię i Księżyc. Dzięki niej Orion zna swoją odległość i pozycję względem tych obiektów i utrzymuje się na wyznaczonym kursie. Zastosowano też awaryjny system nawigacyjny, dzięki któremu, nawet w przypadku całkowitej utraty możliwości komunikacji z centrum kontroli lotu, Orion ma odnaleźć Ziemię i bezpiecznie wylądować. Co interesujące, architektura systemu nawigacyjnego została stworzona na bazie systemu znanego z Boeinga 787. Kilkadziesiąt sekund po starcie Artemis I oddzielone zostaną silniki pomocnicze, elementy modułu serwisowego i system przerwania startu. Niedługo potem zamilkną główne silniki i nastąpi oddzielenie Oriona od rakiety nośnej. Znajdujący się na orbicie okołoziemskiej Orion rozwinie panele słoneczne, a Interim Cryogenic Propulsion System (ICPS) nada mu energię, potrzebną do opuszczenia orbity okołoziemskiej i podróż w kierunku Księżyca. Orion oddzieli się od ICPS około 2 godziny po starcie, poleci w kierunku Srebrnego Globu, a z ICPS zostaną uwolnione minisatelity CubeSat, które wykonają dodatkowe misje naukowe. Podczas podróży w stronę Księżyca Orion będzie napędzany przez moduł serwisowy zbudowany przez Europejską Agencję Kosmiczną. Moduł ten jest odpowiedzialny za napęd i zasilanie kapsuły. W czasie misji załogowych będą się w nim znajdowały też zapasy powietrza i wody dla astronautów. Kapsuła minie pasy radiacyjne Van Allena, satelity GPS i satelity komunikacyjne. By zachować łączność z Houston przełączy się na Deep Space Network, system NASA zapewniający łączność pojazdom znajdującym się w dalszych częściach Układu Słonecznego. Rozpocznie się zasadnicza część misji, w czasie której sprawdzone zostaną zdolności nawigacyjne i komunikacyjne Oriona. Kapsuła zbliży się na odległość 100 kilometrów do Księżyca i skorzysta z jego asysty grawitacyjnej, by wejść na orbitę znajdującą się w odległości około 70 000 kilometrów od Srebrnego Globu. Będzie na niej przebywała przez około 6 dni. Podczas powrotu na Ziemię Orion ponownie przeleci w odległości około 100 km od Księżyca. W ziemską atmosferę wejdzie z prędkością 11 km/s, a jego osłona termiczna rozgrzeje się do temperatury 2760 stopni Celsjusza. Wejście w atmosferę będzie szybsze, a temperatura wyższa niż w czasie testu Oriona z 2014 roku. Kapsuła wyląduje na oceanie u wybrzeży Kalifornii. Najpierw zostanie sprawdzona przez nurków US Navy, a gdy ci uznają, że wszystko jest w porządku, zostanie załadowana na oczekującą platformę i sprowadzona na ląd. Misja Artemis I potrwa od 26 do 42 dni. « powrót do artykułu
-
Katedra Teologii Prawosławnej i Wydział Filologiczny Uniwersytetu w Białymstoku (UwB) zapraszają na prezentację „Słownika polskiej terminologii prawosławnej” i dyskusję panelową. Spotkanie odbędzie się w najbliższy piątek (2 września) o godz. 10 w Bibliotece Uniwersyteckiej im. Jerzego Giedroycia w Białymstoku. Słownik zawiera ok. 4 tys. artykułów hasłowych. Dotyczą one życia religijnego, moralności, wiary, a także organizacji Cerkwi prawosławnej. Znajdują się w nim terminy utrwalone w ogólnym języku polskim, a także zapożyczone z języków greckiego i cerkiewnosłowiańskiego. Analizowany zbiór został poszerzony również o terminologię chrześcijańską sprzed podziału Kościoła w 1054 r. i częściowo porównany z terminologią Kościoła rzymskiego - podkreślono w komunikacie UwB. „Słownik polskiej terminologii prawosławnej” przygotowano w wersji papierowej i elektronicznej. Tę drugą można znaleźć tutaj. Zawiera ona dodatkowo materiał audio, który obejmuje wszystkie polskie terminy i ich odpowiedniki w języku greckim, cerkiewnosłowiańskim oraz angielskim. Dystrybucją papierowego wydania słownika zajmuje się Wydawnictwo Uniwersytetu w Białymstoku. W latach 2017-22 projekt realizował interdyscyplinarny zespół teologów, teolingwistów i filologów. Projekt pod kierownictwem ks. prof. dr. hab. Wiesława Jana Przyczyny finansowany był przez Narodowy Program Rozwoju Humanistyki Ministerstwa Edukacji i Nauki. Celem projektu było zapełnienie luki badawczej, gdyż polska terminologia prawosławna nie doczekała się jak dotąd gruntownego opracowania, ani nawet przejrzystej i jasnej definicji. Dotychczasowe prace koncentrowały się na wąskich obszarach, takich jak ikonografia, obrzędowość, liturgika czy hagiografia. « powrót do artykułu
-
Już jutro, 29 sierpnia o godzinie 14:33 czasu polskiego, otworzy się dwugodzinne okienko startowe dla misji Artemis I. To pierwszy etap programu powrotu człowieka na Księżyc i pierwszy test lotu najpotężniejszej na świecie rakiety nośnej SLS (Space Launch System). Rakiety, która w przyszłości ma zawieźć astronautów na Marsa. SLS została zaprojektowana z myślą o realizacji programów głębokiej eksploracji kosmosu. Jest częścią planu, w ramach którego NASA pozostawia misje w okolicach Ziemi w ręku przedsiębiorstw prywatnych. W 2004 roku prezydent Bush zarysował nowe zadanie dla NASA, powrót człowieka na Księżyc i budowę stałej stacji kosmicznej na Srebrnym Globie. Stało się to impulsem do rozpoczęcia prac nad programem Constellation, w ramach którego miały powstać nowe potężne rakiety nośne oraz pojazd załogowy Orion. Program został w 2010 roku odwołany przez prezydenta Obamę, który niedługo potem przedstawił zarys nowego programu, SLS. Nowy program zawierał wiele elementów Constellation, a jego głównym celem było stworzenie załogowego systemu głębszej eksploracji kosmosu i lądowanie człowieka na Marsie. Program SLS uległ dalszym zmianom za czasów prezydentury Donalda Trumpa. Zdecydowano wówczas o znacznym przyspieszeniu momentu lądowania człowieka na Księżycu. Datę tego wydarzenia wyznaczono na 2024 rok, a projekt powrotu na Księżyc nazwano Artemis (Artemida). To wyraźne nawiązanie do misji Apollo, Artemida – bogini Księżyca – jest siostrą-bliźniaczką Apolla. Wiemy, że wyznaczonego przez Trumpa terminu nie uda się dotrzymać, jednak główne założenia programu Artemis się nie zmieniły. Bezzałogowa Artemis I to pierwszy wspólny test lotu rakiety SLS i pojazdu załogowego Orion. Celem misji jest lot Oriona na orbicie Księżyca i powrót na Ziemię. Za dwa lata ma odbyć się załogowy lot Artemis II. W jego ramach Orion wraz z czteroosobową załogą wykona najpierw szereg zadań na orbicie Ziemi, a następnie poleci poza Księżyc. Po raz pierwszy od 50 lat człowiek znajdzie się tak daleko od Ziemi. Zgodnie z obecnymi planami człowiek ma powrócić na Księżyc z 2025 roku w ramach misji Artemis III. Będzie to misja kilkuetapowa. Najpierw na orbitę wokół Księżyca trafi Human Landing System (HLS). Następnie wystrzelone zostaną SLS i Orion oraz ich 4-osobowa załoga. Orion zadokuje do HLS, dwoje astronautów przesiądzie się do Human Landing System i za jego pomocą wylądują na Księżycu, gdzie spędzą 6,5 doby. W tym czasie odbędą co najmniej 2 spacery po powierzchni. Później HLS zabierze ich do oczekującego Oriona, a ten przywiezie astronautów na Ziemię. Jednocześnie od 2024 roku ma być budowana niewielka stacja kosmiczna Lunar Gateway, która znajdzie się w pobliżu Księżyca. Lunar Gateway będzie hubem komunikacyjnym, laboratorium naukowym, parkingiem dla łazików i innych robotów oraz miejscem krótkotrwałego pobytu astronautów. Będzie to ważny element programu Artemis, wspomagający robotyczną i załogową eksplorację Księżyca oraz punkt przystankowy w załogowych wyprawach na Marsa. SLS, na której start właśnie czekamy, to najpotężniejsza obecnie rakieta, jaką dysponuje ludzkość. Misja Artemis I będzie realizowana za pomocą wersji Block 1, która jest zdolna wynieść na niską orbitę okołoziemską (LEO) ładunek o masie 95 ton. Taka sama rakieta zostanie wykorzystana podczas pierwszych misji załogowych na Księżyc. Na rok 2027 zaplanowano debiut potężniejszej wersji, Block 1B, za pomocą której na LEO można będzie wynieść 105 ton, a w 2031 ma pojawić się Block 2 zdolna do wyniesienia 130 ton. Najpotężniejszą rakietą w historii była Saturn V, która zadebiutowała w 1967 roku, a ostatni lot odbyła w roku 1973. Na LEO mogła wynieść 140 ton ładunku. Wszystko wskazuje na to, że SLS nie będzie długo cieszyła się renomą najpotężniejszej dostępnej ludzkości rakiety. W najbliższym czasie SpaceX ma zamiar przeprowadzić testowy lot rakiety Starship SuperHeavy, której ostateczna wersja ma być zdolna do wyniesienia 150 ton na LEO. SpaceX będzie starała się o uzyskanie od NASA zezwoleń na wykorzystanie swojej rakiety w załogowych misjach marsjańskich. Pojazd Orion, który wystartuje za pomocą SLS, to załogowy statek kosmiczny zbudowany z myślą o długotrwałych misjach załogowych poza LEO. Wyposażono go m.in. w pojazd ratunkowy oraz możliwość awaryjnego przerwania misji na każdym jej etapie. Przeszedł on już pierwszy bezzałogowy test w przestrzeni kosmicznej, gdy w 2014 roku został wystrzelony za pomocą rakiety Delta IV Heavy. Trwający 4,5 godziny test zakończył się powodzeniem. W przyszłości Orion może zostać wykorzystany zarówno podczas misji na Marsa, do punktów libracyjnych, jak i załogowych misji na asteroidy. « powrót do artykułu
-
Łukasz Malinowski i jego syn Nikodem to pasjonaci historii Łazów, miejscowości położonej pomiędzy jeziorem Jamno, a Bałtykiem. Wiedzą, że – szczególnie po sztormach – morze potrafi odsłonić historyczne pozostałości. Przed tygodniem obaj wybrali się na poszukiwania takich historycznych skarbów. Piasek odsłonił torfowe pozostałości dawnego lasu. Nagle zobaczyliśmy ukryte między nimi deski. Założyłem maskę, zanurkowałem i… serce zaczęło bić szybciej! To były fragmenty łodzi!, mówi pan Łukasz serwisowi GK24.pl Mężczyzna zrobił zdjęcia, wrócił z synem do domu i zaczął przeszukiwać internet. Odkrywcy stwierdzili, że znalezione przez nich szczątki przypominają średniowieczne słowiańskie łodzie. Wrócili na miejsce i zobaczyli, że jedna z odsłoniętych desek obluzowała się i zaczęła dryfować. Łukasz i Nikodem wyłowili ją i poinformowali Muzeum w Koszalinie. Na miejsce przyjechali eksperci, którzy wstępnie zabezpieczyli znalezisko i poinformowali o nim konserwatora zabytków. Ten z kolei dał znać naukowcom z Narodowego Muzeum Morskiego w Gdańsku. Eksperci z Muzeum właśnie zakończyli oględziny znaleziska. Na podstawie cech konstrukcyjnych wstępnie orzekli, że łódź może pochodzić nawet z X-XI wieku. Wtedy to pływający po południowym Bałtyku Słowianie budowali łodzie z klepek łączonych na zakładkę drewnianymi kołkami. Łodzie te przypominały sylwetką łodzie wikingów, ale miały spłaszczone dno. Wiemy, natomiast, że nie jest to łódź z północy, gdyż Skandynawowie łączyli w tym czasie klepki metalowymi kołkami i uszczelniali sierścią. Pobraliśmy fragmenty łodzi, by wykonać próby dendrologiczne. Na podstawie ich wyników będzie można dokładniej ocenić wiek drewna, mówi GK24.pl doktor Anna Rembisz-Lubiejewska. Uczona wyjaśniła, że to cenne znalezisko, gdyż tego typu łodzie znajdowane są zwykle w okolicach Gdańska czy Szczecina. W tym przypadku znaczenie może mieć fakt, że w średniowieczu przez Łazy przebiegał kanał łączący jezioro z Bałtykiem. Kanał ten istniał do wielkiego sztormu z 1690 roku, kiedy to morze przerwało wydmy i zasypało kanał, a nowy utworzyło kilka kilometrów dalej. Najstarsze ślady osadnictwa w Łazach liczą sobie 4000 lat. Miejscowość po raz pierwszy jest wzmiankowana w 1278 roku. Miała ona wówczas spore znaczenie. Rozwijały się dzięki kanałowi łączącemu jezioro Jamno z Bałtykiem. Na kanale istniały komory celne, w samej miejscowości znajdowała się przystań rybacka i karczma, z której dochody czerpały cysterki z Koszalina. Po sztormie z 1690 roku Łazy zamieniły się w wioskę rybacką, a w okresie międzywojennym zaczęło doń przybywać coraz więcej letników. « powrót do artykułu
-
- łódź
- średniowiecze
-
(i 1 więcej)
Oznaczone tagami:
-
Chiny doświadczają fali upałów, która ma olbrzymi wpływ na ludzi, rolnictwo i przemysł. Największe chińskie jezioro, zwykle pełne wody o tej porze roku, skurczyło się do 20% swojej powierzchni, upały niszczą uprawy, a z braku elektryczności zamykane są fabryki. Chiny doświadczają najdłuższej i najcieplejszej fali upałów od czasu, gdy w 1961 roku zaczęto dokonywać pomiarów w skali całego kraju. A historyk pogody, Maximiliano Herrera, twierdzi, że to najpotężniejsza fala upałów zanotowana gdziekolwiek na świecie. Rekordy ciepła zostały pobite w wielu miejscach Państwa Środka, jednak z największym problemem musieli zmagać się mieszkańcy 22-milionowego Chongqingu. Przed 8 dniami, 18 września, temperatura sięgnęła tam 45 stopni Celsjusza. Nigdy wcześniej, poza pustyniami prowincji Sinciang, nie notowano w Chinach tak wysokiej temperatury. Dotychczasowy chiński rekord ciepła wynosił 43,7 stopni Celsjusza. Co więcej, przez kolejne dwie doby temperatura w Chongqingu nie spadła poniżej 34,9 stopnia, co stanowi rekord sierpniowego minimum w Chinach. To, co dzieje się w Chinach, to połączenie najbardziej intensywnych i najbardziej długotrwałych upałów obejmujących olbrzymi obszar. Herrera, który monitoruje ekstrema temperaturowe na świecie mówi, że to bezprecedensowa sytuacja. Państwo Środka doświadcza suszy, przez którą spadły poziomy rzek, a 66 z nich całkowicie wyschło. Poziom wody w Jangcy jest w niektórych miejscach najniższy od 1865 roku, kiedy to zaczęto dokonywać regularnych pomiarów. Spadek poziomu rzek oznacza problemy z produkcją energii z hydroelektrowni. Dotknęło to szczególnie prowincji Syczuan, w której znajduje się Chongqing. Prowincja ta aż 80% energii pozyskuje z hydroelektrowni. Spadek produkcji energii oznaczał konieczność zamknięcia dziesiątek fabryk. Susza zniszczyła też kilkadziesiąt tysięcy hektarów upraw i uszkodziła kilkaset tysięcy. Wielu mieszkańców chroni się przed upałem w... tunelach metra. Niedobory energii z elektrowni wodnych to poważny długoterminowy problem. Chiny bardzo intensywnie rozwijają odnawialne źródła energii i mają ambitne plany redukcji emisji gazów cieplarnianych. Na długo zanim zaczęto inwestować w energetykę wiatrową i słoneczną, Chiny rozbudowały system mniejszy i większych elektrowni wodnych. Wiele firm pobudowało swoje zakłady w prowincji Syczuan, by korzystać z taniej energii z hydroelektrowni. Prowincja dotychczas mogła polegać na tym źródle energii tak bardzo, że jej nadmiar był wysyłany do innych regionów kraju. Teraz sytuacja uległa zmianie. Zmniejszenie produkcji z hydroelektrowni, które w ubiegłym roku dostarczyły Chinom aż 15% energii, spowodowało, że produkcję zwiększyły elektrownie węglowe. To zaś wiąże się ze zwiększeniem emisji gazów cieplarnianych, a zatem grozi dalszą destabilizacją klimatu. A to w wyniku tej właśnie destabilizacji Chiny doświadczają bezprecedensowej – trwającej już ponad 70 dni – fali upałów. Część specjalistów już wyraża obawy, że sytuację tę spróbują wykorzystać menedżerowie elektrowni węglowych, by przekonać władze do zmiany planów przekształcenia chińskiej energetyki w niskoemisyjną. Z drugiej jednak strony powtarzające się w ostatnich latach fale upałów i susze, przeplatane gwałtownymi powodziami, spowodowały, że w oficjalnej retoryce chińskich władz otwarcie zaczęto łączyć te zjawiska ze zmianami klimatu i antropogeniczną emisją gazów cieplarnianych. Władze Państwa Środka zapowiadają, że szczyt emisji dwutlenku węgla zostanie osiągnięty przed rokiem 2030, a później nastąpi jej spadek. Dlatego też Chiny są światowym liderem pod względem tempa przyłączania mocy z instalacji słonecznych i wiatrowych. W pierwszym kwartale bieżącego roku Chiny zainwestowały 4,3 miliarda dolarów w samą tylko energetykę słoneczną. To niemal 3-krotny wzrost w porównaniu z analogicznym okresem roku ubiegłego. Do roku 2025 Chiny chcą dwukrotnie zwiększyć produkcję energii ze Słońca i wiatru. Jeśli to się uda, to odnawialne źródła będą zapewniały Chinom 33% energii. « powrót do artykułu