Znajdź zawartość
Wyświetlanie wyników dla tagów ' katastrofa' .
Znaleziono 9 wyników
-
W grudniu 2020 roku miała miejsce spektakularna katastrofa. Zawalił się jeden z najbardziej znanych instrumentów naukowych na świecie, radioteleskop w Arecibo. W raporcie opublikowanym właśnie przez amerykańskie Narodowe Akademie Nauk czytamy, że główną przyczyną katastrofy było – wywołane potężnym promieniowaniem elektromagnetycznym – zmęczenie cynku w mocowaniach lin nośnych, które utrzymywały 900-tonową platformę odbiornika na wysokości 120 metrów nad czaszą radioteleskopu. Już wcześniejsze raporty wspominały o deformacji cynku, ale jako możliwe przyczyny katastrofy wskazywano też błędy konstrukcyjne czy uszkodzenia przez huragan Maria, który przeszedł w 2017 roku. Inspekcja wykonana po przejściu huraganu znalazła dowody na ślizganie się lin nośnych, jednak – jak dowiadujemy się z obecnego raportu – nie odnotowano wówczas wzorców zużycia i większości nie wyjaśniono. Ponadto na zdjęciach z roku 2019 widoczne jest poważne zużycie uchwytów lin, miejsc w których były one mocowane. Mimo to nie przeprowadzono żadnych badań. Zaskoczyło to autorów raportu. Ich zdaniem niepokojący jest fakt, że inżynierowie wynajęci do badania stanu lin pomiędzy przejściem huraganu Maria a zawaleniem się teleskopu nie wszczęli alarmu z powodu zauważonego zużycia elementów nośnych. Główną przyczyną katastrofy była deformacja cynkowych uchwytów lin. W wyniku olbrzymich naprężeń i pod wpływem temperatury doszło do ich deformacji oraz pękania drutów w linach, co osłabiało miejsca mocowania lin. Za główną zaś przyczynę deformacji uznano generowane przez teleskop promieniowanie elektromagnetyczne. Zdaniem badaczy, potężne nadajniki teleskopu indukowały w linach i miejscach mocowania prąd elektryczny, który wywoływał długoterminową elektroplastyczność cynku, co znacząco przyspieszało naturalne zmęczenia materiału. Twórcy raportu dodają, że – o ile im wiadomo – mamy tu do czynienia z pierwszym w historii udokumentowanym przypadkiem awarii wywołanej pełzaniem cynku. Dlatego też w raporcie zaproponowano, by Narodowa Fundacja Nauki, do której należy Arecibo, przekazała pozostałe liny i ich uchwyty społeczności naukowej, w celu dalszych badań zjawiska zmęczenia cynku pod wpływem silnego promieniowania elektromagnetycznego. « powrót do artykułu
- 4 odpowiedzi
-
- promieniowanie elektromagnetyczne
- Arecibo
-
(i 2 więcej)
Oznaczone tagami:
-
W pierścieniach drzew z francuskich Alp zauważono, że przed 14 300 laty doszło do gwałtownego wzrostu ilości radioaktywnej formy węgla, C-14. To ślad po największej znanej nam burzy słonecznej. Gdyby obecnie na Słońcu doszło do takiej burzy, miałoby to katastrofalne skutki dla naszej cywilizacji. Burza taka zniszczyłaby satelity komunikacyjne i nawigacyjne oraz spowodowała masowe uszkodzenia sieci elektroenergetycznych oraz internetu. O wynikach badań przeprowadzonych przez brytyjsko-francuski zespół naukowy, możemy przeczytać w Philosophical Transactions of the Royal Society A. Mathematical, Physical and Engineering Sciences. Ich autorzy przeanalizowali poziom radiowęgla w pozostałościach częściowo sfosylizowanych drzew znalezionych na zniszczonym erozją brzegu rzeki Drouzet w pobliżu Gap. Zauważyli, że dokładnie 14 300 lat temu nagle wzrósł poziom C-14. Po porównaniu go do poziomu berylu, naukowcy doszli do wniosku, że wzrost ilości węgla spowodowany był olbrzymią burzą na Słońcu. Radiowęgiel bez przerwy powstaje w górnych warstwach atmosfery w wyniku reakcji łańcuchowych zapoczątkowywanych przez promieniowanie kosmiczne. W ostatnich latach naukowcy zauważyli, że ekstremalne zjawiska na Słońcu, takie jak rozbłyski i koronalne wyrzuty masy, mogą prowadzić do nagłych krótkotrwałych wzrostów ilości energetycznych cząstek, które skutkują znaczącymi wzrostami ilości radiowęgla na przestrzeni zaledwie jednego roku, mówi główny autor badań, profesor Edouard Bard z Collège de France i CEREGE. Burza słoneczna, której ślady pozostały w pierścieniach drzew, sprowadziłaby katastrofę na współczesną cywilizację opartą na technologii. Już przed kilkunastu laty amerykańskie Narodowe Akademie Nauk opublikowały raport dotyczący ewentualnych skutków olbrzymiego koronalnego wyrzutu masy, który zostałby skierowany w stronę Ziemi. Takie wydarzenie spowodowałoby poważne perturbacje w polu magnetycznym planety, co z kolei wywołałoby przepływ dodatkowej energii w sieciach energetycznych. Nie są one przygotowane na tak gwałtowne zmiany. Omawiając ten raport, pisaliśmy, że mogłoby dojść do stopienia rdzeni w stacjach transformatorowych i pozbawienia prądu wszystkich odbiorców. Autorzy raportu stwierdzili, że gwałtowny koronalny wyrzut masy mógłby uszkodzić 300 kluczowych transformatorów w USA. W ciągu 90 sekund ponad 130 milionów osób zostałoby pozbawionych prądu. Mieszkańcy wieżowców natychmiast straciliby dostęp do wody pitnej. Reszta mogłaby z niej korzystać jeszcze przez około 12 godzin. Stanęłyby pociągi i metro. Z półek sklepowych błyskawiczne zniknęłaby żywność, gdyż ciężarówki mogłyby dostarczać zaopatrzenie dopóty, dopóki miałyby paliwo w zbiornikach. Pompy na stacjach benzynowych też działają na prąd. Po około 72 godzinach skończyłoby się paliwo w generatorach prądu. Wówczas stanęłyby szpitale. Najbardziej jednak przerażającą informacją jest ta, iż taki stan mógłby trwać całymi miesiącami lub latami. Uszkodzonych transformatorów nie można naprawić, trzeba je wymienić. To zajmuje zespołowi specjalistów co najmniej tydzień. Z kolei duże zakłady energetyczne mają na podorędziu nie więcej niż 2 grupy odpowiednio przeszkolonych ekspertów. Nawet jeśli część transformatorów zostałaby dość szybko naprawiona, nie wiadomo, czy w sieciach byłby prąd. Większość rurociągów pracuje bowiem dzięki energii elektrycznej. Bez sprawnego transportu w ciągu kilku tygodni również i elektrowniom węglowym skończyłyby się zapasy. Sytuacji nie zmieniłyby też elektrownie atomowe. Są one zaprojektowane tak, by automatycznie wyłączały się w przypadku poważnych awarii sieci energetycznych. Ich uruchomienie nie jest możliwe przed usunięciem awarii. O tym, że to nie tylko teoretyczne rozważania, świadczy chociażby fakt, że w marcu 1989 roku burza na Słońcu na 9 godzin pozbawiła prądu 6 milionów Kanadyjczyków. Z kolei najpotężniejszym tego typu zjawiskiem, jakie zachowało się w ludzkiej pamięci, było tzw. wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, doszło do pożarów drewnianych budynków stacji telegraficznych, a w Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety. Igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne było widać nawet w Kolumbii. Obecnie ucierpiałyby nie tylko sieci elektromagnetyczne, ale również łączność internetowa. Na szczególne niebezpieczeństwo narażone byłyby kable podmorskie, a konkretnie zainstalowane w nich wzmacniacze oraz ich uziemienia. Więc nawet gdy już uda się przywrócić zasilanie, problemem będzie funkcjonowanie globalnego internetu, bo naprawić trzeba będzie dziesiątki tysięcy kilometrów kabli. Bezpośrednie pomiary aktywności Słońca za pomocą instrumentów naukowych ludzkość rozpoczęła dopiero w XVII wieku od liczenia plam słonecznych. Obecnie mamy dane z obserwatoriów naziemnych, teleskopów kosmicznych i satelitów. To jednak nie wystarczy, gdyż pozwala na zanotowanie aktywności Słońca na przestrzeni ostatnich kilkuset lat. Badania radiowęgla w pierścieniach drzew, w połączeniu z badaniem berylu w rdzeniach lodowych to najlepszy sposób na poznanie zachowania naszej gwiazdy w bardziej odległej przeszłości, mówi profesor Bard. « powrót do artykułu
-
- burza słoneczna
- cywilizacja
-
(i 1 więcej)
Oznaczone tagami:
-
Polskie konsorcjum opracowało Mobilną Platformą Kryminalistyczną (MPK) do szybkiego zbierania i analizowania danych z miejsca ataku terrorystycznego czy katastrofy. Składa się ona z 6 modułów, które umożliwiają dokumentowanie miejsca zdarzenia, wykonanie badań biologicznych i daktyloskopijnych, analizy zabezpieczonych telefonów komórkowych i nagrań z monitoringu oraz rekonstrukcję zdarzeń na podstawie danych balistycznych. W skład konsorcjum wchodziły Politechnika Warszawska, Wydział Samochodów i Maszyn Roboczych (lider), Wojskowe Zakłady Łączności Nr 1 SA i spółka Hagmed. MPK jest laboratorium kryminalistycznym zainstalowanym w rozkładanym kontenerze. Może być zasilana z sieci energetycznej lub przez autonomiczny system z wbudowanym agregatem prądotwórczym i układem podtrzymywania napięcia. Platformę wyposażono w układ samopoziomowania, a także automatyczną klimatyzację i wentylację. Dzięki modułowi do dokumentowania miejsca zdarzenia można stworzyć mapę terenu. Wykorzystywane są do tego skanowanie laserowe 3D i fotografie wykonywane przez dron. Moduł do badań biologicznych pozwala na ustalenie profilu DNA sprawcy i/lub ofiar. Posiadając zabezpieczony przedmiot z miejsca zdarzenia, można pobrać z niego próbkę DNA, określić jej profil i przesłać go do przeszukania w kryminalistycznych bazach danych (Baza DNA). Możliwe jest również stworzenie lokalnej bazy eliminacyjnej osób biorących udział w oględzinach. To pozwala oddzielić ich ślady od śladów dowodowych pochodzących od sprawców i ofiar katastrofy - wyjaśniono w komunikacie prasowym Politechniki Warszawskiej (PW). Moduł do badań daktyloskopijnych służy do ujawnienia śladów na zabezpieczonym przedmiocie i przesłania ich do przeszukania w bazach danych (ang. Automated Fingerprint Identification System, AFIS). Tak jak w module do badań biologicznych, możliwe jest stworzenie bazy eliminacyjnej. Głównym zadaniem Mobilnej Platformy Kryminalistycznej jest udzielenie wsparcia grupom śledczym dokonującym oględzin rozległego i skomplikowanego pod względem kryminalistycznym miejsca zdarzenia bezpośrednio w jego sąsiedztwie. Mobilne laboratorium kontenerowe, bez względu na jego konfigurację, nie jest w stanie w pełni zastąpić stacjonarnego laboratorium kryminalistycznego, ale daje możliwość szybkiej weryfikacji wytypowanego materiału dowodowego - wyjaśnia dr hab. inż. Jędrzej Mączak z PW. Ta wersja platformy jest dopasowana do szczegółowych wymagań policji, ale dzięki modułowej budowie można ją też konfigurować pod kątem potrzeb innych zamawiających. Projekt zdobył główną nagrodę na Międzynarodowych Targach Policji i Bezpieczeństwa Publicznego POLSECURE 2022. « powrót do artykułu
-
- Mobilna Platforma Kryminalistyczna
- katastrofa
-
(i 4 więcej)
Oznaczone tagami:
-
Po porównaniu masy mózgów i ciał 1400 żyjących i wymarłych gatunków ssaków naukowcy doszli do wniosku, że mózgi ssaków nie powiększały się liniowo. Grupa 22 naukowców, w tym biologów, antropologów i statystyków ewolucyjnych, wykorzystała w swoich badaniach m.in. skamieniałości 107 ssaków, w tym najstarszej małpy Europy czy prehistorycznych waleni. Okazało się, że zwierzęta o dużych mózgach, jak słonie czy delfiny, powiększały ten organ w różny sposób. Na przykład w przypadku słoni w toku ewolucji dochodziło do zwiększania rozmiarów ciała, ale jeszcze szybciej zwiększały się rozmiary mózgu. Tymczasem delfiny zmniejszały swoje ciała, jednocześnie zwiększając mózg. U wielkich małp, wśród których widzimy bardzo duże zróżnicowanie stosunku wielkości mózgu do ciała, generalny trend ewolucyjny prowadził do zwiększania i rozmiarów ciała i rozmiarów mózgu. Jednak u homininów było inaczej. W przypadku naszych kuzynów widzimy relatywne zmniejszenie rozmiarów ciała i zwiększenie rozmiarów mózgu w porównaniu do wielkich małp. Autorzy badań uważają, że te złożone wzorce ewolucji mózgu wskazują na konieczność przemyślenia paradygmatu mówiącego, iż porównanie stosunku wielkości mózgu do wielkości ciała wskazuje na stopień rozwoju inteligencji. Wiele zwierząt o dużych mózgach, jak słonie, delfiny czy wielkie małpy mają wysoki stosunek wielkości mózgu do wielkości ciała. Ale nie zawsze wskazuje to na inteligencję. Na przykład uszanka kalifornijska ma dość niską masę mózgu w stosunku do masy ciała, a wykazuje się wysoką inteligencją, mówi biolog ewolucyjny Jaroen Smaers ze Stony Brook University. Jeśli weźmiemy pod uwagę historię ewolucyjną uszanki zauważymy, że w jej przypadku istniała silna presja na zwiększanie rozmiaru ciała, prawdopodobnie ze względu na zróżnicowanie morskich mięsożerców i przystosowanie do częściowego życia na lądzie. Zatem w przypadku uszanki niski stosunek masy mózgu do masy ciała wynika nie z presji na zmniejszanie rozmiarów mózgu, a na zwiększanie rozmiarów ciała. Obaliliśmy dogmat, że ze stosunek rozmiarów mózgu do reszty organizmu można wnioskować o inteligencji. Czasem duże mózgi to wynik stopniowego zmniejszania rozmiarów ciała, co miało pomóc w dostosowaniu się w nowego habitatu czy sposobu poruszania się. Nie ma to więc nic wspólnego z inteligencją. Jeśli chcemy wykorzystywać relatywnym rozmiar mózgu do wnioskowania o zdolnościach poznawczych, musimy przyjrzeć się też historii ewolucyjnej gatunku i sprawdzić, jak rozmiary mózgu i ciała zmieniały się w czasie", wyjaśnia Kamran Safi z Instytutu Zachowania Zwierząt im. Maxa Plancka. Autorzy badań wykazali też, że do największych zmian w mózgach ssaków doszło po dwóch wielkich kataklizmach – masowym wymieraniu sprzed ok. 66 milionów lat i zmianie klimatu sprzed 23–33 milionów lat. Gdy 66 milionów lat temu wyginęły dinozaury widoczna jest radykalna zmiana rozmiarów mózgu u takich ssaków jak gryzonie, nietoperze i mięsożercy, którzy wypełnili nisze po dinozaurach. Mniej więcej 30 milionów lat później, podczas ochłodzenia klimatu w oligocenie doszło do jeszcze głębszych zmian w mózgach niedźwiedzi, waleni, fok i naczelnych. Olbrzymim zaskoczeniem było zauważenie, że do największych zmian w relatywnej wielkości mózgów dzisiejszych ssaków doszło w wyniku katastrofalnych wydarzeń, z którymi mieli do czynienia ich przodkowie, mówi Smaers. Mózgi delfinów, słoni i wielkich małp wyewoluowały do dużych rozmiarów względem rozmiarów ich ciał po przemianach klimatycznych sprzed 23–33 milionów lat. Stosunek rozmiarów mózgu do rozmiarów ciała nie jest bez związku z ewolucją inteligencji. Jednak często może w większym stopniu wskazywać na dostosowanie się do presji środowiskowej niż na sam rozwój inteligencji, mówi Smaers. Szczegóły badań opublikowano w artykule The evolution of mammalian brain size. « powrót do artykułu
- 5 odpowiedzi
-
- katastrofa
- ewolucja
-
(i 3 więcej)
Oznaczone tagami:
-
Spełniły się najgorsze obawy inżynierów – teleskop w Arecibo się zawalił. Do katastrofy doszło, gdy ważąca 900 ton platforma odbiornika radioteleskopu spadła na znajdującą się 120 metrów niżej czaszę. Na szczęście – jak wcześniej informowaliśmy – już wcześniej specjaliści doszli do wniosku, że cała struktura jest niestabilna i teleskop przeznaczono do likwidacji, zatem w katastrofie nikt nie ucierpiał. Arecibo to jedno z najważniejszych urządzeń w historii radioastronomii. Teleskop przez ponad pół wieku służył światowej nauce, dostarczając niezwykle ważnych danych. Przez dziesięciolecia był też największym tego typu urządzeniem. Większy – FAST – wybudowali dopiero Chińczycy, jednak jego możliwości badawcze, ze względu na lokalizację oraz pracę wyłącznie w trybie pasywnym w wielu dziedzinach nie dorównują Arecibo. A raczej nie dorównywały, gdyż dzisiaj nastąpił ostateczny koniec legendarnego obserwatorium. Koniec, którego można się było spodziewać, ale nikt nie przypuszczał, że nastąpi tak szybko. Już kilkanaście lat temu informowaliśmy, że Narodowa Fundacja Nauki USA od lat umieszczała utrzymanie radioteleskopu na dole listy swoich priorytetów i oczywistym było, że w bliższej niż dalszej przyszłości przestanie go finansować, przeznaczając zaoszczędzone pieniądze na nowocześniejsze, bardziej obiecujące projekty. Jednak jeszcze pół roku temu mogliśmy przypuszczać, że Arecibo będzie działał jeszcze przez kilka lat. Początkiem końca było zerwanie się w sierpniu jednej z lin pomocniczych podtrzymujących platformę odbiornika. Spadająca lina wybiła kilkudziesięciometrową dziurę w czaszy teleskopu. Już wówczas wykonana inspekcja kazała zadać sobie pytanie o stabilność całej struktury. Postanowiono jednak naprawić radioteleskop. I gdy czekano na dostawę nowych lin na początku listopada doszło do zerwania się kolejnej liny nośnej. To zaskoczyło specjalistów, którzy oceniali, że pozostałe liny powinny bez problemu wytrzymać obciążenia. Eksperci doszli więc do wniosku, że najwyraźniej cała struktura jest bardziej osłabiona, niż się wydaje. Kolejne ekspertyzy inżynieryjne wykazały, że teleskopu nie uda się naprawić nie narażając przy tym robotników na utratę życia. Dlatego też podjęto decyzję o jego wyburzeniu. Szczegółowo o tym informowaliśmy. Dzisiaj w nocy upadek platformy z odbiornikiem ostatecznie zakończył historię radioteleskopu w Arecibo. « powrót do artykułu
- 26 odpowiedzi
-
- katastrofa
- obserwatorium
-
(i 3 więcej)
Oznaczone tagami:
-
Po przeprowadzeniu inspekcji, w wyniku której uznano, że napraw w Arecibo Observatory nie uda się wykonać bez narażania na niebezpieczeństwo robotników oraz pracowników ośrodka, Narodowa Fundacja Nauki Stanów Zjednoczonych rozpoczęła program likwidacji 305-metrowego teleskopu, który przez 57 lat służył jako jeden z głównych światowych ośrodków radioastronomii, badań systemów planetarnych, Układu Słonecznego i badań przestrzeni kosmicznej, czytamy w oświadczeniu opublikowanym przez US National Science Foundation. W sierpniu bieżącego roku informowaliśmy o zerwaniu się jednego z kabli podtrzymujących konstrukcję odbiornika teleskopu. Przed 2 tygodniami doszło do zerwania się kolejnego kabla. NSF już w sierpniu zleciła przyjrzenie się sprawie kilku niezależnym firmom inżynieryjnym. Specjaliści doszli do wniosku, że cała struktura teleskopu jest narażona na katastrofę, kable mogą jej dłużej nie utrzymać. Uznano też, że prace mające na celu naprawienie teleskopu wiązałyby się z ryzykiem utraty życia przez prowadzących je robotników. Co więcej, analizy wykazały, że nawet jeśli teleskop zostałby naprawiony, to i tak najprawdopodobniej trzeba będzie mierzyć się z długoterminowymi problemami związanymi ze stabilnością struktury. Już po sierpniowym wypadku NSF zezwoliła University of Central Florida (UCF), który zarządza Obserwatorium Arecibo, na podjęcie wszelkich niezbędnych kroków, z zastrzeżeniem, że najważniejsze jest bezpieczeństwo robotników, pracowników oraz odwiedzających. UCF szybko przystąpił do działania. Firmy inżynieryjne dokonały oceny sytuacji i rozpoczęto przygotowania do awaryjnych prac mających na celu ustabilizowanie struktury. W momencie gdy czekano na dostawę dwóch nowych kabli podtrzymujących strukturę teleskopu oraz dwóch tymczasowych kabli pomocniczych, doszło do zerwania się kolejnego kabla. Zaskoczyło to specjalistów, gdyż – bazując na obliczeniach naprężeń, jakim był kabel poddany – sytuacja taka nie powinna się wydarzyć. Inżynierowie uznali, że najwyraźniej cała konstrukcja, pozostałe kable, są słabsze niż sądzono. Prace nad rozbiórką teleskopu będą skupiały się na jego czaszy oraz na zabezpieczeniu pozostałej infrastruktury na wypadek kolejnej katastrofy budowlanej. Plan wyłączenia Arecibo zakłada pozostawienie jak największej części infrastruktury, tak by mogła ona służyć przyszłym pracom badawczym i edukacyjnym. Pierwszymi krokami tych prac będzie przeniesienie wyposażenia, które ma zostać zachowane, w bezpieczne miejsce oraz obfotografowanie struktury teleskopu w wysokiej rozdzielczości za pomocą dronów. Ma to pomóc w zaplanowaniu prac rozbiórkowych. Gdy teleskop zostanie rozebrany, ponownie prace badawcze podejmą takie jednostki jak Arecibo Observatory LIDAR czy położona poza obserwatorium jednostka Culebra, która analizuje pokrywę chmur i dane nt. opadów. Otwarte zostanie też centrum dla zwiedzających. Nadal prowadzone będą działania związane z przechowywaniem i analizą dotychczas zebranych danych. W 2019 roku UCF podpisał umowę z Microsoftem, na podstawie której zwiększono możliwości przechowywania i analizy danych. Obecnie trwają prace nad migracją danych z serwerów na terenie obserwatorium na serwery zewnętrzne. Radioteleskop w Arecibo składa się z czaszy o średnicy 305 metrów oraz z ważącej 900 ton platformy z instrumentami naukowymi, która zawieszona jest na wysokości około 140 metrów nad czaszą. Platforma wisi na kablach umocowanych do trzech betonowych wież. Gdy na początku bieżącego miesiąca zerwał się drugi z kabli, było to sporym zaskoczeniem dla specjalistów. Jego obciążenie wynosiło bowiem zaledwie 60% minimalnego obciążenia grożącego zerwaniem. Badanie głównych kabli, które pochodziły z czasów budowy teleskopu ujawniło pojawienie się w nich nowych pęknięć. Okazało się też, że dodatkowe kable, które zamontowano w latach 90. gdy zwiększano ciężar platformy zawieszonej nad teleskopem, również nie sprawują się tak, jak należy. Firma Thomton Tomasetti, wynajęta przez UCF do oceny struktury radioteleskopu, uznała, że prace na tym obiekcie są niebezpieczne. Tym bardziej, że nie można byłoby nawet przeprowadzić testów obciążeniowych pozostałych kabli bez ryzyka zawalenia się całej struktury. W związku tym firm zaleciła kontrolowane wyburzenie w celu uniknięcia niespodziewanego zawalenia się teleskopu. UCF wynajął jeszcze dwie dodatkowe firmy. Jedna z nich zaleciła natychmiastowe prace nad ustabilizowaniem struktury. Druga, po zapoznaniu się z modelem wykorzystanym przez Thomton Tomasetti uznała, że nie jest możliwe bezpieczne przeprowadzenie oceny stabilności i stwierdziła, że nikt nie powinien być dopuszczony do platform i wież teleskopu. Po otrzymaniu tych opinii UCF zleciła ich analizie kolejnej firmie inżynieryjnej oraz Korpusowi Inżynierów US Army. Firma zgodziła się ze stanowiskiem Thomton Tomasetti, a US Army Corps of Engineers zarekomendował wykonanie dodatkowej dokumentacji fotograficznej obserwatorium oraz szczegółowych badań niedawno zerwanego kabla. Biorąc pod uwagę fakt, że wszelkie prace nad ustabilizowaniem lub naprawieniem struktury wymagałyby obecności robotników na jej terenie bądź w pobliżu oraz stopień niepewności związany z wytrzymałością kabli i wielkie siły, z jakimi mamy tu do czynienia, NSF zaakceptowała propozycję rozpoczęcia przygotowań do kontrolowanej likwidacji 305-metrowego teleskopu, czytamy w oświadczeniu NSF. « powrót do artykułu
- 16 odpowiedzi
-
- Arecibo Observatory
- wyburzenie
-
(i 4 więcej)
Oznaczone tagami:
-
Jezioro Szkieletów odsłania jedne tajemnice i dodaje kolejne
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Tajemnicze szkielety znad jeziora Roopkund w Himalajach należały do różnych genetycznie grup ludzi, którzy zginęli podczas co najmniej dwóch katastrof, a ich śmierć dzieli od siebie tysiąc lat. Wyniki analiz genetycznych przeczą więc przekonaniu, że wszyscy ci ludzie ponieśli śmierć podczas tego samego wydarzenia. Jezioro Roopkund znajduje się na wysokości ponad 5000 metrów, w indyjskiej części Himalajów. Po tym, jak u jego wybrzeży znaleziono setki szkieletów, zyskało ono nazwę Jeziora Szkieletów i Tajemniczego Jeziora. Jezioro Roopkund od dawna było przedmiotem spekulacji. Wszyscy się zastanawiali, kim byli zmarli, co ich tu przywiodło i jak zginęli, mówi jeden z autorów badań, Niraj Rai z Birbal Sanhi Institute of Paleoscience w Lucknow w Indiach. Jest on jednym z członków 28-osobowego międzynarodowego zespołu naukowego z Indii, USA i Europy, który przeprowadził analizy genetyczne tajemniczych szkieletów. Okazuje się, że tajemnicze szkielety pochodzą od co najmniej trzech różnych grup ludności. Po raz pierwszy zauważyliśmy, że mamy tu do czynienia z różnymi grupami gdy przeanalizowaliśmy mitochondrialne DNA 72 szkieletów. Wiele z tych osób posiadało haplogrupy typowe dla współczesnej populacji Indii, jednak zidentyfikowaliśmy też wiele osób, których haplogrupy są bardziej typowe dla zachodniej Eurazji, mówi Kumarasamy Thangaraj, który rozpoczął projekt badawczy przed 10 laty. Sekwencjonowanie całego genomu 38 osób ujawniła, że szkielety z Roopkund to szczątki osób z co najmniej trzech odmiennych genetycznie grup. Pierwsza z nich, złożona z 23 osób, jest spokrewniona ze współczesnymi mieszkańcami Indii. Druga grupa, w skład której wchodzi 14 osób, wykazuje pokrewieństwo genetyczne z dzisiejszymi mieszkańcami wschodniej części Morza Śródziemnego, przede wszystkim z mieszkańcami Grecji i Krety. Pozostałe osoby są spokrewnione ze współczesnymi mieszkańcami Azji Południowo-Wschodniej. Skład genetyczny szkieletów z Roopkund był całkowitym zaskoczeniem. Obecność tam ludzi znad Morza Śródziemnego wskazuje, że nie było to miejsce, którym interesowali się wyłącznie okoliczni mieszkańcy, ale przyciągało ono ludzi z całego świata, mówi Éadaoin Harney z Uniwersytetu Harvarda. Również analiza izotopów, która pozwoliła na prześledzenie diety badanych ludzi potwierdza, że mamy do czynienia z różnymi grupami. Osoby należące do grupy spokrewnionej ze współczesnymi mieszkańcami Indii miały wysoce zróżnicowaną dietę, opierającą się w dużej mierze na pokarmach o metabolizmie C3 i C4. To odkrycie jest zgodne z dowodami genetycznymi wskazującymi na pochodzenie z Azji Południowej. W przeciwieństwie do nich osoby, pochodzące z regionu Morza Śródziemnego, spożywały bardzo mało kaszy, wyjaśnia Ayushi Nayak z Instytutu Hisotrii Człowieka im. Maxa Plancka. Drugim zaskoczeniem, jakie czekało naukowców, było odkrycie, że badani ludzie nie zginęli w tym samym momencie. Jako pierwsze zginęły osoby spokrewnione z mieszkańcami współczesnych Indii. Ich śmierć nastąpiła pomiędzy VII a X wiekiem naszej ery, prawdopodobnie w wyniku różnych zdarzeń. Kolejne dwie grupy przybyły i zginęły nad Roopkund pomiędzy XVII a XX wiekiem. Wciąż nie wiemy, co przywiodło tych ludzi nad jezioro, ani jak zginęli, stwierdza Niraj Rai. Analizy biomolekularne pozwoliły nam stwierdzić, że historia jeziora Roopkund jest bardziej złożona, niż sądziliśmy. Każą nam też one postawić pytanie, w jaki sposób zaledwie kilkaset lat temu zginęli tutaj ludzie pochodzący znad Morza Śródziemnego, o genomie wysoce nietypowym dla tego regionu, podsumowuje David Reich z Harvard Medical School. « powrót do artykułu-
- jezioro Roopkund
- jezioro Szkieletów
-
(i 5 więcej)
Oznaczone tagami:
-
Nawet przy dość optymistycznym scenariuszu rozwoju sytuacji klimatycznej, ludzkość może w ciągu najbliższych dziesięcioleci czekać poważny kryzys. Australijski think-tank Breakthrough - National Centre for Climate Restoration, opierając się na badaniach naukowych, m.in. na opublikowanej w PNAS pracy „Well below 2 C: Mitigation strategies for avoiding dangerous to catastrophic climate changes”, zarysował bardzo prawdopodobny scenariusz tego, co czeka nas już w ciągu kilku dekad. Australijczycy uważają, że w latach 2020–2030 politycy i społeczeństwa nie zrealizują celów zakładanych w Porozumieniu Paryskim, zatem nie przeprowadzimy zmian niezbędnych, by ograniczyć globalne ocieplenie do 3 stopni powyżej okresu sprzed rewolucji przemysłowej. Ich zdaniem do roku 2030 średnia roczna koncentracja CO2 w atmosferze wzrośnie do 437 ppm, czyli do poziomu, jaki nie występował od 20 milionów lat. Tutaj trzeba przypomnieć, że średnia roczna koncentracja tego gazu wyniosła w ubiegłym roku 409,92 ppm, czyli w ciągu jednego tylko roku zwiększyła się o 2,87 ppm. Osiągnięcie do roku 2030 wartości 437 ppm jest więc jak najbardziej realnym scenariuszem. Przy takiej koncentracji dwutlenku węgla średnia temperatura na Ziemi będzie o 1,6 stopnia Celsjusza wyższa, niż w epoce przedprzemysłowej. Rok 2030 to jednocześnie zakładany szczyt emisji gazów cieplarnianych. Ma ona od tej pory spadać, by w roku 2100 stanowić jedynie 20% tego, co ludzkość emitowała w roku 2010. Jednak taki scenariusz – o ile rzeczywiście antropogeniczna emisja zacznie się od roku 2030 zmniejszać – oznacza, że do roku 2050 średnie temperatury na Ziemi zwiększą się o 2,4 stopnia Celsjusza w porównaniu z epoką przedprzemysłową. Dodatkowo takie zwiększanie temperatury spowoduje, że zostanie uruchomionych wiele mechanizmów zwrotnych, jak zmniejszenie pokryw lodowych, zmiany w pokrywach chmur, uwolnienie dodatkowych ilości metanu z gruntu. Mechanizmy te spowodują dodatkowe ogrzewanie się Ziemi, co w sumie oznacza, że w tym scenariuszu do roku 2050 temperatura będzie o 3 stopnie Celsjusza wyższa niż w epoce przedprzemysłowej. Takie zmiany spowodują, że Zachodnia Antarktyka ociepli się o 1,5 stopnia Celsjusza, Grenlandia o 2 stopnie, a obszary wiecznej zmarzliny i Amazonia doświadczą ocieplenia o 2 stopnie. Mechanizmy te spowodują dodatkowe ocieplenie o jeden stopień. Poziom oceanów wzrośnie do roku 2050 o 0,5 metra, a do roku 2100 wzrost może wynieść 2–3 metry. Z historii geologicznej Ziemi wiemy jednak, że możliwy jest wzrost o ponad 25 metrów. Wszystko to oznacza, że do roku 2050 aż 35% lądów i 55% ludzkości będzie doświadczało rocznie ponad 20 dni, w których wysokie temperatury będą stanowiły zagrożenie dla ludzkiego życia. W przeszłości wspominaliśmy już o tym, że takie temperatury mogą panować m.in. w szybko rozwijających się miastach nad Zatoką Perską czy w Mekce. Wyjaśnialiśmy też, czym jest temperatura mokrego termometru oraz, że śmiertelnym zagrożeniem dla człowieka jest temperatura przekraczająca 35 stopni Celsjusza. Zmiany takie doprowadzić mogą do destabilizacji prądów strumieniowych w atmosferze, co niekorzystnie wpłynie na intensywność i rozkład geograficzny monsunów w Azji i Afryce Zachodniej przez co dojdzie do osłabienia Prądu Zatokowego i negatywnych konsekwencji dla Europy. Z kolei Ameryka Północna doświadczy ekstremalnych zjawisk pogodowych, w tym potężnych pożarów, susz, fal upałów oraz powodzi. Nad Chinami przestanie pojawiać się letni monsun, a w wielkich rzekach Azji – z powodu redukcji o 1/3 lodowców w Himalajach – dramatycznie spadnie ilość wody. W Andach powierzchnia lodowców skurczy się o 70%, a w Meksyku i Ameryce Środkowej opady zmniejszą się o połowę. Ponad 30% obszaru lądów doświadczy problemów z dostępem do wody, a w południowej Afryce, południowych obszarach basenu Morza Śródziemnego, zachodniej Azji, na Bliskim Wschodzie, w australijskim interiorze i południowo-zachodnich częściach USA dojdzie do poważnego pustynnienia. Załamie się wiele ekosystemów, w tym rafy koralowe, amazoński las deszczowy i Arktyka. Wiele terenów w ubogich krajach się wyludni, gdyż ludzie nie będą w stanie się tam schłodzić w czasie upałów. Śmiertelne upały będą panowały przez ponad 100 dni w roku w Afryce Zachodniej, na Bliskim Wschodzie, w Azji Południowo-Wschodniej oraz w tropikalnych częściach Ameryki Południowej. Spowoduje to, że ponad miliard osób zamieszkujących obszary tropikalne przeniesie się w inne regiony globu. Aż dwa miliardy ludzi doświadczy problemów z dostępem do wody pitnej, upadnie też rolnictwo w suchych obszarach subtropikalnych. Należy spodziewać się znacznego spadku produkcji żywności i związanego z tym gwałtownego wzrostu cen. Sytuację dodatkowo pogorszy zmniejszająca się wartość odżywcza roślin uprawnych, spadek populacji owadów zapylających, zmiany w rozkładzie monsunów, pustynnienie oraz upały w wielu ważnych obszarach obecnej produkcji rolnej. Należy też spodziewać się zatopienia delt Mekongu, Gangesu i Nilu oraz zalania znacznych części wielkich miast, jak Dżakarta, Hongkong, Szanghaj, Bangkok, Lagos czy Manila. Niektóre małe wyspy staną się niezdatne do życia, a w samym tylko Bangladeszu aż 15 milionów ludzi zostanie zmuszonych do migracji. Australijscy specjaliści stwierdzili też, że nawet jeśli ocieplenie zostanie zatrzymane na poziomie 2 stopni Celsjusza, należy spodziewać się migracji ponad miliarda ludzi. Bardziej pesymistyczne scenariusze wykraczały poza możliwości modelowania, jednak mówi się o wysokim prawdopodobieństwie końca cywilizacji w znanej nam obecnie formie. Nie można wówczas wykluczyć bowiem olbrzymich, nieprzewidywalnych zmian społecznych związanych z migracjami olbrzymiej liczby ludzi, konfliktami zbrojnymi o wodę i pożywienie. O tym, że taki scenariusz jest jak najbardziej prawdopodobny świadczyć może rosnące od kilku lat napięcie między Etiopią, Egiptem a Sudanem spowodowane przez etiopskie plany budowy wielkiej zapory wodnej na Nilu. « powrót do artykułu
- 42 odpowiedzi
-
- gazy cieplarniane
- katastrofa
-
(i 1 więcej)
Oznaczone tagami:
-
Niemal 100 lat temu, 15 stycznia 1919 roku w Bostonie doszło do niezwykłej śmiercionośnej katastrofy. W dzielnicy North End pękł zbiornik z melasą i ulicę zalała 7-metrowa fala słodkiej cieczy, która zniszczyła wiele budynków i zabiła 21 osób oraz kilkanaście koni. Przez 100 lat naukowcy zastanawiali się, jak wolno poruszający się płyn mógł mieć tak katastrofalne skutki. Dopiero teraz udało się wyjaśnić zjawiska fizyczne stojące u podstaw śmiertelnego słodkiego tsunami. Nicole Sharp, inżynier lotnictwa, która specjalizuje się w dynamice cieczy oraz Jordan Kennedy z Uniwersytetu Harvarda zebrali wszelkie dostępne dane na temat katastrofy, w tym doniesienia prasowe, stare mapy Bostonu czy informacje pogodowe. Przeprowadzili liczne eksperymenty dotyczące poruszania się melasy w różnych warunkach i wprowadzili uzyskane dane do modeli komputerowych. Niedawno wyniki swoich eksperymentów zaprezentowali podczas dorocznego spotkania Wydziału Dynamiki Cieszy Amerykańskiego Towarzystwa Fizycznego. Melasa jest płynem nieniutonowskim i pseudoplastycznym. Oznacza to, że lepkość tego płynu nie jest wartością stałą, jego krzywa płynięcia nie jest funkcją liniową, a jego naprężenie stycznie nie jest stałe i maleje wraz ze wzrostem prędkości ścinania. Jednak w niższych temperaturach melasa zachowuje się bardziej jak klasyczny płyn. Eksperymenty Sharp i Kennedy'ego wykazały, że jej lepkość drastycznie wzrasta w zimnych pomieszczeniach. Przelanie 48 mililitrów melasy do cylindra miarowego zajęło nam kilkanaście minut - mówi Sharp. Biorąc pod uwagę fakt, że w czasie wypadku w Bostonie było zimno, zasięg zniszczeń stanowił poważną zagadkę. Już wkrótce po wypadku gazety spekulowały, że pod zbiornik podłożono bombę i eksplozja spowodowała szybkie rozprzestrzenianie się melasy. Z najnowszych badań wiemy już, że znacznie lepszym wyjaśnieniem od podłożenia ładunku wybuchowego jest podstawowy przepływ horyzontalny cieczy w polu grawitacyjnym, który spowodowany jest różnicami w gęstości ośrodków. Odgrywa on znaczącą rolę wówczas gdy gęstsza ciecz rozprzestrzenia się horyzontalnie po cieczy mniej gęstej (w tym przypadku melasa po powietrzu). Podobne zjawisko obserwujemy, gdy otworzymy drzwi w ciepłym pomieszczeniu i gwałtownie wpada doń zimne powietrze. Ruch powietrza jest silny, pomimo braku wiatru. Sama gęstość melasy mogła odpowiadać za jej dużą prędkość początkową. Ważną rolę odegrała też temperatura. Zbiornik z melasą był nieco cieplejszy od otaczającego go powietrza. Gdy pękł, rozprzestrzeniająca się melasa ulagała szybkiemu schłodzeniu, przez co stawała się bardziej lepka i bardziej niebezpieczna. Melasa działała też na uwięzionych w niej ludzi jak ruchome piaski. Im bardziej próbowali się wydostać, tym bardziej w niej grzęźli. Wszystkie te czynniki spowodowały, że wypadek wiązał się z tak olbrzymimi zniszczeniami i dużą liczbą ofiar. Pani Sharp chce teraz rozszerzyć swoją analizę o to, co działo się w zbiorniku bezpośrednio przed katastrofą, gdy na jego dno wpompowano gorącą melasę. "Przypuszczam, że powstała jakaś niesamowita mieszanina o właściwościach skomplikowanych faktem, iż lepkośc melasy ulega znacznym zmianom wraz ze zmianami temperatury" - mówi uczona. « powrót do artykułu