Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Wyjaśniono tajemnicę słodkiego tsunami

Rekomendowane odpowiedzi

Niemal 100 lat temu, 15 stycznia 1919 roku w Bostonie doszło do niezwykłej śmiercionośnej katastrofy. W dzielnicy North End pękł zbiornik z melasą i ulicę zalała 7-metrowa fala słodkiej cieczy, która zniszczyła wiele budynków i zabiła 21 osób oraz kilkanaście koni. Przez 100 lat naukowcy zastanawiali się, jak wolno poruszający się płyn mógł mieć tak katastrofalne skutki. Dopiero teraz udało się wyjaśnić zjawiska fizyczne stojące u podstaw śmiertelnego słodkiego tsunami.

Nicole Sharp, inżynier lotnictwa, która specjalizuje się w dynamice cieczy oraz Jordan Kennedy z Uniwersytetu Harvarda zebrali wszelkie dostępne dane na temat katastrofy, w tym doniesienia prasowe, stare mapy Bostonu czy informacje pogodowe. Przeprowadzili liczne eksperymenty dotyczące poruszania się melasy w różnych warunkach i wprowadzili uzyskane dane do modeli komputerowych. Niedawno wyniki swoich eksperymentów zaprezentowali podczas dorocznego spotkania Wydziału Dynamiki Cieszy Amerykańskiego Towarzystwa Fizycznego.

Melasa jest płynem nieniutonowskim i pseudoplastycznym. Oznacza to, że lepkość tego płynu nie jest wartością stałą, jego krzywa płynięcia nie jest funkcją liniową, a jego naprężenie stycznie nie jest stałe i maleje wraz ze wzrostem prędkości ścinania. Jednak w niższych temperaturach melasa zachowuje się bardziej jak klasyczny płyn. Eksperymenty Sharp i Kennedy'ego wykazały, że jej lepkość drastycznie wzrasta w zimnych pomieszczeniach. Przelanie 48 mililitrów melasy do cylindra miarowego zajęło nam kilkanaście minut - mówi Sharp. Biorąc pod uwagę fakt, że w czasie wypadku w Bostonie było zimno, zasięg zniszczeń stanowił poważną zagadkę. Już wkrótce po wypadku gazety spekulowały, że pod zbiornik podłożono bombę i eksplozja spowodowała szybkie rozprzestrzenianie się melasy.

Z najnowszych badań wiemy już, że znacznie lepszym wyjaśnieniem od podłożenia ładunku wybuchowego jest podstawowy przepływ horyzontalny cieczy w polu grawitacyjnym, który spowodowany jest różnicami w gęstości ośrodków. Odgrywa on znaczącą rolę wówczas gdy gęstsza ciecz rozprzestrzenia się horyzontalnie po cieczy mniej gęstej (w tym przypadku melasa po powietrzu). Podobne zjawisko obserwujemy, gdy otworzymy drzwi w ciepłym pomieszczeniu i gwałtownie wpada doń zimne powietrze. Ruch powietrza jest silny, pomimo braku wiatru. Sama gęstość melasy mogła odpowiadać za jej dużą prędkość początkową. Ważną rolę odegrała też temperatura. Zbiornik z melasą był nieco cieplejszy od otaczającego go powietrza. Gdy pękł, rozprzestrzeniająca się melasa ulagała szybkiemu schłodzeniu, przez co stawała się bardziej lepka i bardziej niebezpieczna. Melasa działała też na uwięzionych w niej ludzi jak ruchome piaski. Im bardziej próbowali się wydostać, tym bardziej w niej grzęźli. Wszystkie te czynniki spowodowały, że wypadek wiązał się z tak olbrzymimi zniszczeniami i dużą liczbą ofiar.

Pani Sharp chce teraz rozszerzyć swoją analizę o to, co działo się w zbiorniku bezpośrednio przed katastrofą, gdy na jego dno wpompowano gorącą melasę. "Przypuszczam, że powstała jakaś niesamowita mieszanina o właściwościach skomplikowanych faktem, iż lepkośc melasy ulega znacznym zmianom wraz ze zmianami temperatury" - mówi uczona.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W grudniu 2020 roku miała miejsce spektakularna katastrofa. Zawalił się jeden z najbardziej znanych instrumentów naukowych na świecie, radioteleskop w Arecibo. W raporcie opublikowanym właśnie przez amerykańskie Narodowe Akademie Nauk czytamy, że główną przyczyną katastrofy było – wywołane potężnym promieniowaniem elektromagnetycznym – zmęczenie cynku w mocowaniach lin nośnych, które utrzymywały 900-tonową platformę odbiornika na wysokości 120 metrów nad czaszą radioteleskopu.
      Już wcześniejsze raporty wspominały o deformacji cynku, ale jako możliwe przyczyny katastrofy wskazywano też błędy konstrukcyjne czy uszkodzenia przez huragan Maria, który przeszedł w 2017 roku.
      Inspekcja wykonana po przejściu huraganu znalazła dowody na ślizganie się lin nośnych, jednak – jak dowiadujemy się z obecnego raportu – nie odnotowano wówczas wzorców zużycia i większości nie wyjaśniono. Ponadto na zdjęciach z roku 2019 widoczne jest poważne zużycie uchwytów lin, miejsc w których były one mocowane. Mimo to nie przeprowadzono żadnych badań. Zaskoczyło to autorów raportu. Ich zdaniem niepokojący jest fakt, że inżynierowie wynajęci do badania stanu lin pomiędzy przejściem huraganu Maria a zawaleniem się teleskopu nie wszczęli alarmu z powodu zauważonego zużycia elementów nośnych.
      Główną przyczyną katastrofy była deformacja cynkowych uchwytów lin. W wyniku olbrzymich naprężeń i pod wpływem temperatury doszło do ich deformacji oraz pękania drutów w linach, co osłabiało miejsca mocowania lin. Za główną zaś przyczynę deformacji uznano generowane przez teleskop promieniowanie elektromagnetyczne. Zdaniem badaczy, potężne nadajniki teleskopu indukowały w linach i miejscach mocowania prąd elektryczny, który wywoływał długoterminową elektroplastyczność cynku, co znacząco przyspieszało naturalne zmęczenia materiału.
      Twórcy raportu dodają, że – o ile im wiadomo – mamy tu do czynienia z pierwszym w historii udokumentowanym przypadkiem awarii wywołanej pełzaniem cynku. Dlatego też w raporcie zaproponowano, by Narodowa Fundacja Nauki, do której należy Arecibo, przekazała pozostałe liny i ich uchwyty społeczności naukowej, w celu dalszych badań zjawiska zmęczenia cynku pod wpływem silnego promieniowania elektromagnetycznego.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W pierścieniach drzew z francuskich Alp zauważono, że przed 14 300 laty doszło do gwałtownego wzrostu ilości radioaktywnej formy węgla, C-14. To ślad po największej znanej nam burzy słonecznej. Gdyby obecnie na Słońcu doszło do takiej burzy, miałoby to katastrofalne skutki dla naszej cywilizacji. Burza taka zniszczyłaby satelity komunikacyjne i nawigacyjne oraz spowodowała masowe uszkodzenia sieci elektroenergetycznych oraz internetu.
      O wynikach badań przeprowadzonych przez brytyjsko-francuski zespół naukowy, możemy przeczytać w Philosophical Transactions of the Royal Society A. Mathematical, Physical and Engineering Sciences. Ich autorzy przeanalizowali poziom radiowęgla w pozostałościach częściowo sfosylizowanych drzew znalezionych na zniszczonym erozją brzegu rzeki Drouzet w pobliżu Gap. Zauważyli, że dokładnie 14 300 lat temu nagle wzrósł poziom C-14. Po porównaniu go do poziomu berylu, naukowcy doszli do wniosku, że wzrost ilości węgla spowodowany był olbrzymią burzą na Słońcu.
      Radiowęgiel bez przerwy powstaje w górnych warstwach atmosfery w wyniku reakcji łańcuchowych zapoczątkowywanych przez promieniowanie kosmiczne. W ostatnich latach naukowcy zauważyli, że ekstremalne zjawiska na Słońcu, takie jak rozbłyski i koronalne wyrzuty masy, mogą prowadzić do nagłych krótkotrwałych wzrostów ilości energetycznych cząstek, które skutkują znaczącymi wzrostami ilości radiowęgla na przestrzeni zaledwie jednego roku, mówi główny autor badań, profesor Edouard Bard z Collège de France i CEREGE.
      Burza słoneczna, której ślady pozostały w pierścieniach drzew, sprowadziłaby katastrofę na współczesną cywilizację opartą na technologii. Już przed kilkunastu laty amerykańskie Narodowe Akademie Nauk opublikowały raport dotyczący ewentualnych skutków olbrzymiego koronalnego wyrzutu masy, który zostałby skierowany w stronę Ziemi. Takie wydarzenie spowodowałoby poważne perturbacje w polu magnetycznym planety, co z kolei wywołałoby przepływ dodatkowej energii w sieciach energetycznych. Nie są one przygotowane na tak gwałtowne zmiany.
      Omawiając ten raport, pisaliśmy, że mogłoby dojść do stopienia rdzeni w stacjach transformatorowych i pozbawienia prądu wszystkich odbiorców. Autorzy raportu stwierdzili, że gwałtowny koronalny wyrzut masy mógłby uszkodzić 300 kluczowych transformatorów w USA. W ciągu 90 sekund ponad 130 milionów osób zostałoby pozbawionych prądu. Mieszkańcy wieżowców natychmiast straciliby dostęp do wody pitnej. Reszta mogłaby z niej korzystać jeszcze przez około 12 godzin. Stanęłyby pociągi i metro. Z półek sklepowych błyskawiczne zniknęłaby żywność, gdyż ciężarówki mogłyby dostarczać zaopatrzenie dopóty, dopóki miałyby paliwo w zbiornikach. Pompy na stacjach benzynowych też działają na prąd. Po około 72 godzinach skończyłoby się paliwo w generatorach prądu. Wówczas stanęłyby szpitale.
      Najbardziej jednak przerażającą informacją jest ta, iż taki stan mógłby trwać całymi miesiącami lub latami. Uszkodzonych transformatorów nie można naprawić, trzeba je wymienić. To zajmuje zespołowi specjalistów co najmniej tydzień. Z kolei duże zakłady energetyczne mają na podorędziu nie więcej niż 2 grupy odpowiednio przeszkolonych ekspertów. Nawet jeśli część transformatorów zostałaby dość szybko naprawiona, nie wiadomo, czy w sieciach byłby prąd. Większość rurociągów pracuje bowiem dzięki energii elektrycznej. Bez sprawnego transportu w ciągu kilku tygodni również i elektrowniom węglowym skończyłyby się zapasy. Sytuacji nie zmieniłyby też elektrownie atomowe. Są one zaprojektowane tak, by automatycznie wyłączały się w przypadku poważnych awarii sieci energetycznych. Ich uruchomienie nie jest możliwe przed usunięciem awarii.
      O tym, że to nie tylko teoretyczne rozważania, świadczy chociażby fakt, że w marcu 1989 roku burza na Słońcu na 9 godzin pozbawiła prądu 6 milionów Kanadyjczyków. Z kolei najpotężniejszym tego typu zjawiskiem, jakie zachowało się w ludzkiej pamięci, było tzw. wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, doszło do pożarów drewnianych budynków stacji telegraficznych, a w Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety. Igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne było widać nawet w Kolumbii.
      Obecnie ucierpiałyby nie tylko sieci elektromagnetyczne, ale również łączność internetowa. Na szczególne niebezpieczeństwo narażone byłyby kable podmorskie, a konkretnie zainstalowane w nich wzmacniacze oraz ich uziemienia. Więc nawet gdy już uda się przywrócić zasilanie, problemem będzie funkcjonowanie globalnego internetu, bo naprawić trzeba będzie dziesiątki tysięcy kilometrów kabli.
      Bezpośrednie pomiary aktywności Słońca za pomocą instrumentów naukowych ludzkość rozpoczęła dopiero w XVII wieku od liczenia plam słonecznych. Obecnie mamy dane z obserwatoriów naziemnych, teleskopów kosmicznych i satelitów. To jednak nie wystarczy, gdyż pozwala na zanotowanie aktywności Słońca na przestrzeni ostatnich kilkuset lat. Badania radiowęgla w pierścieniach drzew, w połączeniu z badaniem berylu w rdzeniach lodowych to najlepszy sposób na poznanie zachowania naszej gwiazdy w bardziej odległej przeszłości, mówi profesor Bard.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Polskie konsorcjum opracowało Mobilną Platformą Kryminalistyczną (MPK) do szybkiego zbierania i analizowania danych z miejsca ataku terrorystycznego czy katastrofy. Składa się ona z 6 modułów, które umożliwiają dokumentowanie miejsca zdarzenia, wykonanie badań biologicznych i daktyloskopijnych, analizy zabezpieczonych telefonów komórkowych i nagrań z monitoringu oraz rekonstrukcję zdarzeń na podstawie danych balistycznych.
      W skład konsorcjum wchodziły Politechnika Warszawska, Wydział Samochodów i Maszyn Roboczych (lider), Wojskowe Zakłady Łączności Nr 1 SA i spółka Hagmed.
      MPK jest laboratorium kryminalistycznym zainstalowanym w rozkładanym kontenerze. Może być zasilana z sieci energetycznej lub przez autonomiczny system z wbudowanym agregatem prądotwórczym i układem podtrzymywania napięcia. Platformę wyposażono w układ samopoziomowania, a także automatyczną klimatyzację i wentylację.
      Dzięki modułowi do dokumentowania miejsca zdarzenia można stworzyć mapę terenu. Wykorzystywane są do tego skanowanie laserowe 3D i fotografie wykonywane przez dron.
      Moduł do badań biologicznych pozwala na ustalenie profilu DNA sprawcy i/lub ofiar. Posiadając zabezpieczony przedmiot z miejsca zdarzenia, można pobrać z niego próbkę DNA, określić jej profil i przesłać go do przeszukania w kryminalistycznych bazach danych (Baza DNA). Możliwe jest również stworzenie lokalnej bazy eliminacyjnej osób biorących udział w oględzinach. To pozwala oddzielić ich ślady od śladów dowodowych pochodzących od sprawców i ofiar katastrofy - wyjaśniono w komunikacie prasowym Politechniki Warszawskiej (PW).
      Moduł do badań daktyloskopijnych służy do ujawnienia śladów na zabezpieczonym przedmiocie i przesłania ich do przeszukania w bazach danych (ang. Automated Fingerprint Identification System, AFIS). Tak jak w module do badań biologicznych, możliwe jest stworzenie bazy eliminacyjnej.
      Głównym zadaniem Mobilnej Platformy Kryminalistycznej jest udzielenie wsparcia grupom śledczym dokonującym oględzin rozległego i skomplikowanego pod względem kryminalistycznym miejsca zdarzenia bezpośrednio w jego sąsiedztwie. Mobilne laboratorium kontenerowe, bez względu na jego konfigurację, nie jest w stanie w pełni zastąpić stacjonarnego laboratorium kryminalistycznego, ale daje możliwość szybkiej weryfikacji wytypowanego materiału dowodowego - wyjaśnia dr hab. inż. Jędrzej Mączak z PW.
      Ta wersja platformy jest dopasowana do szczegółowych wymagań policji, ale dzięki modułowej budowie można ją też konfigurować pod kątem potrzeb innych zamawiających.
      Projekt zdobył główną nagrodę na Międzynarodowych Targach Policji i Bezpieczeństwa Publicznego POLSECURE 2022.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Wiedeńskiego Uniwersytetu Technologicznego opracowali metodę pozyskiwania erytrytu; wykorzystują do tego słomę pszeniczną oraz grzyby Trichoderma reesei. Erytryt, słodzik, który naturalnie występuje w wodorostach i porostach, jest używany w Azji, zyskuje też coraz większą popularność w USA i Europie.
      Autorzy artykułu z pisma AMB Express zaznaczają, że erytryt ma co najmniej kilka plusów. Po pierwsze, jest niskokaloryczny i nie prowadzi do tycia. Po drugie, nie wywołuje próchnicy ani nie wpływa na poziom cukru we krwi. Po trzecie, w odróżnieniu od innych słodzików, nie działa przeczyszczająco.
      Dotąd erytryt uzyskiwano za pomocą pewnych rodzajów drożdży z wysoce skoncentrowanej melasy. Austriakom udało się do tego wykorzystać zwykłą słomę i grzyby strzępkowe. Eksperymenty zakończyły się dużym sukcesem, a teraz procedura będzie optymalizowana pod kątem przemysłu.
      Gdy słomę potnie się na drobne kawałki, rozpuszczalniki rozkładają ligninę ścian komórkowych, a ksylan i celuloza są poddawane dalszej obróbce. Zwykle słomę trzeba potraktować drogimi enzymami, które rozłożą ją do cukru. W stężonej melasie pod wpływem skrajnego stresu osmotycznego specjalne szczepy drożdży przekształcają cukier w erytryt - wyjaśnia prof. Robert Mach.
      Enzymy celulolityczne można jednak pozyskać z grzybów strzępkowych (T. reesei są uznawane za najskuteczniejsze w tej dziedzinie; syntetyzują dwie celobiohydrolazy, osiem endoglukanaz i siedem beta-glukozydaz).
      Podczas studium naukowcy zmodyfikowali grzyby genetycznie. Zwykle procesy pozyskiwania enzymów z hodowli oraz ich chemicznego oczyszczania sprawiają sporo kłopotów, teraz jednak można aplikować T. reesei bezpośrednio na słomę, rezygnując w dodatku z etapu pośredniego z melasą.
      Wiedzieliśmy, że T. reesei są zasadniczo zdolne do wytwarzania erytrytu, ale zazwyczaj w małych ilościach. Zmieniając je genetycznie, udało nam się pobudzić produkcję enzymu, który umożliwia wytwarzanie substancji słodzącej na dużą skalę.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Po porównaniu masy mózgów i ciał 1400 żyjących i wymarłych gatunków ssaków naukowcy doszli do wniosku, że mózgi ssaków nie powiększały się liniowo. Grupa 22 naukowców, w tym biologów, antropologów i statystyków ewolucyjnych, wykorzystała w swoich badaniach m.in. skamieniałości 107 ssaków, w tym najstarszej małpy Europy czy prehistorycznych waleni. Okazało się, że zwierzęta o dużych mózgach, jak słonie czy delfiny, powiększały ten organ w różny sposób.
      Na przykład w przypadku słoni w toku ewolucji dochodziło do zwiększania rozmiarów ciała, ale jeszcze szybciej zwiększały się rozmiary mózgu. Tymczasem delfiny zmniejszały swoje ciała, jednocześnie zwiększając mózg. U wielkich małp, wśród których widzimy bardzo duże zróżnicowanie stosunku wielkości mózgu do ciała, generalny trend ewolucyjny prowadził do zwiększania i rozmiarów ciała i rozmiarów mózgu. Jednak u homininów było inaczej. W przypadku naszych kuzynów widzimy relatywne zmniejszenie rozmiarów ciała i zwiększenie rozmiarów mózgu w porównaniu do wielkich małp.
      Autorzy badań uważają, że te złożone wzorce ewolucji mózgu wskazują na konieczność przemyślenia paradygmatu mówiącego, iż porównanie stosunku wielkości mózgu do wielkości ciała wskazuje na stopień rozwoju inteligencji.
      Wiele zwierząt o dużych mózgach, jak słonie, delfiny czy wielkie małpy mają wysoki stosunek wielkości mózgu do wielkości ciała. Ale nie zawsze wskazuje to na inteligencję. Na przykład uszanka kalifornijska ma dość niską masę mózgu w stosunku do masy ciała, a wykazuje się wysoką inteligencją, mówi biolog ewolucyjny Jaroen Smaers ze Stony Brook University.
      Jeśli weźmiemy pod uwagę historię ewolucyjną uszanki zauważymy, że w jej przypadku istniała silna presja na zwiększanie rozmiaru ciała, prawdopodobnie ze względu na zróżnicowanie morskich mięsożerców i przystosowanie do częściowego życia na lądzie. Zatem w przypadku uszanki niski stosunek masy mózgu do masy ciała wynika nie z presji na zmniejszanie rozmiarów mózgu, a na zwiększanie rozmiarów ciała.
      Obaliliśmy dogmat, że ze stosunek rozmiarów mózgu do reszty organizmu można wnioskować o inteligencji. Czasem duże mózgi to wynik stopniowego zmniejszania rozmiarów ciała, co miało pomóc w dostosowaniu się w nowego habitatu czy sposobu poruszania się. Nie ma to więc nic wspólnego z inteligencją. Jeśli chcemy wykorzystywać relatywnym rozmiar mózgu do wnioskowania o zdolnościach poznawczych, musimy przyjrzeć się też historii ewolucyjnej gatunku i sprawdzić, jak rozmiary mózgu i ciała zmieniały się w czasie", wyjaśnia Kamran Safi z Instytutu Zachowania Zwierząt im. Maxa Plancka.
      Autorzy badań wykazali też, że do największych zmian w mózgach ssaków doszło po dwóch wielkich kataklizmach – masowym wymieraniu sprzed ok. 66 milionów lat i zmianie klimatu sprzed 23–33 milionów lat.
      Gdy 66 milionów lat temu wyginęły dinozaury widoczna jest radykalna zmiana rozmiarów mózgu u takich ssaków jak gryzonie, nietoperze i mięsożercy, którzy wypełnili nisze po dinozaurach. Mniej więcej 30 milionów lat później, podczas ochłodzenia klimatu w oligocenie doszło do jeszcze głębszych zmian w mózgach niedźwiedzi, waleni, fok i naczelnych.
      Olbrzymim zaskoczeniem było zauważenie, że do największych zmian w relatywnej wielkości mózgów dzisiejszych ssaków doszło w wyniku katastrofalnych wydarzeń, z którymi mieli do czynienia ich przodkowie, mówi Smaers. Mózgi delfinów, słoni i wielkich małp wyewoluowały do dużych rozmiarów względem rozmiarów ich ciał po przemianach klimatycznych sprzed 23–33 milionów lat.
      Stosunek rozmiarów mózgu do rozmiarów ciała nie jest bez związku z ewolucją inteligencji. Jednak często może w większym stopniu wskazywać na dostosowanie się do presji środowiskowej niż na sam rozwój inteligencji, mówi Smaers.
      Szczegóły badań opublikowano w artykule The evolution of mammalian brain size.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...