Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Całe współczesne budownictwo stoi na elemencie znanym już starożytnym Rzymianom: betonie. Od czasu wynalezienia cementu portlandzkiego niemal 200 lat temu niemal nic się w tej technologii nie zmieniło aż do dziś. Nie sposób wyobrazić sobie współczesnej cywilizacji bez cementu i nie sposób zmniejszyć na niego zapotrzebowania. Tymczasem, po elektrowniach, przemysł cementowy jest drugim największym producentem gazów cieplarnianych, odpowiadając za 5% światowej emisji dwutlenku węgla. To sprawia, że cementownie stają na celowniku inicjatyw proekologicznych i boleśnie odczuwają restrykcje w emisji gazów cieplarnianych.

Żeby oszacować wpływ cementowni na środowisko dość powiedzieć, że wyprodukowanie każdej tony cementu uwalnia do atmosfery pół tony dwutlenku węgla (pochodzącego z reakcji rozkładu węglanu wapnia), niemal drugie tyle CO2 uwalniane jest w procesie podgrzewania półproduktów do temperatury ponad 1600º C. A zapotrzebowanie samych Chin to ponad miliard ton rocznie.

Przez te lata niewiele podejmowano prób udoskonalenia receptury lub technologii, jedne z nielicznych to dodawanie żużlu (produktu ubocznego wytopu rud metali) lub popiołów (odpadu z elektrowni węglowych). Dopiero właśnie presja rozporządzeń proekologicznych skłoniła największych producentów na świecie do poszukiwania nowych rozwiązań i sformowania wspólnie z MIT (Massachusetts Institute of Technology) Concrete Sustainability Hub.

Kristen Van Vliet, inżynier materiałowy rozpoczął od przeprowadzenia dokładnej analizy cementu, jego struktury, wiązań chemicznych, itd. Może się to wydawać nieco dziwne, ale do tej pory szczegółowych badań tego materiału nie prowadzono. Uczony wykorzystał aż tak zaawansowane narzędzia, jak mikroskop sił atomowych, żeby poznać ułożenie atomów poszczególnych pierwiastków wchodzących w skład cementu.

Okazało się, że cement ma w istocie strukturę żelu, w którym wszystko trzyma się razem dzięki wodzie. Twardość i małą ściśliwość zawdzięcza on zaś temu, że molekuły wody nie mają możliwości zmiany swojego położenia.

Uzyskane informacje Rouzbeh Shahsavari wykorzystał do stworzenia komputerowej symulacji, dzięki której można było „na sucho" przeanalizować dowolną ilość modyfikacji, zmian składu, itd. Obmyślone udoskonalenia były produkowane i sprawdzane w działaniu przez portugalską firmę CIMPOR, głównego sponsora badań.

Rezultatem była znacząca zmiana technologii, dzięki której nowy rodzaj cementu osiąga maksymalną wytrzymałość znacznie mniejszym kosztem i - przede wszystkim - ze znacznie mniejszym obciążeniem dla środowiska. Dodatkowo nie potrzeba zmieniać składu, ani istniejącej infrastruktury. Autorzy uważają, że to wręcz przełom w tej dziedzinie, ale na razie nie ujawniają szczegółów, traktując je jako tajemnicę produkcyjną.

Nie jest to jedyna próba udoskonalenia produkcji cementu podejmowana w ostatnich latach. Przykładowo angielska firma Novacem wytwarza cement, który twardniejąc pochłania dwutlenek węgla z atmosfery, redukując „ślad ekologiczny". Jak do tej pory jednak żadne z nowych rozwiązań nie wyparło niemaldwustuletniej technologii produkcji „portlandu", jak będzie tym razem - zobaczymy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Faktycznie ciężko znaleźć zastępstwo dla cementu, ale po pierwsze od dawna odchodzi się od CEM-I, czyli właśnie cementu złożonego w całości z klinkieru na rzecz CEM-III, czyli cementu z dużym dodatkiem żużli wielkopiecowych  (co jest świetnym zagospodarowaniem tego odpadu z hut). A patrząc ponad sam cement to i teraz mniej się go dodaje do mieszanki betonowej ze względu na stosowane domieszki i dodatki.

Poza tym cementownie w większości krajów cywilizowanych są bardzo nowoczesne (tutaj Polacy mogą się pochwalić znakomitymi zakładami na skalę światową) i w odróżnieniu od elektrowni węglowych włożyły makabryczne pieniądze w zmniejszenie emisji CO2. W końcu prądu ludzie zawsze będą potrzebowali, a cementownie można zamykać jak za bardzo brudzi.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak się zastanawiam, czy cement w czasie wiązaniami, nie pochłania dwutlenku węgla z atmosfery?

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak się zastanawiam, czy cement w czasie wiązaniami, nie pochłania dwutlenku węgla z atmosfery?

 

Też tak myślałem, ale ciotka Wiki rzuciła wzorami, w których nie ma dwutlenku węgla

6 CaO·SiO2 + 9 H2O → 6 CaO·SiO2·9 H2O

3 CaO·Al2O3 + 12 H2O → 3 CaO·Al2O3·12 H2O

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem największą przyczyną CO2 jest nadmierne wycinanie lasów Amazońskich (już 17%), więc gaz nie ma po prostu co absorbować.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
    siewca77 napisał(a):

    Tak się zastanawiam, czy cement w czasie wiązaniami, nie pochłania dwutlenku węgla z atmosfery?

 

 

Też tak myślałem, ale ciotka Wiki rzuciła wzorami, w których nie ma dwutlenku węgla

6 CaO·SiO2 + 9 H2O → 6 CaO·SiO2·9 H2O

3 CaO·Al2O3 + 12 H2O → 3 CaO·Al2O3·12 H2O

 

Pochłania, tylko nie w czasie wiązania, lecz już w czasie wegetacji przez proces karbonatyzacji (zobojętniania betonu). Proces ten jest jednak bardzo powolny, no i ostatecznie niekorzystny dla stali zbrojeniowej. Korzystny tylko dla betonu bez metali, ale takie betony są rzadko stosowane.

 

Przez te lata niewiele podejmowano prób udoskonalenia receptury lub technologii, jedne z nielicznych to dodawanie żużlu (produktu ubocznego wytopu rud metali) lub popiołów (odpadu z elektrowni węglowych).

 

Nie wiem czy są to udoskonalenia, raczej dostosowywanie składu do wymagań budowlanych. Żużle do produkcji betonów lekkich, a popioły dzięki aktywności pucolanowej, ze względów czysto ekonomicznych. Tak w skrócie. Jest też cała grupa różnych domieszek zmieniających charakterystykę betonu. Nie jest z chemią cementu na świecie tak źle jak to opisują :D

 

Uzyskane informacje Rouzbeh Shahsavari wykorzystał do stworzenia komputerowej symulacji, dzięki której można było „na sucho" przeanalizować dowolną ilość modyfikacji, zmian składu, itd.

 

Takim symulatorem bawiłem się na pierwszych zajęciach z chemii budowlanej, z tym że program był co prawda wersją beta, ale z tego co mi wiadomo działa już jakiś czas i jest autorstwa profesora prowadzącego laboratorium :) (Politechnika Warszawska) Nie jest też to pierwszy program stosowany przez naszych studentów. Wcześniej symulacje przeprowadzano na amerykańskim programie z 1993 roku. Ciekawe więc, czym różni się od tego z MIT.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Na początek:

@kinsl4yer - chodzi może o profesora Szafrana? Z tego co pamiętam, to jest wielki fan procesów towarzyszących przetwórstwie cementu, no i osoba dobrze obeznana w temacie :)

 

To nie jest tak, że nie prowadzono badań nad strukturą, ale są i będą one bardzo utrudnione. Z kilku przyczyn.

1. Do wyrobu cementu, wykorzystuje się surowce których skład nie jest ściśle określony i ma pewne wahania, tak naprawdę każda partia cementu trochę się od siebie różni. więc co uznajemy za modelowy związek którego skład modyfikujemy?

2. Czas, przyjmuje się że około 90-98% wytrzymałości beton osiąga po 28 dniach, i jest to bardzo umowna granica. Z drugiej spotkałem się z opinią z jednego z doktorów, że aby uzyskać dobry materiał do badań wytrzymałościowych, aby rzeczywiście zbadać jego wytrzymałość, należy próbkę sezonować około dwóch lat.

I tutaj się pojawia pierwsze pytanie, po jakim czasie ta struktura żelu występuje? Czy jest ona trwała, czy czasem nie ulega ona dalszym przemianom w miarę upływu czasu, czy też po prostu zmiany wilgotności i temperatury? Już dokładnego nazwiska nie podam, ale przemiany zachodzące w betonie nie ustają po upływie nawet kilku latach, zostało dowiedzione, że w betonie po 10 latach od wylania nadal zachodzą pewne zmiany chemiczne i strukturalne. Nie są one już może tak gwałtowne jak w początkowym okresie, ale nadal powodują zmianę wytrzymałości oraz objętości materiału(!).

Wszystko gra, jak robisz sobie wylewkę z betonu, która ma kilka-kilkanaście metrów kwadratowych. ale jak wylewasz coś, co ma tych metrów kilkadziesiąt lub kilkaset, to wpływ zmian objętości na wymiary obiektu nie jest już pomijalny. Cement typu portlandzkiego jest używany tak chętnie ponieważ jest on już w miarę dobrze scharakteryzowany pod względem szybkości wiązania i późniejszego "dojrzewania".

 

Inna sprawa, to należy bardzo ostrożnie podchodzić do danych otrzymanych z AFM przy badaniu próbek rzeczywistych, a nie modelowych. Ponieważ bada się tak naprawdę jedynie bardzo mały wycinek powierzchni materiału. Co może po prostu wprowadzać w błąd jak się ma pecha.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Uczony wykorzystał aż tak zaawansowane narzędzia, jak mikroskop sił atomowych, żeby poznać ułożenie atomów poszczególnych pierwiastków wchodzących w skład cementu.

 

mikroskopia sil atomowych nie pokaze ulozenia atomow (nie ta skala problemu), a jedynie 'fakture' materialu. zreszta w oryginale napisali: '(...) revealed the messy structure of the material at the atomic scale.' jesli chcemy poznac wzajemne polozenie atomow, to mozna uzyc np. exafs http://pl.wikipedia.org/wiki/Exafs

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

@Chemik_mlody: Mówiłem o doktorze Łukowskim z KIMB Wydziału Inżynierii Lądowej :)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Wiele starożytnych rzymskich konstrukcji wykonanych jest z betonu, w tym wzniesiony 1900 lat temu Panteon, z największą na świecie niewzmacnianą betonową kopułą. Niektóre z akweduktów są wciąż wykorzystywane. Tymczasem współczesne konstrukcje betonowe rozsypują się po kilku dekadach. Naukowcy od dawna próbują rozszyfrować tajemnice rzymskich inżynierów, badając m.in. falochron, który przetrwał 2000 lat oddziaływania słonej wody. Przez wiele lat sądzono, że rzymski beton jest tak wytrzymały dzięki popiołom wulkanicznym. Okazało się jednak, że posiada on jeszcze jeden – lekceważony dotychczas – składnik.
      Naukowcy z MIT, Uniwersytetu Harvarda oraz laboratoriów z Włoch i Szwajcarii przyjrzeli się milimetrowej wielkości fragmentom wapienia, które powszechnie są spotykane w rzymskim betonie. Od kiedy tylko zacząłem pracować z rzymskim betonem, te drobinki mnie fascynowały. Nie występują one we współczesnych betonach, dlaczego więc znajdują się w rzymskich?, mówi profesor Admir Masic z MIT.
      Dotychczas sądzono, że obecność tych ziaren to dowód na niedokładne mieszanie materiału przez Rzymian lub też na dodawanie przez nich słabej jakości materiałów. Takie wyjaśnienia nie są jednak przekonujące. Dlaczego Rzymianie, którzy tak dbali o uzyskanie wysokiej jakości materiału budowlanego i przez wieku udoskonalali jego recepturę, mieliby niedbale wszystko ze sobą mieszać?
      Naukowcy od dawna sądzą, że gdy Rzymianie dodawali wapno do swojego betonu, najpierw łączyli je z wodą, uzyskując – w procesie gaszenia wapna – konsystencję pasty. Jednak w wyniku takiego procesu nie powstawałyby drobinki.
      Gdy teraz uczeni szczegółowo zbadali lekceważone dotychczas drobinki zauważyli, że rzeczywiście jest to wapno, ale zostało ono poddane działaniu wysokich temperatur, których można spodziewać się po wykorzystaniu tlenku wapnia zamiast, lub obok, wapna gaszonego. Autorzy najnowszych badań uważają, że to mieszanie na gorąco nadało rzymskiemu betonowi jego wyjątkową wytrzymałość. Takie mieszanie ma dwie zalety. Po pierwsze, gdy cały beton jest podgrzewany do wysokich temperatur, zachodzą procesy chemiczne, które nie mają miejsca, gdy używa się tylko wapna gaszonego, w wysokich temperaturach powstają związki, jakie nie pojawiają się w innych procesach. Po drugie, wysokie temperatury skracają czas wiązania, gdyż wszystkie reakcje ulegają przyspieszeniu, zatem można znacznie szybciej wznosić budowle, wyjaśnia Masic.
      Podczas mieszania na gorąco, drobinki skał wapiennych zmieniają swoją strukturę tak, że powstaje reaktywne, łatwo rozdzielające się źródło wapnia. Gdy w tak uzyskanym betonie dochodzi z czasem do pęknięć, w które wnika woda, wspomniane drobinki reagują z nią, tworząc nasycony wapnem roztwór. Ten szybko rekrystalizuje lub wchodzi w reakcje z popiołami wulkanicznymi wypełniając pęknięcie i wzmacniając całość. Reakcje takie zachodzą automatycznie i spontanicznie, dzięki czemu pęknięcia w betonie są naprawiane, zanim się rozprzestrzenią.
      Naukowcy, by sprawdzić swoją hipotezę, stworzyli próbki mieszanych na gorąco betonów według receptury starożytnej i współczesnej. Następnie doprowadzili do ich popękania i przepuścili przez pęknięcia wodę. Po dwóch tygodniach beton, w którym zastosowano mikrodrobinki wapna, samodzielnie się naprawił i woda przestała płynąć przez szczeliny.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na MIT powstały ogniwa fotowoltaiczne cieńsze od ludzkiego włosa, które na kilogram własnej masy wytwarzają 18-krotnie więcej energii niż ogniwa ze szkła i krzemu. Jeśli uda się skalować tę technologię, może mieć do olbrzymi wpływ produkcję energii w wielu krajach. Jak zwraca uwagę profesor Vladimir Bulivić z MIT, w USA są setki tysięcy magazynów o olbrzymiej powierzchni dachów, jednak to lekkie konstrukcje, które nie wytrzymałyby obciążenia współczesnymi ogniwami. Jeśli będziemy mieli lekkie ogniwa, te dachy można by bardzo szybko wykorzystać do produkcji energii, mówi uczony. Jego zdaniem, pewnego dnia będzie można kupić ogniwa w rolce i rozwinąć je na dachu jak dywan.
      Cienkimi ogniwami fotowoltaicznymi można by również pokrywać żagle jednostek pływających, namioty, skrzydła dronów. Będą one szczególnie przydatne w oddalonych od ludzkich siedzib terenach oraz podczas akcji ratunkowych.
      To właśnie duża masa jest jedną z przyczyn ograniczających zastosowanie ogniw fotowoltaicznych. Obecnie istnieją cienkie ogniwa, ale muszą być one montowane na szkle. Dlatego wielu naukowców pracuje nad cienkimi, lekkimi i elastycznymi ogniwami, które można będzie nanosić na dowolną powierzchnię.
      Naukowcy z MIT pokryli plastik warstwą parylenu. To izolujący polimer, chroniący przed wilgocią i korozją chemiczną. Na wierzchu za pomocą tuszów o różnym składzie nałożyli warstwy ogniw słonecznych i grubości 2-3 mikrometrów. W warstwie konwertującej światło w elektryczność wykorzystali organiczny półprzewodnik. Elektrody zbudowali ze srebrnych nanokabli i przewodzącego polimeru. Profesor Bulović mówi, że można by użyć perowskitów, które zapewniają większą wydajność ogniwa, ale ulegają degradacji pod wpływem wilgoci i tlenu. Następnie krawędzie tak przygotowanego ogniwa pomarowano klejem i nałożono na komercyjnie dostępną wytrzymałą tkaninę. Następnie plastik oderwano od tkaniny, a na tkaninie pozostały naniesione ogniwa. Całość waży 0,1 kg/m2, a gęstość mocy tak przygotowanego ogniwa wynosi 370 W/kg. Profesor Bulović zapewnia, że proces produkcji można z łatwością skalować.
      Teraz naukowcy z MIT planują przeprowadzenie intensywnych testów oraz opracowanie warstwy ochronnej, która zapewni pracę ogniw przez lata. Zdaniem uczonego już w tej chwili takie ogniwo mogłoby pracować co najmniej 1 lub 2 lata. Po zastosowaniu warstwy ochronnej wytrzyma 5 do 10 lat.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Fizycy z MIT opracowali kwantowy „ściskacz światła”, który redukuje szum kwantowy w laserach o 15%. To pierwszy taki system, który pracuje w temperaturze pokojowej. Dzięki temu możliwe będzie wyprodukowanie niewielkich przenośnych systemów, które będzie można dobudowywać do zestawów eksperymentalnych i przeprowadzać niezwykle precyzyjne pomiary laserowe tam, gdzie szum kwantowy jest obecnie poważnym ograniczeniem.
      Sercem nowego urządzenia jest niewielka wnęka optyczna znajdująca się w komorze próżniowej. We wnęce umieszczono dwa lustra, z których średnia jednego jest mniejsza niż średnica ludzkiego włosa. Większe lustro jest zamontowane na sztywno, mniejsze zaś znajduje się na ruchomym wsporniku przypominającym sprężynę. I to właśnie kształt i budowa tego drugiego, nanomechanicznego, lustra jest kluczem do pracy całości w temperaturze pokojowej. Wpadające do wnęki światło lasera odbija się pomiędzy lustrami. Powoduje ono, że mniejsze z luster, to na wsporniku zaczyna poruszać się w przód i w tył. Dzięki temu naukowcy mogą odpowiednio dobrać właściwości kwantowe promienia wychodzącego z wnęki.
      Światło lasera opuszczające wnękę zostaje ściśnięte, co pozwala na dokonywanie bardziej precyzyjnych pomiarów, które mogą przydać się w obliczeniach kwantowych, kryptologii czy przy wykrywaniu fal grawitacyjnych.
      Najważniejszą cechą tego systemu jest to, że działa on w temperaturze pokojowej, a mimo to wciąż pozwala na dobieranie parametrów z dziedziny mechaniki kwantowej. To całkowicie zmienia reguły gry, gdyż teraz będzie można wykorzystać taki system nie tylko w naszym laboratorium, które posiada wielkie systemy kriogeniczne, ale w laboratoriach na całym świecie, mówi profesor Nergis Mavalvala, dyrektor wydziału fizyki w MIT.
      Lasery emitują uporządkowany strumień fotonów. Jednak w tym uporządkowaniu fotony mają pewną swobodę. Przez to pojawiają się kwantowe fluktuacje, tworzące niepożądany szum. Na przykład liczba fotonów, które w danym momencie docierają do celu, nie jest stała, a zmienia się wokół pewnej średniej w sposób, który jest trudny do przewidzenia. Również czas dotarcia konkretnych fotonów do celu nie jest stały.
      Obie te wartości, liczba fotonów i czas ich dotarcia do celu, decydują o tym, na ile precyzyjne są pomiary dokonywane za pomocą lasera. A z zasady nieoznaczoności Heisenberga wynika, że nie jest możliwe jednoczesne zmierzenie pozycji (czasu) i pędu (liczby) fotonów.
      Naukowcy próbują radzić sobie z tym problemem poprzez tzw. kwantowe ściskanie. To teoretyczne założenie, że niepewność we właściwościach kwantowych lasera można przedstawić za pomocą teoretycznego okręgu. Idealny okrąg reprezentuje równą niepewność w stosunku do obu właściwości (czasu i liczby fotonów). Elipsa, czyli okrąg ściśnięty, oznacza, że dla jednej z właściwości niepewność jest mniejsza, dla drugiej większa.
      Jednym ze sposobów, w jaki naukowcy realizują kwantowe ściskanie są systemy optomechaniczne, które wykorzystują lustra poruszające się pod wpływem światła lasera. Odpowiednio dobierając właściwości takich systemów naukowcy są w stanie ustanowić korelację pomiędzy obiema właściwościami kwantowymi, a co za tym idzie, zmniejszyć niepewność pomiaru i zredukować szum kwantowy.
      Dotychczas optomechaniczne ściskanie wymagało wielkich instalacji i warunków kriogenicznych. Działo się tak, gdyż w temperaturze pokojowej energia termiczna otaczająca system mogła mieć wpływ na jego działanie i wprowadzała szum termiczny, który był silniejszy od szumu kwantowego, jaki próbowano redukować. Dlatego też takie systemy pracowały w temperaturze zaledwie 10 kelwinów (-263,15 stopni Celsjusza). Tam gdzie potrzebna jest kriogenika, nie ma mowy o niewielkim przenośnym systemie. Jeśli bowiem urządzenie może pracować tylko w wielkiej zamrażarce, to nie możesz go z niej wyjąć i uruchomić poza nią, wyjaśnia Mavalvala.
      Dlatego też zespół z MIT pracujący pod kierunkiem Nancy Aggarval, postanowił zbudować system optomechaczniczny z ruchomym lustrem wykonanym z materiałów, które absorbują minimalne ilości energii cieplnej po to, by nie trzeba było takiego systemu chłodzić. Uczeni stworzyli bardzo małe lustro o średnicy 70 mikrometrów. Zbudowano je z naprzemiennie ułożonych warstw arsenku galu i arsenku galowo-aluminowego. Oba te materiały mają wysoce uporządkowaną strukturę atomową, która zapobiega utratom ciepła. Materiały nieuporządkowane łatwo tracą energię, gdyż w ich strukturze znajduje się wiele miejsc, gdzie elektrony mogą się odbijać i zderzać. W bardziej uporządkowanych materiałach jest mniej takich miejsc, wyjaśnia Aggarwal.
      Wspomniane wielowarstwowe lustro zawieszono na wsporniku o długości 55 mikrometrów. Całości nadano taki kształt, by absorbowała jak najmniej energii termicznej. System przetestowano na Louisiana State University. Dzięki niemu naukowcy byli w stanie określić kwantowe fluktuacje liczby fotonów względem czasu ich przybycia do lustra. Pozwoliło im to na zredukowanie szumu o 15% i uzyskanie bardziej precyzyjnego „ściśniętego” promienia.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Badacze z Uniwersytetu Johnsa Hopkinsa odkryli, że na każdy 1 punkt procentowy zwiększenia powierzchni zabetonowanych – jak drogi, parkingi, budynki i inna infrastruktura – przypada 3,3-procentowe zwiększenie intensywności powodzi. Oznacza to, że jeśli w basenie danej rzeki zabetonowaną powierzchnię zwiększymy o 10%, to średnio przepływ wody w czasie zwiększy się tam o 33%.
      W ostatnim czasie doszło do znaczne zwiększenia intensywności powodzi w takich miastach jak Houston czy Ellicott City. Chcieliśmy lepiej zrozumieć, jak urbanizacja wpływa na zwiększenie przepływu wód powodziowych, mówi Annalise Blum z Johns Hopkins University i American Association for the Advancement of Science.
      Poprzednie badania tego typu wykorzystywały mniejsze zestawy danych, dotyczących pojedynczych cieków wodnych lub niewielkich grup cieków w określonym przedziale czasowym. Nie można było ich przełożyć na skalę całego kraju. Ponadto trudno było na ich podstawie wyizolować przyczynę i skutek, gdyż nie kontrolowano w nich efektywnie wpływu takich czynników jak klimat, zapory wodne czy sposób wykorzystywania terenu. Trudno było więc podać konkretne wartości pokazujące, w jaki sposób nieprzepuszczalna powierzchnia wpływa na powodzie.
      Blum we współpracy z profesorem Paulem Ferraro wykorzystali modele matematyczne, które rzadko są używane do badania powodzi. W badaniach środowiska naturalnego trudno jest oddzielić przyczynę od skutku. Na szczęście w ciągu ostatnich dekad na polu ekonomii i biostatystyki opracowano metody, które pozwalają na ich odróżnienie. Zastosowaliśmy te metody do badań hydrologicznych, w nadziei, że przyczyni się to do postępu w tej dziedzinie wiedzy i da planistom oraz polityko nowe narzędzia pomocne podczas rozwoju miast, stwierdza Ferrero.
      Naukowcy wykorzystali dane US Geological Survey z okresu 1974–2012, które dotyczyły ponad 2000 cieków wodnych. Dane zawierały informacje o przepływie wody. Informacje takie poddano analizie, w której uwzględniono też zmiany w obszarze powierzchni nieprzepuszczalnych w basenie każdego z cieków.
      Z analizy wynika, że wielkość powodzi, rozumiana jako maksymalny przepływ wody, zwiększa się o 3,3 punktu procentowego dla każdego wzrostu obszaru powierzchni nieprzepuszczalnych o 1 pp.
      "W związku z olbrzymią coroczną zmiennością przepływu wody trudno jest wydzielić skutki urbanizacji. Nam się to udało dzięki zastosowaniu olbrzymich zestawów danych zbieranych zarówno w czasie jak i w przestrzeni", wyjaśnia Blum.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Podczas Fifth International Symposium on Networks-on-Chip 2011 specjaliści z MIT-u zdobyli nagrodę za najlepsze opracowanie naukowe symulatora układu scalonego. Ich program Hornet modeluje działanie wielordzeniowego procesora znacznie lepiej niż inne tego typu oprogramowanie. Potrafił znaleźć w oprogramowaniu błędy, których inne symulatory nie zauważyły.
      Teraz Hornet został znakomicie udoskonalony i wyposażony w nowe funkcje. Jego nowa wersja potrafi symulować zużycie energii, komunikację między rdzeniami, interakcję pomiędzy CPU a pamięcią oraz obliczyć czas potrzebny na wykonanie poszczególnych zadań.
      Symulatory są niezwykle ważne dla firm produkujących układy scalone. Zanim przystąpi się do produkcji kości przeprowadzane są liczne testy ich działania na symulatorach.
      Dotychczasowe symulatory przedkładały szybkość pracy nad dokładność. Nowy Hornet pracuje znacznie wolniej niż jego starsze wersje, jednak dzięki temu pozwala na symulowanie 1000-rdzeniowego procesora z dokładnością do pojedynczego cyklu. Hornet jest nam w stanie wyliczyć, że ukończenie konkretnego zadania będzie np. wymagało 1.223.392 cykli - mówi Myong Cho, doktorant z MIT-u.
      Przewaga Horneta nad konkurencją polega też na tym, że inne symulatory dobrze oceniają ogólną wydajność układu, mogą jednak pominąć rzadko występujące błędy. Hornet daje większą szansę, że zostaną one wyłapane.
      Podczas prezentacji Cho, jego promotor profesor Srini Devadas i inni studenci symulowali na Hornecie sytuację, w której wielordzeniowy procesor korzysta z nowej obiecującej techniki przetwarzania danych pacjentów. Hornet zauważył, że niesie ona ze sobą ryzyko wystąpienia zakleszczenia, czyli sytuacji, w której różne rdzenie, aby zakończyć prowadzone obliczenia, czekają nawzajem na dane od siebie. Powoduje to, że zadania nie mogą być zakończone, gdyż rdzenie nawzajem siebie blokują. Żaden inny symulator nie zasygnalizował tego problemu. Hornet pozwolił też na przetestowanie zaproponowanego przez naukowców sposobu na uniknięcie zakleszczenia.
      Zdaniem jego twórców Hornet, ze względu na swoje powolne działanie, posłuży raczej do symulowania pewnych zadań, a nie działania całych aplikacji. Przyda się zatem tam, gdzie zajdzie potrzeba upewnienia się, czy nie występują żadne nieprawidłowości czy też do statystycznego zbadania możliwości wystąpienia błędów.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...