Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Cement bardziej ekologiczny
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Wiele starożytnych rzymskich konstrukcji wykonanych jest z betonu, w tym wzniesiony 1900 lat temu Panteon, z największą na świecie niewzmacnianą betonową kopułą. Niektóre z akweduktów są wciąż wykorzystywane. Tymczasem współczesne konstrukcje betonowe rozsypują się po kilku dekadach. Naukowcy od dawna próbują rozszyfrować tajemnice rzymskich inżynierów, badając m.in. falochron, który przetrwał 2000 lat oddziaływania słonej wody. Przez wiele lat sądzono, że rzymski beton jest tak wytrzymały dzięki popiołom wulkanicznym. Okazało się jednak, że posiada on jeszcze jeden – lekceważony dotychczas – składnik.
Naukowcy z MIT, Uniwersytetu Harvarda oraz laboratoriów z Włoch i Szwajcarii przyjrzeli się milimetrowej wielkości fragmentom wapienia, które powszechnie są spotykane w rzymskim betonie. Od kiedy tylko zacząłem pracować z rzymskim betonem, te drobinki mnie fascynowały. Nie występują one we współczesnych betonach, dlaczego więc znajdują się w rzymskich?, mówi profesor Admir Masic z MIT.
Dotychczas sądzono, że obecność tych ziaren to dowód na niedokładne mieszanie materiału przez Rzymian lub też na dodawanie przez nich słabej jakości materiałów. Takie wyjaśnienia nie są jednak przekonujące. Dlaczego Rzymianie, którzy tak dbali o uzyskanie wysokiej jakości materiału budowlanego i przez wieku udoskonalali jego recepturę, mieliby niedbale wszystko ze sobą mieszać?
Naukowcy od dawna sądzą, że gdy Rzymianie dodawali wapno do swojego betonu, najpierw łączyli je z wodą, uzyskując – w procesie gaszenia wapna – konsystencję pasty. Jednak w wyniku takiego procesu nie powstawałyby drobinki.
Gdy teraz uczeni szczegółowo zbadali lekceważone dotychczas drobinki zauważyli, że rzeczywiście jest to wapno, ale zostało ono poddane działaniu wysokich temperatur, których można spodziewać się po wykorzystaniu tlenku wapnia zamiast, lub obok, wapna gaszonego. Autorzy najnowszych badań uważają, że to mieszanie na gorąco nadało rzymskiemu betonowi jego wyjątkową wytrzymałość. Takie mieszanie ma dwie zalety. Po pierwsze, gdy cały beton jest podgrzewany do wysokich temperatur, zachodzą procesy chemiczne, które nie mają miejsca, gdy używa się tylko wapna gaszonego, w wysokich temperaturach powstają związki, jakie nie pojawiają się w innych procesach. Po drugie, wysokie temperatury skracają czas wiązania, gdyż wszystkie reakcje ulegają przyspieszeniu, zatem można znacznie szybciej wznosić budowle, wyjaśnia Masic.
Podczas mieszania na gorąco, drobinki skał wapiennych zmieniają swoją strukturę tak, że powstaje reaktywne, łatwo rozdzielające się źródło wapnia. Gdy w tak uzyskanym betonie dochodzi z czasem do pęknięć, w które wnika woda, wspomniane drobinki reagują z nią, tworząc nasycony wapnem roztwór. Ten szybko rekrystalizuje lub wchodzi w reakcje z popiołami wulkanicznymi wypełniając pęknięcie i wzmacniając całość. Reakcje takie zachodzą automatycznie i spontanicznie, dzięki czemu pęknięcia w betonie są naprawiane, zanim się rozprzestrzenią.
Naukowcy, by sprawdzić swoją hipotezę, stworzyli próbki mieszanych na gorąco betonów według receptury starożytnej i współczesnej. Następnie doprowadzili do ich popękania i przepuścili przez pęknięcia wodę. Po dwóch tygodniach beton, w którym zastosowano mikrodrobinki wapna, samodzielnie się naprawił i woda przestała płynąć przez szczeliny.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Na MIT powstały ogniwa fotowoltaiczne cieńsze od ludzkiego włosa, które na kilogram własnej masy wytwarzają 18-krotnie więcej energii niż ogniwa ze szkła i krzemu. Jeśli uda się skalować tę technologię, może mieć do olbrzymi wpływ produkcję energii w wielu krajach. Jak zwraca uwagę profesor Vladimir Bulivić z MIT, w USA są setki tysięcy magazynów o olbrzymiej powierzchni dachów, jednak to lekkie konstrukcje, które nie wytrzymałyby obciążenia współczesnymi ogniwami. Jeśli będziemy mieli lekkie ogniwa, te dachy można by bardzo szybko wykorzystać do produkcji energii, mówi uczony. Jego zdaniem, pewnego dnia będzie można kupić ogniwa w rolce i rozwinąć je na dachu jak dywan.
Cienkimi ogniwami fotowoltaicznymi można by również pokrywać żagle jednostek pływających, namioty, skrzydła dronów. Będą one szczególnie przydatne w oddalonych od ludzkich siedzib terenach oraz podczas akcji ratunkowych.
To właśnie duża masa jest jedną z przyczyn ograniczających zastosowanie ogniw fotowoltaicznych. Obecnie istnieją cienkie ogniwa, ale muszą być one montowane na szkle. Dlatego wielu naukowców pracuje nad cienkimi, lekkimi i elastycznymi ogniwami, które można będzie nanosić na dowolną powierzchnię.
Naukowcy z MIT pokryli plastik warstwą parylenu. To izolujący polimer, chroniący przed wilgocią i korozją chemiczną. Na wierzchu za pomocą tuszów o różnym składzie nałożyli warstwy ogniw słonecznych i grubości 2-3 mikrometrów. W warstwie konwertującej światło w elektryczność wykorzystali organiczny półprzewodnik. Elektrody zbudowali ze srebrnych nanokabli i przewodzącego polimeru. Profesor Bulović mówi, że można by użyć perowskitów, które zapewniają większą wydajność ogniwa, ale ulegają degradacji pod wpływem wilgoci i tlenu. Następnie krawędzie tak przygotowanego ogniwa pomarowano klejem i nałożono na komercyjnie dostępną wytrzymałą tkaninę. Następnie plastik oderwano od tkaniny, a na tkaninie pozostały naniesione ogniwa. Całość waży 0,1 kg/m2, a gęstość mocy tak przygotowanego ogniwa wynosi 370 W/kg. Profesor Bulović zapewnia, że proces produkcji można z łatwością skalować.
Teraz naukowcy z MIT planują przeprowadzenie intensywnych testów oraz opracowanie warstwy ochronnej, która zapewni pracę ogniw przez lata. Zdaniem uczonego już w tej chwili takie ogniwo mogłoby pracować co najmniej 1 lub 2 lata. Po zastosowaniu warstwy ochronnej wytrzyma 5 do 10 lat.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Fizycy z MIT opracowali kwantowy „ściskacz światła”, który redukuje szum kwantowy w laserach o 15%. To pierwszy taki system, który pracuje w temperaturze pokojowej. Dzięki temu możliwe będzie wyprodukowanie niewielkich przenośnych systemów, które będzie można dobudowywać do zestawów eksperymentalnych i przeprowadzać niezwykle precyzyjne pomiary laserowe tam, gdzie szum kwantowy jest obecnie poważnym ograniczeniem.
Sercem nowego urządzenia jest niewielka wnęka optyczna znajdująca się w komorze próżniowej. We wnęce umieszczono dwa lustra, z których średnia jednego jest mniejsza niż średnica ludzkiego włosa. Większe lustro jest zamontowane na sztywno, mniejsze zaś znajduje się na ruchomym wsporniku przypominającym sprężynę. I to właśnie kształt i budowa tego drugiego, nanomechanicznego, lustra jest kluczem do pracy całości w temperaturze pokojowej. Wpadające do wnęki światło lasera odbija się pomiędzy lustrami. Powoduje ono, że mniejsze z luster, to na wsporniku zaczyna poruszać się w przód i w tył. Dzięki temu naukowcy mogą odpowiednio dobrać właściwości kwantowe promienia wychodzącego z wnęki.
Światło lasera opuszczające wnękę zostaje ściśnięte, co pozwala na dokonywanie bardziej precyzyjnych pomiarów, które mogą przydać się w obliczeniach kwantowych, kryptologii czy przy wykrywaniu fal grawitacyjnych.
Najważniejszą cechą tego systemu jest to, że działa on w temperaturze pokojowej, a mimo to wciąż pozwala na dobieranie parametrów z dziedziny mechaniki kwantowej. To całkowicie zmienia reguły gry, gdyż teraz będzie można wykorzystać taki system nie tylko w naszym laboratorium, które posiada wielkie systemy kriogeniczne, ale w laboratoriach na całym świecie, mówi profesor Nergis Mavalvala, dyrektor wydziału fizyki w MIT.
Lasery emitują uporządkowany strumień fotonów. Jednak w tym uporządkowaniu fotony mają pewną swobodę. Przez to pojawiają się kwantowe fluktuacje, tworzące niepożądany szum. Na przykład liczba fotonów, które w danym momencie docierają do celu, nie jest stała, a zmienia się wokół pewnej średniej w sposób, który jest trudny do przewidzenia. Również czas dotarcia konkretnych fotonów do celu nie jest stały.
Obie te wartości, liczba fotonów i czas ich dotarcia do celu, decydują o tym, na ile precyzyjne są pomiary dokonywane za pomocą lasera. A z zasady nieoznaczoności Heisenberga wynika, że nie jest możliwe jednoczesne zmierzenie pozycji (czasu) i pędu (liczby) fotonów.
Naukowcy próbują radzić sobie z tym problemem poprzez tzw. kwantowe ściskanie. To teoretyczne założenie, że niepewność we właściwościach kwantowych lasera można przedstawić za pomocą teoretycznego okręgu. Idealny okrąg reprezentuje równą niepewność w stosunku do obu właściwości (czasu i liczby fotonów). Elipsa, czyli okrąg ściśnięty, oznacza, że dla jednej z właściwości niepewność jest mniejsza, dla drugiej większa.
Jednym ze sposobów, w jaki naukowcy realizują kwantowe ściskanie są systemy optomechaniczne, które wykorzystują lustra poruszające się pod wpływem światła lasera. Odpowiednio dobierając właściwości takich systemów naukowcy są w stanie ustanowić korelację pomiędzy obiema właściwościami kwantowymi, a co za tym idzie, zmniejszyć niepewność pomiaru i zredukować szum kwantowy.
Dotychczas optomechaniczne ściskanie wymagało wielkich instalacji i warunków kriogenicznych. Działo się tak, gdyż w temperaturze pokojowej energia termiczna otaczająca system mogła mieć wpływ na jego działanie i wprowadzała szum termiczny, który był silniejszy od szumu kwantowego, jaki próbowano redukować. Dlatego też takie systemy pracowały w temperaturze zaledwie 10 kelwinów (-263,15 stopni Celsjusza). Tam gdzie potrzebna jest kriogenika, nie ma mowy o niewielkim przenośnym systemie. Jeśli bowiem urządzenie może pracować tylko w wielkiej zamrażarce, to nie możesz go z niej wyjąć i uruchomić poza nią, wyjaśnia Mavalvala.
Dlatego też zespół z MIT pracujący pod kierunkiem Nancy Aggarval, postanowił zbudować system optomechaczniczny z ruchomym lustrem wykonanym z materiałów, które absorbują minimalne ilości energii cieplnej po to, by nie trzeba było takiego systemu chłodzić. Uczeni stworzyli bardzo małe lustro o średnicy 70 mikrometrów. Zbudowano je z naprzemiennie ułożonych warstw arsenku galu i arsenku galowo-aluminowego. Oba te materiały mają wysoce uporządkowaną strukturę atomową, która zapobiega utratom ciepła. Materiały nieuporządkowane łatwo tracą energię, gdyż w ich strukturze znajduje się wiele miejsc, gdzie elektrony mogą się odbijać i zderzać. W bardziej uporządkowanych materiałach jest mniej takich miejsc, wyjaśnia Aggarwal.
Wspomniane wielowarstwowe lustro zawieszono na wsporniku o długości 55 mikrometrów. Całości nadano taki kształt, by absorbowała jak najmniej energii termicznej. System przetestowano na Louisiana State University. Dzięki niemu naukowcy byli w stanie określić kwantowe fluktuacje liczby fotonów względem czasu ich przybycia do lustra. Pozwoliło im to na zredukowanie szumu o 15% i uzyskanie bardziej precyzyjnego „ściśniętego” promienia.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Badacze z Uniwersytetu Johnsa Hopkinsa odkryli, że na każdy 1 punkt procentowy zwiększenia powierzchni zabetonowanych – jak drogi, parkingi, budynki i inna infrastruktura – przypada 3,3-procentowe zwiększenie intensywności powodzi. Oznacza to, że jeśli w basenie danej rzeki zabetonowaną powierzchnię zwiększymy o 10%, to średnio przepływ wody w czasie zwiększy się tam o 33%.
W ostatnim czasie doszło do znaczne zwiększenia intensywności powodzi w takich miastach jak Houston czy Ellicott City. Chcieliśmy lepiej zrozumieć, jak urbanizacja wpływa na zwiększenie przepływu wód powodziowych, mówi Annalise Blum z Johns Hopkins University i American Association for the Advancement of Science.
Poprzednie badania tego typu wykorzystywały mniejsze zestawy danych, dotyczących pojedynczych cieków wodnych lub niewielkich grup cieków w określonym przedziale czasowym. Nie można było ich przełożyć na skalę całego kraju. Ponadto trudno było na ich podstawie wyizolować przyczynę i skutek, gdyż nie kontrolowano w nich efektywnie wpływu takich czynników jak klimat, zapory wodne czy sposób wykorzystywania terenu. Trudno było więc podać konkretne wartości pokazujące, w jaki sposób nieprzepuszczalna powierzchnia wpływa na powodzie.
Blum we współpracy z profesorem Paulem Ferraro wykorzystali modele matematyczne, które rzadko są używane do badania powodzi. W badaniach środowiska naturalnego trudno jest oddzielić przyczynę od skutku. Na szczęście w ciągu ostatnich dekad na polu ekonomii i biostatystyki opracowano metody, które pozwalają na ich odróżnienie. Zastosowaliśmy te metody do badań hydrologicznych, w nadziei, że przyczyni się to do postępu w tej dziedzinie wiedzy i da planistom oraz polityko nowe narzędzia pomocne podczas rozwoju miast, stwierdza Ferrero.
Naukowcy wykorzystali dane US Geological Survey z okresu 1974–2012, które dotyczyły ponad 2000 cieków wodnych. Dane zawierały informacje o przepływie wody. Informacje takie poddano analizie, w której uwzględniono też zmiany w obszarze powierzchni nieprzepuszczalnych w basenie każdego z cieków.
Z analizy wynika, że wielkość powodzi, rozumiana jako maksymalny przepływ wody, zwiększa się o 3,3 punktu procentowego dla każdego wzrostu obszaru powierzchni nieprzepuszczalnych o 1 pp.
"W związku z olbrzymią coroczną zmiennością przepływu wody trudno jest wydzielić skutki urbanizacji. Nam się to udało dzięki zastosowaniu olbrzymich zestawów danych zbieranych zarówno w czasie jak i w przestrzeni", wyjaśnia Blum.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Podczas Fifth International Symposium on Networks-on-Chip 2011 specjaliści z MIT-u zdobyli nagrodę za najlepsze opracowanie naukowe symulatora układu scalonego. Ich program Hornet modeluje działanie wielordzeniowego procesora znacznie lepiej niż inne tego typu oprogramowanie. Potrafił znaleźć w oprogramowaniu błędy, których inne symulatory nie zauważyły.
Teraz Hornet został znakomicie udoskonalony i wyposażony w nowe funkcje. Jego nowa wersja potrafi symulować zużycie energii, komunikację między rdzeniami, interakcję pomiędzy CPU a pamięcią oraz obliczyć czas potrzebny na wykonanie poszczególnych zadań.
Symulatory są niezwykle ważne dla firm produkujących układy scalone. Zanim przystąpi się do produkcji kości przeprowadzane są liczne testy ich działania na symulatorach.
Dotychczasowe symulatory przedkładały szybkość pracy nad dokładność. Nowy Hornet pracuje znacznie wolniej niż jego starsze wersje, jednak dzięki temu pozwala na symulowanie 1000-rdzeniowego procesora z dokładnością do pojedynczego cyklu. Hornet jest nam w stanie wyliczyć, że ukończenie konkretnego zadania będzie np. wymagało 1.223.392 cykli - mówi Myong Cho, doktorant z MIT-u.
Przewaga Horneta nad konkurencją polega też na tym, że inne symulatory dobrze oceniają ogólną wydajność układu, mogą jednak pominąć rzadko występujące błędy. Hornet daje większą szansę, że zostaną one wyłapane.
Podczas prezentacji Cho, jego promotor profesor Srini Devadas i inni studenci symulowali na Hornecie sytuację, w której wielordzeniowy procesor korzysta z nowej obiecującej techniki przetwarzania danych pacjentów. Hornet zauważył, że niesie ona ze sobą ryzyko wystąpienia zakleszczenia, czyli sytuacji, w której różne rdzenie, aby zakończyć prowadzone obliczenia, czekają nawzajem na dane od siebie. Powoduje to, że zadania nie mogą być zakończone, gdyż rdzenie nawzajem siebie blokują. Żaden inny symulator nie zasygnalizował tego problemu. Hornet pozwolił też na przetestowanie zaproponowanego przez naukowców sposobu na uniknięcie zakleszczenia.
Zdaniem jego twórców Hornet, ze względu na swoje powolne działanie, posłuży raczej do symulowania pewnych zadań, a nie działania całych aplikacji. Przyda się zatem tam, gdzie zajdzie potrzeba upewnienia się, czy nie występują żadne nieprawidłowości czy też do statystycznego zbadania możliwości wystąpienia błędów.
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.