Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
10 balonów w 9 godzin
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Na MIT powstały ogniwa fotowoltaiczne cieńsze od ludzkiego włosa, które na kilogram własnej masy wytwarzają 18-krotnie więcej energii niż ogniwa ze szkła i krzemu. Jeśli uda się skalować tę technologię, może mieć do olbrzymi wpływ produkcję energii w wielu krajach. Jak zwraca uwagę profesor Vladimir Bulivić z MIT, w USA są setki tysięcy magazynów o olbrzymiej powierzchni dachów, jednak to lekkie konstrukcje, które nie wytrzymałyby obciążenia współczesnymi ogniwami. Jeśli będziemy mieli lekkie ogniwa, te dachy można by bardzo szybko wykorzystać do produkcji energii, mówi uczony. Jego zdaniem, pewnego dnia będzie można kupić ogniwa w rolce i rozwinąć je na dachu jak dywan.
Cienkimi ogniwami fotowoltaicznymi można by również pokrywać żagle jednostek pływających, namioty, skrzydła dronów. Będą one szczególnie przydatne w oddalonych od ludzkich siedzib terenach oraz podczas akcji ratunkowych.
To właśnie duża masa jest jedną z przyczyn ograniczających zastosowanie ogniw fotowoltaicznych. Obecnie istnieją cienkie ogniwa, ale muszą być one montowane na szkle. Dlatego wielu naukowców pracuje nad cienkimi, lekkimi i elastycznymi ogniwami, które można będzie nanosić na dowolną powierzchnię.
Naukowcy z MIT pokryli plastik warstwą parylenu. To izolujący polimer, chroniący przed wilgocią i korozją chemiczną. Na wierzchu za pomocą tuszów o różnym składzie nałożyli warstwy ogniw słonecznych i grubości 2-3 mikrometrów. W warstwie konwertującej światło w elektryczność wykorzystali organiczny półprzewodnik. Elektrody zbudowali ze srebrnych nanokabli i przewodzącego polimeru. Profesor Bulović mówi, że można by użyć perowskitów, które zapewniają większą wydajność ogniwa, ale ulegają degradacji pod wpływem wilgoci i tlenu. Następnie krawędzie tak przygotowanego ogniwa pomarowano klejem i nałożono na komercyjnie dostępną wytrzymałą tkaninę. Następnie plastik oderwano od tkaniny, a na tkaninie pozostały naniesione ogniwa. Całość waży 0,1 kg/m2, a gęstość mocy tak przygotowanego ogniwa wynosi 370 W/kg. Profesor Bulović zapewnia, że proces produkcji można z łatwością skalować.
Teraz naukowcy z MIT planują przeprowadzenie intensywnych testów oraz opracowanie warstwy ochronnej, która zapewni pracę ogniw przez lata. Zdaniem uczonego już w tej chwili takie ogniwo mogłoby pracować co najmniej 1 lub 2 lata. Po zastosowaniu warstwy ochronnej wytrzyma 5 do 10 lat.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Firma World View Enterprises z Arizony poinformowała o udanym teście balonu, który będzie wynosił turystów na wysokość 32 kilometrów nad Ziemią. Przedsiębiorstwo wykorzystuje balon podobnego typu, który w 2012 roku pozwolił Feliksowi Baumgartnerowi na wykonanie skoku z największej wysokości w dziejach.
Dyrektor wykonawcza World View Enterprises, Jane Poynter, powiedziała, że ubiegłotygodniowy test był pierwszą próbą wszystkich komponentów połączonych w jedną całość. W czasie testu wykorzystano balon trzykrotnie mniejszy niż ten, który będzie wynosił turystów. Był on obciążony ładunkiem 10-krotnie mniejszym niż kapsuła z turystami.
Pierwsze komercyjne loty balonu mają rozpocząć się w 2016 roku, a bilet na lot będzie kosztował 75 000 USD. Podczepiona pod balon kapsuła zabierze sześciu turystów i dwóch członków załogi. Przez dwie godziny będą oni znajdowali się na wysokości 32 kilometrów. Kapsuła będzie na tyle duża, że pozwoli pasażerom na spacerowanie.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Szerokie rozpowszechnienie się internetu i technologii komunikacyjnych przyciąga ludzi do centrów miast. Zachodzi więc zjawisko odwrotne, niż przewidywano u zarania internetu i ery informacyjnej, informują naukowcy z Uniwersytetu w Bristolu.
Pomimo tego, że internet pozwala nam na niezwykle łatwy dostęp do wszelkich informacji i umożliwia łatwe i szybkie nawiązanie kontaktu z osobami z drugiego końca świata, jego rozwój nie doprowadził do odpływu ludności z miast. Wręcz przeciwnie, specjaliści zauważyli odwrotne zjawisko. Coraz większe rozpowszechnienie się technologii informacyjnych prowadzi zwiększenia koncentracji ludzi w miastach.
Nie od dzisiaj wiemy, że np. przedsiębiorstwa działające na uzupełniających się polach, mają tendencje do grupowania się na tym samym obszarze, gdyż zmniejsza to koszty działalności. Technologie informacyjne miały to zmienić.
Doktor Emmanouil Tranos z Univeristy of Bristol i Yannis M. Ioannides z Tufts Univeristy przeanalizowali skutki zachodzących w czasie zmian dostępności i prędkości łączy internetowych oraz użytkowania internetu na obszary miejskie w USA i Wielkiej Brytanii. Geografowie, planiści i ekonomiści miejscy, którzy na początku epoki internetu rozważali jego wpływ na miasta, dochodzili czasem do dziwacznych wniosków. Niektórzy wróżyli rozwój „tele-wiosek”, krajów bez granic, a nawet mówiono o końcu miasta.
Dzisiaj, 25 lat po komercjalizacji internetu, wiemy, że przewidywania te wyolbrzymiały wpływ internetu i technologii informacyjnych w zakresie kontaktów i zmniejszenia kosztów związanych z odległością. Wciąż rosnąca urbanizacja pokazuje coś wręcz przeciwnego. Widzimy, że istnieje komplementarność pomiędzy internetem a aglomeracjami. Nowoczesne technologie informacyjne nie wypchnęły ludzi z miast, a ich do nich przyciągają.
Artykuł Ubiquitous digital technologies and spatial structure; an update został opublikowany na łamach PLOS One.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Fizycy z MIT opracowali kwantowy „ściskacz światła”, który redukuje szum kwantowy w laserach o 15%. To pierwszy taki system, który pracuje w temperaturze pokojowej. Dzięki temu możliwe będzie wyprodukowanie niewielkich przenośnych systemów, które będzie można dobudowywać do zestawów eksperymentalnych i przeprowadzać niezwykle precyzyjne pomiary laserowe tam, gdzie szum kwantowy jest obecnie poważnym ograniczeniem.
Sercem nowego urządzenia jest niewielka wnęka optyczna znajdująca się w komorze próżniowej. We wnęce umieszczono dwa lustra, z których średnia jednego jest mniejsza niż średnica ludzkiego włosa. Większe lustro jest zamontowane na sztywno, mniejsze zaś znajduje się na ruchomym wsporniku przypominającym sprężynę. I to właśnie kształt i budowa tego drugiego, nanomechanicznego, lustra jest kluczem do pracy całości w temperaturze pokojowej. Wpadające do wnęki światło lasera odbija się pomiędzy lustrami. Powoduje ono, że mniejsze z luster, to na wsporniku zaczyna poruszać się w przód i w tył. Dzięki temu naukowcy mogą odpowiednio dobrać właściwości kwantowe promienia wychodzącego z wnęki.
Światło lasera opuszczające wnękę zostaje ściśnięte, co pozwala na dokonywanie bardziej precyzyjnych pomiarów, które mogą przydać się w obliczeniach kwantowych, kryptologii czy przy wykrywaniu fal grawitacyjnych.
Najważniejszą cechą tego systemu jest to, że działa on w temperaturze pokojowej, a mimo to wciąż pozwala na dobieranie parametrów z dziedziny mechaniki kwantowej. To całkowicie zmienia reguły gry, gdyż teraz będzie można wykorzystać taki system nie tylko w naszym laboratorium, które posiada wielkie systemy kriogeniczne, ale w laboratoriach na całym świecie, mówi profesor Nergis Mavalvala, dyrektor wydziału fizyki w MIT.
Lasery emitują uporządkowany strumień fotonów. Jednak w tym uporządkowaniu fotony mają pewną swobodę. Przez to pojawiają się kwantowe fluktuacje, tworzące niepożądany szum. Na przykład liczba fotonów, które w danym momencie docierają do celu, nie jest stała, a zmienia się wokół pewnej średniej w sposób, który jest trudny do przewidzenia. Również czas dotarcia konkretnych fotonów do celu nie jest stały.
Obie te wartości, liczba fotonów i czas ich dotarcia do celu, decydują o tym, na ile precyzyjne są pomiary dokonywane za pomocą lasera. A z zasady nieoznaczoności Heisenberga wynika, że nie jest możliwe jednoczesne zmierzenie pozycji (czasu) i pędu (liczby) fotonów.
Naukowcy próbują radzić sobie z tym problemem poprzez tzw. kwantowe ściskanie. To teoretyczne założenie, że niepewność we właściwościach kwantowych lasera można przedstawić za pomocą teoretycznego okręgu. Idealny okrąg reprezentuje równą niepewność w stosunku do obu właściwości (czasu i liczby fotonów). Elipsa, czyli okrąg ściśnięty, oznacza, że dla jednej z właściwości niepewność jest mniejsza, dla drugiej większa.
Jednym ze sposobów, w jaki naukowcy realizują kwantowe ściskanie są systemy optomechaniczne, które wykorzystują lustra poruszające się pod wpływem światła lasera. Odpowiednio dobierając właściwości takich systemów naukowcy są w stanie ustanowić korelację pomiędzy obiema właściwościami kwantowymi, a co za tym idzie, zmniejszyć niepewność pomiaru i zredukować szum kwantowy.
Dotychczas optomechaniczne ściskanie wymagało wielkich instalacji i warunków kriogenicznych. Działo się tak, gdyż w temperaturze pokojowej energia termiczna otaczająca system mogła mieć wpływ na jego działanie i wprowadzała szum termiczny, który był silniejszy od szumu kwantowego, jaki próbowano redukować. Dlatego też takie systemy pracowały w temperaturze zaledwie 10 kelwinów (-263,15 stopni Celsjusza). Tam gdzie potrzebna jest kriogenika, nie ma mowy o niewielkim przenośnym systemie. Jeśli bowiem urządzenie może pracować tylko w wielkiej zamrażarce, to nie możesz go z niej wyjąć i uruchomić poza nią, wyjaśnia Mavalvala.
Dlatego też zespół z MIT pracujący pod kierunkiem Nancy Aggarval, postanowił zbudować system optomechaczniczny z ruchomym lustrem wykonanym z materiałów, które absorbują minimalne ilości energii cieplnej po to, by nie trzeba było takiego systemu chłodzić. Uczeni stworzyli bardzo małe lustro o średnicy 70 mikrometrów. Zbudowano je z naprzemiennie ułożonych warstw arsenku galu i arsenku galowo-aluminowego. Oba te materiały mają wysoce uporządkowaną strukturę atomową, która zapobiega utratom ciepła. Materiały nieuporządkowane łatwo tracą energię, gdyż w ich strukturze znajduje się wiele miejsc, gdzie elektrony mogą się odbijać i zderzać. W bardziej uporządkowanych materiałach jest mniej takich miejsc, wyjaśnia Aggarwal.
Wspomniane wielowarstwowe lustro zawieszono na wsporniku o długości 55 mikrometrów. Całości nadano taki kształt, by absorbowała jak najmniej energii termicznej. System przetestowano na Louisiana State University. Dzięki niemu naukowcy byli w stanie określić kwantowe fluktuacje liczby fotonów względem czasu ich przybycia do lustra. Pozwoliło im to na zredukowanie szumu o 15% i uzyskanie bardziej precyzyjnego „ściśniętego” promienia.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Iskra
Dokładnie 50 lat temu, późnym wieczorem 29 października 1969 roku na Uniwersytecie Kalifornijskim w Los Angeles (UCLA) dwóch naukowców prowadziło pozornie nieznaczący eksperyment. Jego konsekwencje ujawniły się dopiero wiele lat później, a skutki pracy profesora Leonarda Kleinrocka i jego studenta Charleya Kline'a odczuwamy do dzisiaj.
Kleinrock i Kline mieli do rozwiązania poważny problem. Chcieli zmusić dwa oddalone od siebie komputery, by wymieniły informacje. To, co dzisiaj wydaje się oczywistością, przed 50 laty było praktycznie nierozwiązanym problemem technicznym. Nierozwiązanym aż do późnego wieczora 29 października 1969 roku.
Jeden ze wspomnianych komputerów znajdował się w UCLA, a drugi w oddalonym o 600 kilometrów Stanford Research Institute (SRI) w Menlo Park. Próby nawiązania łączności trwały wiele godzin. Kline próbował zalogować się do komputera w SRI, zdążył w linii poleceń wpisać jedynie „lo”, gdy jego maszyna uległa awarii. Wymagała ponownego zrestartowania i ustanowienia połączenia. W końcu około godziny 22:30 po wielu nieudanych próbach udało się nawiązać łączność i oba komputery mogły ze sobą „porozmawiać”. Wydaje się jednak, że pierwszą wiadomością wysłaną za pomocą sieci ARPANETu było „lo”.
Trudne początki
Początków ARPANETU możemy szukać w... Związku Radzieckim, a konkretnie w wielkim osiągnięciu, jakim było wystrzelenie Sputnika, pierwszego sztucznego satelity Ziemi. To był dla Amerykanów policzek. Rosjanie pokazali, że pod względem technologicznym nie odstają od Amerykanów. Cztery lata zajęło im nadgonienie nas w technologii bomby atomowej, dziewięć miesięcy gonili nas w dziedzinie bomby wodorowej. Teraz my próbujemy dogonić ich w technice satelitarnej, stwierdził w 1957 roku George Reedy, współpracownik senatora, późniejszego prezydenta, Lyndona Johnsona.
Po wystrzeleniu Sputnika prezydent Eisenhower powołał do życia Advanced Research Project Agency (ARPA), której zadaniem była koordynacja wojskowych projektów badawczo-rozwojowych. ARPA zajmowała się m.in. badaniami związanymi z przestrzenią kosmiczną. Jednak niedługo później powstała NASA, która miała skupiać się na cywilnych badaniach kosmosu, a programy wojskowe rozdysponowano pomiędzy różne wydziały Pentagonu. ARPA zaś, ku zadowoleniu środowisk naukowych, została przekształcona w agencję zajmującą się wysoce ryzykownymi, bardzo przyszłościowymi badaniami o dużym teoretycznym potencjale. Jednym z takich pól badawczych był czysto teoretyczny sektor nauk komputerowych.
Kilka lat później, w 1962 roku, dyrektorem Biura Technik Przetwarzania Informacji (IPTO) w ARPA został błyskotliwy naukowiec Joseph Licklider. Już w 1960 roku w artykule „Man-Computer Symbiosis” uczony stwierdzał, że w przyszłości ludzkie mózgi i maszyny obliczeniowe będą bardzo ściśle ze sobą powiązane. Już wtedy zdawał on sobie sprawę, że komputery staną się ważną częścią ludzkiego życia.
W tych czasach komputery były olbrzymimi, niezwykle drogimi urządzeniami, na które mogły pozwolić sobie jedynie najbogatsze instytucje. Gdy Licklider zaczął pracować dla ARPA szybko zauważył, że aby poradzić sobie z olbrzymimi kosztami związanymi z działaniem centrów zajmujących się badaniami nad komputerami, ARPA musi kupić wyspecjalizowane systemy do podziału czasu. Tego typu systemy pozwalały mniejszym komputerom na jednoczesne łączenie się z wielkim mainframe'em i lepsze wykorzystanie czasu jego procesora. Dzięki nim wielki komputer wykonywać różne zadania zlecane przez wielu operatorów. Zanim takie systemy powstały komputery były siłą rzeczy przypisane do jednego operatora i w czasie, gdy np. wpisywał on ciąg poleceń, moc obliczeniowa maszyny nie była wykorzystywana, co było oczywistym marnowaniem jej zasobów i pieniędzy wydanych na zbudowanie i utrzymanie mainframe’a.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.