Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Poszukiwanie miejsca parkingowego w centrum zatłoczonego miasta może często trwać dłużej, niż sam dojazd to niego. Kierowcy, krążący w poszukiwaniu miejsca, w którym pozostawią samochód, przyczyniają się do zwiększenia i tak już dużych korków.

Naukowcy z Rutgers University, Marco Gruteser i Wade Trappe, mają pomysł, jak rozwiązać ten problem. W ramach eksperymentu wyposażyli oni trzy samochody w ultradźwiękowe czujniki odległości umieszczone na drzwiach pasażera oraz odpowiednie algorytmy, szacujące mierzone odległości, rozpoznające obiekty i poszukujące w ten sposób wolnych miejsc parkingowych.  Dwumiesięczne badania prowadzone w New Jersey wykazały, że w 95% przypadków system dobrze rozpoznał wolne miejsca. Naukowcy połączyli też dane zebrane z czujników z GPS-em i stworzyli w ten sposób mapę wolnych miejsc parkingowych. Dokładność uzyskanych danych wynosiła 90%. Upowszechnienie tego typu systemu może znacząco zmniejszyć korki w wielkich miastach. Badania prowadzone w Nowym Jorku przez grupę Transportation Alternatives wykazały, że na Manhattanie aż 45% ruchu generują kierowcy, którzy krążą w poszukiwaniu wolnego miejsca parkingowego. Jeśli udałoby się upowszechnić system Grutesera i Trappe, kierowcy mogliby na bieżąco otrzymywać informacje o najbliższych wolnych miejscach parkingowych.

Poszukiwanie miejsca do zaparkowania to nie tylko problem kierowcy, który traci czas, oraz miasta zatykanego przez korki. Już w 2006 roku profesor Donald Shoup, który specjalizuje się w planowaniu miejskim, wyliczył, że w jednej tylko niewielkiej biznesowej dzielnicy Los Angeles samochody, które jeździły w poszukiwaniu miejsca do zaparkowania spaliły w ciągu roku 178 000 litrów paliwa, emitując do atmosfery 730 ton dwutlenku węgla.

Problem zauważyły też władze wielu miast. San Francisco wydało miliony dolarów na system czujników umieszczanych w asfalcie i parkometrach, który informuje o wolnych miejscach. Jednak tego typu systemy są niezwykle drogie i są instalowane na płatnych i oficjalnie wyznaczonych miejscach parkingowych. Całkowicie pomijają zatem te miejsca, w których parkowanie jest dozwolone, ale nie nadzorowane przez władze. Dlatego też np. we wspomnianym już San Francisco opomiarowano w ten sposób jedynie 6000 miejsc parkingowych, czyli 25% dostępnego miejsca. Średni koszt zainstalowania czujników dla pojedynczego miejsca i ich utrzymania przez rok po instalacji wynosi 500 USD.

Wynalazek uczonych z Rutgers University pozwala na znacznie tańsze wyszukiwanie wolnych miejsc i działa zarówno w przypadku parkingów wyznaczonych jak i tych nieoficjalnych. Koszt prototypowego systemu to 20 USD za czujnik ultradźwiękowy, 100 dolarów za GPS. Do tego należy doliczyć koszt komputera i łącza Wi-Fi oraz centralnego serwera zbierającego i przetwarzającego dane.

Co więcej, uczeni wpadli na pomysł, że tego typu system można by zainstalować w taksówkach czy wozach policyjnych. Po przeanalizowaniu ruchu taksówek wyliczyli, że wystarczy wyposażyć 300 z nich w czujniki, dzięki czemu za kwotę 200 000 dolarów można stworzyć aktualizowaną w czasie rzeczywistym mapę wolnych miejsc parkingowych w śródmieściu San Francisco.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Międzynarodowe konsorcjum przedstawiło wyniki największego w historii badania mikrobiomu miejskiego. Projekt, w ramach którego zsekwencjonowano i przeanalizowano próbki pobrane w 60 miastach na całym świecie, zawiera kompleksową analizę i oznaczenie gatunkowe wszystkich zidentyfikowanych w próbkach drobnoustrojów. W badaniach uczestniczył dr hab. inż. Paweł Łabaj z Małopolskiego Centrum Biotechnologii UJ (MCB UJ).
      Każde miasto ma swój własny molekularny odcisk palca pochodzący od mikrobów, które je definiują. Na podstawie materiału zebranego z podeszwy buta, mógłbym stwierdzić z około 90-procentową dokładnością, z jakiego miasta pochodzi jego właściciel – mówi prof. Christopher Mason, główny autor publikacji, która wczoraj ukazała się w Cell, a towarzysząca mu praca w Microbiome.
      Badania oparte są na 4728 próbkach pobranych w ciągu 3 lat z miast na 6 kontynentach. Wyniki uwzględniają lokalne markery oporności na środki przeciwdrobnoustrojowe i stanowią pierwszy systematyczny, ogólnoświatowy katalog ekosystemu drobnoustrojów miejskich. Oprócz odrębnych „odcisków palca” mikrobiomów w różnych miastach, analiza ujawniła podstawowy zestaw 31 gatunków, które zostały znalezione w 97 proc. próbek z badanych obszarów miejskich. Badacze zidentyfikowali 4246 znanych gatunków mikroorganizmów miejskich, ale stwierdzili również, że dalsze pobieranie próbek będzie prowadzić do pojawienia się gatunków, które nigdy wcześniej nie zostały zaobserwowane. Odzwierciedla to niezwykły potencjał badań związanych z różnorodnością i funkcjami biologicznymi mikroorganizmów występujących w środowiskach miejskich.
      Projekt konsorcjum rozpoczął się w 2013 roku, kiedy prof. Christopher Mason zaczął zbierać i analizować próbki mikrobów w systemie nowojorskiego metra. Po publikacji pierwszych wyników skontaktowali się z nim badacze z całego świata, którzy chcieli wykonać podobne badania w swoich miastach. W 2015 roku światowe zainteresowanie zainspirowało prof. Masona do stworzenia międzynarodowego konsorcjum MetaSUB (Metagenomics and Metadesign of Subways and Urban Biomes). Jednym z pierwszych, którzy dołączyli, był dr hab. inż. Paweł Łabaj z MCB UJ, który wcześniej współpracował z amerykańskim uczonym w innych projektach. Jako wiodący członek Międzynarodowego Konsorcjum MetaSUB był najpierw głównym badaczem w Wiedniu, a obecnie w Krakowie. Kieruje również pracami europejskich partnerów konsorcjum w ramach założonego stowarzyszenia MetaSUB Europe Society.
      Głównym projektem konsorcjum jest global City Sampling Day (gCSD), który odbywa się co roku 21 czerwca. Kraków przystąpił do gCSD w 2020 roku, kiedy to wolontariusze pobrali wymazy na przystankach i w tramwajach z automatów biletowych, siedzeń, poręczy, uchwytów, zlokalizowanych na trasach linii tramwajowych 52, 50 i 14. Dodatkowe próbki zostały pobrane za pomocą próbnika powietrza w tunelach znajdujących się w okolicach dworca głównego. W tym roku akcja zostanie powtórzona, a na podstawie wyników z obu lat dr hab. inż. Paweł Łabaj i jego zespół zaprezentują mikrobiologiczny "odcisk palca" przestrzeni miejskiej Krakowa. Projekt nie byłby możliwy bez czynnej współpracy z Wydziałem ds. Przedsiębiorczości i Innowacji Urzędu Miasta Krakowa, Zarządem Transportu Publicznego w Krakowie i Miejskim Przedsiębiorstwem Komunikacyjnym w Krakowie.
      Konsorcjum MetaSUB prowadzi również inne szeroko zakrojone badania, w tym wykonało kompleksową analizę mikrobiologiczną powierzchni miejskich oraz populacji komarów przed, w trakcie i po Letnich Igrzyskach Olimpijskich w Rio de Janeiro w 2016 roku. Inny projekt, rozpoczęty w 2020 roku, koncentruje się na badaniu występowania SARS-CoV-2 i innych koronawirusów u kotów domowych. Planowany jest także projekt związany z olimpiadą w Tokio w 2021 roku. W związku z tym konsorcjum rozszerzyło swoją aktywność na pobieranie próbek z powietrza, wody i ścieków, a nie tylko z powierzchni twardych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W coraz większej liczbie polskich miast wykorzystuje się odnawialne źródła energii – zarówno w instalacjach miejskich, jak i na potrzeby domów wielorodzinnych. Najbardziej popularne są instalacje fotowoltaiczne, ale przyszłością jest też energia wiatrowa – mówi dr Aleksandra Lewandowska.
      Zespół naukowców z UMK w Toruniu przeanalizował 20 największych pod względem ludności polskich miast, m.in. Warszawę, Wrocław i Kraków pod kątem wykorzystania przez nie odnawialnych źródeł energii (OZE). Jej użycie wpisuje się w koncepcję tzw. smart city.
      Smart city jest pojęciem wieloaspektowym, łączy szereg różnego rodzaju zagadnień, jednym z nich jest inteligentna sieć energetyczna, w której skład wchodzi wykorzystanie OZE – opowiada dr Aleksandra Lewandowska z Katedry Studiów Miejskich i Rozwoju Regionalnego UMK w Toruniu.
      Wykorzystanie OZE w mieście ma poprawić stan środowiska metropolii i jednocześnie jakość życia jego mieszkańców.
      Naukowcy ustalili, że tylko pięć badanych miast posiada szerszą strategię tworzenia smart city. Jednak informacje o wykorzystaniu OZE i chęci wdrażania takich rozwiązań pojawiają się w planach gospodarki niskoemisyjnej w większości z nich. Tego typu dokumenty są obligatoryjne – zauważa badaczka.
      Dr Lewandowska mówi, że co prawda z analizy dokumentów wyłania się dość optymistyczny obraz dotyczący wykorzystania OZE w miastach, to praktyka jest nieco mniej kolorowa.
      Miasta stawiają przede wszystkim na rozwiązania, które cieszą się sporym poparciem społecznym. Dlatego teraz koncentrują się głównie na walce z kopciuchami – podkreśla. Jednocześnie zauważa, że w taki ekologiczny trend wpisuje się wykorzystanie OZE i organizacje społeczne również wywierają presje na włodarzach miast w kwestii ich jak najszerszego wykorzystania. W jej ocenie miasta powinny postawić na większą promocję OZE: zachęty wśród mieszkańców np. w postaci rekompensat. Ciągle brakuje funduszy na te cele – zauważa.
      Wśród analizowanych miast najbardziej widoczne są małoskalowe inwestycje OZE – wynika z obserwacji naukowców. Są to na przykład ławki, parkometry i latarnie uliczne z panelami fotowoltaicznymi. Tego typu rozwiązania są najprostsze do wdrożenia, bo nie wymagają wprowadzania zmian z istniejącej sieci energetycznej – podkreśla.
      Za nadal niedocenioną kategorię OZE w miastach Lewandowska uznaje energię wiatrową. W jej ocenie niewielkie instalacje tego typu z powodzeniem mogłyby działać na szczytach wysokich budynków.
      Ekspertka zapytana o ocenę dotychczasowych instalacji OZE w miastach podkreśla, że nadal ich skala nie jest duża. Każda inwestycja w tego typu źródła energii jest godna pochwały, bo wskazuje właściwy trend. Każda, nawet najmniejsza inwestycja w OZE przyczynia się do poprawy stanu środowiska. Miasto to żyjący organizm i w holistycznej perspektywie wszystkie tego typu działania mają znaczenie – zaznacza.
      Lewandowska mówi, że inwestowanie w OZE zwraca się coraz szybciej. Teraz należy mówić o kwestii 5–10 lat, bo technologie tego typu w ostatnim czasie staniały. Ich rzekoma kosztowność to utarty mit – uważa.
      Podczas gdy na wsi i na przedmieściach widoczny jest coraz szerszy trend wykorzystania paneli fotowoltaicznych na domach jednorodzinnych, inaczej jest w przypadku miast – głównie ze względu na inny typ architektury.
      Jednak instalacje tego typu pojawiają się coraz częściej w ramach nowo tworzonych osiedli wielorodzinnych. Zwykle panele zasilają oświetlenie części wspólnych. Modne jest bycie eko, więc deweloperzy grają tą kartą – opowiada ekspertka.
      Ekspertka konkluduje, że Polska nie odstaje pod względem wykorzystania OZE w miastach od naszych południowych sąsiadów – Czech czy Słowacji. Idziemy w dobrym kierunku, ale na przykład do Niemiec ciągle nam pod tym względem daleko – kończy.
      Wniosku z analizy toruńskich badaczy ukazały się w periodyku "Energies". Jego współautorami, oprócz dr Lewandowskiej są również dr hab. Justyna Chodkowska–Miszczuk, dr hab. inż. Krzysztof Rogatka i inż. Tomasz Starczewski.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pewnego dnia będziemy mogli monitorować stan swojego zdrowia używając do tego celu... ołówka i rysując nim urządzenie bioelektroniczne. Tak przynajmniej obiecują naukowcy z University of Missouri, którzy dowiedli, że ołówek i kawałek papieru to wszystko, czego potrzeba, by stworzyć urządzenie do monitorowania stanu zdrowia.
      Profesor Zheng Yan zauważa, że wiele komercyjnych urządzeń biomedycznych umieszczanych na skórze składa się z dwóch podstawowych elementów: modułu biomedycznego oraz stanowiącego podłoże elastycznego materiału, który zapewnia mocowanie do skóry i kontakt z nią.
      Standardowy sposób produkcji takich urządzeń jest złożony i kosztowny. W przeciwieństwie do tego nasza technika jest tania i bardzo prosta. Możemy stworzyć takie urządzenie za pomocą papieru i ołówka, mówi Yan.
      Warto pamiętać, że wkład ołówków stanowi głównie grafit. Naukowcy zauważyli, że ołówki zawierające ponad 90% grafitu są w stanie przewodzić duże ilości energii, jaka powstaje w wyniku tarcia rysika o papier. Szczegółowe badania wykazały, że do stworzenia na papierze różnych urządzeń biomedycznych najlepsze są ołówki, w których rysiku jest 93% grafitu. Yan zauważył też, że pomocny może być biokompatybilny klej w spraju, który można nałożyć na papier, by lepiej przylegał do skóry.
      Naukowcy mówią, że ich odkrycie może mieć olbrzymie znaczenie dla rozwoju taniej, domowej diagnostyki medycznej, edukacji czy badań naukowych. Na przykład jeśli ktoś ma problemy ze snem, jesteśmy w stanie narysować biomedyczne urządzenie, które pomoże monitorować sen tej osoby, stwierdza Yan. Dodatkową zaletą takich urządzeń jest fakt, że papier bardzo szybko ulega biodegradacji, więc produkcja tego typu czujników nie będzie wiązała się z wytwarzaniem zalegających odpadów.
      Autorzy badań twierdzą, że w ten sposób można będzie tworzyć czujniki temperatury, czynności elektrycznej mięśni i nerwów obwodowych, pracy układu krążenia, czujniki oddechu, urządzenia monitorujące pH potu, zawartość w nim glukozy czy kwasu moczowego i wiele innych urządzeń. Jakość przekazywanych przez nie sygnałów jest porównywalna z komercyjnie dostępnymi czujnikami. Całość zaś zasilana będzie dzięki wilgoci obecnej w powietrzu. Jak zauważyli naukowcy, pojedyncze narysowane ołówkiem urządzenie o powierzchni 0,87 cm2 może dzięki wilgotności powietrza generować przez 2 godziny napięcie sięgające 480 mV.
      Opisujący badania Yana artykuł Pencil-paper on-skin electronics został opublikowany w PNAS. Badania były finansowane przez amerykańską Narodową Fundację Nauki, Narodowe Instytuty Zdrowia oraz Biuro Badań Naukowych Sił Powietrznych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Badacze z Imperial College London opracowali czujnik, który pozwala monitorować parametry życiowe zwierząt i ludzi, odpowiednio, przez futro i ubranie. Zespół porównuje swój wynalazek do elastycznej głowicy stetoskopu.
      Autorzy artykułu z pisma Advanced Functional Materials wyliczają, że za pomocą ich rozciągliwego kompozytowego przetwornika akustycznego można monitorować np. tętno czy częstość oddechu. Nie przeszkadza przy tym sierść i do 4 warstw ubrania.
      Brytyjczycy uważają, że ich wynalazek przyda się nie tylko właścicielom zwierząt, ale i weterynarzom, którzy by monitorować stan zwierzęcia w czasie operacji, nie będą musieli golić jego futra. Ekipa wspomina też o usprawnieniu pracy psów tropiących, poszukujących bomb i zaginionych osób. W przypadku ludzi można by mierzyć parametry życiowe przez ubranie, bez kontaktu ze skórą.
      Uważa się, że ubieralne rozwiązania odegrają ważną rolę w monitorowaniu zdrowia i wczesnym wykrywaniu chorób. Nasza rozciągliwa, elastyczna propozycja to całkowicie nowy typ czujnika do monitorowania zdrowia zwierząt i ludzi przez sierść lub ubranie - podkreśla dr Firat Guder.
      W przypadku ludzi mamy sporo różnych urządzeń monitorujących, lecz dla psów, kotów i innych zwierząt nie ma obecnie zbyt wielu ubieralnych opcji. Brytyjczycy sugerują, że jednym z powodów jest to, że dzisiejsze rozwiązania nie spełniają swojej funkcji przez futro.
      Rozwiązanie zaprezentowane przez zespół z Imperial College London jest wytwarzane kilkuetapowo. Najpierw do formy wlewa się ciekły, odgazowany silikon. Gdy częściowo zastygnie (trwa to ok. 2 godzin), usuwa się go z formy i wypełnia demineralizowaną wodą. Na wodę ponownie wylewa się ciekły silikon, który całkowicie ją enkapsuluje. Następnie przy brzegu montuje się mikrofon z potrzebną elektroniką i na to nakłada się jeszcze jedną warstwę silikonu. Końcowym etapem jest montaż uprzęży.
      Czujnik [z kompozytowego materiału] działa jak elastyczny stetoskop, który wypełnia przerwy między sobą a podłożem, tak że nie występują bąble powietrza, które mogłyby tłumić dźwięk - wyjaśnia Yasin Cotur.
      Dźwięk jest przetwarzany na sygnał cyfrowy, przekazywany do pobliskiego przenośnego komputera.
      Na początku kompozytowy przetwornik przetestowano na symulowanych dźwiękach serca. Później eksperymenty (fonokardiografię) prowadzono na 5 ludzkich ochotnikach, którzy mieli na sobie do 4 warstw ubrania, i na psie - zdrowym labradorze - przyzwyczajonym do uprzęży. By dokładniej ocenić osiągi czujnika, podczas wykonywania fonokardiografii za jego pomocą elektryczną aktywność serca mierzono także za pomocą konwencjonalnej metody EKG (tutaj elektrody mocuje się do skóry). Oba zapisy dawały silnie skorelowane sygnały.
      Naukowcy podkreślają, że czujniki mogą znaleźć zastosowanie u psów tropiących. Są one trenowane, by namierzać urządzenia wybuchowe czy ludzi. Gdy znajdą np. bombę, powiadamiają opiekuna (siadają i zaczynają szczekać). Ich tętno i częstość oddechu rosną w oczekiwaniu na nagrodę. Brytyjczycy tłumaczą, że zachowanie powiadamiające może być trudne do ilościowego zmierzenia. Jeśli jednak za pomocą nowego czujnika zmierzy się normalne wartości tętna i częstości oddechu danego psa, wiadomo będzie, jak bardzo w danym momencie parametry te od nich odbiegają. Na podstawie pomiaru poziomu ekscytacji psa wbudowany algorytm będzie mógł określić siłę reakcji psa na wykrywany zapach i ustalić, jak bardzo zwierzę jest pewne, że znalazło dobry obiekt.
      Na razie urządzenie testowano tylko na psach i ludziach. Teraz badacze chcą przystosować je do innych zwierząt domowych, a także koni i trzody. Ekipa pracuje też nad zintegrowaniem czujnika ruchu, tak by dało się monitorować ruchy zwierzęcia w czasie rzeczywistym. Algorytm sztucznej inteligencji mógłby wskazywać, czy zwierzę stoi, siedzi czy leży, a także, w którą stronę jest zwrócone. Dane przekazywano by do aplikacji na smartfony. Dzięki temu właściciel wiedziałby, jak zwierzę się czuje i gdzie się w danym momencie znajduje.
       


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Gdy Galileusz skierował swój pierwszy teleskop w kierunku Drogi Mlecznej, dostrzegł, że składa się ona z niezliczonej liczby gwiazd. Od tego czasu badania historii i własności Galaktyki pochłaniały wiele pokoleń naukowców. W najnowszym numerze amerykańskiego tygodnika Science zespół polskich astronomów z Obserwatorium Astronomicznego UW, pracujący w ramach projektu The Optical Gravitational Lensing Experiment (OGLE), prezentuje unikalną, trójwymiarową mapę Drogi Mlecznej. Mapa przedstawia precyzyjny obraz naszej Galaktyki i dostarcza wielu nowych informacji dotyczących budowy i historii systemu gwiazdowego, w którym mieszkamy.
      Od XVII wieku astronomowie zdawali sobie sprawę, że Ziemia, Słońce i inne planety z Układu Słonecznego wraz z miliardami gwiazd widocznych przez teleskopy tworzą naszą Galaktykę. Światło tych gwiazd, obserwowane z dala od świateł cywilizacji, zlewa się, przybierając kształt rozlanego na niebie mleka, tworząc Drogą Mleczną. Opisanie rzeczywistego kształtu oraz budowy i struktury Galaktyki na podstawie obserwacji pochodzących z jej wnętrza nie jest zadaniem łatwym.
      Astronomowie wyobrażają sobie Galaktykę jako typową galaktykę spiralną z tzw. poprzeczką, składającą się z centralnego zgrubienia zawierającego owalną poprzeczkę otoczonego płaskim dyskiem zbudowanym z gazu, pyłu i gwiazd. Dysk składa się z czterech ramion spiralnych, a jego średnica wynosi około 120 tys. lat świetlnych. Układ Słoneczny znajduje się wewnątrz dysku w odległości około 27 tys. lat świetnych od centrum Galaktyki. Dlatego gwiazdy dysku oglądane z tego miejsca wyglądają na niebie jak cienka, blada poświata – pas Drogi Mlecznej.
      Aktualna wiedza dotycząca budowy Galaktyki opiera się m. in. na zliczeniach gwiazd, radiowych badaniach rozmieszczenia cząsteczek gazu w Galaktyce, a także analizie obrazów innych galaktyk, które widzimy z zewnątrz. Jednak zawsze dotąd odległości do badanych obiektów mających opisać budowę Galaktyki wyznaczane były pośrednio oraz były mocno zależne od przyjętych modeli. Najdokładniejszą metodą poznania struktury Galaktyki byłoby więc wyznaczenie precyzyjnych odległości do dużej grupy gwiazd o podobnych własnościach, dzięki czemu zobaczylibyśmy bezpośrednio ich rozmieszczenie w Galaktyce w trzech wymiarach.
      Obiektami idealnymi do mapowania Drogi Mlecznej są stosunkowo młode (młodsze niż 250 mln lat) gwiazdy zwane cefeidami klasycznymi. Są to pulsujące nadolbrzymy, których jasność zmienia się w bardzo regularny sposób z okresem od kilkunastu godzin do kilkudziesięciu dni.
      Na podstawie okresu pulsacji możemy wyznaczyć jasność rzeczywistą cefeidy i porównując ją z jasnością obserwowaną gwiazdy obliczamy precyzyjnie jej odległość – objaśnia dr Dorota Skowron, liderka zespołu przygotowującego mapę Galaktyki, pierwsza autorka pracy. Pewnym utrudnieniem w uzyskaniu dokładnych wyników jest pochłanianie światła na drodze od gwiazdy do obserwatora ziemskiego, ale astronomowie radzą sobie z tym problemem przez wykonywanie obserwacji w zakresie promieniowania podczerwonego, gdzie pochłanianie jest bardzo małe. Odległości do cefeid można wyznaczyć z dokładnością lepszą niż 5% – dodaje.
      Unikatowa mapa Drogi Mlecznej
      Najnowsza mapa Galaktyki zespołu OGLE prezentowana w czasopiśmie Science powstała na podstawie danych dotyczących ponad 2400 cefeid. Większość z nich to nowo odkryte obiekty dzięki obserwacjom prowadzonym w ramach projektu OGLE, w Obserwatorium Las Campanas w Chile.
      Projekt OGLE to jeden z największych na świecie przeglądów fotometrycznych nieba, obserwuje regularnie ponad dwa miliardy gwiazd. Kolekcje różnorodnych typów gwiazd zmiennych, w tym cefeid z Galaktyki i sąsiednich Obłoków Magellana, należą do największych we współczesnej astrofizyce i są podstawą do różnorodnych badań Wszechświata – wyjaśnia kierownik projektu OGLE, prof. Andrzej Udalski.
      Skonstruowana na podstawie analizowanych cefeid mapa pokazuje rzeczywiste rozmieszczenie młodej populacji gwiazdowej w Galaktyce. Jest to pierwsza trójwymiarowa mapa stworzona na podstawie bezpośrednich odległości wyznaczonych do poszczególnych obiektów. Precyzyjnie wyznaczone odległości cefeid wypełniających dysk galaktyczny, aż po jego krańce, umożliwiają dokładną analizę budowy dysku galaktycznego. Słońce znajduje się około 50 lat świetlnych powyżej płaszczyzny dysku. Mapa pokazuje, że dysk galaktyczny jest płaski do odległości 25 tys. lat świetlnych od centrum Galaktyki, a w dalszych odległościach ulega zakrzywieniu (disk warp).
      Zakrzywienie dysku podejrzewano już wiele lat temu, ale dopiero teraz po raz pierwszy możemy użyć indywidualnych obiektów do badania jego kształtu w trzech wymiarach – wyjaśnia Przemek Mróz, doktorant UW, badający parametry dysku Galaktyki. Gwiazdy w zewnętrznych częściach dysku Drogi Mlecznej mogą być przesunięte nawet o 4,5 tys. lat świetlnych od płaszczyzny dysku wyznaczonej w centralnych rejonach Galaktyki. Zakrzywienie dysku może być spowodowane oddziaływaniami z innymi galaktykami, wpływem gazu międzygalaktycznego lub tzw. ciemnej materii.
      Dysk galaktyczny nie ma stałej grubości. Rozszerzanie dysku (disk flaring) zostało w przypadku młodej populacji gwiazd Galaktyki po raz pierwszy tak dokładnie scharakteryzowane. Grubość dysku galaktycznego wynosi około 500 lat świetlnych w odległości Słońca i osiąga ponad 3 tys. na samych krańcach dysku.
      Wyznaczenie precyzyjnych odległości do tak licznej próbki cefeid w połączeniu z pomiarami ich prędkości z satelity Gaia umożliwiły również skonstruowanie dokładnej krzywej rotacji Galaktyki – zależności prędkości orbitalnej gwiazd wokół centrum Galaktyki od ich odległości od środka.
      Nasza krzywa rotacji Galaktyki sięga daleko poza zakres dotychczasowych badań i potwierdza stałą prędkość orbitalną gwiazd, praktycznie aż do granic dysku – dodaje Przemek Mróz. Taki jej kształt jest jednym z podstawowych argumentów na rzecz istnienia tzw. ciemnej materii w Galaktyce.
      Wiek cefeid skorelowany jest z ich okresem pulsacji. Na tej podstawie można wykonać tomografię wieku cefeid z Galaktyki. Okazuje się, że szereg wyraźnych struktur widocznych na mapie ma podobny wiek. Cefeidy młodsze znajdują się bliżej centrum Galaktyki, a najstarsze na jej krańcach.
      Zbliżony wiek struktur wskazuje, że musiały one powstać w podobnym momencie w przeszłości, w jednym z ramion spiralnych Galaktyki. Ich dzisiejsze rozmieszczenie w dysku i częściowe rozmycie jest wynikiem różnej prędkości rotacji w Galaktyce ramion spiralnych (gazowych struktur, w których młode gwiazdy, m.in. cefeidy, powstają) oraz rotacji gwiazd – zauważa dr Jan Skowron, współautor pracy w tygodniku Science.
      Aby przetestować tę hipotezę, skonstruowany został prosty model powstawania poszczególnych struktur. W ramiona spiralne Galaktyki wstawiono epizody formowania się gwiazd w różnych momentach w przeszłości i powstającym gwiazdom przypisano typowe ruchy własne oraz prędkość rotacji. Sprawdzano jak powstające miliony lat temu we fragmentach ramion spiralnych cefeidy będą usytuowane w dzisiejszej Galaktyce.
      Symulowane i obserwowane struktury w Galaktyce są uderzająco podobne. Możemy więc stwierdzić, że nasz model historii dysku galaktycznego jest możliwy i jest w stanie objaśnić dzisiejsze struktury jakie w nim widzimy – podsumowuje wyniki modelowania dr Jan Skowron.
       


      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...