Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Poszukiwanie miejsca parkingowego w centrum zatłoczonego miasta może często trwać dłużej, niż sam dojazd to niego. Kierowcy, krążący w poszukiwaniu miejsca, w którym pozostawią samochód, przyczyniają się do zwiększenia i tak już dużych korków.

Naukowcy z Rutgers University, Marco Gruteser i Wade Trappe, mają pomysł, jak rozwiązać ten problem. W ramach eksperymentu wyposażyli oni trzy samochody w ultradźwiękowe czujniki odległości umieszczone na drzwiach pasażera oraz odpowiednie algorytmy, szacujące mierzone odległości, rozpoznające obiekty i poszukujące w ten sposób wolnych miejsc parkingowych.  Dwumiesięczne badania prowadzone w New Jersey wykazały, że w 95% przypadków system dobrze rozpoznał wolne miejsca. Naukowcy połączyli też dane zebrane z czujników z GPS-em i stworzyli w ten sposób mapę wolnych miejsc parkingowych. Dokładność uzyskanych danych wynosiła 90%. Upowszechnienie tego typu systemu może znacząco zmniejszyć korki w wielkich miastach. Badania prowadzone w Nowym Jorku przez grupę Transportation Alternatives wykazały, że na Manhattanie aż 45% ruchu generują kierowcy, którzy krążą w poszukiwaniu wolnego miejsca parkingowego. Jeśli udałoby się upowszechnić system Grutesera i Trappe, kierowcy mogliby na bieżąco otrzymywać informacje o najbliższych wolnych miejscach parkingowych.

Poszukiwanie miejsca do zaparkowania to nie tylko problem kierowcy, który traci czas, oraz miasta zatykanego przez korki. Już w 2006 roku profesor Donald Shoup, który specjalizuje się w planowaniu miejskim, wyliczył, że w jednej tylko niewielkiej biznesowej dzielnicy Los Angeles samochody, które jeździły w poszukiwaniu miejsca do zaparkowania spaliły w ciągu roku 178 000 litrów paliwa, emitując do atmosfery 730 ton dwutlenku węgla.

Problem zauważyły też władze wielu miast. San Francisco wydało miliony dolarów na system czujników umieszczanych w asfalcie i parkometrach, który informuje o wolnych miejscach. Jednak tego typu systemy są niezwykle drogie i są instalowane na płatnych i oficjalnie wyznaczonych miejscach parkingowych. Całkowicie pomijają zatem te miejsca, w których parkowanie jest dozwolone, ale nie nadzorowane przez władze. Dlatego też np. we wspomnianym już San Francisco opomiarowano w ten sposób jedynie 6000 miejsc parkingowych, czyli 25% dostępnego miejsca. Średni koszt zainstalowania czujników dla pojedynczego miejsca i ich utrzymania przez rok po instalacji wynosi 500 USD.

Wynalazek uczonych z Rutgers University pozwala na znacznie tańsze wyszukiwanie wolnych miejsc i działa zarówno w przypadku parkingów wyznaczonych jak i tych nieoficjalnych. Koszt prototypowego systemu to 20 USD za czujnik ultradźwiękowy, 100 dolarów za GPS. Do tego należy doliczyć koszt komputera i łącza Wi-Fi oraz centralnego serwera zbierającego i przetwarzającego dane.

Co więcej, uczeni wpadli na pomysł, że tego typu system można by zainstalować w taksówkach czy wozach policyjnych. Po przeanalizowaniu ruchu taksówek wyliczyli, że wystarczy wyposażyć 300 z nich w czujniki, dzięki czemu za kwotę 200 000 dolarów można stworzyć aktualizowaną w czasie rzeczywistym mapę wolnych miejsc parkingowych w śródmieściu San Francisco.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Im więcej ludzi mieszka w mieście, tym bogatsza jest jego elita i tym większe nierówności społeczne, informują naukowcy z Instytutu Geoantropologii im. Maxa Plancka (MPI-GEA). Uczeni odkryli istnienie tego typu korelacji zarówno w miastach starożytnego Rzymu, jak i we wspólczesnych metropoliach. A wyniki ich analizy sugerują, że nierówności są wpisane w samo środowisko miejskie oraz proces rozrastania się miasta, niezależnie od kultury czy okresu historycznego.
      Nierówności, jakie widać w miastach każdego okresu historycznego kazały naukowcom zadać sobie pytanie, czy jest to przypadek czy też mają one jakieś głębsze przyczyny. Uczeni z MPI-GEA znaleźli uderzające podobieństwa ilościowe pomiędzy miastami starożytnymi a współczesnymi pod względem tego, jak powierzchnia miasta przekłada się na bogactwo jego elit. Wszystko wskazuje na to, że ten sam proces, który powoduje, że miasta są coraz bogatsze, przyczynia się do powstawania w nich nierówności.
      Nasze badania pokazują, że nierówności w miastach nie są czymś przypadkowym, co w nich występuje. To coś, co wraz z nimi się rozrasta według przewidywalnych wzorców związanych ze skalą miasta. Wygląda to tak, jakby nierówności nie były efektem ubocznym miasta rozwijającego się w konkretnych warunkach kulturowych czy gospodarczych, a były wbudowaną konsekwencją samego rozwoju miasta, mówi główny autor badań, Christopher Carleton.
      Uczeni przeanalizowali dane z miast Imperium Romanum i miast współczesnych, by sprawdzić, jak bogactwo, szczególnie bogactwo elit, zmienia się wraz z rozmiarami miasta. Dane dotyczące rzymskich miast brały pod uwagę liczbę pomników i dedykacji poświęconych patronom. W przypadku miast współczesnych brano pod uwagę zarówno bardzo wysokie budynki, jak Burj Khalifa czy Trump Tower, jak i liczbę miliarderów żyjących w danym mieście. Następnie za pomocą metod statystycznych badano związek pomiędzy rozmiarami miasta, a zamożnością elit.
      Analizy wykazały, że wraz ze powiększaniem się miasta, rośnie bogactwo jego elit, ale jest to wzrost podliniowy. Oznacza to, że w każdym kolejnym kroku wzrostu miasta elity bogacą się w coraz mniejszym stopniu. Innymi słowy, tempo akumulacji bogactwa przez elity spada w miarę rozwoju miasta.
      Czynniki wpływające na wzrost nierówności w miastach są więc bardziej skomplikowane, niż sądzono. Uczeni MPI-GEA rozszerzają obecnie swoje badania na kolejne obszary. Chcą na przykład sprawdzić, czy różne rodzaje planowania miasta miał różny wpływ na rozwój nierówności. Poszukują też historycznych przykładów miast w których udało się zapobiec wzrostowi nierówności i gdzie wszyscy mieszkańcy bogacili się w równym tempie warz z ich rozwojem.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Grupa naukowców przygotowała niezwykłą gratkę dla każdego miłośnika fantasy, map, folkloru czy historii. Interdyscyplinarny zespół złożony z etnografa, kartografa, historyka kartografii, pisarza, artysty grafika i informatyka stworzył ilustrowaną linorytami mapę potworów Pomorza. Na stylizowanej na renesansową mapie Pomeraniae Polonicae et Germanicae Phaenomena Supernaturalia Nova et Empla Descriptio Geographica przedstawiono XIX-wieczne wyobrażenia ludowe dotyczące występowania zmór, upiorów, wilkołaków czy duchów wodnych.
      Pracę rozpoczął doktor Robert Piotrowski z Zespołu Interdyscyplinarnych Badań Nad Antropocenem Instytutu Geografii i Przestrzennego Zagospodarowania (IGiPZ) PAN. Uczony przeanalizował prace polskich i niemieckich folklorystów, którzy na przełomie XIX i XX wieku badali opowieści ludowe mieszkańców Pomorza. Interesowały nas głównie lokalne opowieści o zdarzeniach niesamowitych powiązane z konkretnym miejscem. Np. podania wierzeniowe, w których wyobrażano sobie, że na tej konkretnej górze spotykają się czarownice, ten głaz został kiedyś rzucony przez olbrzyma, groblę na jeziorze zbudował diabeł albo na tym bagnie pojawiały się błędne ogniki. Połączenie kontekstu przyrodniczego i wierzeniowego pozwoliło odtworzyć sposób wartościowania krajobrazu wśród mieszkańców badanych regionów, stwierdził uczony.
      Za stworzenie mapy odpowiedzialny był doktor Włodzimierz Juśkiewicz z IGiPZ PAN. Wykorzystał nowoczesne metody i współczesną wiedzę, ale stwierdził, że mapa będzie bardziej atrakcyjna, jeśli nada się jej odpowiednią formę. A cóż mogłoby być lepsze niż jej stylizacja na mapę renesansową, kiedy to mapy traktowano też jak dzieła sztuki? Tym bardziej, że w renesansie na mapach przedstawiono potwory. Dawniej te potwory miały zapełniać białe plamy - na przykład wody lub miejsca na mapach, które nie były jeszcze do końca znane, wyjaśnia historyk kartografii, doktor Dariusz Brykała z PAN.
      W upiększeniu mapy pomógł amerykański pisarz fantasy K.M. Alexander, który od lat gromadzi symbole i elementy graficzne widoczne na starych mapach. Nie tylko udostępnił swój zbiór symboli, ale też wzbogacił go o różne bestie i potwory. Proces rozmieszczenia tych wielu drobnych elementów na mapie zautomatyzował student informatyki z Politechniki Gdańskiej Kacper Juśkiewicz, który pomógł też przy procesie generalizacji współczesnych materiałów kartograficznych w Geograficznym Systemie Informacyjnym.
      Ostateczny szlif mapie nadał doktor Jakub Jaszewski z UMK, który specjalizuje się w technikach wypukłodruku. Najpierw za pomocą narzędzi AI zaprojektował stylistykę i wygląd potworów. Na tej podstawie przygotowano matryce do 12 linorytów, na których widzimy diabła, smoka, zjawę, olbrzyma, błędne ogniki, zmorę, wilkołaka, ducha, skrzata, ducha domowego, syrenę i dziki gon. Techniki wypukłodruku były dość rzadko używane do tworzenia map, bo matryce drzeworytnicze potrafiły się niszczyć z czasem podczas druku. Kartografia relatywnie szybko zaczęła korzystać z technik wklęsłodrukowych (akwaforty, a potem miedziorytu), czyli technik, które pozwalają wybierać w metalowej matrycy kreskę i ją barwić, wyjaśnia w rozmowie z Polską Agencją Prasową doktor Jaszewski.
      Pod względem kompozycyjnym zespół inspirował się mapą Americae Nova Tabula z 1617 roku Willema Janszona Blaeu, która charakteryzuje bogactwo elementów graficznych i piękne kartusze. Jak zauważają sami twórcy mapy kartografia znacząco się rozwinęła w czasie renesansu. Mapy służyły wówczas nie tylko jako narzędzie, ale były też przedmiotem podziwu estetycznego i intelektualnego. Wykorzystywano je do zadziwienia oglądającego i pokazania wyrafinowania i wiedzy właściciela. Mapy były dziełami sztuki, jednym z rodzajów sztuki uprawianym we włoskim renesansie. Po tym okresie rozkwitu nastąpiła stopniowa zmiana i przeszły one od wyrażania wartości artystycznych po czystą funkcjonalność. [...] Dzisiaj obserwujemy odwrócenie tego trendu. [...] odrodzenie najwspanialszego okresu kartografii poprzez tworzenie różnych map, także tych, które naśladują styl renesansowy.
      Mapę można pobrać tutaj.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Międzynarodowe konsorcjum przedstawiło wyniki największego w historii badania mikrobiomu miejskiego. Projekt, w ramach którego zsekwencjonowano i przeanalizowano próbki pobrane w 60 miastach na całym świecie, zawiera kompleksową analizę i oznaczenie gatunkowe wszystkich zidentyfikowanych w próbkach drobnoustrojów. W badaniach uczestniczył dr hab. inż. Paweł Łabaj z Małopolskiego Centrum Biotechnologii UJ (MCB UJ).
      Każde miasto ma swój własny molekularny odcisk palca pochodzący od mikrobów, które je definiują. Na podstawie materiału zebranego z podeszwy buta, mógłbym stwierdzić z około 90-procentową dokładnością, z jakiego miasta pochodzi jego właściciel – mówi prof. Christopher Mason, główny autor publikacji, która wczoraj ukazała się w Cell, a towarzysząca mu praca w Microbiome.
      Badania oparte są na 4728 próbkach pobranych w ciągu 3 lat z miast na 6 kontynentach. Wyniki uwzględniają lokalne markery oporności na środki przeciwdrobnoustrojowe i stanowią pierwszy systematyczny, ogólnoświatowy katalog ekosystemu drobnoustrojów miejskich. Oprócz odrębnych „odcisków palca” mikrobiomów w różnych miastach, analiza ujawniła podstawowy zestaw 31 gatunków, które zostały znalezione w 97 proc. próbek z badanych obszarów miejskich. Badacze zidentyfikowali 4246 znanych gatunków mikroorganizmów miejskich, ale stwierdzili również, że dalsze pobieranie próbek będzie prowadzić do pojawienia się gatunków, które nigdy wcześniej nie zostały zaobserwowane. Odzwierciedla to niezwykły potencjał badań związanych z różnorodnością i funkcjami biologicznymi mikroorganizmów występujących w środowiskach miejskich.
      Projekt konsorcjum rozpoczął się w 2013 roku, kiedy prof. Christopher Mason zaczął zbierać i analizować próbki mikrobów w systemie nowojorskiego metra. Po publikacji pierwszych wyników skontaktowali się z nim badacze z całego świata, którzy chcieli wykonać podobne badania w swoich miastach. W 2015 roku światowe zainteresowanie zainspirowało prof. Masona do stworzenia międzynarodowego konsorcjum MetaSUB (Metagenomics and Metadesign of Subways and Urban Biomes). Jednym z pierwszych, którzy dołączyli, był dr hab. inż. Paweł Łabaj z MCB UJ, który wcześniej współpracował z amerykańskim uczonym w innych projektach. Jako wiodący członek Międzynarodowego Konsorcjum MetaSUB był najpierw głównym badaczem w Wiedniu, a obecnie w Krakowie. Kieruje również pracami europejskich partnerów konsorcjum w ramach założonego stowarzyszenia MetaSUB Europe Society.
      Głównym projektem konsorcjum jest global City Sampling Day (gCSD), który odbywa się co roku 21 czerwca. Kraków przystąpił do gCSD w 2020 roku, kiedy to wolontariusze pobrali wymazy na przystankach i w tramwajach z automatów biletowych, siedzeń, poręczy, uchwytów, zlokalizowanych na trasach linii tramwajowych 52, 50 i 14. Dodatkowe próbki zostały pobrane za pomocą próbnika powietrza w tunelach znajdujących się w okolicach dworca głównego. W tym roku akcja zostanie powtórzona, a na podstawie wyników z obu lat dr hab. inż. Paweł Łabaj i jego zespół zaprezentują mikrobiologiczny "odcisk palca" przestrzeni miejskiej Krakowa. Projekt nie byłby możliwy bez czynnej współpracy z Wydziałem ds. Przedsiębiorczości i Innowacji Urzędu Miasta Krakowa, Zarządem Transportu Publicznego w Krakowie i Miejskim Przedsiębiorstwem Komunikacyjnym w Krakowie.
      Konsorcjum MetaSUB prowadzi również inne szeroko zakrojone badania, w tym wykonało kompleksową analizę mikrobiologiczną powierzchni miejskich oraz populacji komarów przed, w trakcie i po Letnich Igrzyskach Olimpijskich w Rio de Janeiro w 2016 roku. Inny projekt, rozpoczęty w 2020 roku, koncentruje się na badaniu występowania SARS-CoV-2 i innych koronawirusów u kotów domowych. Planowany jest także projekt związany z olimpiadą w Tokio w 2021 roku. W związku z tym konsorcjum rozszerzyło swoją aktywność na pobieranie próbek z powietrza, wody i ścieków, a nie tylko z powierzchni twardych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W coraz większej liczbie polskich miast wykorzystuje się odnawialne źródła energii – zarówno w instalacjach miejskich, jak i na potrzeby domów wielorodzinnych. Najbardziej popularne są instalacje fotowoltaiczne, ale przyszłością jest też energia wiatrowa – mówi dr Aleksandra Lewandowska.
      Zespół naukowców z UMK w Toruniu przeanalizował 20 największych pod względem ludności polskich miast, m.in. Warszawę, Wrocław i Kraków pod kątem wykorzystania przez nie odnawialnych źródeł energii (OZE). Jej użycie wpisuje się w koncepcję tzw. smart city.
      Smart city jest pojęciem wieloaspektowym, łączy szereg różnego rodzaju zagadnień, jednym z nich jest inteligentna sieć energetyczna, w której skład wchodzi wykorzystanie OZE – opowiada dr Aleksandra Lewandowska z Katedry Studiów Miejskich i Rozwoju Regionalnego UMK w Toruniu.
      Wykorzystanie OZE w mieście ma poprawić stan środowiska metropolii i jednocześnie jakość życia jego mieszkańców.
      Naukowcy ustalili, że tylko pięć badanych miast posiada szerszą strategię tworzenia smart city. Jednak informacje o wykorzystaniu OZE i chęci wdrażania takich rozwiązań pojawiają się w planach gospodarki niskoemisyjnej w większości z nich. Tego typu dokumenty są obligatoryjne – zauważa badaczka.
      Dr Lewandowska mówi, że co prawda z analizy dokumentów wyłania się dość optymistyczny obraz dotyczący wykorzystania OZE w miastach, to praktyka jest nieco mniej kolorowa.
      Miasta stawiają przede wszystkim na rozwiązania, które cieszą się sporym poparciem społecznym. Dlatego teraz koncentrują się głównie na walce z kopciuchami – podkreśla. Jednocześnie zauważa, że w taki ekologiczny trend wpisuje się wykorzystanie OZE i organizacje społeczne również wywierają presje na włodarzach miast w kwestii ich jak najszerszego wykorzystania. W jej ocenie miasta powinny postawić na większą promocję OZE: zachęty wśród mieszkańców np. w postaci rekompensat. Ciągle brakuje funduszy na te cele – zauważa.
      Wśród analizowanych miast najbardziej widoczne są małoskalowe inwestycje OZE – wynika z obserwacji naukowców. Są to na przykład ławki, parkometry i latarnie uliczne z panelami fotowoltaicznymi. Tego typu rozwiązania są najprostsze do wdrożenia, bo nie wymagają wprowadzania zmian z istniejącej sieci energetycznej – podkreśla.
      Za nadal niedocenioną kategorię OZE w miastach Lewandowska uznaje energię wiatrową. W jej ocenie niewielkie instalacje tego typu z powodzeniem mogłyby działać na szczytach wysokich budynków.
      Ekspertka zapytana o ocenę dotychczasowych instalacji OZE w miastach podkreśla, że nadal ich skala nie jest duża. Każda inwestycja w tego typu źródła energii jest godna pochwały, bo wskazuje właściwy trend. Każda, nawet najmniejsza inwestycja w OZE przyczynia się do poprawy stanu środowiska. Miasto to żyjący organizm i w holistycznej perspektywie wszystkie tego typu działania mają znaczenie – zaznacza.
      Lewandowska mówi, że inwestowanie w OZE zwraca się coraz szybciej. Teraz należy mówić o kwestii 5–10 lat, bo technologie tego typu w ostatnim czasie staniały. Ich rzekoma kosztowność to utarty mit – uważa.
      Podczas gdy na wsi i na przedmieściach widoczny jest coraz szerszy trend wykorzystania paneli fotowoltaicznych na domach jednorodzinnych, inaczej jest w przypadku miast – głównie ze względu na inny typ architektury.
      Jednak instalacje tego typu pojawiają się coraz częściej w ramach nowo tworzonych osiedli wielorodzinnych. Zwykle panele zasilają oświetlenie części wspólnych. Modne jest bycie eko, więc deweloperzy grają tą kartą – opowiada ekspertka.
      Ekspertka konkluduje, że Polska nie odstaje pod względem wykorzystania OZE w miastach od naszych południowych sąsiadów – Czech czy Słowacji. Idziemy w dobrym kierunku, ale na przykład do Niemiec ciągle nam pod tym względem daleko – kończy.
      Wniosku z analizy toruńskich badaczy ukazały się w periodyku "Energies". Jego współautorami, oprócz dr Lewandowskiej są również dr hab. Justyna Chodkowska–Miszczuk, dr hab. inż. Krzysztof Rogatka i inż. Tomasz Starczewski.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Pewnego dnia będziemy mogli monitorować stan swojego zdrowia używając do tego celu... ołówka i rysując nim urządzenie bioelektroniczne. Tak przynajmniej obiecują naukowcy z University of Missouri, którzy dowiedli, że ołówek i kawałek papieru to wszystko, czego potrzeba, by stworzyć urządzenie do monitorowania stanu zdrowia.
      Profesor Zheng Yan zauważa, że wiele komercyjnych urządzeń biomedycznych umieszczanych na skórze składa się z dwóch podstawowych elementów: modułu biomedycznego oraz stanowiącego podłoże elastycznego materiału, który zapewnia mocowanie do skóry i kontakt z nią.
      Standardowy sposób produkcji takich urządzeń jest złożony i kosztowny. W przeciwieństwie do tego nasza technika jest tania i bardzo prosta. Możemy stworzyć takie urządzenie za pomocą papieru i ołówka, mówi Yan.
      Warto pamiętać, że wkład ołówków stanowi głównie grafit. Naukowcy zauważyli, że ołówki zawierające ponad 90% grafitu są w stanie przewodzić duże ilości energii, jaka powstaje w wyniku tarcia rysika o papier. Szczegółowe badania wykazały, że do stworzenia na papierze różnych urządzeń biomedycznych najlepsze są ołówki, w których rysiku jest 93% grafitu. Yan zauważył też, że pomocny może być biokompatybilny klej w spraju, który można nałożyć na papier, by lepiej przylegał do skóry.
      Naukowcy mówią, że ich odkrycie może mieć olbrzymie znaczenie dla rozwoju taniej, domowej diagnostyki medycznej, edukacji czy badań naukowych. Na przykład jeśli ktoś ma problemy ze snem, jesteśmy w stanie narysować biomedyczne urządzenie, które pomoże monitorować sen tej osoby, stwierdza Yan. Dodatkową zaletą takich urządzeń jest fakt, że papier bardzo szybko ulega biodegradacji, więc produkcja tego typu czujników nie będzie wiązała się z wytwarzaniem zalegających odpadów.
      Autorzy badań twierdzą, że w ten sposób można będzie tworzyć czujniki temperatury, czynności elektrycznej mięśni i nerwów obwodowych, pracy układu krążenia, czujniki oddechu, urządzenia monitorujące pH potu, zawartość w nim glukozy czy kwasu moczowego i wiele innych urządzeń. Jakość przekazywanych przez nie sygnałów jest porównywalna z komercyjnie dostępnymi czujnikami. Całość zaś zasilana będzie dzięki wilgoci obecnej w powietrzu. Jak zauważyli naukowcy, pojedyncze narysowane ołówkiem urządzenie o powierzchni 0,87 cm2 może dzięki wilgotności powietrza generować przez 2 godziny napięcie sięgające 480 mV.
      Opisujący badania Yana artykuł Pencil-paper on-skin electronics został opublikowany w PNAS. Badania były finansowane przez amerykańską Narodową Fundację Nauki, Narodowe Instytuty Zdrowia oraz Biuro Badań Naukowych Sił Powietrznych.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...