Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Ekspertka: odnawialne źródła energii coraz bardziej popularne w polskich miastach

Rekomendowane odpowiedzi

W coraz większej liczbie polskich miast wykorzystuje się odnawialne źródła energii – zarówno w instalacjach miejskich, jak i na potrzeby domów wielorodzinnych. Najbardziej popularne są instalacje fotowoltaiczne, ale przyszłością jest też energia wiatrowa – mówi dr Aleksandra Lewandowska.

Zespół naukowców z UMK w Toruniu przeanalizował 20 największych pod względem ludności polskich miast, m.in. Warszawę, Wrocław i Kraków pod kątem wykorzystania przez nie odnawialnych źródeł energii (OZE). Jej użycie wpisuje się w koncepcję tzw. smart city.

Smart city jest pojęciem wieloaspektowym, łączy szereg różnego rodzaju zagadnień, jednym z nich jest inteligentna sieć energetyczna, w której skład wchodzi wykorzystanie OZE – opowiada dr Aleksandra Lewandowska z Katedry Studiów Miejskich i Rozwoju Regionalnego UMK w Toruniu.

Wykorzystanie OZE w mieście ma poprawić stan środowiska metropolii i jednocześnie jakość życia jego mieszkańców.

Naukowcy ustalili, że tylko pięć badanych miast posiada szerszą strategię tworzenia smart city. Jednak informacje o wykorzystaniu OZE i chęci wdrażania takich rozwiązań pojawiają się w planach gospodarki niskoemisyjnej w większości z nich. Tego typu dokumenty są obligatoryjne – zauważa badaczka.

Dr Lewandowska mówi, że co prawda z analizy dokumentów wyłania się dość optymistyczny obraz dotyczący wykorzystania OZE w miastach, to praktyka jest nieco mniej kolorowa.

Miasta stawiają przede wszystkim na rozwiązania, które cieszą się sporym poparciem społecznym. Dlatego teraz koncentrują się głównie na walce z kopciuchami – podkreśla. Jednocześnie zauważa, że w taki ekologiczny trend wpisuje się wykorzystanie OZE i organizacje społeczne również wywierają presje na włodarzach miast w kwestii ich jak najszerszego wykorzystania. W jej ocenie miasta powinny postawić na większą promocję OZE: zachęty wśród mieszkańców np. w postaci rekompensat. Ciągle brakuje funduszy na te cele – zauważa.

Wśród analizowanych miast najbardziej widoczne są małoskalowe inwestycje OZE – wynika z obserwacji naukowców. Są to na przykład ławki, parkometry i latarnie uliczne z panelami fotowoltaicznymi. Tego typu rozwiązania są najprostsze do wdrożenia, bo nie wymagają wprowadzania zmian z istniejącej sieci energetycznej – podkreśla.

Za nadal niedocenioną kategorię OZE w miastach Lewandowska uznaje energię wiatrową. W jej ocenie niewielkie instalacje tego typu z powodzeniem mogłyby działać na szczytach wysokich budynków.

Ekspertka zapytana o ocenę dotychczasowych instalacji OZE w miastach podkreśla, że nadal ich skala nie jest duża. Każda inwestycja w tego typu źródła energii jest godna pochwały, bo wskazuje właściwy trend. Każda, nawet najmniejsza inwestycja w OZE przyczynia się do poprawy stanu środowiska. Miasto to żyjący organizm i w holistycznej perspektywie wszystkie tego typu działania mają znaczenie – zaznacza.

Lewandowska mówi, że inwestowanie w OZE zwraca się coraz szybciej. Teraz należy mówić o kwestii 5–10 lat, bo technologie tego typu w ostatnim czasie staniały. Ich rzekoma kosztowność to utarty mit – uważa.

Podczas gdy na wsi i na przedmieściach widoczny jest coraz szerszy trend wykorzystania paneli fotowoltaicznych na domach jednorodzinnych, inaczej jest w przypadku miast – głównie ze względu na inny typ architektury.

Jednak instalacje tego typu pojawiają się coraz częściej w ramach nowo tworzonych osiedli wielorodzinnych. Zwykle panele zasilają oświetlenie części wspólnych. Modne jest bycie eko, więc deweloperzy grają tą kartą – opowiada ekspertka.

Ekspertka konkluduje, że Polska nie odstaje pod względem wykorzystania OZE w miastach od naszych południowych sąsiadów – Czech czy Słowacji. Idziemy w dobrym kierunku, ale na przykład do Niemiec ciągle nam pod tym względem daleko – kończy.

Wniosku z analizy toruńskich badaczy ukazały się w periodyku "Energies". Jego współautorami, oprócz dr Lewandowskiej są również dr hab. Justyna Chodkowska–Miszczuk, dr hab. inż. Krzysztof Rogatka i inż. Tomasz Starczewski.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Wendelstein 7-X, największy stellarator na świecie, pobił światowy rekord w kluczowym parametrze fuzji jądrowej, potrójnym iloczynie (triple product). Stellaratory to, po tokamakach, najbardziej popularna architektura reaktorów fuzyjnych. Oba rodzaje mają swoje wady i zalety, jednak stellaratory są trudniejsze do zbudowania, dlatego też świat skupia się głównie na tokamakach. Obecnie istnieje około 50 tokamaków i 10 stellaratorów.
      Znajdujący się w Greifswald w Niemczech Wendelstein 7-X został wybudowany przez Instytut Fizyki Plazmy im. Maxa Plancka. Zainwestowała w niego też Polska. Przed dwoma tygodniami, 22 maja zakończyła się tam kampania badawcza OP 2.3. W ostatnim dniu jej trwania międzynarodowy zespół pracujący przy W7-X utrzymał nową rekordową wartość potrójnego iloczynu przez 43 sekundy. Tym samym przebił najlepsze osiągnięcia tokamaków.
      Dlaczego potrójny iloczyn jest tak ważny?
      Potrójny iloczyn to jeden z kluczowych elementów opisujących wydajność i warunki potrzebne do osiągnięcia zapłonu, czyli do samopodtrzymującej się reakcji fuzji jądrowej. Jest to iloczyn trzech wielkości: gęstości plazmy (n), jej temperatury (T) oraz czasu uwięzienia energii w plazmie (τE). Żeby reakcja fuzji jądrowej była efektywna i samowystarczalna, potrójny iloczyn musi osiągnąć lub przekroczyć pewną minimalną wartość. W praktyce oznacza to konieczność osiągnięcia odpowiedniej temperatury plazmy, która jest konieczna do pokonania sił odpychających jądra atomów od siebie, osiągnięcia wysokiej gęstości, co zwiększa szanse na zderzenia między jądrami oraz osiągnięcia długiego czasu uwięzienia energii, gdyż jeśli energia ucieka zbyt szybko, plazma się schładza. Po przekroczeniu wartości granicznej iloczynu reakcja fuzji zaczyna samodzielnie się podtrzymywać, bez konieczności dogrzewania plazmy z zewnątrz.
      Dotychczas minimalną wartość potrójnego iloczynu przekroczono – zatem osiągnięto zapłon – jedynie w impulsowym inercyjnym reaktorze laserowym NIF. O osiągnięciu tym było głośno przed ponad dwoma laty. Pisaliśmy o tym w tekście Fuzja jądrowa: co tak naprawdę osiągnięto w National Ignition Facility?
      Rekordowy stellarator pokonał tokamaki
      Tokamaki są prostsze w budowie i łatwiej w nich osiągnąć wysoką temperaturę plazmy. W bardziej skomplikowanych stellaratorach łatwiej zaś plazmę ustabilizować. Tokamaki są więc bardziej popularne wśród badaczy. Stellaratory pozostają w tyle, ale w ostatnich latach dokonano w badaniach nad nimi kilku znaczących przełomów, o których wcześniej informowaliśmy.
      Czytaj:
      Jak załatać magnetyczną butelkę? Rozwiązano problem, który od 70 lat trapił fuzję jądrową
      Duży krok naprzód w dziedzinie fuzji jądrowej. Stellaratory mogą wyjść z cienia tokamaków 
      Najwyższymi osiągnięciami potrójnego iloczynu wśród tokamaków mogą pochwalić się japoński JT60U (zaprzestał pracy w 2008 roku) i europejski JET w Wielkiej Brytanii (zaprzestał pracy w 2023 r.). Oba na kilka sekund zbliżyły się do minimalnej wartości granicznej. W7-X wydłużył ten czas do 43 sekund. Pamiętamy, co prawda, że niedawno Chińczycy pochwalili się utrzymaniem reakcji przez ponad 1000 sekund, jednak nie podali wartości potrójnego iloczynu, zatem nie wiemy, czy ten kluczowy parametr został osiągnięty.
      Klucz do sukcesu: wstrzykiwanie kapsułek z wodorem
      Kluczem do sukcesu W7-X było nowe urządzenie zasilające plazmę w paliwo, które specjalnie na potrzeby tego stellaratora zostało zbudowane prze Oak Ridge National Laboratory w USA. Urządzenie schładza wodór tak bardzo, że staje się on ciałem stałym, następnie tworzy z niego kapsułki o średnicy 3 mm i długości 3,2 mm i wystrzeliwuje je w kierunki plazmy z prędkością 300 do 800 metrów na sekundę. W ten sposób reakcja jest wciąż zasilana w nowe paliwo. W ciągu wspomnianych 43 sekund urządzenie wysłało do plazmy około 90 kapsułek. Dzięki precyzyjnej koordynacji grzania plazmy i wstrzeliwania kapsułek możliwe było uzyskanie optymalnej równowagi pomiędzy ogrzewaniem, a dostarczaniem paliwa. Podczas opisywanego przez nas eksperymentu temperatura plazmy została podniesiona do ponad 20 milionów stopni Celsjusza, a chwilowo osiągnęła 30 milionów stopni.
      Ponadto wśród ważnych osiągnięć kampanii OP 2.3 warto wspomnieć o tym, że po raz pierwszy w całej objętości plazmy ciśnienie plazmy wyniosło 3% ciśnienia magnetycznego. Podczas osobnych eksperymentów ciśnienie magnetyczne obniżono do około 70%, pozwalając wzrosnąć ciśnieniu plazmy. Ocenia się, że w reaktorach komercyjnych ciśnienie plazmy w całej jej objętości będzie musiało wynosić 4–5% ciśnienia magnetycznego. Jednocześnie szczytowa temperatura plazmy wzrosła do około 40 milionów stopni Celsjusza.
      Rekordy pobite podczas naszych eksperymentów to znacznie więcej niż cyfry. To ważny krok w kierunku zweryfikowania przydatności samej idei stellaratorów, posumował profesor Robert Wolf, dyrektor wydziału Optymalizacji i Grzania Stellaratora w Instytucie Fizyki Plazmy im. Maxa Plancka.
      Czym jest fuzja jądrowa
      Fuzja jądrowa – reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii w tym procesie. Taki proces produkcji energii ma bardzo dużo zalet. Nie dochodzi do uwalniania gazów cieplarnianych. Na Ziemi są olbrzymie zasoby i wody, i litu, z których można pozyskać paliwo do fuzji, czyli, odpowiednio, deuter i tryt. Wystarczą one na miliony lat produkcji energii. Fuzja jądrowa jest bowiem niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów.
      Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. Nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. Fuzja jądrowa to jednak bardzo delikatny proces, który musi przebiegać w ściśle określonych warunkach. Każde ich zakłócenie powoduje, że plazma ulega schłodzeniu w ciągu kilku sekund i reakcja się zatrzymuje.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      We Wrocławskim Centrum Sieciowo-Superkomputerowym Politechniki Wrocławskiej uruchomiono pierwszy w Polsce i Europie Środkowo-Wschodniej komputer kwantowy, który wykorzystuje kubity nadprzewodzące w niskiej temperaturze. Maszyna Odra 5 została zbudowana przez firmę IQM Quantum Computers. Posłuży do badań w dziedzinie informatyki, dzięki niej powstaną nowe specjalizacje, a docelowo program studiów w dziedzinie informatyki kwantowej.
      Odra 5 korzysta z 5 kubitów. Waży 1,5 tony i ma 3 metry wysokości. Zwisający w sufitu metalowy walec otacza kriostat, który utrzymuje temperaturę roboczą procesora wynoszącą 10 milikelwinów (-273,14 stopnia Celsjusza).
      Rektor Politechniki Wrocławskiej, profesor Arkadiusz Wójs przypomniał, że sam jest fizykiem kwantowym i zajmował się teoretycznymi obliczeniami na tym polu. Idea, żeby w ten sposób prowadzić obliczenia, nie jest taka stara, bo to lata 80. XX w., a teraz minęło kilka dekad i na Politechnice Wrocławskiej mamy pierwszy komputer kwantowy nie tylko w Polsce, ale też
      w tej części Europy. Oby się po latach okazało, że to start nowej ery obliczeń kwantowych, stwierdził rektor podczas uroczystego uruchomienia Odry 5.
      Uruchomienie komputera kwantowego to ważna chwila dla Wydziału Informatyki i Telekomunikacji Politechniki Wrocławskiej. Jego dziekan, profesor Andrzej Kucharski, zauważył, że maszyna otwiera nowe możliwości badawcze, a w przyszłości rozważamy również uruchomienie specjalnego kierunku poświęconego informatyce kwantowej. Powstało już nowe koło naukowe związane z kwestią obliczeń kwantowych, a jego utworzenie spotkało się z ogromnym zainteresowaniem ze strony studentów. Mamy niepowtarzalną okazję znalezienia się w awangardzie jeśli chodzi o badania i naukę w tym zakresie i mam nadzieję, że to wykorzystamy.
      Odra 5 będzie współpracowała z czołowymi ośrodkami obliczeń kwantowych. Dzięki niej Politechnika Wrocławska zyskała też dostęp do 20- i ponad 50-kubitowych komputerów kwantowych stojących w centrum firmy IQM w Finlandii.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Polne kwiaty, sadzone w miastach w miejscach, w których wcześniej znajdowały się budynki mieszkalne czy przemysłowe, mogą być niebezpieczne dla pszczół i innych zapylaczy. Okazuje się bowiem, że mogą one akumulować ołów, arsen i inne metale ciężkie z gleby. Nektar z takich kwiatów szkodzi owadom, prowadząc do ich śmierci i zmniejszenia populacji. Nawet niewielkie ilości metali ciężkich w nektarze mogą negatywnie wpływać na mózgi pszczół, zmniejszając ich umiejętności uczenia się i zapamiętywania, które są niezbędne przy zdobywaniu żywności.
      Sarah B. Scott z University of Cambridge oraz Mary M. Gardiner z Ohio State University zauważyły, że takie rośliny jak koniczyna biała czy powój, posadzone w miastach w miejscach byłych budynków, narażają pszczoły na kontakt z niebezpiecznym chromem, kadmem, ołowiem czy arsenem. Gleba miast na całym świecie jest zanieczyszczona metalami ciężkimi, a poziom zanieczyszczeń jest zwykle tym większy, im starsze jest miasto. Metale pochodzą z wielu różnych źródeł, w tym z cementu.
      Autorki badań uważają zatem, że jeśli chcemy zdegradowane tereny miejskie zwracać naturze, najpierw warto przeprowadzić badania gleby i dostosować gatunki roślin do zanieczyszczeń. Czasami konieczne będzie wcześniejsze oczyszczenie gleby.
      Polne kwiaty są bardzo ważnym źródłem pożywienia dla pszczół i naszym celem nie jest zniechęcanie ludzi do ich siania w miastach. Mamy nadzieję, że dzięki naszym badaniom ludzie zdadzą sobie sprawę, że jakość gleby również jest ważna dla zdrowia pszczół. Zanim zasiejemy w mieście kwiaty, by przyciągnąć pszczoły i innych zapylaczy, warto zastanowić się nad historią miejsca, gdzie mają żyć rośliny i nad tym, co może znajdować się w glebie. A tam, gdzie to konieczne, warto przeprowadzić badania i oczyścić glebę, mówi doktor Scott.
      W ramach swoich badań uczone przyjrzały się terenom poprzemysłowym w Cleveland. Zebrały nektar z kwiatów wielu roślin, które przyciągają zapylaczy, i przetestowały go pod kątem obecności arsenu, kadmu, chromu i ołowiu.
      Badaczki zauważyły, że różne rośliny różnie akumulują metale. Ich największe stężenie występowało w kwiatach cykorii podróżnik, następne na liście były koniczyna biała, marchew zwyczajna i powój. To niezwykle ważne rośliny dla miejskich zapylaczy.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Im więcej ludzi mieszka w mieście, tym bogatsza jest jego elita i tym większe nierówności społeczne, informują naukowcy z Instytutu Geoantropologii im. Maxa Plancka (MPI-GEA). Uczeni odkryli istnienie tego typu korelacji zarówno w miastach starożytnego Rzymu, jak i we wspólczesnych metropoliach. A wyniki ich analizy sugerują, że nierówności są wpisane w samo środowisko miejskie oraz proces rozrastania się miasta, niezależnie od kultury czy okresu historycznego.
      Nierówności, jakie widać w miastach każdego okresu historycznego kazały naukowcom zadać sobie pytanie, czy jest to przypadek czy też mają one jakieś głębsze przyczyny. Uczeni z MPI-GEA znaleźli uderzające podobieństwa ilościowe pomiędzy miastami starożytnymi a współczesnymi pod względem tego, jak powierzchnia miasta przekłada się na bogactwo jego elit. Wszystko wskazuje na to, że ten sam proces, który powoduje, że miasta są coraz bogatsze, przyczynia się do powstawania w nich nierówności.
      Nasze badania pokazują, że nierówności w miastach nie są czymś przypadkowym, co w nich występuje. To coś, co wraz z nimi się rozrasta według przewidywalnych wzorców związanych ze skalą miasta. Wygląda to tak, jakby nierówności nie były efektem ubocznym miasta rozwijającego się w konkretnych warunkach kulturowych czy gospodarczych, a były wbudowaną konsekwencją samego rozwoju miasta, mówi główny autor badań, Christopher Carleton.
      Uczeni przeanalizowali dane z miast Imperium Romanum i miast współczesnych, by sprawdzić, jak bogactwo, szczególnie bogactwo elit, zmienia się wraz z rozmiarami miasta. Dane dotyczące rzymskich miast brały pod uwagę liczbę pomników i dedykacji poświęconych patronom. W przypadku miast współczesnych brano pod uwagę zarówno bardzo wysokie budynki, jak Burj Khalifa czy Trump Tower, jak i liczbę miliarderów żyjących w danym mieście. Następnie za pomocą metod statystycznych badano związek pomiędzy rozmiarami miasta, a zamożnością elit.
      Analizy wykazały, że wraz ze powiększaniem się miasta, rośnie bogactwo jego elit, ale jest to wzrost podliniowy. Oznacza to, że w każdym kolejnym kroku wzrostu miasta elity bogacą się w coraz mniejszym stopniu. Innymi słowy, tempo akumulacji bogactwa przez elity spada w miarę rozwoju miasta.
      Czynniki wpływające na wzrost nierówności w miastach są więc bardziej skomplikowane, niż sądzono. Uczeni MPI-GEA rozszerzają obecnie swoje badania na kolejne obszary. Chcą na przykład sprawdzić, czy różne rodzaje planowania miasta miał różny wpływ na rozwój nierówności. Poszukują też historycznych przykładów miast w których udało się zapobiec wzrostowi nierówności i gdzie wszyscy mieszkańcy bogacili się w równym tempie warz z ich rozwojem.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na całym świecie rośnie liczba przypadków chorób przenoszonych przez wektory. Najbardziej znane wektory to komary, kleszcze czy pchły. Jedną z przenoszonych przez nie chorób jest denga, której liczba przypadków zwiększyła się w ciągu ostatnich 50 lat aż 30-krotnie czyniąc ją drugą, po malarii, najbardziej rozpowszechnioną chorobą wektorową. Badacze z UK Centre for Ecology & Hydrology, Uniwersytetów w Glasgow i Reading oraz Biomathematics and Statistics Scotland opracowali model, który pozwala przewidzieć rozprzestrzenianie się w Europie komara tygrysiego (Aedes albopictus) i ryzyka lokalnych zachorowań na dengę.
      Komar tygrysi występował naturalnie w Azji Południowo-Wschodniej. Został jednak przez człowieka rozwleczony po całym świecie. Najnowsze dane European Centre for Disease Prevention and Control z maja bieżącego roku wskazują, że komar tygrysi jest już zadomowiony między innymi w znacznej części Hiszpanii, większości Francji, całych Włoszech, środkowych i południowo-zachodnich Niemczech oraz w Berlinie, na Węgrzech i na południu Słowacji. Jego obecność zarejestrowano też w Czechach, Austrii czy na południu Szwecji. W Polsce gatunku tego nie stwierdzono, jednak niewykluczone, że z powodu... braku danych. Zdecydowana większość obszaru naszego kraju jest oznaczona jako tereny, z których nie ma informacji.
      W porównaniu z poprzednim raportem, z października 2023 roku komar tygrysi zadomowił się w kolejnych 6 regionach Francji i 1 regionie Niemiec i został zaobserwowany w nowych regionach w Hiszpanii, Holandii, Portugalii i Słowenii.
      Jeszcze w 2000 roku na świecie odnotowano około 0,5 miliona zachorowań na dengę, w roku 2024 mamy już ponad 12 milionów chorych i ponad 8000 zgonów. Przyczyną jest zarówno zmiana klimatu, jak i zachowanie ludzi, dzięki którym komar łatwiej się rozmnaża i rozprzestrzenia.
      Autorzy nowych badań stworzyli bardziej szczegółowy model niż dotychczas używane, który już prawidłowo przewidział miejscowości, w których w bieżącym roku nastąpią pierwsze zachorowania na dengę. Są wśród nich La Colle-sur-Loup, Baho i Montpellier-Pérols we Francji czy Vila-seca w Hiszpanii. Prognozujemy, że najbardziej narażone na dengę pozostaną południowe regiony Francji oraz północ Włoch. Są tam sprzyjające warunki klimatyczne, stabilna populacja komarów oraz duża liczba osób wracających z krajów tropikalnych, gdzie denga występuje, stwierdził główny autor badań, Dominic Brass. Dotychczas najbardziej na północ wysuniętym miastem, w którym wystąpiła denga, był Paryż. Pierwszego komara tygrysiego zaobserwowano tam w 2015 roku, a w roku ubiegłym zanotowano lokalne zachorowania. Co więcej, w bieżącym roku w Paryżu doszło też do lokalnego zachorowania na chikungunyę, inną tropikalną chorobę przenoszoną przez komary.
      Autorzy badań ostrzegają jednak, że obszar występowania ryzyka zachorowań przesuwa się na północ. Z ich modelu wynika, że lokalnych zachorowań można spodziewać się też w Warszawie.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...