Jump to content
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Lata 2010–2019 będą najgorętszą dekadą w historii pomiarów?

Recommended Posts

Każda z ostatnich 4 dekad była cieplejsza od poprzedniej, a obecna najprawdopodobniej nie będzie wyjątkiem, wynika z ostatniego raportu Światowej Organizacji Meteorologicznej (WMO). Oświadczyła ona, że lata 2010–2019 „prawie na pewno” będą najgorętszą dekadą znaną ludzkości. Co więcej, rok 2019 będzie drugim lub trzecim najgorętszym rokiem od 1850 roku.

Z raportu WMO dowiadujemy się, że oceany mają najwyższą temperaturę zanotowaną przez człowieka i są o 26% bardziej zakwaszone niż na początku epoki przemysłowej. We wrześniu i październiku bieżącego roku zasięg morskiego lodu w Arktyce był rekordowo mały, a w Antarktyce zanotowano kilka tego typu rekordów w ciągu roku.

Średnie tegoroczne temperatury były dotychczas o 1,1 stopnia Celsjusza wyższe niż średnia z lat 1850–1900, a bieżący rok może być najgorętszym rokiem w historii, w którym nie wystąpiło zjawisko El Niño.

Pomimo głośnych deklaracji, ludzkość emituje coraz więcej węgla, a jego koncentracja w atmosferze bije kolejne rekordy. Średnia koncentracja dwutlenku węgla wynosiła w październiku 408,53 ppm, czyli była o 2,53 ppm wyższa niż średnia w październiku ubiegłego roku. Jednocześnie, w związku z utratą w Arktyce 329 miliardów ton lodu, październikowy poziom oceanów był rekordowo wysoki.

WMO zauważa również, że w pierwszej połowie bieżącego roku zmiany klimatyczne zmusiły ponad 10 milionów osób do przesiedlenia się, a do końca bieżącego roku liczba ta może sięgnąć 22 milionów. Coraz częściej dochodzi do „upałów stulecia” i „powodzi stulecia”. Od Bahamów poprzez Japonię i Mozambik mieliśmy do czynienia z potężnymi tropikalnymi cyklonami, a wielkie pożary wybuchały od Arktyki po Australię, czytamy w raporcie.

Wiele wskazuje na to, ludzkość nie powstrzyma globalnego ocieplenia na założonym poziomie 1,5 stopnia Celsjusza w porównaniu z okresem sprzed epoki przemysłowej. By tego dokonać do roku 2030 powinniśmy każdego roku zmniejszać emisję CO2 o 7,6%. Tymczasem wciąż ona rośnie. Częściowo dlatego, że paliwa kopalne są subsydiowane, a w skali świata różnego rodzaju dopłaty do węgla i ropy naftowej mogą sięgać nawet 600 miliardów dolarów rocznie.

Wciąż wykorzystujemy atmosferę jako miejsce, do którego pozbywamy się odpadów, mówi Joeri Rogelj, wykładowca w Imperial College London. Nawet jeśli wszystkie kraje dotrzymałyby wszystkich założeń Porozumienia Paryskiego, nie możemy być pewni, czy uchroniłoby to klimat przed ociepleniem się do roku 2100 o 3 stopnie ponad poziom sprzed epoki przemysłowej. Nie ma żadnych oznak spowolnienia globalnego ocieplenia. Jeśli zaś nadal będziemy postępowali tak, jak obecnie, to może być ono nawet wyższe niż zakładane, stwierdza sekretarz generalny WMO, Petteri Taalas.

Nie ulega żadnej wątpliwości, że dotychczasowe ocieplenie o 1,1 stopnia Celsjusza to skutek spalania paliw kopalnych, dodaje Friderike Otto, zastępca dyrektora Environmental Change Institute na Uniwersytecie Oksfordzkim.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Globalne Ocieplenie istnieje i coraz bardziej będzie nam zmieniać świat za oknem. Trudno temu temu zaprzeczać. Dopiero jak zabraknie wody w kranie i prądu w gniazdku, to może dotrze, że to się dzieje naprawdę.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Naukowcy z Breakthrough Listen Project, który bazuje ne Berkeley SETI Research Center, a jego celem jest poszukiwanie sygnałów radiowych wysłanych przez obcą cywilizację, poinformowali o zarejestrowaniu nietypowej transmisji nadchodzącej z kierunku Proxima Centauri, gwiazdy najbliższej Słońcu. Wiemy, że gwieździe tej towarzyszą co najmniej dwie planety.
      Sygnał został zarejestrowany przez 64-metrowy radioteleskop z obserwatorium Parkes w Nowej Południowej Walii. To drugi – po DSS-43 – największy na półkuli południowej radioteleskop z ruchomą czaszą.
      Specjaliści zwracają uwagę, że sygnał „dryfuje”. Jego częstotliwość wydaje się nieco zmieniać, raz jest wyższa, raz niższa, co ma związek albo z ruchem orbitalnym Ziemi, albo źródła sygnału. Na tej podstawie wnioskują, że nie pochodzi on z anteny umieszczonej na Ziemi. Zatem sygnał jest pozaziemski. Co nie oznacza, że pochodzi od obcej cywilizacji.
      Jeśli rejestrujemy taki sygnał i wiemy, że nie pochodzi on z powierzchni Ziemi, wiemy, że to sygnał pozaziemski. Niestety, ludzie wystrzelili w przestrzeń kosmiczną wiele źródeł pozaziemskich sygnałów, stwierdza Jason Wright z Penn State University. Może to być bowiem transmisja danych telemetrycznych z satelity. Ruch satelitów wokół Ziemi powoduje, że dochodzi do zmian częstotliwości ich sygnału. Faktem jest, że prawdopodobieństwo, iż teleskop przypadkowo odbiera transmisję z satelity jest niewielkie, ale nie można go wykluczyć. W końcu nad naszymi głowami krąży około 2700 działających satelitów.
      Kolejna możliwość jest taka, że sygnał pochodzi z obiektu znajdującego się poza Proximą Centauri. Obiekt ten musiałby znajdować się w prostej linii za gwiazdą z punktu widzenia Ziemi. Jeśli rzeczywiście tak jest i źródłem sygnału jest naturalny obiekt, którego nie widzimy, to byłoby to również interesujące odkrycie. Wiemy, że sygnały radiowe są emitowane np. przez kwazary czy pulsary, ale emisja ze źródeł naturalnych obejmuje znaczną część spektrum. I to właśnie fakt, że emisja jest w tak wąskim zakresie, jest najbardziej interesujący. Nie znamy żadnego naturalnego źródła takiego sygnału, mówi Andrew Siemion z Uniwersytetu Kalifornijskiego w Berkeley. Być może istnieją nieznane nam zjawiska związane z fizyką plazmy, które powodują powstawanie takiego sygnału, ale obecnie, jedyne źródła, jakie znamy, to źródła techniczne, dodaje Siemion.
      Nie można też wykluczyć, że zarejestrowany sygnał pochodzi z naturalnego źródło o silnym polu magnetycznym. W Układzie Słonecznym źródłem takich sygnałów radiowych jest Jowisz. Być może wokół Proxima Centauri krąży duża planeta o silnym polu magnetycznym. To możliwe, jednak trzeba zwrócić uwagę, że gdyby taka podobna do Jowisza planeta tam istniała, to emitowane przez nią sygnały byłyby około 1000-krotnie zbyt słabe, żeby mogły je zarejestrować ziemskie radioteleskopy. Musielibyśmy przyjąć, że naturalne sygnały radiowe emitowane przez tę hipotetyczną planetę są znacznie silniejsze niż emisja radiowa z Jowisza. Jest to mało prawdopodobne, ale nie niemożliwe.
      Zawsze też istnieje możliwość, że sygnał pochodzi z... bezpośredniego sąsiedztwa radioteleskopu. Dość przypomnieć, że przed pięciu laty naukowcy z obserwatorium Parkes zarejestrowali sygnały świadczące o tym, że głęboko w kosmosie dzieje się coś niezwykłego. Analiza danych wykazała, że radioteleskop złapał sygnał z... kuchenki mikrofalowej w obserwatorium.
      Historia naszego sygnału rozpoczęła się w kwietniu ubiegłego roku, kiedy to naukowcy pracujący przy Breakthrough Liten obserwowali Proxima Centauri. Chcieli zarejestrować pochodzące z gwiazdy rozbłyski, by badać, jak wpływają one na krążące planety. W październiku jeden z naukowców analizujących uzyskane dany trafił na nietypowy sygnał o częstotliwości 982,002 MHz. Szybko okazało się, że to najbardziej ekscytujący sygnał, jaki znaleziono w ramach projektu Breakthroug Listen. Zyskał on miano BLC1 od Breakthroug Listen Candidate 1.
      Na początku przyszłego roku ma ukazać się pierwsza praca naukowa dotycząca BLC1. Przed specjalistami prawdopodobnie jeszcze wiele miesięcy analiz, zanim jednoznacznie stwierdzą, co jest źródłem tajemniczego sygnału.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Najbardziej precyzyjny z dotychczasowych pomiarów wartości stałej struktury subtelnej zarysowuje nowe granice dla teorii mówiących o istnieniu ciemnej materii czy ciemnej energii. Nowa wartość to nie tylko dodatkowy test Modelu Standardowego, ale i wskazówka, gdzie należy poszukiwać ciemnej materii, która wraz z ciemną energią stanowi ponad 90% masy wszechświata.
      Stała struktury subtelnej to kombinacja trzech stałych fundamentalnych, stałej Plancka, ładunku elektronu oraz prędkości światła. Łącznie określają one siłę oddziaływań elektromagnetycznych, przez co stała struktury subtelnej powszechnie występuje we wszechświecie. Jako, że jest to wielkość bezwymiarowa, niezależna od systemu jednostek, jest w pewnym sensie bardziej podstawowa niż inne stałe fizyczne, których wartość zmienia się w zależności od systemu.
      Niewielka wartość stałej struktury subtelnej, wynosząca około 1/137 wskazuje, że oddziaływania elektromagnetyczne są słabe. To zaś oznacza, że elektrony znajdujące się na orbitach w pewnej odległości od jądra atomu mogą tworzyć wiązania i budować molekuły. To właśnie ta ich właściwość umożliwiła powstanie gwiazd czy planet. Wielu fizyków twierdzi, że takiej a nie innej wartości stałej struktury subtelnej zawdzięczamy własne istnienie. Gdyby bowiem była ona nieco większa lub nieco mniejsza, gwiazdy nie mogłyby syntetyzować cięższych pierwiastków, takich jak np. węgiel. Życie w znanej nam postaci by więc nie istniało.
      Dotychczasowe pomiary stałej struktury subtelnej umożliwiły prowadzenie precyzyjnych testów zależności pomiędzy cząstkami elementarnymi. Zależności te są opisane równaniami, tworzącymi Model Standardowy. Każda niezgodność pomiędzy przewidywaniami Modelu a obserwacjami może wskazywać na istnienie nieznanych zjawisk fizycznych.
      Zwykle stałą struktury subtelnej mierzy się określając siłę odrzutu atomów absorbujących fotony. Energia kinetyczna tego odrzutu pozwala określić masę atomu. Następnie, na podstawie precyzyjnej znajomości stosunku masy atomu do elektronu, obliczamy masę elektronu. W końcu możemy określić stałą struktury subtelnej z masy elektronu oraz siły wiązań atomowych w wodorze.
      Naukowcy pracujący pod kierunkiem profesor Saidy Guellati-Khelifa z Laboratoire Kastler-Brossel schłodzili atomy rubidu do temperatury kilku stopni powyżej zera absolutnego. Następnie za pomocą lasera stworzyli superpozycję dwóch stanów atomowych. Pierwszy ze stanów odpowiadał atomom odrzucanym w wyniku zaabsorbowania fotonów, drugi zaś, atomom, które nie doświadczają odrzutu. Atomy w różnych stanach różnie propagowały się wewnątrz komory próżniowej. Naukowcy dodali wówczas drugi zestaw impulsów laserowych, który doprowadził do „ponownego połączenia” obu części superpozycji.
      Im większy był odrzut atomu absorbującego fotony, tym większe przesunięcie fazy względem jego własnej wersji, która nie doświadczała odrzutu. Uczeni wykorzystali tę różnicę do określenia masy atomu, z której następnie wyliczyli stałą struktury subtelnej. W ten sposób określili jej wartość na 1/137,035999206(11). Precyzja pomiaru wynosi 81 części na bilion, jest więc 2,5-krotnie większa niż poprzedni najbardziej precyzyjny pomiar wykonany w 2018 roku na Uniwersytecie Kalifornijskim w Berkeley.
      Różnica pomiędzy pomiarem obecnym, a tym z Berkeley rozpoczyna się na 7. cyfrze po przecinku. To zaskoczyło francuskich naukowców, gdyż wskazuje, że albo jedne z pomiarów, albo oba, zawierają nieznany błąd. Autor pomiaru z Berkeley, Holger Müller, komentuje, że wynik uzyskany przez Francuzów potwierdza, iż elektron nie posiada mniejszych struktur i rzeczywiście jest cząstką elementarną.
      Francuzi planują teraz potwierdzić wyniki swoich pomiarów korzystając z innego izotopu rubidu.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      W jednym z holenderskich browarów testowana jest właśnie niezwykła instalacja grzewcza, która nie emituje dwutlenku węgla do atmosfery. Wszystko dzięki temu, że zamiast węgla spalane jest w niej... żelazo.
      Próba podpalenie kawałka żelaza to karkołomne przedsięwzięcie, którego koszty nie są warte potencjalnych zysków. Jednak inaczej ma się sprawa z drobno sproszkowanym żelazem. Ono, po wymieszaniu z powietrzem, jest wysoce palne. Gdy spala się taką mieszaninę, dochodzi do utleniania żelaza. Gdy spalamy węgiel produktem utleniania tego pierwiastka jest szkodliwy dla atmosfery dwutlenek węgla. Gdy zaś spalamy żelazo, produktem utleniania jest Fe203, czyli.. rdza. Bardzo interesującą cechą rdzy jest fakt, że to ciało stałe, które bardzo łatwo odzyskać po procesie spalania. W ten oto sposób spalając drobno sproszkowane żelazo otrzymujemy jedyny odpad – rdzę – który bardzo łatwo się wychwytuje.
      Gęstość energetyczna żelaza wynosi 11,3 kWh/L czyli jest lepsza niż gęstość energetyczna benzyny. Znacznie gorzej ma się sprawa z energią właściwą. Ta wynosi jedynie 1,4 kWh/kg. To oznacza, że na określoną ilość energii żelazny proszek zajmuje nieco mniej miejsca niż benzyna, ale jest on niemal 10-krotnie cięższy. Sproszkowane żelazo nie przyda się więc do zasilania samochodów czy domów. Jedak może okazać się świetnym rozwiązaniem dla przemysłu.
      W przypadku wielu procesów przemysłowych energia elektryczna, którą możemy pozyskiwać m.in. z czystych źródeł, nie jest w stanie zapewnić odpowiedniego rodzaju energii cieplnej. Dlatego też naukowcy z Uniwersytetu Technologicznego z Eindhoven od lat pracują nad wykorzystaniem żelaza w roli czystego paliwa. W ubiegłym miesiącu w jednym z browarów uruchomili testową instalację, w której spalane jest sproszkowane żelazo.
      Powstała w procesie spalania rdza może być ponownie wykorzystywana. Żelazo jest traktowane jak rodzaj akumulatora. Spalanie go rozładowuje, zamieniając żelazo w Fe203. Aby je ponownie załadować należy pozbawić ten związek tlenu, odzyskując żelazo, które można ponownie spalić.
      Żeby jednak cały proces był bezemisyjny, również odzyskiwanie żelaza powinno takie być. Dlatego też holenderscy naukowcy testują obecnie trzy sposoby na jego odzyskanie. Jeden z nich polega na przetransportowaniu rdzy taśmociągiem do pieca, gdzie w temperaturze 800–1000 stopni dodawany jest wodór. Tlenek żelaza zamienia się w żelazo, wodór zaś łączy z tlenem dając wodę. Minusem tej metody jest ponowne stapiania się sproszkowanego żelaza w jedną warstwę, którą należy zmielić. W drugiej metodzie wykorzystywany jest standardowy reaktor fluidalny. Również dodawany jest wodór, jednak cały proces odbywa się w temperaturze 600 stopni Celsjusza. Dzięki temu żelazo pozostaje w formie sproszkowanej, jednak jego odzyskiwanie trwa dłużej. Trzecia i ostatnia metoda polega na wdmuchiwaniu tlenku żelaza i wodoru do komory reaktora, w której panuje temperatura 1100–1400 stopni. Dzięki wdmuchiwaniu żelazo pozostaje w formie sproszkowanej. To może być najlepsza z trzech wymienionych technologii, jest jednak nowa, więc najpierw trzeba udowodnić, że działa.
      Oczywiście zarówno do wyprodukowania wodoru czy uzyskania odpowiedniej temperatury w reaktorze/piecu potrzebna jest energia. Jednak może być to energia elektryczna uzyskana z czystych źródeł.
      Można się zastanowić, dlaczego zamiast żelaza nie spalać po prostu wodoru. Problem w tym, że wodór jest bardzo trudny i niebezpieczny w transporcie. Jego przechowywanie również nie jest łatwe, wymaga wysokich ciśnień i niskich temperatur. Sproszkowane żelazo może być łatwo i długo przechowywane i bardzo łatwo jest je przewozić z olbrzymich ilościach np. koleją.
      Sproszkowane żelazo może więc w przyszłości zastąpić węgiel w wielu procesach przemysłowych. Będzie to wymagało przerobienia obecnych instalacji do spalania węgla na takie do spalania żelaza. Holenderscy naukowcy badają też, czy sproszkowane żelazo może posłużyć jako paliwo dla masowców, wielkich statków będących dużym źródłem emisji węgla z paliw kopalnych.
      Profesor Philip de Goey z Uniwersytetu Technologicznego w Eindhoven mówi, że ma nadzieję, iż w ciągu najbliższych 4 lat powstanie pierwsza 10-megawatowa instalacja przemysłowa do spalania sproszkowanego żelaza, a w ciągu 10 lat pierwsza elektrownia węglowa zostanie przerobiona na elektrownię na żelazo.
       


      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Niemieccy naukowcy poinformowali o dokonaniu najbardziej precyzyjnych pomiarów masy jądra deuteru – deuteronu. Pomiary przeprowadzono porównując masę deuteronu do masy jądra węgla 12. To bardzo ważne niezależne sprawdzenie wcześniejszych pomiarów, które dały niejednoznaczne wyniki. Poznanie dokładnej prostego jądra atomowego, jak wodór, deuter, tryt, jonów H2+ i HD+ jest niezwykle ważne z punktu widzenia badań podstawowych. Pozwala to np. przetestować podstawowe teorie fizyczny, jak elektrodynamikę kwantową. Z kolei masa deuteronu może zostać użyta do precyzyjnego określenia masy neutronu, co z kolei ma fundamentalne znaczenie dla metrologii, fizyki atomowej, molekularnej i badań nad neutrinami.
      Precyzyjnych pomiarów tego typu często dokonuje się za pomocą pułapek Penninga, które wykorzystują silne pola magnetyczne i elektryczne do uwięzienia cząstek. Cząstka taka po uwięzieniu oscyluej w określonej częstotliwości, która zależy od jej masy. Cięższe cząstki oscylują wolniej niż lżejsze. Jeśli więc do tej samej pułapki złapiemy dwa jony o różnych masach, to dzięki pomiarom ich oscylacji możemy poznać stosunek ich mas z bardzo wysoką precyzją (dochodzącą jednej do 8,5 x 10-12).
      Uczeni z Instytutu Fizyki Jądrowej im. Maxa Plancka, Uniwersytetu Johannesa Gutenberga, GSI Helmholtz Centre for Heavy Ion Research oraz Helmholtz Institute w Moguncji wykorzystali specjalny kriogeniczny spektrometr mas wyspecjalizowany w pomiarach mas lekkich jonów. Urządzenie o nazwie LIONTRAP składa się z serii pułapek Penninga. Jest wśród nich wysoce precyzyjna pułapka korzystająca z siedmiu elektrod oraz dwie przylegające pułapki-magazyny. Całość poddana jest działaniu homogenicznego pola magnetycznego o natężeniu 3,8 tesli, znajduje się w niemal idealnej próżni (o ciśnieniu mniejszym niż 10-17 mbar) i w temperaturze około 4 kelwinów.
      Deuteron najpierw trafił do pułapki-magazynu, a następnie został umieszczony w wysoce precyzyjnej pułapce. Tam zmierzono jego oscylacje i porównano je z oscylacjami jonu węgla-12. Na tej podstawie stwierdzono, że masa deuteronu wynosi 2.013553212535(17) jednostek atomowych. Liczba w nawiasie oznacza niepewność pomiaru ostatnich cyfr. Masa jonu HD+ określona tą samą metodą została oszacowana na 3.021378241561(61) jednostek atomowych.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Unikalną aplikację komputerową, która pozwoli małym i średnim piekarniom zoptymalizować procesy technologiczne, a tym samym ograniczyć marnotrawienie żywności i emisję CO2, opracowuje międzynarodowy zespół ekspertów z udziałem naukowców z Instytutu Rozrodu Zwierząt i Badań Żywności PAN w Olsztynie.
      Aplikacja powstaje w ramach projektu PrO4Bake, finansowanego przez Wspólnotę Wiedzy i Innowacji w obszarze żywności EIT Food. Działania projektowe koordynuje Uniwersytet w Hohenheim (Niemcy) przy zaangażowaniu partnerów z przemysłu, m.in. firmy Siemens, oraz ośrodków naukowych z Polski, Danii, Szwecji, Hiszpanii i Włoch. Kilka tygodni temu PrO4Bake został nominowany do nagrody EIT Innovators Award 2020.
      To, co nazywane jest odpadem piekarniczym, jest niczym innym jak efektem nadprodukcji lub niesprzedania wyrobów przez piekarnię. W polskich piekarniach powstaje średnio do kilku ton odpadów piekarniczych w tygodniu. To nie tylko ogromne marnotrawstwo żywności, ale także niepotrzebne zużycie energii. W przeciwieństwie do wielkoskalowej produkcji przemysłowej, małe i średnie piekarnie mogą odpowiedzieć indywidualnie na preferencje lokalnej społeczności. Zaproponowana w projekcie PrO4Bake aplikacja pozwoli takim piekarniom nie tylko dostosować asortyment produktów do oczekiwanego zapotrzebowania konsumentów, ale i zoptymalizować czas produkcji, efektywniej wykorzystać surowce i istniejące maszyny oraz wdrożyć energooszczędny proces produkcyjny. To z kolei pozwoli im zminimalizować ślad ekologiczny, zmniejszyć ilość generowanych odpadów, zużycie energii oraz emisję CO2.
      W pierwszym etapie realizacji projektu pobierane są dane z procesów produkcji we współpracujących piekarniach. W Polsce to zadanie realizuje Instytut Rozrodu Zwierząt i Badań Żywności PAN w Olsztynie, który gromadzi informacje udostępniane przez małe i średnie piekarnie w województwie warmińsko-mazurskim. Jednym z kluczowych elementów opracowania algorytmu dla aplikacji będą też kompleksowe badania konsumenckie, prowadzone we wszystkich krajach uczestniczących w projekcie. Analiza ta uwzględni wymagania i oczekiwania konsumentów związane m.in. z pogodą czy okresami świątecznymi oraz akceptacją dla zmian dostępności produktów w ciągu dnia. Wszystkie te czynniki zostaną przetworzone za pomocą nowoczesnych narzędzi obliczeniowych, m.in. algorytmów ewolucyjnych i technologii cyfrowych bliźniaków, które pozwolą ekspertom z firmy Siemens stworzyć optymalny prototyp gotowy do komercjalizacji.
      Opracowana aplikacja zostanie skomercjalizowana poprzez szereg szkoleń, tak aby umożliwić europejskim piekarniom dostosowanie asortymentu produktów do oczekiwanego zapotrzebowania konsumentów i wyprodukowanie w piekarni tylko takiej ilości, która będzie sprzedawana, a tym samym utrzymanie na jak najniższym poziomie zarówno ilości odpadów, jak i zużycia energii – mówi dr hab. inż. Małgorzata Wronkowska, koordynator projektu w IRZiBŻ PAN.
      Projekt PrO4Bake rozpoczął się w 2020 roku i będzie trwał dwa lata.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...