Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37640
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Naukowcy potwierdzili, że bor, składnik domowych środków czystości, pomaga w zwiększeniu wydajności reaktorów fuzyjnych. Specjaliści z Princeton Plasma Physics Laboratory (PPPL) przeprowadzili eksperymenty, w czasie których wykazali, że pokrycie wewnętrznych elementów tokamaka borem poprawia wydajność reakcji. Nasze eksperymenty dokładniej pokazują, jak to działa. Pozwolą nam one ocenić, czy kontrolowane wstrzykiwanie proszku z boru może być wykorzystane w przyszłości do pomocy w pracy reaktorów fuzyjnych, mówi fizyk Alessandro Bortolon, główny autor artykułu w Nuclear Fusion. Fuzja jądrowa wykorzystuje procesy podobne do tych, jakie zachodzą w Słońcu. Lżejsze pierwiastki łączą się w cięższe. W ten sposób powstaje niemal niewyczerpane źródło czystej i bezpiecznej energii. Naukowcy od dziesięcioleci próbują opanować fuzję. Najnowsze eksperymenty wykazały, że wstrzykiwanie boru pozwala na łatwiejsze uzyskanie w plazmy o odpowiednich parametrach w tokamakach, których wewnętrzne elementy pokryte są lekkimi pierwiastkami, jak węgiel. Autorzy obecnych badań bazowali na eksperymentach prowadzonych wcześniej w Axially Symmetric Divertor Experiment-Upgrade (ASDEX-U) należącym do Instytutu Fizyki Plazmy im. Maxa Plancka w Niemczech. Wówczas wykazano, że dzięki wstrzykiwaniu boru możliwe jest uzyskanie wysokiej jakości plazmy w tokamaku pokrytym wolframem. Eksperymenty dla tokamaka pokrytego węglem są ważne z dwóch powodów. Po pierwsze, wiele tokamaków korzysta z tego pierwiastka. Po drugie – pokazuje to, że wstrzykiwanie boru może być przydatne w różnego rodzaju tokamakach. Najnowsze eksperymenty uzupełniły też lukę w wiedzy dotyczącej sposobu osadzania się boru. Intuicja podpowiada, że gdy sproszkowany bor opada na plazmę, rozpuszcza się w niej i gdzieś osadza. Dotychczas jednak nikt nie próbował nawet potwierdzić istnienia w plazmie warstwy boru. Nie było na ten temat żadnych informacji. Przeprowadzone przez nas badania są pierwszymi, podczas których bezpośrednio wykazano i zmierzono to zjawisko, dodaje Bortolon. Okazuje się, że warstwa boru zapobiega zanieczyszczeniu plazmy przez materiał z samego tokamaka. Materiał taki może rozrzedzić plazmę i ją zdestabilizować. Im zaś plazma bardziej czyta, tym bardziej stabilna i tokamak może dłużej działać. Technika wstrzykiwania boru może uzupełniać lub nawet zastąpić wykorzystywaną obecnie technikę dostarczania boru do tokamaka. W chwili obecnej uzupełnienie tokamaka o bor wymaga wyłączenia go nawet na kilka dni, a wykorzystuje się w niej toksyczne gazy. Wstrzykiwanie boru eliminuje te problemy. Jeśli wykorzystujesz technikę wstrzykiwania sproszkowanego boru, nie musisz wszystkiego przerywać i wyłączać tokamaka. Nie musisz też przejmować się pracą z toksycznym gazem. Nowa technika będzie niezwykle przydatna podczas przyszłej codziennej pracy tokamaków, dodaje Bortolon. « powrót do artykułu
  2. Turecka żandarmeria otrzymała anonimową informację o działalności złodziei zabytków. Mieli oni wydobywać coś spod ziemi w trudno dostępnym górzystym regionie w okręgu Aliaga w prowincji Izmir. Policjanci udali się na miejsce i zatrzymali na gorącym uczynku dwóch mężczyzn, którzy wykopywali zabytki z głębokości 2 metrów. Okazało się, że rabusie dokonali interesującego odkrycia. Eksperci, którzy przybyli na miejsce orzekli, że złodzieje natrafili na bizantyjski klasztor z piękną mozaiką sprzed 1500 lat. Znalezisko i jego okolice zostały objęte ochroną. Na razie trwają prace w terenie, jednak już teraz wiemy, że mozaika zostanie wydobyta i przeniesiona do muzeum. Znaleźliśmy mozaikę podłogową. Znajdował się tutaj klasztor, który posiadał bazylikę, mówi Hunkar Keser, dyrektor muzeum archeologicznego w Izmirze. Eksperci szacują, że klasztor był wykorzystywany pomiędzy IV a XIV wiekiem. Mozaika, z inskrypcją w grece, jest cennym znaleziskiem archeologicznym. « powrót do artykułu
  3. Zdrowia, spokoju, rodziny i przyjaciół wokół. Nie tylko w czasie Wielkanocy, ale każdego dnia. Wszystkiego dobrego, Ania, Jacek i Mariusz. « powrót do artykułu
  4. Kolorowe pisanki nierozerwalnie wiążą się z Wielkanocą. Same jajka miały znaczenie symboliczne już epoce przedchrześcijańskiej. Poganie uznawali je za symbol odnowienia, nowego życia. Wczesne chrześcijaństwo przyjęło tę symbolikę, odnosząc ją do Jezusa Chrystusa oraz do nowego życia dla wiernych wyznawców Zbawiciela. Jednak zwyczaj malowania jajek w kontekście Wielkanocy najprawdopodobniej pojawił się dopiero w XIII wieku. W tym czasie Kościół zabraniał spożywania mięsa i nabiału (w tym jajek) przez cały okres Wielkiego Postu. Jednak kury – które były ważnym źródłem protein – nie przestawały się nieść. Oznaczało to olbrzymie marnotrawstwo ważnego źródła białka. Kościelne przepisy nie zabraniały jednak przechowywania jajek. Dlatego też te jajka, które kury zniosły pod koniec Wielkiego Postu, gotowano na twardo, gdyż w takim stanie można było je przechować do czasu zakończenia okresu wielkopostnego. A okres ten kończy Wielkanoc. Nic więc dziwnego, że Wielkanoc zaczęła kojarzyć się z przechowywanymi ugotowanymi na twardo jajkami. Z czasem takie jajka zaczęto ozdabiać. Tak prawdopodobnie powstała znana nam obecnie pisanka. Tradycja pisanek liczy sobie więc co najmniej kilkaset lat. Przechodziła w tym czasie zmienne koleje losów. Wiele z wzorów czy technik byłoby już zapomnianych, gdyby nie twórcy, którzy kultywują tradycję zdobienia jajek. Pani Danuta Sroka jest jedną z najbardziej interesujących polskich twórczyń pisanek. Tworzyła je już w dzieciństwie, początkowo pod okiem babci. Od 1995 roku dokumentuje swoje prace. Pani Danuta ozdabia wydmuszki kurze, gęsie i strusie. Wykorzystuje przy tym różne techniki, w tym te najbardziej znane: batikowe (wosk), skrobane (rytownicze), naklejane (wycinanki) oraz złocone. Jak powiedziała portalowi Katolsk.no jajka wielkanocne pisane woskiem przypisane są do regionu lubelskiego, opoczyńskiego i podlaskiego. Pisanki skrobane utożsamia się z Opolszczyzną, oklejane występują na Kurpiach, a naklejane w regionie łowickim. Muszę jednak podkreślić, że przypisanie jakiegoś typu pisanek tylko do wybranych regionów jest bardzo dużym uproszczeniem. W rzeczywistości pisanki w tych samych technikach występują w całej Polsce. Zajmują się nimi ludzie z pasją, często nie zastanawiając się nad ich pochodzeniem i klasyfikacją. Ulubionym typem artystki są pisanki drapane. Wstępnie nie wymagają wiele obróbki. Oprócz zrobienia wydmuszki, ufarbowania na jeden kolor i wysuszenia, nie potrzebują niczego więcej. Wystarczy je tylko na koniec… wydrapać. Wykonuję te pisanki już od wielu lat i muszę przyznać, że są coraz bardziej deprymujące… Długo zastanawiam się nad wzorem, niczego nigdzie nie podglądam, z premedytacją unikam patrzenia na własne wcześniejsze prace… Na początku twórczości postawiłam sobie za punkt honoru nigdy nie powtórzyć żadnego wzoru, a z biegiem lat staje się to coraz trudniejsze, mówi pani Danuta. Początkującym twórcom pisanek oraz rodzicom, którzy chcą po prostu zrobić je z dziećmi, artystka zaleca pisaki, bibułkę czy kolorowy papier i nożyczki. Tradycyjne techniki pisankowe są bowiem naprawdę trudne. Nieustannie zadziwia mnie odwaga ludzi, którzy zaopatrują się w kistkę (lejek do pisanek batikowych) tuż przed samymi świętami z rozbrajająca ufnością, że przygotują sobie szybko udane pisanki! A batik w pisankach jest jedną z najtrudniejszych i pracochłonnych technik, jeśli nie najtrudniejszą. Kistka jest mechanicznie bardzo kapryśnym i nieprzewidywalnym narzędziem. Trzeba długo ćwiczyć, żeby ją „wyczuć”. Dla mnie pisanki batikowe to „wyższa szkoła jazdy”. Wykonuję je rzadko, ale mam do nich ogromny sentyment, bo przypominają mi babcię, od której nauczyłam się je robić. Pani Danuta tak wspomina swoje pierwsze doświadczenia z batikiem. Swoją pierwszą kistkę zobaczyłam w wieku 6-7 lat. Babcia zawołała mnie do siebie, wycięła kawałek blaszki z puszki po konserwie, zwinęła w lejek i przymocowała drutem do patyczka. Nałożyła do lejka strasznie ciemnego wosku z szuflady w starym kredensie, rozgrzała nad świeczką i… ot tak sobie, lekko i zgrabnie, z tajemniczym uśmiechem na twarzy, zaczęła pisać po skorupce. Potem pisanka trafiła do wywaru z cebuli. Prawdziwa magia zaczęła się, gdy jajko było ugotowane, a babcia delikatnie, jeszcze gorące, wycierała je w szmatce. Spod wosku wyjrzały wiatraczki, pazurki, grabki i słońce. Pamiętam swój ogromny zachwyt, który trwa zresztą do dziś. Samego jednak pisaka jeszcze długo nie dostałam do ręki. Prostsze są pisanki malowane kolorowymi woskami, Nakłada się je szpilką, a nałożonego wosku już się nie usuwa. W ten sposób szybko możemy osiągnąć spektakularne efekty. Uzależnione, oczywiście, od naszych zdolności plastycznych. Wiele satysfakcji dają też naklejanki. Pani Danuta szczególnie upodobała sobie wzory wycinanki koszaliński, której jest autorką. Ulubione pisanki Danuty Sroki, pisanki drapane, powstają poprzez ufarbowanie wydmuszki na gorąco w jednym kolorze (w wywarach z warzyw lub barwnikach syntetycznych) i wydrapanie na nich wzoru ostrym narzędziem. Pani Danuta używa skalpela. Spod ręki artystki wychodzą też pisanki wycinankowe. Danuta Sroka wykonuje je z papieru glansowanego. Główny element dekoracyjny stanowi tutaj wycinanka koszalińska. Podczas pracy nad nią wzór nie jest rysowany na papierze, a wychodzi bezpośrednio spod ręki. Tylko dwie rzeczy artystka uważa za kłopotliwe w tej dziedzinie: zdobycie odpowiednich nożyczek i przyklejanie wycinanek na powierzchnię jajka. Zasadnicze znaczenie w wycinankarstwie ma znajomość symetrii osiowej i precyzja w wycinaniu drobnych detali, czytamy na witrynie Agnusek.com. Stosunkowo nową techniką w pisankarstwie są pisanki złocone. Powstają one w kilku etapach. Najpierw należy jajka pomalować na jeden kolor, następnie czarnym tuszem za pomocą stalówki nanoszone są kontury wzoru. Kontury wypełnia się złotą emalią (lakier i osobno złoty metalowy pigment) za pomocą pędzelka. Na koniec ponownie kontruje się złocone kształty. Nie można też zapomnieć o najtrudniejszej z technik – batiku. Tutaj potrzebujemy kilku kolorowych farb, naturalnego wosku, pisaka (szpilki lub kopystki), podgrzewacza (świeczki, lampki naftowej) oraz naturalnego kwasu. Zajrzyjmy ponownie na witrynę Agnusek.com: technika batikowa na pisankach polega na nanoszeniu na przemian kolejnych warstwo wosku i farbowania w barwnikach w kolejności od barwy najjaśniejszej do coraz ciemniejszej. Na końcu autorka całkowicie usuwa wosk z pisanki odsłaniając wzór. To jednak tylko jeden z czterech typów batiku. Typ drugi to pisanki wstępnie zafarbowane na jeden kolor, wypisane woskiem, a następnie trawione kwasem. W ten sposób powstają pisanki batikowe trawione, które charakteryzują się tym, że wzór na pisance jest ciemniejszy niż tło. Trzeci rodzaj pisanek batikowych to te, gdzie jajka w naturalny kolorze pisze się woskiem. Wosk jest pozostawiany lub częściowo tylko usuwany. W końcu rodzaj czwarty to białe jajka na których pisze się kolorowymi woskami. « powrót do artykułu
  5. W czasie gdy strażacy walczyli z pożarem dachu, zespół medyczny ze szpitala w Błagowieszczeńsku kontynuował zabieg na otwartym sercu. Operację można było kontynuować dzięki oddymiającym wentylatorom i awaryjnej linii zasilającej. Zabieg był prowadzony na parterze (na szczęście nie docierała tu woda wykorzystywana przez strażaków). W akcji gaśniczej brało udział ok. 60 strażaków i 28 jednostek sprzętu. Z dachu obiektu unosił się czarny dym. Ewakuowano ponad 120 osób, w tym 67 pacjentów. Poza tym wyniesiono wartościowy sprzęt medyczny. Operacja zakończyła się pomyślnie. Stan przewiezionego do innego szpitala chorego jest ponoć stabilny. Musieliśmy ocalić tego człowieka i zrobiliśmy wszystko, co w naszej mocy - podkreśla główny chirurg Walentin Fiłatow. W 2-godzinnej operacji wziął udział 8-osobowy zespół. Zabieg rozpoczął się tuż przed wybuchem pożaru. Lekarka Antonina Smolina dodała, że ekipa zachowała zimną krew i nie doszło do wybuchu paniki. Ministerstwo ds. Sytuacji Nadzwyczajnych ujawniło, że szpital zbudowano w 1907 r. i że ogień rozprzestrzeniał się po drewnianym stropie lotem błyskawicy. Wydaje się, że przyczyną zdarzenia było zwarcie. Gubernator obwodu amurskiego Wasilij Orłow pochwalił profesjonalizm zarówno zespołu lekarsko-pielęgniarskiego, jak i strażaków. Warto dodać, że to jedyny szpital w regionie ze specjalistycznym oddziałem kardiologicznym.     « powrót do artykułu
  6. Prezydent Biden wezwał Kongres, by przyznał 50 miliardów USD na wsparcie rodzimego przemysłu półprzewodnikowego. Jeśli Kongres wyrazi zgodę, będzie oznaczało to spory wzrost w porównaniu z ubiegłorocznymi ustawami American Foundries Act of 2020 i Creating Helpful Incentives to Produce Semiconductors, gdzie na wsparcie przewidziano 37 miliardów USD. Prezydent Biden wierzy, że w naszym kraju powinniśmy wytwarzać technologie i towary, które spełniają dzisiejsze wymagania i pozwolą wykorzystać przyszłe szanse, oświadczył Biały Dom. Biden chce, by w ramach Departamentu Handlu powstało nowe biuro, które zajmie się monitorowaniem krajowego przemysłu półprzewodnikowego i wsparciem inwestycji w tym zakresie. Prezydent chciałby uzyskać w Kongresie wsparcie obu największych partii, jednak jest to mało prawdopodobne. Lider mniejszości, Mitch McConnell, skrytykował plan Białego Domu, nazywając go koniem trojańskim, za którym ukrywają się podwyżki podatków szkodzące przedsiębiorstwom i klasie średniej. Jednak propozycję Bidena trzeba widzieć w szerszym kontekście. Tylko w bieżącym roku wydatki inwestycyjne dwóch wielkich azjatyckich producentów półprzewodników – TSMC i Samsunga – sięgną co najmniej 55,5 miliarda dolarów. Zatem w ciągu roku będzie to kwota większa, niż rozłożona na wiele lat propozycja Bidena. Ponad 70 lat temu cała światowa produkcja półprzewodników odbywała się w USA. Obecnie w Stanach Zjednoczonych produkowanych jest 12% półprzewodników powstających na świecie. Co prawda USA produkują większość kluczowego oprogramowania i sprzętu dla przemysłu półprzewodnikowego, ale same półprzewodniki powstają głównie na Tajwanie, w Korei Południowej i Chinach. W ubiegłym miesiącu największy amerykański producent półprzewodników, Intel, ogłosił, że wchodzi na rynek produkcji chipów na zlecenie. Chce na nim konkurować z TSMC i Samsungiem. Rozpoczyna od zainwestowania 20 miliardów USD w Arizonie. Do życia powoływane jest osobne przedsiębiorstwo o nazwie Intel Foundry Services. Co istotne, plany Intela nie są uzależnione od rządowego wsparcia. Rosnąca dominacja Samsunga i TSMC niesie ze sobą istotne skutki biznesowe i geopolityczne. Południowokoreański Samsung znajduje się w zasięgu broni atomowej Korei Północnej, a Tajwanowi wciąż zagrażają Chiny, uznające ten kraj za swoją zbuntowaną prowincję. Od kilkunastu miesięcy USA i poszczególne kraje Europy próbują zmniejszyć swoje uzależnieni od dostaw półprzewodników z zagranicy i chcą odbudować możliwości produkcyjne swojego przemysłu półprzewodnikowego. Jednak tego typu działania mogą spalić na panewce. Jak mówi Bill McClean, prezes firmy IC Insight specjalizującej się w badaniu rynku półprzewodników, by realistycznie myśleć o przynajmniej częściowym powrocie przemysłu półprzewodnikowego do USA rząd musiałby wydawać co najmniej 30 miliardów USD rocznie przez co najmniej pięć lat. Z kolei Mark Liu, przewodniczący TSMC stwierdza, że rządowe projekty budowy własnych krajowych łańcuchów dostaw mogą skończyć się zablokowaniem zdolności produkcyjnych i spadkiem marginesu zysku. Zdaniem Liu, działania takie są nierealistyczne z ekonomicznego punktu widzenia. Oczywiście sensownym jest, by największe światowe gospodarki były w stanie produkować układy scalone na potrzeby swojej obronności i infrastruktury na własnym terytorium. Jednak przeniesienie całego łańcucha dostaw i samodzielność w dziedzinie półprzewodników jest całkowicie nieefektywna. Te dodatkowe moce produkcyjne nie byłyby ekonomicznie opłacalne, stwierdza Liu. Na razie nie wiadomo, jak miałoby wyglądać wzmocnienie pozycji USA na rynku produkcji półprzewodników. Czy polegałoby to na zachęceniu TSMC i Samsunga do budowy fabryk w Stanach Zjednoczonych, czy na wsparciu dla rodzimych producentów czy też byłoby połączeniem obu tych projektów. Wiadomo za to, że TSMC i Samsung zapowiedziały zwiększenie inwestycji w USA, jednocześnie zaś lobbują o wsparcie rządowe. « powrót do artykułu
  7. Stanisław Ulam bez wątpienia był wizjonerem. Jako jeden z pierwszych naukowców używał komputerów do pracy naukowej. Zaproponował też prezydentowi Kennedy'emu, aby sfinansował badania umożliwiające wysłanie ludzi na Księżyc i pracował nad wynalezieniem nuklearnego napędu stosowanego w pojazdach kosmicznych. Jednak największym osiągnięciem lwowskiego matematyka było stworzenie bomby wodorowej. Całe przedsięwzięcie trzymano w ścisłej tajemnicy, a dokumenty z tego okresu wciąż nie zostały udostępnione. Naukowiec mówił, że bomba uczyni wojnę niemożliwą, lecz nie wiedział, jak bardzo się myli. Dlaczego Ulam został zapomniany, choć jego wynalazki zmieniły świat, w którym żyjemy?
  8. Niewiele związków jest dziś równie istotnych dla przemysłu i medycyny co ditlenek tytanu. Mimo różnorodności i popularności zastosowań, część zagadnień związanych z budową powierzchni materiałów tworzonych z tego związku i zachodzącymi w niej procesami wciąż pozostaje niejasnych. Niektóre ze swoich tajemnic ditlenek tytanu właśnie odsłonił przed naukowcami z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk. W swoich badaniach po raz pierwszy wykorzystali oni synchrotron SOLARIS. W wielu reakcjach chemicznych ditlenek tytanu (TiO2) pojawia się w roli katalizatora. Jako pigment występuje w tworzywach sztucznych, farbach czy kosmetykach, z kolei w medycznych implantach gwarantuje ich wysoką biokompatybilność. Ditlenek tytanu jest dziś praktycznie wszechobecny, co wcale nie oznacza, że ludzkość poznała już jego wszystkie właściwości. Realizująca projekt badawczy na synchrotronie SOLARIS grupa naukowców z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie, kierowana przez dr. hab. Jakuba Szlachetkę, zdołała rzucić nieco światła na szczegóły procesów utleniania zewnętrznych warstw próbek tytanowych oraz związane z nimi zmiany w strukturze elektronowej tego materiału. Badania ditlenku tytanu zainaugurowały obecność naukowców IFJ PAN w programach badawczych realizowanych na synchrotronie SOLARIS. Urządzenie, działające w ramach Narodowego Centrum Promieniowania Synchrotronowego, jest zlokalizowane w Krakowie na terenie kampusu 600-lecia Uniwersytetu Jagiellońskiego. Promieniowanie synchrotronowe odkryto w 1947 roku, gdy w firmie General Electric uruchomiono akcelerator, który za pomocą magnesów zakrzywiał tor ruchu przyspieszanych elektronów. Cząstki zaczynały wtedy chaotycznie emitować światło, traciły więc energię – a przecież miały ją zyskiwać! Promieniowanie synchrotronowe uznano zatem za efekt niepożądany. Dopiero dzięki kolejnym generacjom źródeł promieniowania synchrotronowego osiągnięto większe natężenia i lepszą jakość wiązek emitowanego światła, w tym wysoką powtarzalność impulsów o praktycznie zawsze takich samych cechach. Synchrotron SOLARIS, największe i najnowocześniejsze urządzenie tego typu w Europie Środkowej, składa się z dwóch głównych części. Pierwszą tworzy liniowy akcelerator elektronów o długości 40 m. Cząstki zyskują tu energię 600 megaelektronowoltów, po czym trafiają do drugiej części aparatury: do wnętrza pierścienia akumulacyjnego o obwodzie 96 m, gdzie na ich drodze umieszczono magnesy zakrzywiające oraz wigglery i undulatory. Te ostatnie to zespoły naprzemiennie zorientowanych magnesów, wewnątrz których tor ruchu elektronów zaczyna przypominać kształtem sinusoidę. To właśnie wtedy "zataczające się" elektrony emitują promieniowanie synchrotronowe, kierowane do odpowiednich stacji końcowych z aparaturą pomiarową. Fale elektromagnetyczne wytwarzane przez SOLARIS są klasyfikowane jako miękkie promieniowanie rentgenowskie. Unikatowe cechy promieniowania synchrotronowego znajdują wiele zastosowań: pomagają w pracach nad nowymi materiałami, śledzeniu przebiegu reakcji chemicznych, pozwalają prowadzić doświadczenia przydatne dla rozwoju nanotechnologii, mikrobiologii, medycyny, farmakologii i wielu innych dziedzin nauki i techniki. Badania na synchrotronie SOLARIS otwierają zupełnie nowe możliwości, nic dziwnego, że o czas pomiarowy aplikuje tu wiele zespołów naukowych z kraju i świata. Choć nasz instytut – podobnie jak synchrotron SOLARIS – mieści się w Krakowie, jak wszyscy rywalizowaliśmy jakością proponowanych badań o czas pracy na odpowiedniej stacji pomiarowej - mówi prof. dr hab. Wojciech M. Kwiatek, kierownik Oddziału Badań Interdyscyplinarnych w IFJ PAN i jednocześnie Prezes Polskiego Towarzystwa Promieniowania Synchrotronowego. Prof. Kwiatek zauważa, że w dobie ograniczeń w podróżowaniu, wynikających z rozwoju pandemii, możliwość prowadzenia zaawansowanych badań fizycznych praktycznie na miejscu jest ogromną zaletą. Swoje najnowsze pomiary, współfinansowane ze środków Narodowego Centrum Nauki, naukowcy z IFJ PAN przeprowadzili na stacji badawczej XAS krakowskiego synchrotronu. Rejestrowano tu, w jaki sposób promieniowanie rentgenowskie jest pochłaniane przez warstwy powierzchniowe próbek tytanowych, wcześniej wytworzonych w Instytucie w starannie kontrolowanych warunkach. Skoncentrowaliśmy się na obserwacjach zmian struktury elektronowej powierzchniowych warstw próbek w zależności od zmian temperatury i postępu procesu utleniania. W tym celu wygrzaliśmy w różnych temperaturach i w atmosferze otoczenia dyski tytanowe, które po przetransportowaniu do stacji badawczej synchrotronu naświetlaliśmy wiązką promieniowania synchrotronowego, czyli promieniowaniem rentgenowskim. Ponieważ właściwości promieniowania synchrotronowego są doskonale znane, mogliśmy za jego pomocą precyzyjnie określić strukturę nieobsadzonych stanów elektronowych atomów tytanu i na tej podstawie wnioskować o zmianach w strukturze samego materiału - mówi doktorantka Klaudia Wojtaszek (IFJ PAN), pierwsza autorka artykułu opublikowanego w czasopiśmie Journal of Physical Chemistry A. Ditlenek tytanu występuje w trzech odmianach polimorficznych, charakteryzujących się różną budową krystalograficzną. Najpopularniejszą jest rutyl, jako minerał występujący pospolicie w wielu skałach (pozostałe odmiany to anataz i brukit). Badania na synchrotronie SOLARIS pozwoliły krakowskim fizykom precyzyjnie odtworzyć proces formowania się fazy rutylowej. Okazało się, że powstaje ona w niższych temperaturach niż sądzono do tej pory. Nasze badania mają charakter podstawowy, dostarczają fundamentalnej wiedzy o strukturze materiału. Struktura ta ma jednak ścisły związek z właściwościami fizykochemicznymi powierzchni ditlenku tytanu. Potencjalnie nasze wyniki mogą więc znaleźć zastosowanie na przykład przy optymalizowaniu właściwości powierzchniowych implantów medycznych - podsumowuje dr Anna Wach (IFJ PAN), która była odpowiedzialna za wykonanie eksperymentu na synchrotronie SOLARIS. « powrót do artykułu
  9. Antropogeniczne zmiany klimatu spowodowały spadek produktywności rolnej, informują naukowcy z University of Maryland, Uniwersytetu Stanforda i Cornell University. Powołany przez nich zespół dokonał pierwszej oceny wpływu zmian klimatu na wzrost produkcji rolnej od roku 1961. Wyniki badań opublikowano na łamach Nature Climate Change. Opracowany model wpływu pogody i zmian klimatycznych na produktywność wskazuje, że od roku 1961 antropogeniczne zmiany klimatu zredukowały globalną łączną produktywność czynników produkcji (Total Factor Productivity – TFP) w rolnictwie o 21%. To spowolnienie jest odpowiednikiem utraty 7 lat wzrostu produktywności, czytamy w artykule Anthropogenic climate change has slowed agricultural productiviti growth. Autorzy badań, Ariel Ortiz-Bobea, Toby R. Ault, Carlos M. Carillo, Robert G. Chambers i David B. Lobell informują, że najbardziej dotknięte spowolnieniem wzrostu produktywności są cieplejsze obszary globu. W Afryce, Ameryce Łacińskiej i na Karaibach doszło do spadu o 26–34 procent. Naukowcy zauważyli również, że światowe rolnictwo jest coraz bardziej wrażliwe na zmiany klimatu. Nasze badania wskazują, że klimat i czynniki związane z pogodą już mają olbrzymi wpływ na produktywność w rolnictwie. Wykorzystaliśmy nasz model do wyliczenia, jak wyglądałaby całkowita produktywność czynników produkcji, gdyby nie zachodziły zmiany klimatyczne, mówi profesor Robert Chambers. TFP to wskaźnik wykorzystywany do mierzenia wzrostu w danej dziedzinie produkcji. Rolnictwo jest o tyle specyficznym jej rodzajem, że nie wszystkie czynniki wpływające na produktywność znajdują się pod kontrolą producenta. Czynnikiem takim jest na przykład pogoda. Chambers i Ortiz-Bobea są twórcami nowych metod obliczeniowych, pozwalających wziąć pod uwagę pogodę w sposób, w jaki dotychczas tego nie robiono. Gdy rolnik podejmuje decyzje np. odnośnie tego, co będzie siał w danym miesiącu, niekoniecznie musi wiedzieć, jaki będzie skutek tej decyzji. Dowie się o tym kilka miesięcy później. Istnieje więc tutaj znaczący rozdźwięk między danymi wejściowymi i wyjściowymi, a wpływ na to mają przypadkowe czynniki, jak pogoda. Produktywność to po prostu porównanie danych wejściowych z danymi wyjściowymi. W większość rodzajów działalności gospodarczej jedynym sposobem na zwiększenie produktywności jest dodanie nowych danych wejściowych. Dotychczasowe szacunki produktywności rolnej nie brały pod uwagę historycznych danych pogodowych. My chcieliśmy sprawdzić wpływ tych czynników, które znajdują się poza kontrolą rolnika, mówi Chambers. Dlatego też naukowcy postanowili sprawdzić, jaka byłaby produktywność rolna bez zmian klimatu. Ich praca bazowała na wcześniejszych osiągnięciach, w czasie których Chambers dokonał podobnych wyliczeń dla różnych regionów w USA. Teraz zrobiono to dla całego świata. Nasze badania pozwalają na porównanie USA z innymi regionami świata. Wpływ zmian klimatu na wzrost produkcji rolnej w USA był mierzalny i negatywny. Jednak jest on w mniejszym stopniu negatywny niż w innych regionach świata, w szczególności w Afryce, wyjaśnia uczony. O ile bowiem średni spadek wzrostu produktywności wyniósł dla całego świata 21%, dla Afryki, Ameryki Łacińskiej i Karaibów było to 26–34 procent, w USA, w zależności od regionu, spadek ten wyniósł 5–15 procent. Niektórzy ludzie postrzegają zmiany klimatu jako coś odległego, czym będą musiały martwić się przyszłe pokolenia. Jednak w ten sposób nie zauważają faktu, że ludzie już mienili klimat. Nasze badania pokazują, że antropogeniczne zmiany klimatu w nieproporcjonalnie dużym stopniu dotknęły biedniejszych krajów, w których gospodarce rolnictwo odgrywa większą rolę. Wydaje się, że w przypadku tych krajów postęp technologiczny nie przełożył się jeszcze na większą odporność na zmiany klimatyczne, stwierdza Ortiz-Bobea. Szacuje się, że do roku 2050 na Ziemi będzie niemal 10 miliardów ludzi, których trzeba będzie wykarmić. Jak widać, poważnym problemem staje się zapewnienie odpowiednio szybkiego wzrostu produktywności rolnej, dodaje Chambers. « powrót do artykułu
  10. Rozległe anatomiczne resekcje wątroby wykonywane laparoskopowo mogą stać się standardem postępowania w chirurgii nowotworów wątroby – uważają specjaliści Katedry i Kliniki Chirurgii Ogólnej, Transplantacyjnej i Wątroby Centralnego Szpitala Klinicznego Uniwersyteckiego Centrum Klinicznego WUM, którzy zdecydowali się 8 marca 2021 roku wykorzystać nigdy wcześniej nie stosowaną w Polsce laparoskopową operację usunięcia prawych segmentów marskiej wątroby u pacjenta z rzadkim agresywnym nowotworem tego narządu. Marskość wątroby stanowi nieodwracalne uszkodzenie tego narządu oraz może prowadzić do powstania nowotworów wątroby, w tym nowotworów o typie raka wątrobowokomórkowego, których jest zdecydowana większość, a także agresywnych postaci łączących cechy raka wątrobowokomórkowego i raka dróg żółciowych. Taka sytuacja znacznie ogranicza możliwości leczenia, sprawiając, że usunięcie fragmentu narządu staje się zabiegiem szczególnie skomplikowanym. Marskość wątroby, nawet na etapie zachowanej funkcji narządu, jest związana ze znacznym ograniczeniem rezerwy czynnościowej i możliwości regeneracyjnych. Towarzyszące marskości nadciśnienie wrotne i zaburzenia krzepnięcia zwiększają ryzyko krwawień, zarówno śród- jak i pooperacyjnych – mówi prof. Michał Grąt z Kliniki Chirurgii Ogólnej, Transplantacyjnej i Wątroby CSK UCK WUM, który wraz z współpracownikami podjął się wykonania zabiegu, dodając jednocześnie, że pomimo niebezpieczeństw związanych z tego typu nowotworem usunięcie fragmentu wątroby z guzem oraz transplantacja wątroby stanowią jedyne potencjalnie radykalne metody leczenia. Pacjent, którego zdecydowano się poddać tej pionierskiej w Polsce metodzie leczenia, zwanej laparoskopową operacją prawostronnej hemihepatektomii, borykał się z rzadkim agresywnym nowotworem wątroby o cechach raka wątrobowokomórkowego i raka dróg żółciowych (combined hepatocellular/cholangiocellular carcinoma) z masami nowotworowymi wypełniającymi prawą gałąź żyły wrotnej i jej odgałęzienia. W przypadku naszego pacjenta przeszczepienie wątroby było niemożliwe ze względu na szereg przeciwskazań, takich jak: typ histologiczny nowotworu (komponenta raka dróg żółciowych), obecność mas nowotworowych w układzie wrotnym oraz bardzo wysokie stężenie alfafetoproteiny w surowicy. Z uwagi na znacznie zwiększone ryzyko powikłań pooperacyjnych dla rozległych resekcji wątroby wykonywanych w marskości, zastosowanie dostępu małoinwazyjnego stało się niezwykle korzystne dla zminimalizowania ryzyka – wyjaśnił prof. Michał Grąt. Przebieg pooperacyjny był niepowikłany, chory szybko powrócił do przedoperacyjnego poziomu sprawności i opuścił Klinikę w 8. dobie po operacji. Prawostronne hemihepatektomie, czyli anatomiczne resekcje prawych segmentów wątroby, należą do najbardziej rozległych i najtrudniejszych technicznie laparoskopowych operacji z zakresu chirurgii wątroby i są obarczone najwyższym ryzykiem powikłań, szczególnie krwawień i pooperacyjnej niewydolności wątroby. W przypadku chorych z marskością wątroby, operacje te wykonywane są jedynie w nielicznych i najbardziej wyspecjalizowanych ośrodkach zajmujących się chirurgią wątroby i dróg żółciowych na świecie. Laparoskopia zmniejsza uraz operacyjny, a także krwawienie śródoperacyjne i ból, poprawia proces rehabilitacji po operacji, oraz prowadzi do szybszego powrotu czynności przewodu pokarmowego. Ze względu na duży stopień trudności laparoskopowych resekcji wątroby głównym czynnikiem ograniczającym zastosowanie tego dostępu są umiejętności i doświadczenie zespołu chirurgicznego oraz anestezjologicznego. Rozwój programu laparoskopowych dużych anatomicznych resekcji wątroby w naszej Klinice powoduje, że zastosowanie tej metody leczenia staje się dostępne dla większości chorych z resekcyjnymi nowotworami wątroby – uważa prof. Michał Grąt. Zabieg wykonał zespół w składzie: prof. Michał Grąt (operator), dr Maciej Krasnodębski, dr Marcin Morawski, dr Konrad Kobryń oraz dr Marta Dec (anestezjolog). Rozwojem programu rozległych laparoskopowych resekcji wątroby zainteresowałem się przed 2 laty podczas stażu w Klinice Chirurgicznej w Heidelbergu. Zespół pod kierownictwem prof. Buchlera wykonywał tam różnorodne laparoskopowe i robotowe operacje onkologiczne w obrębie jamy brzusznej. Po pierwszych przygotowaniach, polegających na wykonywaniu mniej rozległych resekcji wątroby metodą laparoskopową, prof. Krzysztof Zieniewicz zaakceptował rozpoczęcie programu rozległych resekcji anatomicznych. Wsparcie Pana Profesora umożliwiło nam przezwyciężenie szeregu trudności naturalnie występujących przy wprowadzaniu trudnych i ryzykownych operacji – mówi prof. Michał Grąt. Od września 2020 r. do chwili obecnej prof. Michał Grąt i współpracownicy wykonali w Klinice Chirurgii Ogólnej, Transplantacyjnej i Wątroby CSK UCK WUM, kierowanej przez prof. Krzysztofa Zieniewicza, kilkanaście laparoskopowych rozległych anatomicznych resekcji wątroby z powodu pierwotnych i wtórnych nowotworów tego narządu. « powrót do artykułu
  11. Ruszyła największa w Europie sieć koordynująca badania astronomiczne - OPTICON-RadioNet Pilot (ORP). Biorą w niej udział astronomowie z Uniwersytetu Mikołaja Kopernika w Toruniu oraz Uniwersytetu Warszawskiego. Projekt o wartości 15 mln euro jest finansowany z programu Komisji Europejskiej Horyzont 2020. Połączenie dwóch sieci Dotąd w Europie działały 2 główne sieci, które koordynowały współpracę instrumentów naziemnych. OPTICON był związany z obserwacjami w zakresie widzialnym, zaś RadioNet w zakresie radiowym. Powstała w wyniku ich połączenia ORP zapewni europejskim naukowcom dostęp do szerokiej gamy teleskopów oraz, co ważne, wesprze rozwój naukowy młodych astronomów. Jak podkreślono w komunikacie na stronie Uniwersytetu Mikołaja Kopernika, projekt ORP ma na celu rozwój tzw. astronomii wieloaspektowej, obejmującej nie tylko badania w szerokim zakresie promieniowania elektromagnetycznego, ale także fale grawitacyjne, promieniowanie kosmiczne i neutrina. Dlatego duży nacisk kładzie się na ujednolicenie metod i narzędzi obserwacyjnych oraz rozszerzenie dostępu do wielu różnych instrumentów astronomicznych. OPTICON-RadioNet Pilot Projektem kierują Centre National de la Recherche Scientifique (CNRS), Uniwersytet w Cambridge oraz Instytut Radioastronomii im. Maxa Plancka w Bonn. Współpraca obejmuje 37 instytucji z 15 krajów europejskich, Australii i RPA. W ramach opisywanego przedsięwzięcia zaplanowano opracowanie standardów obserwacji nieba i analizy danych dla teleskopów optycznych i radioteleskopów. Projekt ma też ułatwić europejskim astronomom dostęp do najlepszych teleskopów na świecie, np. 100-metrowego radioteleskopu z Bonn. Zadania zespołów z Torunia i Warszawy Badania naukowe w ramach ORP na Uniwersytecie Mikołaja Kopernika będą prowadzone zarówno w zakresie radiowym, jak i widzialnym przy użyciu instrumentów znajdujących się w Obserwatorium Astronomicznym UMK w Piwnicach pod Toruniem. Całość prac naukowych na UMK będzie koordynowana przez dr hab. Agnieszkę Słowikowską [...]. W zakresie radiowym użyty zostanie największy polski radioteleskop o średnicy 32 metrów, który w 2020 r. przeszedł gruntowną renowację. Natomiast do pomiarów w zakresie widzialnym wykorzystany zostanie największy w Polsce teleskop optyczny (zwierciadło główne o średnicy 90 cm). Dr Słowikowska została wybrana na przewodniczącą zespołu koordynującego ORP (w jego skład wchodzi 37 reprezentantów wszystkich zaangażowanych instytucji). Zespół z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego, którym kieruje prof. Łukasz Wyrzykowski, będzie z kolei odpowiadać za koordynację działania rozproszonych po całym świecie małych i średnich teleskopów naziemnych; jego celem będzie monitorowanie zmienności czasowej interesujących obiektów. Sieć składa się z ok. 100 teleskopów, w tym 50 robotycznych. Jednym z jej elementów jest 60-centymetrowy teleskop, znajdujący się w Północnej Stacji Obserwacyjnej UW w Ostrowiku pod Warszawą - wyjaśniono w relacji prasowej UW. Od 2013 r. zespół prof. Wyrzykowskiego brał udział w pracach sieci OPTICON. Opierając się na zdobytym doświadczeniu, opracowano system internetowy do obsługi licznych teleskopów i wysyłania zamówień na systematyczne obserwacje tych samych obiektów (w ten sposób można badać ich zmienności). Takie narzędzie ułatwia naukowcom prowadzenie badań obiektów tymczasowych i zmiennych w czasie, np. supernowych czy zjawisk soczewkowania grawitacyjnego wywołanych przez czarne dziury. Tego typu obserwacje niejednokrotnie muszą być prowadzone przez wiele miesięcy, a nawet lat. Sieć wielu małych teleskopów rozmieszczonych na całym świecie zapewnia możliwość obserwacji obu półkul nieba przez całą dobę - tłumaczą astronomowie z Warszawy. Zespół, który z ramienia Obserwatorium Astronomicznego UW bierze w projekcie ORP, tworzą: dr Mariusz Gromadzki, mgr Krzysztof Rybicki, mgr Monika Sitek i prof. dr hab. Łukasz Wyrzykowski. Należy podkreślić, że astronomowie z UW od wielu lat zajmują się systematycznym monitorowaniem zmienności obiektów. To tu w latach 60. zeszłego stulecia Bohdan Paczyński prowadził badania nad obserwacyjnymi aspektami fal grawitacyjnych w układach podwójnych gwiazd. Od 1996 r. astronomowie prowadzą zaś pod przewodnictwem prof. Andrzeja Udalskiego długotrwałe obserwacje nieba za pomocą Teleskopu Warszawskiego w Chile (odkrywają planety i gwiazdy zmienne). « powrót do artykułu
  12. Naukowcy pracujący przy eksperymencie ALPHA prowadzonym w CERN-ie są pierwszymi, którym udało się schłodzić antymaterię za pomocą lasera. Osiągnięcie otwiera drogę do lepszego poznania wewnętrznej struktury antywodoru i zbadania, w jaki sposób zachowuje się on pod wpływem grawitacji. Antywodór to najprostsza forma atomowej antymaterii. Teraz, gdy mamy możliwość ich chłodzenia, naukowcy będą mogli przeprowadzić porównania atomów antywodoru z atomami wodoru, dzięki czemu poznamy różnice pomiędzy atomami antymaterii i materii. Znalezienie takich ewentualnych różnic pozwoli na lepsze zrozumienie, dlaczego wszechświat jest stworzony z materii. To zupełnie zmienia reguły gry odnośnie badań spektroskopowych i grawitacyjnych i może rzucić nawet światło na badania nad antymaterią, takie jak tworzenie molekuł antymaterii i rozwój interferometrii antyatomowej, mówi rzecznik prasowy eksperymentu ALPHA, Jeffrey Hangst. Jeszcze przed dekadą laserowe chłodzenie antymaterii należało do dziedziny science-fiction. W eksperymencie ALPHA atomy antywodoru powstają dzięki antyprotonom uzyskiwanym w Antiproton Decelerator. Są one łączone z pozytonami, których źródłem jest sód-22. Zwykle tak uzyskane atomy antywodoru są więzione w pułapce magnetycznej, co zapobiega ich kontaktowi z materią i anihilacji. W pułapce tej najczęściej prowadzone są badania spektroskopowe, podczas których mierzona jest reakcja antyatomów na wpływ fali elektromagnetycznej – światła laserowego lub mikrofal. Jednak precyzja takich pomiarów jest ograniczona przez energię kinetyczną, czyli temperaturę, antyatomów. Tutaj właśnie pojawia się potrzeba schłodzenia. Technika laserowego chłodzenia atomów polega na oświetlaniu ich laserem o energii fotonów nieco mniejszej niż energia przejść między poziomami energetycznymi dla danego pierwiastka. Fotony są absorbowane przez atomy, które wchodzą na wyższy poziom energetyczny. A wchodzą dzięki temu, że deficyt energii fotonu potrzebny do przejścia pomiędzy poziomami uzupełniają z własnej energii kinetycznej. Następnie atomy emitują fotony o energii dokładnie dopasowanej do różnicy energii poziomów atomu i spontanicznie powracają do stanu pierwotnego. Jako, że energia emitowanego fotonu jest nieco wyższa od energii fotonu zaabsorbowanego, wielokrotnie powtarzany cykl absorpcji-emisji prowadzi do schłodzenia atomu. Podczas najnowszych eksperymentów naukowcy z ALPHA przez kilkanaście godzin chłodzili laserem chmurę atomów antywodoru. Po tym czasie stwierdzili, że średnia energia kinetyczna atomów obniżyła się ponad 10-krotnie. Wiele z atomów osiągnęło energię poniżej mikroelektronowolta, co odpowiada temperaturze około 0,012 kelwina. Następnie antywodór poddano badaniom spektroskopowym i stwierdzono, że dzięki schłodzeniu osiągnięto niemal 4-krotnie węższą linię spektralną niż przy badaniach prowadzonych bez chłodzenia laserowego. Przez wiele lat naukowcy mieli problemy z laserowym chłodzeniem wodoru, więc sama myśl o chłodzeniu antywodoru była szaleństwem. Teraz możemy marzyć o jeszcze większych szaleństwach z udziałem antymaterii, mówi Makoto Fujiwara, który zaproponował, by przeprowadzić powyższy eksperyment. « powrót do artykułu
  13. Szkoła Główna Gospodarstwa Wiejskiego (SGGW) w Warszawie jest pierwszą uczelnią w Polsce, posiadającą dynamiczny model sztucznego przewodu pokarmowego. Aparatura, która pozwala na wierne naśladowanie, a także monitorowanie procesów zachodzących w żołądku, jelicie cienkim i jelicie grubym w kontrolowanych warunkach, będzie wykorzystywana do prac badawczych w tutejszym Instytucie Nauk o Żywieniu Człowieka. Jak poinformowała SGGW, model SHIME2® umożliwia badania mikrobioty różnych grup wiekowych: dzieci, dorosłych oraz osób starszych. Ma być wykorzystywany do przeprowadzania szerokiego spektrum doświadczeń w zakresie, między innymi, metabolizmu składników diet czy ich wpływu na mikrobiotę jelitową. Wspomina się również o badaniach dotyczących żywności probiotycznej. Aparaturę kupiono w ramach projektu pt. "Centrum Żywności i Żywienia - modernizacja kampusu SGGW w celu stworzenia Centrum Badawczo-Rozwojowego Żywności i Żywienia (CŻiŻ)". « powrót do artykułu
  14. Daliście się nabrać na przypadkowe przełączenie i uruchomienie Zooma na maszynie kwantowej? :) Międzynarodowy zespół naukowy wykorzystał Sycamore, kwantowy komputer Google'a, do obsługi oprogramowania wideokonferencyjnego Zoom. Eksperci mają nadzieję, że dzięki współpracy z komputerem kwantowym – który wykazał swoją przewagę w niektórych zadaniach nad komputerami klasycznymi – możliwe będzie umieszczenie uczestników rozmowy w więcej niż jednym wirtualnym pokoju. Autorzy badań nad „kwantową przewagą Zooma” twierdzą, że do jej zauważenia doszło przypadkiem. Miało to miejsce, gdyż Benedetta Brassard, fizyk kwantowa z University of Waterloo, przypadkowo połączyła Zooma z Sycamore podczas online'owego spotkania. Brassard pracuje w ramach International Fault Tolerant Benchmarking Team (FiT/BiT). Brałam udział w online'owym spotkaniu FiT/Bit i postanowiłam na chwilę przełączyć się na panel Sycamore'a, by sprawdzić, jak idą moje kwantowe obliczenia. W tym momencie Brassard otrzymała mema dotyczącego algorytmu Shora. Mem ją rozproszył i w jakiś sposób uczona podłączyła swojego Zooma do komputera kwantowego. Jedni koledzy zaczęli mnie informować, że wyłączyłam dźwięk, podczas gdy inni mnie słyszeli. Zauważyłam, że coś jest nie tak, gdy na ekranie zaczęły pojawiać mi się liczne wersje Zooma, stwierdza uczona. Jej zdaniem Sycamore zastosował znaną z mechaniki kwantowej teorię wielu światów. Jedynym sposobem na powrót sesji Zooma do świata klasycznego było wykonywanie pomiarów, czyli w tym przypadku zwracanie uwagi na to, co mówią inni, wspomina Brassard. Na szczęście uczona wiedziała, jak to zrobić. Niedawno bowiem prowadziła doktoranta, który w ramach swoich zainteresowań implementował Instagrama na komputer kwantowy D-Wave 2000Q. Naszym zadaniem było określenie optymalnej pory dnia, w której influencerzy powinni wstawiać na Instagrama poty związane z domowymi zwierzętami. Odkryliśmy, że jest to problem NP. Brassard wiedziała więc, jak przełączyć aplikację ze stanu kwantowego w klasyczny. Cała sytuacja została opisana na łamach Quantum Advances in Computing and Correlation. Autorzy badań rozpoczęli prace nad stworzeniem mechanizmu, który pozwoliłby użytkownikom Zooma na jednoczesne istnienie w wielu wirtualnych pokojach. « powrót do artykułu
  15. Jak wyglądał kalendarz Azteków? Jakim bogom Aztekowie oddawali cześć? W jaki sposób rozpoznawano, czy dany dzień jest odpowiedni na prace rolnicze lub do zawarcia małżeństwa? Tego można dowiedzieć się z „Kodeksu Watykańskiego B (Vat. Lat. 3773)”. Międzynarodowy zespół naukowców – kierowany przez dr hab. Katarzynę Mikulską z Wydziału Neofilologii UW – opracował naukową publikację prekolumbijskiego manuskryptu, przechowywanego w Bibliotece Watykańskiej. Dzieło jest jednym z najważniejszych projektów badawczych, które do tej pory zostały zrealizowane w ramach współpracy polsko-meksykańskiej. „Kodeks Watykański B” to dokument z grupy Kodeksów Borgia, w którym znajdują się bogato ilustrowane informacje dotyczące 260-dniowego kalendarza Azteków – tonalpohualli. Kodeksy te to jeden z wielu rodzajów ksiąg starożytnego Meksyku, na kartach których spisywano historie, genealogie, rytuały i wierzenia rdzennych mieszkańców Mezoameryki. „Kodeks Watykański B (Vat. lat. 3773)” to księga dywinacyjna. Złożona jest z almanachów dotyczących m.in. dni urodzenia, małżeństw, narodzin, almanachów rolniczych czy pogody. To jednak przede wszystkim dokument, który przedstawia informacje dotyczące sił boskich mających wpływ na konkretne dni lub okresy, determinujące działania, jakie można wtedy podejmować – mówi dr hab. Katarzyna Mikulska z Instytutu Studiów Iberyjskich i Iberoamerykańskich Uniwersytetu Warszawskiego, kierownik międzynarodowego projektu. Kodeks powstał kilkadziesiąt lub więcej lat przed przybyciem Hiszpanów do dzisiejszego Meksyku, najprawdopodobniej w międzykulturowym regionie na granicy współczesnych stanów Puebla i Oaxaca. Jak wszystkie dywinacyjne kodeksy z grupy Borgia, został wykonany na skórze zwierzęcej, pokrytej gipsem lub innym związkiem wapnia. Dzięki niemu możemy dowiedzieć się więcej na temat myśli, wierzeń, kultury oraz finezyjnego systemu komunikacji graficznej Indian środkowego Meksyku. Wśród bogów, którzy pojawiają się na kartach „Kodeksu Watykańskiego B”, są bogowie słońca – Tonatiuh, kukurydzy – Cinteotl, deszczu – Tlaloc, jak również boginie płodności i porodów – Tlazolteotl, wody – Chalchiuhtlicue czy kwiatów i miłości – Xochiquetzal. Publikacja kodeksu była możliwa dzięki współpracy trzech instytucji: Uniwersytetu Warszawskiego, Narodowego Uniwersytetu Autonomicznego w Meksyku (UNAM) oraz Biblioteki Watykańskiej. Dzieło składa się z trzech części: – z wiernej reprodukcji prekolumbijskiego manuskryptu – „Kodeksu Watykańskiego B (Vat. Lat. 3773)”, – odwzorowania przez dr hab. Katarzynę Mikulską zawartości manuskryptu (wszystkich rysunków opatrzonych podpisami) w formie przezroczystej nakładki (tzw. „Códice Traslúcido Explicativo”) albo „duszek” (tzw. „Fantasma”), – 600-stronicowego komentarza zat. „Nuevo Comentario al Códice Vaticano B (Vat. Lat. 3773”, przygotowanego przez międzynarodowy zespół dr hab. Mikulskiej, złożony z naukowców z Polski, Meksyku, Hiszpanii, Włoch, Francji, Stanów Zjednoczonych, Gwatemali i Japonii. Praca badaczy to, jak do tej pory, najbardziej kompleksowa analiza przedhiszpańskiego mezoamerykańskiego kodeksu, opierająca się zarówno na analizie treści, nowym podejściu teoretyczno-metodologicznym oraz wynikach badań kodykologicznych (również dzięki współpracy zespołu z grupą MOLAB – Mobile Laboratory z Bolonii) – wyjaśnia dr Joanna Gocłowska-Bolek, która z ramienia UW wspomagała koordynację projektu we współpracy z UNAM i Biblioteką Watykańską. Dzięki publikacji możemy zrozumieć, jak meksykańskie kodeksy były tworzone, jaką odgrywały rolę oraz jak skomplikowany system komunikacji graficznej w nich zastosowany, kodował wyrafinowane znaczenia – dodaje dr Joanna Gocłowska-Bolek. « powrót do artykułu
  16. Po tym jak rzeka Serchio po raz kolejny zalała Lukkę, biskup Frigidianus wziął motykę i wyznaczył nowy jej bieg. Gdy zbliżała się kolejna powódź, biskup uniósł ramiona, nakazując jej podążać nowym korytem. Rzeka posłuchała świętego. Taką opowieść znajdziemy w Dialogach spisanych prawdopodobnie przez samego papieża Grzegorza Wielkiego. Jednym z celów Dialogów było rozpowszechnienie kultu świętych. Jednak tym, co zainteresowało badaczy jest fakt, że w VI wieku w północnych i środkowych Włoszech pojawiają się liczne opisy ekstremalnych zjawisk hydrologicznych i cudów związanych z wodą. We wnętrzu stalagmitu, pobranego z jaskini Renella w północnych Włoszech, badacze zauważyli warstwy odkładające się przez wieki w wyniku naciekania. Okazuje się, że w VI wieku przynajmniej część Italii stała się obszarem dotkniętym ulewnymi deszczami i powodziami. Międzynarodowy zespół naukowców, którego członkiem jest dr hab. Robert Wiśniewski z Wydziału Historii UW, przeprowadził interdyscyplinarne badania zmian klimatycznych zachodzących w VI wieku na terenie dzisiejszych północnych Włoch. Rezultaty badań opisane w czasopiśmie „Climatic Change” wskazują, że teren ten był obszarem zwiększonych opadów i powodzi, które w konsekwencji wpływały na dynamikę przemian społecznych i kulturowych. W pracach badawczych wykorzystano metody paleoklimatyczne i analizę źródeł historycznych. Punktem wyjścia były badania próbek nacieków jaskiniowych z jaskini Renella, znajdującej się w Alpach Apuańskich, w północnej Toskanii, niedaleko Pizy. Naukowcy odkryli, że obszar północnej i centralnej Italii w VI wieku wyróżniał się wyjątkowym poziomem wilgotności, który był związany z długotrwałą fazą Oscylacji Północnoatlantyckiej, czyli zmniejszoną różnicą ciśnień między Wyżem Azorskim a Niżem Islandzkim. Dzięki takiemu układowi ciśnienia atmosferycznego na tereny te docierała duża ilość wilgotnych mas powietrza znad północnego Atlantyku, doprowadzając do potężnych opadów i powodzi. We wnętrzu stalagmitu, pobranego z jaskini Renella, badacze zauważyli warstwy odkładające się przez wieki w wyniku naciekania. Za pomocą pomiaru proporcji izotopów tlenu w kolejnych warstwach stalagmitu, rozróżnili okresy bardziej wilgotne i suche, których wiek oszacowali z wykorzystaniem datowań uranowo-torowych. Odkrycie nacieków w jaskini Renella stało się podstawą do dalszych badań interdyscyplinarnych z pogranicza klimatologii i historii. Międzynarodowy zespół skonfrontował dane fizyczne świadczące o zwiększonych opadach z przekazami historycznymi, zawartymi w powstałych wtedy dziełach pisanych. Naukowcy porównali literaturę hagiograficzną z VI-wiecznej Italii z innymi przykładami tego rodzaju piśmiennictwa. Badacze odnaleźli w pismach pochodzących z Italii wiele opisów tzw. cudów wodnych, w których święci ściągają lub zatrzymują gwałtowne deszcze, burze i powodzie. We wcześniejszej i późniejszej literaturze hagiograficznej, a także w powstałych w tym samym czasie pismach na trenie dzisiejszej Francji, opowieści o cudach wodnych były prawie nieobecne. To wyjątkowe zainteresowanie twórców pism późnej starożytności zjawiskami hydroklimatycznymi, badacze interpretują nie tylko jako potwierdzenie istnienia zmian klimatycznych, ale także jako świadectwo wpływu tych zmian na przemiany społeczne i kulturowe ludności zamieszkującej te tereny. Naukowcy łączą zachodzące wtedy zjawiska klimatyczne z przyjęciem przez biskupów pod koniec VI wieku roli lokalnych przywódców, a także z rozwojem kultu świętych „posiadających władzę” nad żywiołem wody. W VI wieku przynajmniej część Italii stała się obszarem ulewnych deszczów i powodzi. Tę wiedzę zawdzięczamy zaangażowanym w projekt geochemikom, geologom i klimatologom. Historycy pokazali natomiast, jak mieszkańcy północnych i centralnych terenów dzisiejszych Włoch próbowali radzić sobie z tą zmianą na poziomie religijnym i jednocześnie wykorzystać ją do promowania nowych autorytetów – podsumowuje dr hab. Robert Wiśniewski, współautor artykułu. Więcej na ten temat przeczytamy w artykule Beyond one-way determinism: San Frediano’s miracle and climate change in Central and Northern Italy in late antiquity. « powrót do artykułu
  17. Włoscy uczeni postanowili znaleźć te miejsca Drogi Mlecznej, w których życie może najbezpieczniej się rozwijać. Ocenili historyczną zdolność do podtrzymania życia w Drodze Mlecznej z uwzględnieniem wpływu eksplozji supernowych i rozbłysków gamma. Zjawiska te mogą bowiem zniszczyć życie w zasięgu swojego oddziaływania. Przy okazji zaś przetestowali hipotezę mówiącą, że to rozbłysk gamma był odpowiedzialny za wymieranie w ordowiku (ok. 445 milionów lat temu). Wybuchy supernowych i rozbłyski gamma niosą ze sobą olbrzymią ilość promieniowania, które może odrzeć atmosferę planety z ochronnej warstwy ozonu. Bez tej warstwy do powierzchni planety dociera szkodliwe promieniowanie zdolne do zabicia życia. Przed około 359 milionami lat pobliska supernowa prawdopodobne doprowadziła do masowego wymierania na Ziemi. Gdyby znajdowała się bliżej, mogłaby zabić całe życie. Eksperci z Università dell’Insubria, Osservatorio Astronomico di Brera, Sezione Milano–Bicocca oraz Università Milano–Bicocca zdolność do bezpiecznego utrzymania życia szacowali na podstawie odległości potencjalnych planet typu ziemskiego od centrum galaktyki. Wykorzystali tutaj dane dotyczące pojawiania się supernowych i rozbłysków gamma z historią ewolucji poszczególnych gwiazd oraz z zawartością cięższych pierwiastków (tzw. metali) w gwiazdach w całej galaktyce. Wzięli też pod uwagę prawdopodobieństwo pojawienia się planet typu ziemskiego w pobliżu gwiazd typu M i FGK. W ten sposób mogli sprawdzić, w jakiej odległości od badanych gwiazd doszło do potencjalnie destrukcyjnego wydarzenia astrofizycznego. Na podstawie badań Włosi doszli do wniosku, że jeszcze około 6 miliardów lat temu najbezpieczniejszym regionem dla życia były obrzeża naszej galaktyki. Jednak sytuacja ta uległa zmianie w ciągu ostatnich około 4 miliardów lat. Obecnie od około 500 milionów lat najbezpieczniejszym stał się region położony w odległości 2–8 tysięcy parseków od centrum galaktyki. Jeden parsek to około 3,26 roku świetlnego. Szczęśliwie dla nas niedawne badania wykazały, że Ziemia znajduje się bliżej czarnej dziury niż sądzono, dzięki czemu znaleźliśmy się wewnątrz obszaru wyznaczonego obecnie przez Włochów. Naukowcy potwierdzili przyczynę wspomnianego na wstępie wymierania w ordowiku. To jasno pokazuje, że nasz region nie jest całkowicie bezpieczny, gdyż byłoby to drugie takie wydarzenie w historii Ziemi w ciągu ostatnich 500 milionów lat. Jednak w tym samym czasie krańce Drogi Mlecznej zostały wysterylizowane przez 2-5 długotrwałych rozbłysków gamma, stwierdzają autorzy badań. « powrót do artykułu
  18. Pod koniec marca ukazało się opracowanie pt. "Polskie ośrodki astronomiczne". Przedstawia ono placówki naukowe zajmujące się badaniami kosmosu, a także zestawienia dot. działalności edukacyjno-popularyzacyjnej. Za publikacją stoją Polskie Towarzystwo Astronomiczne (PTA) oraz Obserwatorium Astronomiczne Uniwersytetu Jagiellońskiego (OA UJ). Informator zawiera aktualne dane o polskich ośrodkach astronomicznych, ich aktywności naukowej, potencjale kadrowym i możliwościach kształcenia. Dodatkowe [...] informacje, to: mapa planetariów oraz spisy miłośniczych organizacji i mediów popularyzujących astronomię – wyjaśnia prof. dr hab. Marek Sarna, prezes Polskiego Towarzystwa Astronomicznego. Informator jest pracą zbiorową (informacje o danym ośrodku przygotowywały osoby z nim związane). W publikacji przedstawiono wszystkie polskie placówki naukowe, które zajmują się badaniami astronomicznymi i pokrewnymi. Poza ogólną wizytówką pojawia się opis głównych dziedzin badań. Przy niektórych ośrodkach wymieniane są także główne projekty. Jeden z rozdziałów jest poświęcony udziałowi Polski w organizacjach międzynarodowych. Nie mogło tu zabraknąć infografik z polskimi teleskopami za granicą oraz ośrodkami ESA (Europejskiej Agencji Kosmicznej) i ESO (Europejskiego Obserwatorium Południowego). Jeśli kogoś interesuje nauka astronomii, znajdzie w informatorze zestawienie miejsc oferujących studia licencjackie i magisterskie oraz szkół doktorskich. Kolejna część publikacji jest poświęcona obserwatoriom edukacyjnym i szkolnym. Nie zapomniano także o astronomii amatorskiej, mediach astronomicznych i historii polskiej astronomii w skrócie. Zdecydowanie brakowało aktualnego informatora kompleksowo pokazującego cały przekrój badań astronomicznych prowadzonych w Polsce. Tę lukę wypełnia wydane właśnie opracowanie. Będziemy chcieli kontynuować ten kierunek i w przyszłości przygotować dodatkowe opracowanie dotyczące także placówek edukacyjnych i popularyzujących astronomię. Ośrodki i organizacje z całej Polski, również te niewielkie, zachęcamy już teraz do kontaktu – podkreśla dr Krzysztof Czart, koordynator projektu. Wersja anglojęzyczna informatora pt. "Polish astronomical facilities" jest dostępna w formie drukowanej i elektronicznej. Promocja naszych ośrodków naukowych poza granicami Polski jest niezwykle istotna. Trzeba pokazywać, jakie badania prowadzimy, w czym polskie placówki się specjalizują, jakie sukcesy odnoszą. Przekłada się to, na przykład, na udział w wiodących światowych projektach naukowych i [...] inną współpracę, chociażby w zakresie prowadzenia doktoratów i staży dla młodych naukowców, a w konsekwencji na lepszy rozwój polskiej nauki i na lepsze jej dostosowanie do współczesnych trendów w nauce europejskiej i światowej – wyjaśnia Tomasz Kundera z Obserwatorium Astronomicznego Uniwersytetu Jagiellońskiego. Wydanie publikacji było możliwe dzięki finansowaniu z Narodowej Agencji Wymiany Akademickiej w ramach Programu Promocja Zagraniczna. Opracowanie pt. "Polskie ośrodki astronomiczne" można pobrać bezpłatnie z tej strony. Bezpłatna wersja papierowa będzie rozprowadzana przez poszczególne instytuty oraz dołączona jako dodatek do któregoś z najbliższych numerów "Uranii". Polskie Towarzystwo Astronomiczne jest stowarzyszeniem naukowym zrzeszającym zawodowych astronomów. Powstało w 1923 roku. Wspiera rozwój nauk astronomicznych w Polsce, prowadzi także różne projekty edukacyjne i popularnonaukowe. Obserwatorium Astronomiczne Uniwersytetu Jagiellońskiego jest najstarszym polskim obserwatorium astronomicznym. Istnieje od 1792 roku. Tutejsi specjaliści zajmują się, m.in.: badaniami gwiazd, galaktyk, komet, astrofizyką wysokich energii, kosmologią, radioastronomią, obserwacjami Słońca oraz astronomią pozagalaktyczną. « powrót do artykułu
  19. W kilku miejscach w parkach narodowych Biebrzańskim i Białowieskim rozpoczęły się akcje ratowania płazów, by nie ginęły pod kołami samochodów w trakcie wiosennych wędrówek do miejsc rozrodu. Ustawiono płotki, które zabezpieczają płazy przed wejściem na drogi. Tak zatrzymane są bezpiecznie przenoszone. Swoją akcję na fragmencie tzw. carskiej drogi, czyli drogi ze Strękowej Góry w stronę Osowca przez Biebrzański PN prowadzą studenci z Koła Naukowego Biologów Uniwersytetu w Białymstoku. Płotki herpetologiczne ustawiono tam na kilkuset metrach wzdłuż drogi, w miejscu, które już przed laty uznano za newralgiczne w migracjach płazów - poinformował PAP Dawid Mioduszewski z Koła Naukowego Biologów. Dodał, że akcja ratowania płazów jest prowadzona właśnie w tym miejscu, bo ginęło tam najwięcej tych zwierząt. Płotki na carskiej drodze ustawiono 18 marca, ale płazy pojawiły się tam masowo w ostatni weekend 27-28 marca, bo sprzyjała temu pogoda, było ciepło i popadał deszcz. Codziennie albo studenci albo pracownicy Biebrzańskiego PN są na miejscu, przenoszą płazy, które nie mogąc pokonać płotków wpadają do wkopanych w ziemię wiaderek i są bezpiecznie przenoszone na drogą stronę drogi. Monitoring płazów na carskiej drodze studenci prowadzą od 2015 r. po tym, gdy droga ta przeszła remont i zwiększył się na niej ruch. Badają, jakie gatunki migrują w tym miejscu, ile ich jest, ale też, jakie gatunki giną na drodze. Studenci oceniają na podstawie dotychczasowych obserwacji, że być może bieżący rok będzie obfitował w płazy, bo już teraz zaobserwowano ich sporo. Dawid Mioduszewski poinformował, że podczas weekendu 27-29 marca przeniesiono ok. 250 płazów, z czego prawie wszystkie jednego dnia, w niedzielę. Przypomniał, że były lata, gdy podczas całej akcji przeniesiono kilkaset płazów. Rekordowym rokiem był 2018, gdy pomoc w bezpiecznych wędrówkach dostało 2,7 tys. płazów. Sporo - 1,4 tys. było też w 2015 r. Sporo też jednak płazów wciąż ginie pod kołami samochodów. Tylko w weekend 27-28 marca na odcinku Laskowiec - Osowiec Twierdza studenci naliczyli 580 martwych płazów, które zostały rozjechane przez samochody. Sylwia Mikłosz z Koła Biologów poinformowała PAP, że było wśród nich wiele rzadkich gatunków, np. rzekotka drzewna czy traszka grzebieniasta. Mikłosz przyznaje, że nie jest wykluczone, że tak dużo płazów zginęło, bo z powodu pandemii i związanych z nią ograniczeń, coraz więcej osób chętniej wyjeżdża samochodami w plener, na spacery i wędrówki po Biebrzańskim PN, szukając odpoczynku, relaksu. Studenci mówią, że sami obserwują duży ruch, a w plenerze spotykają też coraz więcej ludzi. Biebrzański PN poinformował także w mediach społecznościowych, że płotki, by chronić płazy, tak jak w latach ubiegłych są również ustawione przy drodze z Goniądza do Wólki Piasecznej. Akcja czynnej ochrony płazów jest też prowadzona np. w Białowieskim PN. Park organizuje ją od lat. Płotki są w tym sezonie ustawione na łącznej długości ok. jednego kilometra w rejonie Białowieży i Narewki. « powrót do artykułu
  20. W 2015 roku u mieszkańców Amazonii znaleziono ślad genetyczny świadczący o ich kontaktach z ludnością zamieszkującą Australazję. Od tamtego czasu pojawiło się wiele hipotez próbujących wyjaśnić istnienie tego śladu. Tym bardziej, że nie zauważono go u wczesnych mieszkańców Ameryki Północnej. Teraz okazuje się, że wspomniany ślad genetyczny jest bardziej rozpowszechniony, niż się wydawało. Obecnie uznaje się, że Ameryki zostały zasiedlone przez ludzi, którzy przybyli z Azji przez Alaskę i powędrowali na południe, rozprzestrzeniając się po obu kontynentach. Tymczasem naukowcy z brazylijskich Universidade de São Paulo i Universidade Federal do Rio Grande do Sul oraz hiszpańskiego Universitat Pompeu Fabra informują na łamach PNAS, że australazjatycki ślad genetyczny odkryli też u ludów mieszkających poza Amazonią. Po przeanalizowaniu próbek krwi od 383 osób i sprawdzeniu 438 443 znaczników okazało się, że wspomniany ślad – marker Y (Ypikuera) – występuje u ludzi zamieszkujących wyżynę w centrum Brazylii, zachodnią część tego kraju oraz u ludu Chotuna z Peru. Zdaniem naukowców świadczy to nie tylko o napływie ludności z Australazji, ale o istnieniu dwóch fal takiej migracji. To zaś każe się zastanowić, nad tym, w jaki sposób ludzie ci trafili do Ameryki Południowej oraz dlaczego sygnału świadczącego o ich obecności nie stwierdzono w Ameryce Północnej. Niektórzy sugerują, że populacja z markerem Y mogła wyginąć po przybyciu Europejczyków na kontynent północnoamerykański. Inni zaś uważają, że dokładniejsze badania genomu rdzennych mieszkańców Ameryki Północnej wykaże obecność markera Y również i tam. Jeśli jednak uznamy, że ślad ten nie występuje i nigdy nie występował w Ameryce Północnej, będziemy musieli rozważyć możliwość, iż ludzie z Australazji dotarli do Ameryki Południowej drogą morską, pokonując tysiące kilometrów otwartego oceanu. Hipoteza taka wydaje się szczególnie uprawniona w świetle najnowszych badań. Brazylijsko-hiszpański zespół informuje bowiem, że marker Y pojawił się w Ameryce Południowej najpierw na wybrzeżu Pacyfiku, dlatego też brakuje go w Ameryce Środkowej i Północnej. « powrót do artykułu
  21. Gdy w 1890 roku japoński ekonomista Inagaki Manjiro przewidywał nadejście epoki Pacyfiku, euroatlantycki porządek światowy kontrolowany przez imperium brytyjskie wydawał się wieczny. Gdy w 1988 r. przywódcy Chin i Indii Deng Xiaoping i Rajiv Gandhi głosili nastanie wieku Azji, Stany Zjednoczone znajdowały się w apogeum swojej mocarstwowości, a niektórzy politolodzy wieszczyli koniec historii i wieczne rządy liberalnej demokracji. Dziś wiek Azji i Pacyfiku staje się rzeczywistością, w której żyjemy, czytamy w liście intencyjnym podpisanym przez dra hab. Gościwita Malinowskiego z Uniwersytetu Wrocławskiego, dra hab. Grzegorza Krzosa z Uniwersytetu Ekonomicznego we Wrocławiu oraz Łukasza Osińskiego, prezesa Izby Gospodarczej Europy Środkowej. Dlatego też sygnatariusze listu postanowili powołać do życia Centrum Studiów Azjatyckich. Ma być to miejsce nie tyko spotkań i dysputy naukowej, wymiany doświadczeń i umiejętności, ale też miejsce, w którym przedstawiciele wszystkich nauk, od humanistycznych po inżynieryjno-techniczne, będą mogli nie  tylko  przedstawić  swoje  dokonania, ale także wziąć udział w wspólnych projektach badawczych, czy to zainicjowanych spontanicznie przez uczonych, czy to zamówionych przez przedstawicieli biznesu lub administracji państwowej i samorządowej. Po 1898 roku w Polsce dopuszczono się wielu zaniechań w kontaktach z krajami Azji. Przejawiło się to m.in. zamknięciem placówek dyplomatycznych w Mongolii, Jemenie czy Afganistanie. Niejednokrotnie zaprzepaszczono dobre stosunki z krajami tego regionu. Tymczasem badania nad krajami azjatyckimi mają w Polsce piękną i długą tradycję, wyznaczaną takimi nazwiskami jak Benedykt Polak, Michał Boym, Benedykt Dybowski, Wacław Sieroszewski, Kazimierz Grochowski. Niestety nigdy ten kierunek badawczy nie rozwinął się w stopniu, na jaki zasługuje, o czym świadczyć mogą choćby trudne losy filologicznych studiów orientalnych na polskich uczelniach. I chociaż w ostatnim dziesięcioleciu studia nad Azją stają się coraz bardziej popularne wśród wykładowców akademickich i studentów, niestety wciąż mają status pobocznej aktywności akademickiej i nie są w stanie zaspokoić rosnących z roku na rok potrzeb poznania  i  zrozumienia  politycznej,  ekonomicznej,  technologicznej,  artystycznej, cywilizacyjnej  roli  krajów  azjatyckich  w  dzisiejszych  czasach.  Poszczególni  badacze  i rozproszone po różnych uczelniach i wydziałach jednostki akademickie działają w swoich wyspecjalizowanych  tematach  i  dyscyplinach  naukowych,  nie  mając  wspólnego  forum wymiany myśli i doświadczeń, a czasem nawet nie wiedząc wzajemnie o swoim istnieniu. Powstanie działalności Centrum Studiów Azjatyckich będzie połączone z akademicko–biznesową konferencją "Dolny Śląsk – Polska – Azja. Wczoraj. Dziś. Jutro”. Odbędzie się ona we Wrocławiu w dniach 30.06–01.07 bieżącego roku. Jej organizatorzy zapewniają, że dołożą wszelkich starań, by odbyła się ona na żywo. Osoby prowadzące badania naukowe będą mogły przedstawić swoje osiągnięcia naukowe (w formie wykładu lub prezentacji posterowej), przedstawiciele administracji publicznej – zalety i potrzeby naszego regionu  i  całego  kraju,  a  praktycy  biznesu  –  oferowane  możliwości  i  potrzeby  swoich przedsiębiorstw. W ramach konferencji odbędzie się sesja plenarna oraz prace w dziewięciu Forach Regionalnych: Chińskim, Japońskim, Indyjskim, Azji Zachodniej, Zakaukazia, Koreańskim, Azji Południowo-Wschodniej (Singapur), Azji Środkowej i Mongolii oraz Krajów Arabskich. Osoby zainteresowane udziałem w konferencji mogą wybrać jako formę prezentacji swoich badań naukowych: 20 minutowy wykład w ramach jednego z forów; poster, udostępniany w kuluarach bez udziału autora przez cały czas trwania konferencji, z udziałem autora w trakcie dwugodzinnej sesji posterowej. Zgłoszenia obejmujące imię, nazwisko i afiliację autora (lub autorów, zapraszamy również zespoły badawcze), tytuł wystąpienia, preferowaną formę prezentacji, krótkie streszczenie, przeznaczenie dla   któregoś z forów regionalnych lub sugestię utworzenia   tematycznego forum międzyregionalnego prosimy nadsyłać na adres: gosciwit.malinowski@uwr.edu.pl. Organizatorami konferencji są Centrum Studiów Azjatyckich, Instytut Studiów Klasycznych, Śródziemnomorskich i Orientalnych UWr, Instytut Konfucjusza Uniwersytetu Wrocławskiego oraz Centrum Współpracy Polska-Chiny Instytut Konfucjusza w Opolu. « powrót do artykułu
  22. W połowie marca został opublikowany tzw. żółty raport nowego Zderzacza Elektron-Jon (EIC), który ma powstać w USA. Stworzyli go naukowcy z ponad 150 instytucji na świecie, w tym z NCBJ. Raport formułuje oczekiwania dotyczące badań prowadzonych w przyszłym urządzeniu i wskazuje sposoby stworzenia najlepszej służącej temu celowi konstrukcji. To już kolejny niezwykle ważny krok w kierunku powstania EIC. Nieco ponad 2 lata temu informowaliśmy o zaakceptowaniu celów naukowych dla akceleratora, a w ubiegłym roku dowiedzieliśmy się, że wskazano lokalizację EIC. Tak zwany żółty raport (ang. yellow report) jest podsumowaniem przeszło rocznej pracy nad przygotowaniem projektu Zderzacza Elektron-Jon (ang. electron-ion collider, EIC), który powstanie w amerykańskim Narodowym Laboratorium w Brookhaven. Fizycy z Zakładu Fizyki Teoretycznej NCBJ – prof. dr hab. Lech Szymanowski, dr hab. Jakub Wagner i dr Paweł Sznajder są współautorami tego opracowania. We współpracy z eksperymentalistami, badali oni na jego potrzeby możliwość pomiaru procesów czułych na tzw. uogólnione rozkłady partonów (ang. generalised parton distributions, GPDs). Uogólnione rozkłady partonów opisują strukturę materii w języku kwarków i gluonów, czyli na możliwie najbardziej elementarnym poziomie – wyjaśnia dr Paweł Sznajder. Wypracowane wnioski dotyczą m. in. optymalizacji projektu detektorów, czyli ich geometrii i podzespołów, tak aby w możliwie jak najlepszy sposób zrealizować postawione cele badawcze. Jednym z obiecujących procesów, które naszym zdaniem warto badać w zderzeniach elektronów z jonami jest tzw. rozpraszanie do tyłu – uzupełnia profesor Lech Szymanowski. W procesie tym wirtualny foton wymieniany pomiędzy zderzanym elektronem, a jednym z kwarków nukleonu prowadzi do wytworzenia w stanie końcowym mezonu o pędzie przeciwnym do pędu fotonu, co uzasadnia nazwę takiego procesu jako produkcji mezonu do tylu (backward meson production). Od pewnego czasu przekonywaliśmy eksperymentatorów, że te procesy poddające się częściowo analizie perturbacyjnej mogą być cennym uzupełniającym źródłem informacji o strukturze partonowej nukleonów, którą typowo bada się w procesach z mezonem w stanie końcowym z pędem zbliżonym do pędu zderzającego się fotonu (forward meson production). Początkowo podejście kolegów do naszej propozycji było sceptyczne, gdyż proces produkcji mezonu do tyłu jest silnie tłumiony przez wyższą potęgę małej stałej sprzężenia oddziaływań silnych występujace w części amplitudy rozpraszania opisywanej teorią zaburzeń. Jednak nasze obliczenia pokazały, że należy także w tym przypadku oczekiwać obserwowalnych doświadczalnie sygnałów. W efekcie wskazanymi przez nas procesami zainteresowali się zarówno fizycy z działającego zderzacza w Jefferson LAB, jak i zostały one uwzględnione w programie badawczym EIC. Praca nad raportem pozwoliła także na zainicjowanie szeregu aktywności związanych z rozwojem metod obliczeniowych – dodaje dr Sznajder. Pracujemy m. in. nad metodami Monte Carlo, będącymi ważną częścią symulacji pracy detektorów. Ponadto jesteśmy zaangażowani w rozwój platformy obliczeniowej PARTONS, z której korzystają teoretycy i doświadczalnicy badający rozkłady GPD. Dążymy do stworzenia trójwymiarowego obrazu protonu – wyjaśnia szczegóły dr hab. Jakub Wagner. Wykonaliśmy obliczenia teoretyczne i skorzystaliśmy z platformy PARTONS, aby uzyskać przewidywania przekrojów czynnych, czyli prawdopodobieństw zajść interesujących nas procesów fizycznych. Wszystko to po to, by eksperymentatorzy wiedzieli gdzie i jakie detektory umieścić wokół miejsca zderzeń, aby uzyskać najwięcej interesujących informacji. Tworzenie tzw. żółtych raportów dla projektowanych wielkich urządzeń badawczych to typowa praktyka w świecie nauki w obszarze fizyki wysokich energii. Na podstawie tego typu raportów są następnie organizowane współprace eksperymentalne i projektowane są detektory. Publikacja żółtego raportu EIC zbiegła się w czasie z publikacją tzw. białego, bardziej podstawowego raportu dla chińskiego zderzacza elektron-jon (ang. Electron-Ion Collider in China, EIcC). Raport ten jest podsumowaniem celów badawczych, które można by zrealizować w EIcC. W jego przygotowaniu byli również zaangażowani nasi fizycy. Projekt EIcC nie jest jeszcze zaakceptowany do realizacji. Jeżeli powstanie, będzie posiadał inne parametry pracy zderzacza w stosunku do projektu amerykańskiego, przez co uzupełni światowy program badawczy fizyki wielkich energii, szczególnie ten związany z chromodynamiką kwantową (ang. quantum chromodynamics, QCD). Budowę zderzacza elektronów i jonów rozważa także CERN. « powrót do artykułu
  23. Młodzi naukowcy z Wydziału Geoinżynierii Uniwersytetu Warmińsko-Mazurskiego (UWM) stworzyli Kapsułę Nowego Życia, a w niej warunki niezbędne do powstania małego ekosystemu. Olsztynianie pracują nad specjalnym nawozem, który pozwoli na uprawę i rozwój roślinności na Marsie i w innych miejscach, w których obecnie jest to niemożliwe. Wyniki tych badań mogą stanowić przełom nie tylko dla NASA czy Elona Muska planującego osiedlić ludzi na Czerwonej Planecie. Pomogą także walczyć z głodem na wyjałowionych terenach pustynnych - podkreślono w komunikacie Wydziału Geoinżynierii. Autorami opisywanych badań są Izabela Świca ze Szkoły Doktorskiej UWM i Hubert Kowalski, doktorant z Katedry Inżynierii Środowiska na Wydziale Geoinżynierii. Świca i Kowalski zajmują się wytworzeniem specjalnego nawozu z biomasy glonowo-grzybowej. Co ważne, substancja ma właściwości rekultywujące glebę, również reolit marsjański. Początki projektu "Kapsuła Nowego Życia NLC" to projekt, który w 2019 r. otrzymał dofinansowanie w konkursie Studencki Grant Rektora. Autorzy kapsuły - Hubert Kowalski, Maciej Piejdak oraz Izabela Świca - stworzyli Kapsułę w ramach Koła Naukowego Inżynierii Środowiska. Jak zaznaczono w Wiadomościach Uniwersyteckich, pomysł, który wystawili do rektorskiego konkursu, był na tyle ciekawy i rozwojowy, że nie tylko otrzymał grant, ale i zakończył się zgłoszeniem do Urzędu Patentowego RP. Autorzy złożyli też propozycję jego zastosowania do użyźniania jałowych pustynnych gruntów rządom Zjednoczonych Emiratów Arabskich i Kataru. Do tego, żeby właściwości glonów i grzybów wykorzystać, zainspirował nas prof. Mirosław Krzemieniewski, opiekun naszego koła – opowiada Hubert Kowalski. Studenci stwierdzili, że skoro grzyby i glony się uzupełniają, należy je połączyć. Powstał pomysł podwójnego reaktora do ich hodowli. W górnej części grubej szklanej rury znajdują się zielenice - a konkretnie chlorella zwyczajna (Chlorella vulgaris) - w dolnej rezydują zaś grzyby. Na pytanie jakie, Kowalski odpowiada następująco: leśne, a mówiąc nienaukowo – tzw. psie. Pozbieraliśmy ich grzybnie w lesie i zasadziliśmy na podłożu ze słomy w naszym reaktorze. Glony i grzyby mają dużo światła i ciepła, dostają pożywki i ich jedynym zadaniem jest produkować biomasę. Badamy współpracę i wzajemne zależności rozwoju między glonami a grzybami w warunkach niemal samowystarczalnych. Grzyby, rozkładając namnażającą się biomasę mikroglonów, wydzielają niezbędny do rozwoju glonów dwutlenek węgla. Glony zaś, w procesie fotosyntezy, wytwarzają tlen dla grzybów. W ten sposób powstaje nawóz, który użyźnia glebę – dodaje. Mechanizm działania i prace nad udoskonaleniem Woda zostanie pozyskana z urządzenia wykorzystującego zjawisko skraplania się rosy. Wykorzystanie paneli fotowoltaicznych pozwoli m.in. na ogrzanie reaktora z glonami i grzybami nocą. Jak podaje Lech Kryszałowicz, redaktor naczelny Wiadomości Uniwersyteckich, część glonów z górnego reaktora będzie dopływać do dolnego z grzybami, aby miały czym się pożywiać. Z zewnątrz kapsuła będzie potrzebować tylko co jakiś czas pożywki dla glonów. Nadmiar biomasy z reaktora będzie odprowadzany bezpośrednio do gruntu pod kapsułą, użyźniając go. Kapsuły można ustawiać przy sobie, tak aby powstawały poletka. Nadmiar tlenu uleci do atmosfery. W warunkach laboratoryjnych z 2 kg CO2 udało się uzyskać 1 kg biomasy. Kapsuła Nowego Życia to bardzo oryginalny i obiecujący pomysł. To szansa na użyźnienie gruntów na obszarach o glebach ubogich, pustynnych, gdyż wzbogaca je w substancje organiczne. Ważne jest też to, że Kapsuły nie potrzebują licznej obsługi. Jej autorzy myślą już o zasilaniu ich w pożywki dla glonów za pomocą dronów, a Izabela o wykorzystaniu tego pomysłu do ożywienia Marsa – pochwalił byłych podopiecznych prof. Mirosław Krzemieniewski. Badania rozpoczęły pod kierunkiem prof. Krzemieniewskiego, a obecnie są kontynuowane pod przewodnictwem prof. dr. hab. Marcina Dębowskiego. Pracujemy ciągle nad udoskonaleniem kapsuły, czyli np. zwiększeniem wydajności glonów i badaniem, w jakim tempie substancja organiczna przenika przez grunt – mówi Kowalski. Jeśli próby zasilania Kapsuł przez drony się powiodą, obniży to koszty ich eksploatacji i niewątpliwie zwiększy ich atrakcyjność. Będzie ich można ustawiać więcej i w większej liczbie miejsc, także w tych z trudnym dostępem. Pracujemy na symulancie marsjańskiej gleby, który pochodzi z Hawajów. Na podstawie zgromadzonych danych pozyskanych z dotychczasowej eksploracji Czerwonej Planety Amerykanie stworzyli kopię skały pokrywającej Marsa o identycznych właściwościach. Badając wytworzony nawóz, w Kapsule Nowego Życia eksperymentujemy na próbkach właśnie tego symulantu – wyjaśnia Izabela Świca. Nie tylko Mars Wyniki badań doktorantów mogą pomóc w odtworzeniu żyzności gleb na terenach zdegradowanych, a także pustynnych. Nasze badania umożliwią uprawę i rozwój roślinności w miejscach, na których dzisiaj nie da się tego robić. W obliczu zwiększającej się liczby ludności na świecie i ciągle nierozwiązanego problemu głodu, organiczny nawóz użyźniający glebę niesie nadzieję na poprawę warunków życia dla milionów ludzi - podkreśla Świca. Prace badawcze mają się zakończyć w 2023 roku. « powrót do artykułu
  24. Pustynia Atacama to jeden z najbardziej nieprzyjaznych terenów na Ziemi. Jednak nawet na tym wyjątkowo suchym pustkowiu znajdują się oazy. A dzięki pracy międzynarodowego zespołu naukowemu wiemy, że przed tysiącem lat oazy te prowadziły handel ze światem zewnętrznym. Dowodem na to są... zmumifikowane papugi. Zespół, w skład którego wchodził m.in. José M. Capriles z Pennsylvania State University, informuje, że w latach 1100–1450 badane przez nich oazy prowadziły handel, a świadczą o tym szczątki papug. Pióra ptaków są cenione w całej Ameryce. Widzimy je w pochówkach o wysokim statusie. Nie wiemy, jak trafiły one tutaj. Czy bezpośrednio, czy też za pośrednictwem całej sieci handlowej, mówi Capriles. Papugi nie występują na Atacamie. A mimo to naukowcy znaleźli w pochówkach miejscowej ludności ich pióra zamknięte w skórzanych futerałach i innych opakowaniach ochronnych. Trafili też na zmumifikowane ptaki. Fakt, że żywe ptaki zostały dostarczone przez liczące tysiące metrów wysokości Andy, jest zadziwiający. Trzeba było transportować je przez olbrzymie równiny, przy bardzo niskich temperaturach i przez trudny teren Atacamy. I musiały przetrwać tę podróż żywe, stwierdza Capriles. Uczony specjalizuje się w badaniu handlu i transportu takich towarów jak kakao, muszle, metale, pióra i ptaki na terenie Boliwii, Peru i Chile. Jego zainteresowania mają podłoże rodzinne. Jego ojciec pracował w urzędzie zajmującym się ochroną przyrody, a matka była ornitologiem w Narodowym Muzeum Historii Naturalnej w La Paz. Calogero Santoro, profesor antropologii z Universidad de Tarapacá, wspomniał o tych ptakach mojej matce, gdy była z wizytą na jego uczelni, i zasugerował, by je zbadać. Chcieliśmy dowiedzieć się czegoś na ten temat: skąd się ptaki wzięły na pustyni, jaki to gatunek, mówi Capriles. Uczony wraz z matką, która zmarła w 2017 roku, przez kilka lat jeździł do chilijskich muzeów i badał znajdujące się tam pióra i zmumifikowane papugi z pustyni Atacama. Gdy zaczęliśmy nad tym pracować, okazało się, że materiału na temat papug Nowego Świata jest bardzo dużo. Kolumb przywiózł te ptaki do Europy, a znaczenie ich piór dla kultur prekolumbijskich jest oczywiste. Większość zmumifikowanych ptaków pochodzi z lat 1000–1460. Najwcześniejsze żyły pod koniec istnienia państwa Tiwanaku, bezpośrednio poprzedzającego pojawienie się Inków. Okres ten to czas licznych wojen, ale również rozwijającego się handlu, z karawanami lam przemierzającymi badane tereny. Naukowcom udało się przebadać szczątki 27 ptaków znalezione w 5 oazach na Atacamie. Dzięki analizie zooarcheologicznej, badaniu izotopów, datowaniu radiowęglowemu i analizie DNA stwierdzono, że mamy do czynienia z arą żółtoskrzydłą, amazonką niebieskoczelną, arą araruną i innymi gatunkami. Ptaki musiały być transportowane przez co najmniej 500 kilometrów, by trafić do oaz. Zadziwiający jest też sposób mumifikacji. Wiele ptaków zachowało się z szeroko otwartymi dziobami i wysuniętymi językami. Inne miały skrzydła rozpostarte jak do lotu. Nie mamy pojęcia, dlaczego w ten sposób je mumifikowano. Wydaje się, że patroszono je przez kloakę, dzięki czemu można było zachować je w całości. W wielu przypadkach były zawinięte w skórę lub tekstylia, stwierdza Capriles. Mumie ptaków zwykle towarzyszyły ludzkim pochówkom. Większość badanych mumii znaleziono na stanowisku Pica 8, w pobliżu istniejącej do dzisiaj oazy. W czasach, gdy żyły ptaki istniało tam rozwinięte rolnictwo. Dzisiaj uprawia się tam cytryny. Wiemy, że te ptaki tam żyły. Że jadły to samo co ludzie. W ich organizmach znajdował się azot pochodzący z kukurydzy nawożonej ptasim nawozem. Lamy nie są zbyt dobrymi zwierzętami jucznymi, gdyż nie są zbyt silne. Fakt, że karawany lam przewoziły ptaki przez Andy i pustynię do oaz, jest zadziwiający, dodaje Capriles. Więcej o zmumifikowanych papugach z Atacamy można przeczytać w artykule Pre-Columbian transregional captive rearing of Amazonian parrots in the Atacama Desert. « powrót do artykułu
  25. Kompostowniki są coraz częściej wybierane. W poniższym artykule znajdziesz m.in. informacje jaki rozmiar kompostownika wybrać, z jakiego materiału może być on wykonany, jakie rodzaje wyróżniamy oraz gdzie postawić to akcesorium. Wszystkie te informacje są podstawą i materiałem, z którym warto się zapoznać przed zakupem. Jak wybrać rozmiar kompostownika? Kompostownik może mieć bardzo różne wymiary. Pierwszym rodzajem są małe kompostowniki 200-300 litrowe, które pozwalają na pozbycie się niechcianych resztek roślinnych. Niestety wyprodukowany w nich nawóz organiczny może nie być wystarczający na potrzeby rodzinnego warzywnika. Jeśli ktoś chce się skupić na ekologicznej uprawie to powinien zainteresować się zbiornikiem o pojemności powyżej 1000 litrów. Właściciele ogrodów o dużej powierzchni trawnika warto, aby pomyśleli o kompostownikach powyżej 1600 litrów. Jednorodna trawa to nie tylko dobry kompost, ale również po przemieszaniu z innymi resztkami świetny materiał do produkcji naturalnego nawozu. Więcej informacji na temat dostępnych kompostowników znajdziesz na stronie: https://www.castorama.pl/produkty/ogrod/odpady-i-segregacja/kompostowniki.html. Z jakie materiału warto wybrać kompostownik? Na rynku rozróżnia się dwie popularne kategorie kompostowników, z których produkuje się opakowania. Są to: •    kompostowniki drewniane, •    kompostowniki z tworzywa sztucznego. Kompostownik drewniany to pozbawiona dna konstrukcja, składająca się wyłącznie z bocznych ścianek wykonanych z drewnianych desek. Najczęściej nie posiada także przykrycia. Dzięki prostej budowie montaż jest niezwykle prosty, jednak korzystanie z niego już niekoniecznie. Raz na rok należy wyczyścić kompostownik oraz przesunąć nierozłożone odpadki z wierzchu na spód pryzmy. Dzięki temu przyspiesza się procesy w nim zachodzące. Kompostownik drewniany jest jedną z najczęściej wybieranych opcji, ponieważ służy również do składowania odpadów roślinnych. Można w nim magazynować m.in. chwasty, często grabione liście, ścięte gałęzie drzew, jak również skoszoną trawę. Te działania ułatwiają utrzymanie porządku na działce i tworzą obraz porządku. Dzięki materiałom magazynowanym w kompostowniku można bez problemu użyć go do nawożenia owoców oraz warzyw. Z pewnością wpłynie to ich wzrost i rozwój. Kompostowniki ogrodowe cechują się niezwykle prostym montażem. Nie potrzebne są żadne skomplikowane narzędzia, ani osoby dodatkowe. Z pewnością można to zainstalować samodzielnie. Drugim rodzajem jest kompostownik plastikowy. W nim przetwarza się umieszczane biodegradowalne odpady w naturalny nawóz. Je również można zastosować do nawożenia warzyw w ogrodzie, dzięki czemu uprawy będą większe. Wartość dodana to pewność, że nawóz jest w pełni ekologicznym rozwiązaniem i nie będzie szkodził konsumentom zbiorów. Kompostownik plastikowy powstaje z mocnego tworzywa sztucznego, dzięki czemu jest długotrwały, jak również odporny na przeróżne uszkodzenia mechaniczne. Najczęściej jest on w kolorze czarnym, tak aby wpasował się w otoczenie. Na rynku można znaleźć również kompostowniki metalowe oraz z cegły. Kompostownik otwarty czy z klapą? Wśród kompostowników można rozróżnić rozwiązania z klapą oraz bez. Każde z rozwiązań ma inne zastosowanie. Kompostownik otwarty, bez klapy, składa się wyłącznie z czterech ścian, może być zbudowany z desek, siatki, albo innego materiałów. Alternatywą jest również wykonanie takiego rozwiązania samemu. Zadanie ściany to ograniczenie powierzchni, gdzie składowane są odpadki organiczne. Nie należy ich umieszczać na nieprzepuszczalnej powierzchni, np. betonowa powierzchnia, która umożliwia odpływ wilgoci i napływ potrzebnych bakterii oraz organizmów. Kompostownik zamknięty najczęściej jest plastikowym albo drewnianym pojemnikiem z otworami i pozwala na wentylację. Dzięki temu stwarzane są optymalne warunki do rozkładu. Zatrzymywane jest w nich ciepło przez co powstające w czasie procesów, znacząco przyspiesza rozkład materii. Kompostownik zamknięty inaczej nazywa się termokompostownikiem. Pozwala zaoszczędzić miejsce w ogrodzie i jest stosunkowo estetyczny. Sprawdzi się zwłaszcza w ogrodach niewielkich rozmiarów. Gdzie postawić kompostownik? Kompostownik można postawić w różnych miejscach do najbardziej popularnych należy domowy ogródek. Kompostownik należy umieścić w częściowo zacienionym miejscu, najlepiej na północnej lub północno-zachodniej stronie. Dzięki temu utrata wilgoci jest mniejsza. Całkowicie zacienione miejsce nie jest dobrym rozwiązaniem, bo może utrudnić odpowiednie nagrzewanie się materii organicznej i masa będzie się wolniej kompostować. Montując kompostownik należy pamiętać o kilku zasadach. Po pierwsze nie należy montować kompostownika na kostce albo betonie, ale na otwartej glebie. Dzięki temu wykona się odpowiedni drenaż. Gdy już postawi się kompostownik należy przykryć go starym kocem, dywanem czy innym materiałem, aby zachować odpowiednią temperaturę w jego wnętrzu. Kompostownik powinien zostać przykryty porządną, drewnianą pokrywą, aby uchronić go przed opadami. Myśleliście o montażu kompostownika w swoim domu? « powrót do artykułu
×
×
  • Dodaj nową pozycję...