Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Największe badania genetyczne dotyczące zaburzeń nastroju i zaburzeń psychotycznych wykazały istnienie znaczących różnic pomiędzy płciami. Różnice te dotyczą tego, w jaki sposób geny związane z rozwojem układu nerwowego, odpornościowego oraz funkcjonowania naczyń krwionośnych wpływają na kobiety i mężczyzn cierpiących na schizofrenię, zaburzenia afektywne dwubiegunowe oraz zaburzenia depresyjne. W badania zaangażowano podczas 100 naukowców i grup naukowych, a w ich ramach porównano genomy 33 403 osób ze schizofrenią, 19 924 osób z zaburzeniami dwubiegunowymi oraz 32 408 z zaburzeniami depresyjnymi. Grupę kontrolną stanowiło 109 946 zdrowych osób. Wiemy, że kobiety są narażone na większe ryzyko zachorowania na zaburzenia depresyjne, a mężczyźni na schizofrenię. Ryzyko zaburzeń afektywnych dwubiegunowych jest takie samo u kobiet i mężczyzn, ale istnieją międzypłciowe różnice odnośnie pojawienia się, przebiegu i rokowań. Autorzy najnowszych badań chcieli dowiedzieć się, z czego biorą się takiego różnice w zachorowaniach. Żyjemy w epoce tworzenia i analizy wielkich ilości danych. Postanowiliśmy więc poszukać genów powiązanych z tymi chorobami, by w ten sposób zidentyfikować w genotypie cele dla terapii farmaceutycznych. To pozwoli nam lepiej opracować terapie tych chorób, które w różny sposób dotykają obu płci, mówi główna autorka badań, profesor Harvard Medical School Jill M. Goldstein, założycielka Innovation Center of Sex Diferences in Medicine (ICON). Różnice pomiędzy płciami odnośnie chorób chronicznych czy nowotworów są powszechne. Jednak w medycyna ciągle opiera się głównie na modelach zdrowia mężczyzn i samców zwierząt laboratoryjnych. Musimy opracować bardziej precyzyjne modele, biorące pod uwagę różnice międzypłciowe, wyjaśnia profesor Goldstein. Naukowcy wykazali, że na ryzyko wystąpienia schizofrenii, zaburzeń afektywnych dwubiegunowych i zaburzeń depresyjnych wpływają interakcje genów specyficznych dla obu płci i jest to wpływ inny od wpływu hormonów płciowych. To pokazuje, jak ważne jest prowadzenie szeroko zakrojonych badań genetycznych, na podstawie których można uzyskiwać dane statystyczne dotyczące wpływu genów na rozwój choroby w zależności od płci pacjenta, stwierdzają autorzy badań. Uczeni zauważyli, że istnieje związek pomiędzy schizofrenią, depresją i płcią w aktywności genów kontrolujących czynnik wzrostu śródbłonka naczyniowego (VEGF), który bierze udział w tworzeniu naczyń krwionośnych zarodka i angiogenezie. Zarówno depresja jak i schizofrenia w bardzo dużym stopniu współistnieją z chorobami układu krążenia. Sądzimy, że istnieją wspólne przyczyny występowania chorób psychicznych i układu krążenia, które nie są zależne od podawanych leków. Współwystępowanie depresji i chorób układu krążenia jest dwukrotnie częściej obserwowane u kobiet niż u mężczyzn. To zaś może, przynajmniej częściowo, potwierdzać nasze spostrzeżenie, że istnieją genetyczne różnice międzypłciowe dotyczące depresji i genów kontrolujących VEGF, dodaje Goldstein. Badacze zauważyli, że istnieje znacząca zależna od płci genetyczna różnorodność w obrębie wielu genów, w tym w genie INKAIN2, który bierze udział w transporcie jonów sodu i potasu oraz odgrywa ważną rolę w procesie pobudzania neuronów. Zastosowany inhibitor transkrypcji SLIM wywołał istotną różnicę w reaktywności neuronów. Z jednej strony była ona zależna od płci, z drugiej zaś, od choroby, którą analizowano. Stwierdzono, że w modelu schizofrenii istnieje istotny wpływ SLIM na gen MOCOS. Jest on aktywny w ścianach naczyń krwionośnych i odgrywa ważną rolę w regulowaniu ciśnienia krwi. W modelu symulującym przebieg depresji zauważono zaś znaczy wpływ płci na działanie receptora VEGF, kluczowego regulatora ciśnienia krwi. Ze szczegółami badań można zapoznać się na łamach Biological Psychiatry. « powrót do artykułu
  2. Teraz, gdy łazik Perseverance pracuje na Marsie, przed NASA i ESA stoi nowe niezwykle trudne wyzwanie. Obie agencje przygotowują Mars Sample Return, misję, w ramach której próbki zebrane przez Perseverance mają trafić na Ziemię. Jeśli misja się uda, otworzy ona nowy rozdział w robotycznej eksploracji kosmosu. Zgodnie z założeniami Mars Sample Return najpierw na Czerwoną Planetę zostanie wysłana misja Sample Retrieval Lander. Wyląduje ona w pobliżu miejsca lądowania misji Mars 2020 – czyli łazika Perseverance – i umieści tam specjalną platformę, z której wyjedzie zbudowany przez ESA niewielki łazik, Sample Fetch Rover. Łazik pozbiera próbki przygotowane przez Perseverance i wróci z nimi do platformy. Tam załaduje je do kontenera wielkości piłki do koszykówki znajdującego się na pokładzie Mars Ascent Vehicle (MAV). MAV będzie pierwszym w historii pojazdem, który wystartuje z powierzchni Marsa. Jego zadaniem będzie dostarczenie kontenera na orbitę Marsa. W tym czasie na orbicie Czerwonej Planety krążył będzie Earth Return Orbiter autorstwa ESA. Ma on przechwycić orbitujący kontener, zdekontaminować go i umieścić w kapsule lądującej. Earth Return Orbiter wróci następnie w okolice Ziemi i uwolni kapsułę, która trafi na naszą planetę. Skoordynowanie i przeprowadzenie tak złożonej misji to poważne wyzwanie inżynieryjne. Dość wspomnieć, że wszystko musi odbyć się automatycznie i musi udać się za pierwszym razem. Odległość pomiędzy Marsem a Ziemią jest tak duża, że sygnał w obie strony biegnie kilkanaście minut. Jeśli więc w krytycznych momentach misji pojawią się nieprzewidziane problemy, ludzie nie będą mogli im zaradzić. Największe wyzwanie będzie stanowiło przeprowadzenie startu MAV z powierzchni Marsa. Za opracowanie odpowiednich technologi odpowiedzialna jest firma Northrop Grumman. Tworzymy napęd na paliwo stałe, który wyniesie MAV na orbitę. To kluczowy element powrotu próbek na Ziemię, mówi Mike Lara, dyrektor firmy ds. strategii i rozwoju biznesowego. Anita Sengupta, inżynier na Wydziale Inżynierii Kosmicznej University of Southern California mówi, że głównym problemem jest tutaj uwzględnienie różnic w grawitacji i oddziaływaniu atmosfery Marsa i Ziemi. Grawitacja na Ziemi jest trzykrotnie większa. A ciśnienie na powierzchni Marsa jest około 100-krotnie niższe niż na Ziemi. Patrząc tylko na te czynniki, wyniesienie z Marsa tej samej masy co z Ziemi wymaga znacznie mniejszej rakiety. Jednak prawdziwym wyzwaniem jest fakt, że na miejscu nie będzie ludzi. Wszystko trzeba zrobić automatycznie. To musi zadziałać za pierwszym razem, stwierdza uczona. Nawet na Ziemi, gdy mamy pełną kontrolę, start rakiety jest poważnym wyzwaniem, a niewielkie problemy techniczne czy zła pogoda niejednokrotnie powodują, że start przerywany jest dosłownie w ostatnich sekundach, przypomina Lara. Inżynierowie pracujący nad napędem dla MAV muszą też pamiętać, że na Marsie panują bardzo niskie temperatury. Sample Fetch Rover będzie zbierał pozostawione przez Perseverance próbki przez około 18 miesięcy. W tym czasie MAV będzie czekał na powierzchni Czerwonej Planety. Inżynierowie muszą więc zaprojektować taki system utrzymywania odpowiedniej temperatury układu napędowego, by MAV mógł bez przeszkód wystartować po kilkunastu miesiącach postoju w temperaturach minus kilkudziesięciu stopni Celsjusza. Na szczęście dysponujemy odpowiednimi modelami i mocami obliczeniowymi, dzięki którym inżynierowie będą mogli sprawdzić np. jak zachowuje się paliwo w takich warunkach. Ponadto wiele systemów zostanie zdublowanych, więc gdy jeden zawiedzie, można będzie uruchomić drugi. Bardzo pomocne będzie też to, czego dowiedzieliśmy się podczas misji Apollo, kiedy to startowano z powierzchni Księżyca, oraz z innych misji. Każda misja uczy nas czegoś, co wykorzystujemy w kolejnych misjach. Tak naprawdę jest to kwestia dobrego rozumienia fizyki, mówi Sengupta.   « powrót do artykułu
  3. Zwykle przyjmowano, że liczby zespolone, czyli zawierające składnik z liczbą urojoną i (i do kwadratu daje minus jeden) są wyłącznie matematycznym trikiem. Polsko-chińsko-kanadyjski zespół naukowców udowodnił jednak, że urojoną część mechaniki kwantowej można zaobserwować w akcji w rzeczywistym świecie – informuje Centrum Nowych Technologii UW. Nasze intuicyjne wyobrażenia dotyczące zdolności liczb do opisu świata fizycznego wymagają istotnego przebudowania. Do tej pory wydawało się, że związek z mierzalnymi wielkościami fizycznymi mają wyłącznie liczby rzeczywiste. Jednak udało się znaleźć stany kwantowe splątanych fotonów, których nie da się rozróżnić bez sięgania po liczby zespolone. Co więcej, badacze przeprowadzili także eksperyment potwierdzający znaczenie liczb zespolonych dla mechaniki kwantowej Badania prowadził zespół dr. Alexandra Streltsova z Centrum Optycznych Technologii Kwantowych Uniwersytetu Warszawskiego (QOT) z udziałem naukowców z University of Science and Technology of China (USTC) w Hefei i University of Calgary (UCalgary). . Artykuły opisujące teorię i pomiary ukazały się w czasopismach Physical Review Letters i Physical Review A. W fizyce liczby zespolone uważano za twory o czysto matematycznej naturze. Co prawda w równaniach mechaniki kwantowej pełnią rolę wręcz podstawową, traktowano je jednak po prostu jako narzędzie, coś, co fizykom ułatwia rachunki. My na drodze teoretycznej i doświadczalnej dowiedliśmy, że są takie stany kwantowe, które można rozróżnić wyłącznie wtedy, gdy obliczenia prowadzi się z nieodzownym udziałem liczb zespolonych – komentuje dr Streltsov. Liczby zespolone są zbudowane z dwóch składników, rzeczywistego oraz urojonego. Mają postać a + bi, gdzie liczby a oraz b są rzeczywiste. Za specyficzne cechy liczb zespolonych odpowiada składnik bi. Kluczową rolę odkrywa tu liczba urojona i. Liczba i to pierwiastek kwadratowy z -1 (a więc gdyby podnieść ją do kwadratu, uzyskamy minus jeden). W fizycznym świecie trudno wyobrazić sobie coś, co można byłoby bezpośrednio związać z liczbą i. Na stole mogą leżeć 2 czy 3 jabłka, jest to naturalne. Gdy jedno jabłko zabierzemy, możemy mówić o fizycznym braku i opisać go ujemną liczbą całkowitą -1. Jabłko możemy przekroić na dwie czy trzy części, otrzymując fizyczne odpowiedniki liczb wymiernych 1/2 czy 1/3. Gdyby stół był idealnym kwadratem, jego przekątna byłaby (niewymierny) pierwiastek kwadratowy z liczby 2 dłuższa od boku. Jednocześnie mimo najszczerszych chęci nie da się na stole położyć jabłek w liczbie i. Zaskakująca kariera liczb zespolonych w fizyce ma związek z faktem, że wszelkiego typu oscylacje dają się opisać za ich pomocą znacznie wygodniej niż z użyciem popularnych funkcji trygonometrycznych. Obliczenia prowadzi się więc z liczbami zespolonymi, po czym na koniec bierze się pod uwagę tylko występujące w nich liczby rzeczywiste. Na tle innych teorii fizycznych mechanika kwantowa jest szczególna, ponieważ musi opisywać obiekty, które w jednych warunkach potrafią się zachowywać jak cząstki, w innych jak fale. Podstawowe równanie tej teorii, przyjmowane jako postulat, to równanie Schrödingera. Opisuje ono zmiany w czasie pewnej funkcji, nazywanej funkcją falową, która ma związek z rozkładem prawdopodobieństwa znalezienia układu w takim a nie innym stanie. Jednak tuż obok funkcji falowej w równaniu Schrödingera jawnie występuje liczba urojona i. Od dekad trwała debata, czy za pomocą samych liczb rzeczywistych można stworzyć spójną i kompletną mechanikę kwantową. Postanowiliśmy zatem znaleźć stany kwantowe, które można byłoby od siebie rozróżnić tylko z użyciem liczb zespolonych. Rozstrzygającym momentem było doświadczenie, gdzie wytworzyliśmy te stany i fizycznie sprawdziliśmy, czy są one rozróżnialne, czy też nie – mówi dr Streltsov, którego badania były finansowane przez Fundację na rzecz Nauki Polskiej. Eksperyment weryfikujący rolę liczb zespolonych w mechanice kwantowej można przedstawić w formie gry Alicji i Boba z udziałem prowadzącego rozgrywkę mistrza. Za pomocą urządzenia z laserami i kryształami mistrz gry wiąże dwa fotony w jeden z dwóch stanów kwantowych, których rozróżnienie bezwzględnie wymaga użycia liczb zespolonych. Następnie jeden foton wysyła do Alicji, a drugi do Boba. Każde z nich dokonuje pomiaru swojego fotonu, po czym komunikuje się z drugim w celu ustalenia istniejących korelacji. Przypuśćmy, że wyniki pomiarów Alicji i Boba mogą przyjmować wyłącznie wartości 0 albo 1. Alicja widzi bezsensowny ciąg zer i jedynek, Bob podobnie. Jeśli jednak się skomunikują, mogą ustalić powiązania między odpowiednimi pomiarami. Jeśli mistrz gry wysłał im stan skorelowany, gdy jedno zobaczy wynik 0, drugie również. Jeśli otrzymali stan antyskorelowany, gdy Alicja zmierzy 0, u Boba będzie 1. Dzięki wzajemnym uzgodnieniom Alicja i Bob mogliby rozróżnić nasze stany, ale tylko w sytuacji, gdyby ich kwantowa natura miała charakter fundamentalnie zespolony – mówi dr Streltsov. Do opisu teoretycznego wykorzystano podejście znane jako teoria zasobów kwantowych. Samo doświadczenie z lokalnym rozróżnianiem splątanych stanów dwufotonowych przeprowadzono w laboratorium w Hefei z użyciem technik optyki liniowej. Przygotowane przez badaczy stany kwantowe okazały się rozróżnialne, co dowodzi, że liczby zespolone są integralną, nieusuwalną częścią mechaniki kwantowej. Osiągnięcie polsko-chińsko-kanadyjskiego zespołu badaczy ma znaczenie podstawowe, jest ono jednak tak głębokie, że może się przełożyć na nowe technologie kwantowe. W szczególności badania nad rolą liczb zespolonych w mechanice kwantowej mogą pomóc lepiej zrozumieć źródła efektywności komputerów kwantowych, jakościowo nowych maszyn liczących, zdolnych rozwiązywać niektóre problemy z szybkością nieosiągalną dla klasycznych komputerów – czytamy w komunikacie. « powrót do artykułu
  4. Na łamach American Journal of Obstetrics and Gynecology opublikowano wyniki badań nad działaniem szczepionek Moderny i Pfizera na kobiety w ciąży. Z badań wynika, że  u ciężarnych pojawiła się równie silna reakcja immunologiczna, co u nie będących w ciąży kobiet w wieku rozrodczym. Dane sugerują, że szczepionka jest bezpieczna i oferuje przynajmniej częściową ochronę dziecku za pośrednictwem łożyska oraz noworodkowi za pośrednictwem mleka matki. Badania były jednak prowadzone na małej grupie 131 kobiet. Działanie szczepionek testowano na 84 ciężarnych, 31 karmiących i 16 nie będących w ciąży kobietach. Uzyskane w tej grupie wyniki porównano z badaniami krwi 37 kobiet, które zaraziły się COVID-19 w czasie ciąży. To wstępne dowody. Biorąc jednak pod uwagę wstępne dane, w przypadku kobiet ciężarnych i karmiących szczepionki działają podobnie, jak u kobiet nie będących w ciąży i zapewniają lepszą ochronę niż nabyci odporności drogą naturalną, czyli przez zarażenie się wirusem, mówi doktor Denise Jamieson z Emory University School of Medicine, która nie była zaangażowana w badania. Naukowcy od początku podejrzewali, że szczepionki przeciwko COVID-19 będą efektywne i bezpieczne dla kobiet w ciąży i kobiet karmiących, jednak nie było co do tego pewności, gdyż nie prowadzono badań na ten temat. Profesor Stephanie Gaw z University of California mówi, że powyższe badania to ważny pierwszy krok w kierunku potwierdzenia przypuszczeń uczonych. W badaniach uwzględniono szczepionki mRNA firm Moderna i Pfizer. Obecne w nich mRNA instruuje komórki organizmu, by wytwarzały białko kolca (białko S), dzięki czemu nasz układ odpornościowy uczy się je rozpoznawać i zwalczać. Następnie mRNA ulega szybkiej degradacji, pozostając w organizmie jedynie przez kilka dni. Od uczestniczek badań pobierano krew w czasie podania pierwszej oraz drugiej dawki szczepionki, oraz po 6 tygodniach od drugiej szczepionki. Od kobiet, które urodziły w czasie trwania badań, pobierano też krew podczas porodu. W czasie badań rodziło 13 kobiet. Od 10 z nich pobrano krew pępowinową. W każdym z tych przypadków w krwi znaleziono przeciwciała wygenerowane w wyniku działania szczepionki, co sugeruje, że szczepionka chroni tez dziecko. Również wszystkie próbki mleka pobrane od karmiących wykazały obecność przeciwciał. Obecnie nie wiadomo, jak silna jest ochrona zapewniania czy to dzieciom w łonie matki, czy dzieciom karmionym jej mlekiem. U badanych kobiet pojawiły się podobne typowe objawy podania szczepionki, jak ból głowy, zaczerwienienie czy swędzenie w miejscu podania. Nie zauważono tutaj różnic pomiędzy ciężarnymi, karmiącymi i nie będącymi w ciąży. W każdej z tych trzech grup były kobiety, które doświadczyły gorączki i dreszczy, częściej po drugiej dawce. Tego typu zjawiska pojawiły się u około 1/3 ciężarny. Autorzy badań podkreślają, że kobiety ciężarne, które zostaną zaszczepione, powinny być bardziej szczegółowo monitorowane właśnie pod kątem gorączki. Wiadomo bowiem, że gorączka, szczególnie długotrwała, jest powiązana ze zwiększonym ryzykiem poronienia i pojawienia się wad u dziecka. Szczególnie niebezpieczna jest wysoka długotrwała gorączka w pierwszym trymestrze ciąży. Doktor Jamieson mówi, że jeśli u zaszczepionej ciężarnej pojawi się gorączka należy zbić ją paracetamolem. Uczona zauważa, że sam COVID powoduje długotrwałą gorączkę, więc zachorowanie również niesie ze sobą ryzyko. Badania nie wyjaśniają jednak wszystkich wątpliwości. Nie wiemy na przykład, czy szczepienie nie niesie ze sobą ryzyka dla dziecka w łonie matki. Takie ryzyko mogłoby się pojawić, gdyby mRNA dotarło do łożyska i wywołał ostan zapalny lub też gdyby przekroczyło łożysko i wywołało reakcję immunologiczną u dziecka, mówi profesor Gaw. Jednak, jako że mRNA ulega szybkiemu rozpadowi, jest mało prawdopodobne by jego większe ilości dotarły do łożyska. Mimo to profesor Gaw i jej zespół planują przeprowadzić badania pod kątem występowania stanów zapalnych u zaszczepionych ciężarnych i ich dzieci po urodzeniu. Otwartym pozostaje też odpowiedź na pytanie, czy mRNA może przedostać się do mleka matki. Gaw z kolegami zbadali pod tym kątem 6 kobiet i nie znaleźli w ich mleku śladów mRNA, jednak kwestia ta powinna być bardziej szczegółowo przeanalizowana. Naukowcy chcieliby się dowiedzieć też, czy ciąża u kobiet zaszczepionych i niezaszczepionych przebiega podobnie. Amerykańskie Centra Kontroli i Prewencji Chorób zbierają dane na ten temat za pośrednictwem systemu V-safe. Dotychczas do sytemu tego trafiły dane ponad 30 000 ciężarnych, które otrzymały szczepionkę Moderny lub Pfizera. Spośród nich 275 kobiet już urodziło, a odsetek komplikacji w tej grupie nie był wyższy niż jest to zazwyczaj. To mocne potwierdzenie bezpieczeństwa szczepionek, ale wciąż potrzebujemy więcej danych, mówi Jamieson. Profesor Gaw przypomina, że uzyskane dotychczas dane sugerują, iż ciąża zwiększa ryzyko ciężkiego przebiegu COVID-19 i zgonu. Dlatego też uczona mówi, że mimo wszystko ciężarne kobiety, które są narażone na wysokie ryzyko zarażenia, powinny poważnie zastanowić się nad zaszczepieniem się. « powrót do artykułu
  5. Na nowym zdjęciu czarnej supermasywnej czarnej dziury M87*, wykonanym przez naukowców pracujących przy Event Horizon Telescope (EHT), zobrazowano pola magnetyczne otaczające czarną dziurę. Strukturę magnetyczną zmapowano mierząc polaryzację światła emitowanego przez rozgrzaną materię znajdującą się wokół M87*. W 2019 roku EHT wykonał pierwsze w historii zdjęcia cienia czarnej dziury. To region, który najprawdopodobniej rozciąga się od horyzontu zdarzeń na odległość trzykrotnie większą niż średnica czarnej dziury. M87* znajduje się w odległości około 55 milionów lat świetlnych od Ziemi, a na podstawie zdjęć naukowcy wyliczyli, że jej masa wynosi około 6,5 miliarda mas Słońca. Jeszcze wcześniej, bo w 2012 roku ET zobrazował potężny dżet rozciągający się na odległość około 5000 lat świetlnych od M87*. Teraz dzięki EHT przeanalizowano polaryzację światła wokół czarnej dziury, co pozwoliło na zobrazowanie otaczających ją pól magnetycznych. To bardzo istotne z punktu widzenia badań nad czarnymi dziurami i zjawiskami obserwowanymi wokół nich. Monika Mościbrodzka z holenderskiego Uniwersytetu im. Radbounda mówi, że przeprowadzona przez nią i kolegów badania to kolejny kluczowy fragment układanki, pozwalający lepiej zrozumieć, jak pola magnetyczne zachowują się w pobliżu czarnych dziur i w jaki sposób ich aktywność w tak niewielkim obszarze przestrzeni może napędzać potężne dżety. Jason Dexter z University of Colorado dodaje, że obserwacje wskazują, iż pola magnetyczne na krawędziach czarnej dziury są na tyle potężne, że odpychają od niej gaz, pozwalając mu przezwyciężyć jej oddziaływanie grawitacyjne. Tylko gaz, który prześliźnie się między tymi polami może opaść na horyzont zdarzeń. Badania opisano w dwóch artykułach, opublikowanych na łamach The Astrophysical Journal Letters: First M87 Event Horizon Telescope Results. VII. Polarization of the Ring oraz First M87 Event Horizon Telescope Results. VIII. Magnetic Field Structure near The Event Horizon. « powrót do artykułu
  6. Dr Robert Klimek, redaktor pisma Masovia, odkrył w archiwum Geheimes Staatsarchiv Preußischer Kulturbesitz w Berlinie-Dahlem najstarszą znaną mapę szczegółową z obszaru dzisiejszych Mazur. Rękopiśmienna mapa przestawia drogę wodą z Ryna przez Wielkie Jeziora Mazurskie i rzekę Pisę aż do granicy zakonu krzyżackiego (Księstwa Prus) z Mazowszem. Specjalista ujawnił, że w katalogu opracowanym przez Winfrieda Blissa nosi ona tytuł Spirding-See (czyli jezioro Śniardwy) i jest datowana na XVI w. Nie znamy ani jej autora, ani zleceniodawcy. Ta mapa nie była do tej pory znana w świecie naukowym. Wygląda na to, że jest to najstarsza mapa szczegółowa z obszaru dzisiejszych Mazur. Od kilku lat zajmuję się naukowo i kolekcjonersko starymi mapami Prus. Prześledziłem wszystkie archiwalia w Berlinie, w Polsce i nie znalazłem starszej - podkreślił dr Klimek w wypowiedzi dla PAP-u. Mapa w kształcie leżącej litery L Mapa ma kształt leżącej litery L i wymiary 210 (dłuższe ramię)x108 (krótsze ramię)x30 cm (wysokość). Znajdują się na niej odręczne napisy nazw. W artykule opublikowanym na łamach najnowszego numeru pisma regionalno-historycznego Masovia (t. XVII) wyjaśniono, że dłuższe ramię mapy przedstawia w jednej linii jeziora: Ryńskie, Tałty, Mikołajskie, Śniardwy i Roś, krótsze zaś – rzekę Pisę do granicy zakonu krzyżackiego z Mazowszem. Opisywana mapa nie posiada skali czy róży wiatrów i należy do kategorii prymitywnych szkiców kartograficznych, na których występują tylko schematyczne zarysy jezior, rzek oraz napisy objaśniające. Z lewej strony pierwszą zaznaczoną miejscowością jest Ryn (Reÿnn); znajdował się tu zamek, w którym urzędowali komturzy. Położenie zamku skutkowało powstaniem floty statków rzecznych. Na omawianej w artykule mapie jeziora Ryńskie i Tałty tworzą jeden zbiornik. W tej części mapy podano, że odległość z Ryna do Mikołajek (Sant Niklaus) to 3 mile (1 mila wynosiła 7776 m). W Mikołajkach zaznaczono most. Został on wzniesiony nad cieśniną łączącą jeziora Tałty i Mikołajskie. Po raz pierwszy wymieniano go w źródłach z 1516 r. Most w Mikołajkach zaznaczono również na mapie Prus Kaspra Hennenbergera (1576). Choć mapa przedstawia Śniardwy (Sehe Sperde), kształt jeziora odbiega od rzeczywistego: zbiornik jest nieproporcjonalnie wydłużony i wąski. Na wizerunku jeziora ponownie umieszczono odległość w milach: poinformowano, że Mikołajki i Kwik (quickke), wieś z przeciwległego, wschodniego, brzegu jeziora, dzieli odległość 4 mil. Zaznaczono także i opisano jeziora połączone ze Śniardwami: Łuknajno (Der Sehe Lucknaynnen), Seksty (Der Sehe Sexten), Tuchlin (Der Sehe Tüchlinn) i Warnołty (Der Sehe Warnarlt). W miejscu, gdzie ze Śniardwami łączy się Tyrkło, zaznaczony jest kolejny most - Die brücke in alter burgk ("most przy starym zamku") - który prowadził do nieistniejącego zamku w Okartowie (w 1378 r. zniszczył go Kiejstut). Co ciekawe, cieśniny łączące Łukajno i Tuchlin ze Śniardwami nazwano na mapie rzekami. Wąskie przesmyki między jeziorami zapewne obfitowały w ryby, które przez nie migrowały. Prawdopodobnie, aby zabronić w tych miejscach mieszkańcom okolicznych wsi wolnych połowów i stawiania sieci rybackich, cieśniny po prostu nazwano rzekami. Z jeziora Śniardwy szlak przechodził rzeką Wyszką do jeziora Białoławki (der sehe bialelafken). Na rzece zaznaczono 3 zapory. Były to zapewne przepusty, które miały za zadanie z jednej strony powstrzymać wylewy rzek, a z drugiej (dzięki spiętrzeniu wód i ograniczeniu rozlewisk) stworzyć lepsze warunki do żeglugi. Co ważne, zatrzymywały one także zagrażające łodziom wędrujące mielizny. Z jeziora Białoławki płynęło się rzeką Wilkus do jeziora Kocioł (der sehe Kessel). Tu również widoczne są urządzenia hydrotechniczne. Wypływa z tego wniosek, że Wyszka i Wilkus były przystosowane do transportu rzecznego. Z jeziora Kocioł płynęło się dalej rzeką Pilchen do jeziora Roś, nazywanego również Warszawskim (der sehe Warsavi). Krótsze ramię omawianej mapy przedstawia Pisę od miejsca jej wypływu z jeziora Roś do ujścia rzeki Wincenty. Autor zaznaczył na Pisie aż 36 przepustów. Na mapie widać też 10 zatok rozlewiskowych, zapewne starorzeczy. Poniżej wypływu Pisy z jeziora Roś zaznaczono Pisz, Johannisburgk, zaś w środkowym biegu rzeki, nad jednym z rozlewisk, pewien kamień – Das Stein. Ostatni zapis na mapie dotyczy rzeki Wincenty – das flußlein Wincenta. To właśnie na niej w latach 1335–1341 została ustalona granica między zakonem krzyżackim a Mazowszem, chociaż na przestrzeni XIV i XV w. ulegała ona jeszcze pewnym zmianom. Podstawowy cel mapy: pokazanie drogi wodnej z Ryna przez Pisz i rzeką Pisą do granicy z Mazowszem Podstawowym zadaniem mapy było pokazanie drogi wodnej z Ryna przez Pisz i rzeką Pisą do granicy z Mazowszem. O jej znaczeniu komunikacyjnym świadczą 1) zaznaczenie mostów w Mikołajkach i Okartowie oraz 2) podawanie odległości w milach. Jak już wcześniej wspominaliśmy, mapa przedstawia liczne obiekty hydrotechniczne (przepusty) na wodach płynących; są one widoczne np. na rzece Wyszce i Pisie. Opisywana droga jest wspominana w XIV-wiecznej kronice krzyżackiej Wiganda z Marburga. W 1379 r. wielki mistrz Winryk von Kniprode postanowił opłynąć ziemie zakonu. Swoją podróż rozpoczął w Rynie, skąd udał się do zamku w Piszu. Następnie przepłynął Narwią i Wisłą do Torunia. W 1393 r. wielki marszałek zakonny Werner von Tettingen wyruszył drogą wodną z wyprawą wojenną na Grodno. Dużo wskazuje więc na to, że w średniowieczu ten fragment drogi wodnej był często wykorzystywany. Jeszcze w XVI w. na Pisie nie tylko budowano przepusty, ale i usuwano głazy i pnie z dna oraz karczowano przybrzeżne zarośla; można się domyślać, że działania te miały poprawić warunki żeglugowo-transportowe. Z biegiem lat Pisa utraciła jednak znaczenie. Na mapie geodety i kartografa Józefa Naronowicza-Narońskiego (Narońskiego) z 1660 r. jest to silnie meandrująca rzeka z licznymi wyspami i nieregularnym korytem. Najstarsze zabytki kartograficzne Dr Klimek tłumaczy, że najstarszymi zabytkami kartograficznymi, które obejmują teren dzisiejszych ziem pruskich, są 2 szkice z kodeksu Sędziwoja z Czechła, pochodzącego z czasów rokowań polsko-krzyżackich w latach 1465-66. Nie są one uznawane za mapy czy plany, bo są wykonane niestarannie i zawierają znaczne błędy w zakresie położenia poszczególnych obiektów. W 1526 r. powstała co prawda pierwsza mapa Polski Bernarda Wapowskiego, jednak została ona zniszczona w wyniku pożaru drukarni. W okresie międzywojennym XX wieku odnalezione zostały dwa niewielkie fragmenty tej mapy, ale nie obejmowały one obszaru dzisiejszych Mazur. W przypadku naszej archiwalnej mapy wiadomo, że najmłodsza z zaznaczonych wsi - Szczechy - pochodzi z 1519 r.  Na mapie brakuje założonych nieco później miejscowości, takich jak Łupki (1555) oraz Imionek (1557). Wniosek jest więc taki, że mapa powstała po 1519 r. Nie jest wykluczone, że wykonano ją jeszcze za czasów zakonu krzyżackiego, chociaż bardziej prawdopodobne jest, że powstała już po jego sekularyzacji, czyli po 1525 r. Dokładniejszy wiek mapy datowanej przez Blissa na XVI w. można by poznać dzięki datowaniu radiowęglowemu papieru. Dr Robert Klimek prowadzi badania interdyscyplinarne nad historią średniowieczną Prus. Łączy analizę źródeł historycznych z archeologią, kartografią i toponimią. Jest pasjonatem geografii historycznej dawnych ziem pruskich i starych map, a także autorem ponad 60 publikacji naukowych. « powrót do artykułu
  7. Badania Pompejów nie ograniczają się wyłącznie do odsłaniania kolejnych zabytków i ofiar wybuchu Wezuwiusza. Naukowcy starają się też odtworzyć sekwencję wydarzeń. I tak jak przed dwoma laty dowiedzieliśmy się, że Wezuwiusz zniszczył Pompeje w innym terminie, niż sądzono, tak teraz uczeni określili jak długo trwała lawina piroklastyczna. Uczeni z Uniwersytetu w Bari, włoskiego Narodowego Instytutu Geofizyki i Wulkanologii (INGV) oraz British Geological Survey stwierdzili, że lawina, która pogrzebała Pompeje wraz z mieszkańcami, trwała przez około 15 minut. Wiele osób udusiło się wdychając popiół wulkaniczny. Celem naszej pracy było stworzenie modelu pozwalającego zrozumieć i ocenić wpływ lawiny piroklastycznej na zamieszkane obszary Pompejów, mówi Roberto Isaia, badacz z Obserwatorium Wezuwiusza INGV. Lawiny piroklastyczne to najbardziej niszczące elementy eksplozywnych erupcji wulkanicznych. Lawiny powstają w wyniku załamania się kolumny erupcyjnej. W wyniku tego procesu pojawia się gęsty piroklastyczny spływ, który porusza się z prędkością setek kilometrów na godzinę. Ma on wysoką temperaturę i bardzo duże zagęszczenie cząstek. Isaia i jego koledzy przeprowadzili analizy laboratoryjne osadów piroklastycznych z Pompejów. Uzyskane w ten sposób dane posłużyły jako parametry wejściowe dla modelu matematycznego, za pomocą którego przeprowadzono liczne symulacje. Na tej podstawie dokonano oceny wpływu lawiny piroklastycznej na Pompeje. Głównym wynikiem naszych badań jest stwierdzenie, że lawina piroklastyczna trwała od 10 do 20 minut. Uczony dodaje, że opracowany model może się przydać również przy ocenie skutków wybuchu innych wulkanów. Zrekonstruowanie dawnych erupcji Wezuwiusza pozwala nam na stworzenie charakterystyki lawiny piroklastycznej i jej wpływu na populację, mówi profesor Pierfrancesco Dellino z Uniwersytetu w Bari. Uczony dodaje, że takie prace są istotne również dla opracowania współczesnych metod ochrony przed tego typu wydarzeniami. « powrót do artykułu
  8. W Europie mamy obecnie do czynienia ze znacznym spadkiem populacji ptaków. Jego przyczynami są postępująca urbanizacja, coraz bardziej intensywne rolnictwo, gwałtowny spadek liczby owadów oraz zanieczyszczenie środowiska środkami chemicznymi. Z badań przeprowadzonych przez niemieckich naukowców wynika, że kolejnym zagrożeniem – tym razem dla ptaków drapieżnych – są rodentycydy, trucizny wykorzystywane do zabijania gryzoni. Uczeni z Instytutu Leibniza (Leibniz-Institut für Zoo- und Wildtierforschung), Instytutu Juliusa Kühna (Julius Kühn-Institut) i Niemieckiej Agencji Ochrony środowiska (Umweltbundesamt) informują, że znaleźli rodentycydy w wątrobach ptaków drapieżnych. Środki te szczególnie często były wykrywane u ptaków żyjących w pobliżu miast lub w samych miastach. Na szczególnie częsty kontakt z rodentycydami narażone są jastrzębie żyjące w okolicach Berlina i kanie rude, bez względu na miejsce zamieszkania. Jednak trucizny te wykryto też w organizmach ptaków żyjących z dala o ludzkich siedzib, jak np. u bielików. Wiemy, że drapieżniki są bardzo podatne na akumulowanie się zanieczyszczeń środowiskowych w ich organizmach, mówi jeden z autorów badań, Oliver Krone z Leibniz-IZW. Wraz z Alexandrem Badrym, Detlefem Schenke i Gabriele Treu przeanalizował szczątki kań rudych, jastrzębi, bielików, krogulców i rybołowów znalezione w latach 1996–2018. Obecność rodentycydów stwierdzono w wątrobach ponad 80% jastrzębi i kań rudych. U 18% jastrzębi i 14% kań poziom trucizn wynosił powyżej 200 nanogramów na gram masy ciała, co oznacza ostre zatrucie. Dlatego też naukowcy sądzą, że używanie przez ludzi rodentycydów to jedna z ważniejszych przyczyn spadku populacji kani rudej w Niemczech. Obecność rodentycydów stwierdziliśmy też u niemal 40% bielików. Stężenie trucizny było u nich niższe niż u jastrzębi i kań rudych. Natomiast w przypadku krogulców i rybołowów koncentracja rodentycydów w organizmach była niska lub trucizna nie występowała, czytamy w opublikowanej pracy. Ogólnie rzecz biorąc, obecność trucizny stwierdzono u ponad 50% badanych ptaków, a u około 30% znaleziono więcej niż jeden rodzaj tej trucizny. Zatrucie rodentycydami to istotna przyczyna śmierci ptaków drapieżnych. Szczególnie narażone są te gatunki, które są fakultatywnymi padlinożercami, mówią Badry i Krone. Rodentycydy są szeroko stosowane w rolnictwie, gospodarce leśnej czy miejskich kanałach. Badania wykazały, że im bliżej miasta znaleziono szczątki ptaka, z tym większym prawdopodobieństwem miał on kontakt z rodentycydami. Naukowcy zaobserwowali, że akumulacja dokonuje się przez całe życie, dlatego w organizmach starszych ptaków znaleziono więcej trucizny. Narażone są zarówno te ptaki, które jedzą padlinę, jak i te, które polują na ptaki mające dostęp do przynęt z trucizną. Poza rodentycydami w tkankach badanych ptaków znaleziono leki, takie jak ibuprofen (w 14,3% przypadków) oraz chinolony (2,3%). U czterech kań stwierdzono celowe zatrucie insektycydem o nazwie dimetoat, u części ptaków znaleziono też ślady thiaclopridu, a że środek ten ma krótki okres półżycia w organizmach ptaków, zwierzęta musiały się z nim zetknąć krótko przed śmiercią. Wyniki badań wyraźnie wskazują, że obok wymienionych na początku zagrożeń, ptaki drapieżne są zabijane też przez rodentycydy oraz przez celowe działanie ludzi. Dalszych badań wymaga zaś obecność rodentycydów w organizmach bielków, gdyż ptaki te zwykle nie żywią się zwierzętami, przeciwko którymi rodentycydy są stosowane. « powrót do artykułu
  9. Kamienne narzędzia najstarszych dobrze udokumentowanych kultur – olduwajskiej i aszelskiej – są prawdopodobnie o dziesiątki tysięcy lat starsze niż sądzono. Takie wnioski płyną z badań zespołu kierowanego przez doktora Ivana Jaricia z Centrum Biologii Czeskiej Akademii nauk oraz doktorów Alastaira Keya i Davida Robertsa z Wydziału Antropologii University of Kent. Naukowcy użyli metod modelowania statystycznego do zbadania wieku narzędzi wytwarzanych przez obie kultury. Na ich podstawie oszacowali, że przedstawiciele kultury olduwajskiej zaczęli wytwarzać narzędzia z kamienia 2,644–2,617 miliona lat temu, czyli od 36 000 do 63 000 lat wcześniej niż sądzono. Z kolei narzędzia kultury aszelskiej są o co najmniej 55 000 lat starsze niż dotychczas przypuszczano, a powstały one 1,823–1,815 miliona lat temu. Nasze badania dostarczają najdokładniejszych szacunków na temat wieku najstarszych tego typu narzędzi, mówi doktor Key. A Roberts dodaje, że technika modelowania optymalnej oceny liniowej (optimal linear estimation – OLE) została opracowana przeze mnie i kolegę na potrzeby datowania epizodów wymierania. Okazało się, że jest to wartościowa metoda badania wymierania gatunków i oceny czasu istnienia ostatnich ich przedstawicieli. Postanowiliśmy więc wykorzystać ją do określania momentu pierwszego pojawienia się artefaktów. Mamy nadzieję, że będzie ona szerzej stosowana w archeologii. Najnowsze badania nie tylko wskazują, kiedy powstały badane narzędzia, ale również kiedy mogły powstać nieodkryte jeszcze narzędzia starsze od nich. Szczegóły pracy zostały opisane w artykule Statistical inference of earlier origins for the first flaked stone technologies" opublikowanym na łamach Journal of Human Evolution. « powrót do artykułu
  10. Przed kilkoma dniami między Beskiem a Porębami (woj. podkarpackie) Wojciech Guzik z Krosna jako pierwszy wypatrzył bardzo rzadkiego ptaka - kalandrę szarą (Melanocorypha calandra). Ostatni raz kalandra była widziana w obecnych granicach Polski w 1878 r. w okolicach Jeleniej Góry. Jak podkreślono na profilu Naszego Beska - gazety lokalnej na Facebooku, ten niepozorny skowronek lęgowo nie występuje w Polsce. Najczęściej jest spotykany w południowej Ukrainie, Mołdawii i w Rumunii. A zatem mieliśmy w Polsce prawdziwe zjawisko ornitologiczne. Pierwsza obserwacja kalandry Pan Guzik podzielił się swoim odkryciem, a wiadomość obiegła Internet lotem błyskawicy. W niedzielę (21 marca) od wczesnych godzin porannych wzdłuż drogi między Beskiem a Porębami zatrzymywali się miłośnicy ptaków. Przyjechali z różnych zakątków kraju. Także chcieli zobaczyć kalandrę i liczyli na łut szczęścia. Ptasiarski rok 2021 obfituje w niespodzianki W artykule napisanym dla Gazety Wyborczej ornitolog dr Jacek Betleja podkreślił, że istnieją gatunki ptaków, które z różnych względów od paru dziesięcioleci nie były obserwowane w Polsce: przestały do nas przylatywać z nie do końca poznanych powodów, zmniejszyły liczebność w areałach poza naszym krajem lub wyginęły. Bez przesady można powiedzieć, że w pewnym sensie są one dla miłośników ptaków gatunkami mitycznymi... Warto przypomnieć, że przed 4 laty członkowie Komisji Faunistycznej zaprezentowali pełne zestawienie rzadkich ptaków w książce "Rzadkie ptaki w Polsce". I tak jak ptasiarski rok 2021 rozpoczął się z mocnym przytupem w związku z pojawieniem się sikory lazurowej po 28 latach przerwy [...], tak koniec zimy dostarczył jeszcze większej sensacji w ornitologicznym świecie. Pojawiła się kalandra szara, gatunek z rodziny skowronków, która wygląda… jak skowronek - podkreśla na łamach GW dr Betleja z Muzeum Górnośląskiego. O kalandrze szarej słów kilka Kalandra szara występuje w południowej i wschodniej Europie. Zalatuje do zachodniej, środkowej, a nawet północnej Europy. Do Polski ptak ten zalatywał sporadycznie. W 1878 r. jeden okaz zaobserwowano pod Jelenią Górą (wówczas leżała ona na terenie Cesarstwa Niemieckiego i ptaka zaliczono do awifauny Niemiec). Wg ornitologa, po części taka sytuacja [braku udokumentowanych obserwacji] wynika zapewne z tego, że liczba ptasiarzy, którzy są w stanie wypatrzyć pojedyncze osobniki tego gatunku na rozległych polach w Polsce, jest znikoma. Wiosna w ptasim świecie Dr Betleja również wybrał się ze znajomymi na poszukiwania ptaka. Pogoda dopisała i kalandrę udało się wypatrzeć. Leciała ze skowronkami; o obserwację było więc łatwiej niż w sytuacji, gdyby M. calandra pojawiła się w pojedynkę (w porównaniu do skowronków, kalandry są trochę większe, mają też nieco inną sylwetkę i sposób lotu). Rozmówcy Naszego Beska, którzy przyjechali z Dolnego Śląska i Opola, widzieli w niedzielę (21 marca) wiele innych ptaków: czajki, szpaki, siewkę złotą, bekasa kszyka, krogulca, jastrzębia, błotniaka zbożowego, myszołowa włochatego i zwyczajnego, bociana białego, kląskawkę, kwiczoły, gołębie grzywacze, a także siniaki i żurawie (ok. 2 tys.). W pierwszym dniu astronomicznej wiosny nad Zarszynem dostrzeżono natomiast dwa osobniki orła cesarskiego (co również jest nieczęstym widokiem) i ok. 5 tys. żurawi. « powrót do artykułu
  11. Obecny w atmosferze dwutlenek węgla napędza wzrost roślin. Wiele osób żywi przekonanie, że im więcej węgla w atmosferze, tym bujniejszy wzrost roślinności, a im więcej roślinności, tym więcej węgla z atmosfery one wchłaniają. Wyniki badań, które opublikowano właśnie na łamach Nature wskazują, że gdy więcej CO2 w atmosferze powoduje bardziej bujny wzrost roślin ma to... negatywny wpływ na zdolność gleby do przechowywania węgla. Jedno z możliwych wyjaśnień tego fenomenu brzmi: bujniejsza roślinność wykorzystuje więcej składników zawartych w glebie. A to z kolei przyczynia się do zwiększonej aktywności mikroorganizmów, w wyniku której z gleby uwalniany jest dwutlenek węgla, który bez tej dodatkowej aktywności zostałby w niej uwięziony. Wyniki badań przeczą powszechnemu przekonaniu, że im więcej biomasy rośnie, tym więcej jej się rozkłada, a zawarty w niej węgiel zostaje uwięziony w glebie. Autorzy najnowszych badań przeanalizowali dane ze 108 przeprowadzonych wcześniej eksperymentów, podczas których sprawdzano poziom węgla w glebie, tempo wzrostu roślin oraz wpływ wysokiego stężenia CO2 na oba te czynniki. Ze zdumieniem zauważyli istnienie mechanizmu, który przeczy intuicji. Gdy zwiększa się masa roślin, zwykle zmniejsza się ilość węgla w glebie, mówi główny autor badań, Cesar Terrer z Uniwersytetu Stanforda. Okazało się, że jednoczesny wzrost masy roślinnej oraz koncentracja węgla w glebie są bardzo trudne do osiągnięcia, mówi jeden z autorów badań, profesor Rob Jackson. Uczony dodaje, że obecnie stosowane modele klimatyczne nie biorą pod uwagę tego zjawiska, wskutek czego prawdopodobnie przeszacowują one zdolność gleby do przechowywania węgla pobranego z atmosfery. Szacuje się, że rośliny i gleba absorbują obecnie około 30% CO2 emitowanego przez człowieka. Oszacowanie, jak wiele węgla może zostać uwięzione w glebie jest niezwykle ważne, gdyż węgiel ten powinien pozostawać przez długi czas. Gdy roślina ulega rozkładowi, część uwięzionego w niej węgla powraca do atmosfery. Jednak gdy węgiel zostaje uwięziony w glebie, pozostaje tam przez setki lub tysiące lat, wyjaśnia Terrer. Nowa praca bazuje na opracowaniu autorstwa Terrera, Jacksona i innych, którzy w 2019 roku oszacowali, że dwukrotne – w porównaniu z epoką przedprzemysłową – zwiększenie koncentracji atmosferycznego CO2 doprowadzi do zwiększenia biomasy o około 12%, zatem rośliny prawdopodobnie odegrają znacznie mniejszą niż przewidywano rolę w wycofywaniu węgla z atmosfery. Teraz, po sprawdzeniu jednoczesnej zdolności roślin i gleby do pobierania węgla z atmosfery, uczeni doszli do wniosku, że należy zrewidować i ten mechanizm. W glebie uwięzione jest więcej węgla niż w roślinach. Dlatego też musimy się jej lepiej przyjrzeć, gdy zastanawiamy się nad przewidywanymi zmianami szaty roślinnej, stwierdza Jackson. Z badań wynika, że niespodziewanie dużo węgla mogą w przyszłości absorbować użytki zielone, jak łąki czy pastwiska. W scenariuszu, w którym CO2 jest dwukrotnie wyższe niż przed rewolucją przemysłową, zdolność użytków zielonych do przechowywania węgla rośnie o 8%. Tymczasem zdolność lasów pozostaje na tym samym poziomie co obecnie. Stanie się tak pomimo tego, iż biomasa lasów ma w tym czasie wzrosnąć o 23%, a biomasa użytków zielonych o 9%. Dzieje się tak częściowo dlatego, że drzewa wiążą w glebie stosunkowo mało pochłanianego przez siebie węgla. Z punktu widzenia bioróżnorodności sadzenie lasów na obszarach zajętych przez naturalne użytki zielone czy sawanny to błąd. Nasze badania pokazują, że ekosystemy użytków zielonych są bardzo ważne z punktu widzenia pochłaniania węgla, mówi Terrer. « powrót do artykułu
  12. Niemcy będą pierwszym krajem, który zwróci do kraju pochodzenia jedne z najwspanialszych zabytków sztuki afrykańskiej, brązy z Beninu. W ubiegłym tygodniu niemiecka delegacja z ministrem kultury na czele odwiedziła Benin City w Nigerii, by omówić warunki porozumienia. Wszyscy spodziewają się, że zostanie ono podpisane jeszcze latem bieżącego roku. Otworzy to nowy rozdział zwrotu dzieł sztuki zrabowanych z byłych kolonii. Brązy z Beninu to zbiór tysięcy metalowych rzeźb oraz rzeźbionych płytek, które w przeszłości zdobiły pałac władcy Królestwa Beninu. Były wytwarzane przez lud Edo od co najmniej XIII wieku. Cechuje je niezwykły artyzm, realizm i precyzja wykonania. Są tak doskonałe, że gdy dotarły do Europy spotkały się z niedowierzaniem. Sądzono, że jest niemożliwe, by „prymitywne i dzikie” ludy Afryki wytwarzały sztukę o tak wysokiej jakości. Niektórzy twierdzili, że doskonała jakość brązów to dowód, iż rzemieślnicy z Beninu nauczyli się metalurgii od Portugalczyków. Wiemy jednak, że wiele z tych rzeźb powstała całe wieki przed kontaktem z Europejczykami. Mimo, że zabytki są znane pod ogólną nazwą brązów z Beninu, to w rzeczywistości są wykonane głownie z mosiądzu. Niektóre z nich wykonano z połączenia brązu z mosiądzem, pojawia się też drewno, kość słoniowa, ceramika i inne materiały. Metalowe części wykonano techniką traconego wosku i są najwspanialszymi przykładami wykorzystania tej metody. Wiele brązów z Beninu przedstawia królów i wojowników. Gdy umierał król, jego następca zamawiał portret zmarłego wykonany w brązie. Znamy około 170 takich przedstawień, najstarsze z nich pochodzi z XII wieku. Jako, że królowie zmonopolizowali najcenniejsze materiały, to na dworach królewskich powstawały wspaniałe brązy z Beninu i to dwory stały się ośrodkami rozwoju subsaharyjskiej sztuki. Większość brązów z Beninu została zrabowana przez wojska brytyjskie podczas ekspedycji odwetowej w 1897 roku. Wojska brytyjskie zdobyły i spaliły Benin City, kładąc kres Królestwu Beninu. Znakomita część brązów trafiła do British Museum (jest ich tam 700), ich duże kolekcje znajdują się w USA i Niemczech. W Niemczech znajdują się one w około 25 muzeach. Największą kolekcję, 580 sztuk, posiada muzeum w Berlinie. Teraz Niemcy zwrócą brązy, co może stać się początkiem szerszej fali restytucji dzieł sztuki wywiezionych przez kolonistów. Niemcy są pionierami. Brązy z Beninu są szczególnie ważne. To prawdopodobnie najbardziej znane i podziwiane dzieła sztuki. Jako, ze są łupem wojennym ich zwrot jest szczególnie ważny, mówi Souleymane Bachir Diagne, senegalski filozof i dyrektor Instytutu Badań Afrykańskich na Columbia Uniwersity. Debata na temat zwrotu afrykańskiej sztuki zarabowanej w okresie kolonialnym trwała od dziesięcioleci. Proces przyspieszył, gdy w 2017 roku prezydent Macron zapowiedział, że Francja w ciągu 5 lat zwróci zabytki zrabowane w Afryce. W 2019 roku 16 niemieckich landów zatwierdziło dokument opisujący warunki i sposób zwrotu dzieł sztuki z byłych kolonii. Chodzi o te dzieła sztuki, które zostały zabrane w sposób, którego obecnie nie da się usprawiedliwić na drodze prawnej lub moralnej. Z kolei w styczniu bieżącego roku rząd Holandii stał się pierwszym, który wdrożył ogólnokrajowy mechanizm zwrotu dzieł sztuki z bylych kolonii. Proces ten będzie trwał, ale nie da się go powstrzymać. Po prostu nie istnieje żadne moralne uzasadnienie dla konfiskaty afrykańskiej sztuki i przechowywania jej w zachodnich muzeach, dodaje kameruński filozof Achille Mbembe, profesor na University of Witwatersrand w Johannesburgu. Benin to początek. Tu nie chodzi tylko o Benin, o Nigerię, a nawet nie o Afrykę. Tu chodzi o cały świat. Jeśli uda się muzeum w Beninie, uda się też innym, stwierdził nigeryjski artysta Emeka Ogboh. « powrót do artykułu
  13. Narodowy Instytut Onkologii im. Marii Skłodowskiej-Curie – Państwowy Instytut Badawczy Oddział w Gliwicach otrzyma prawie 27 mln zł na stworzenie repozytorium genetycznego nowotworów i modernizację biobanku. Platforma MOSAIC Ośrodek w Gliwicach jest jednym z realizatorów projektu "ECBiG – Europejskie Centrum Bioinformatyki i Genomiki MOSAIC". Jego liderem jest Instytut Chemii Bioorganicznej Polskiej Akademii Nauk z Poznania, a partnerami Politechnika Poznańska oraz Narodowy Instytut Kardiologii im. Stefana Kardynała Wyszyńskiego – Państwowy Instytut Badawczy z Warszawy. Projekt ma być zrealizowany w ramach Programu Operacyjnego Inteligentny Rozwój 2014-2020. Jego całkowita wartość wynosi niemal 230 mln; jak wspominaliśmy, Narodowy Instytut Onkologii w Gliwicach dostanie z tej kwoty prawie 27 mln zł. Głównym celem projektu jest stworzenie unikatowej platformy MOSAIC, umożliwiającej stosowanie sztucznej inteligencji do prowadzenia nowatorskich badań integrujących wielowymiarowe dane biomedyczne i kliniczne dla uzyskania nowej wiedzy i narzędzi na potrzeby powszechnie dostępnej, spersonalizowanej profilaktyki, diagnostyki i terapii medycznej – wyjaśnia dr hab. n. med. Małgorzata Oczko-Wojciechowska, kierowniczka Zakładu Diagnostyki Genetycznej i Molekularnej Nowotworów Narodowego Instytutu Onkologii (NIO) w Gliwicach. Udział Instytutu w projekcie pozwoli [...] na rozwój nowatorskiej diagnostyki molekularnej, wykorzystywanej w procesie leczenia pacjentów onkologicznych. Nowoczesny biobank Co ważne, w ramach projektu w Instytucie z Gliwic powstanie nowoczesny biobank, spełniający najwyższe standardy pobierania, przechowywania, a także udostępniania materiału biologicznego pozyskiwanego od pacjentów z nowotworami złośliwymi. Do tego celu trzeba zaadaptować pomieszczenia i zadbać o odpowiedni sprzęt oraz przygotować instalację monitorującą zamrażarki głębokiego mrożenia. Z pewnością powstanie takiego biobanku zwiększy potencjał naukowo-badawczy w Narodowym Instytucie Onkologii w Gliwicach, ale również wpłynie na postęp badań translacyjnych, czyli takich, których wyniki przekładają się na praktykę kliniczną – wyjaśnia dr hab. n. med. Tomasz Rutkowski, zastępca dyrektora ds. naukowych NIO w Gliwicach. Nowe laboratoria Oprócz tego projekt przewiduje powstanie w Gliwicach Laboratorium Genomu Onkologicznego. Kierować nim będzie dr Oczko-Wojciechowska. Laboratorium zostanie wyposażone w sekwenator nowej generacji średniej przepustowości, serwery przechowujące dane i aparaty do automatycznego wykonania reakcji. Poza tym planowane jest utworzenie Laboratorium Analiz Polimorfizmów. Jak wyjaśniono w komunikacie NIO, będą w nim oceniane warianty tego samego genu, czyli polimorfizmy pojedynczego nukleotydu oraz ich związek z odpowiedzią na zastosowane leczenie. Prof. dr hab. n. med. Krzysztof Składowski, dyrektor Oddziału NIO w Gliwicach przekonuje, że tego typu inwestycje pozwolą nam dorównać kroku najlepszym światowym ośrodkom onkologicznym, albowiem w niedalekiej przyszłości leczenie onkologiczne będzie dobierane "na miarę" indywidualnego pacjenta. Standardy leczenia dedykowane dla konkretnych histologicznych typów nowotworów, oparte o wieloletnie doświadczenie pochodzące z obserwacji setek i tysięcy podobnych chorych, ustąpią miejsca spersonalizowanej recepturze różnorodnych terapii ukierunkowanych nie – jak to ma miejsce dziś – na jeden wybrany cel, lecz na wiele z nich. « powrót do artykułu
  14. Na szwedzkim Uniwersytecie Technicznym Chalmersa opracowano nowatorski termometr, który pozwoli na udoskonalenie... komputerów kwantowych. Termometr ten dokonuje szybkich i niezwykle dokładnych pomiarów temperatury podczas obliczeń kwantowych. Głównymi elementami komputera kwantowego są kable koncentryczne i falowody. Mikrofale są przesyłane falowodami do kwantowego procesora, a po drodze są schładzane do bardzo niskich temperatur. Zadaniem falowodów jest tez osłabianie i filtrowanie impulsów tak, by niezwykle wrażliwy kwantowy procesor mógł pracować ze stabilnymi stanami kwantowymi. Jednak, by mieć jak największą kontrolę nad całym procesem, specjaliści muszą mieć pewność, że falowody nie przenoszą zakłóceń powodowanych ruchem cieplnym elektronów. Innymi słowy, muszą mierzyć temperaturę pól elektromagnetycznych na końcu falowodu, w miejscu, w którym do kubitów dostarczane są kontrolujące je impulsy. Praca z najniższymi możliwymi temperaturami zmniejsza ryzyko wprowadzenia błędów do kubitów. Dotychczas możliwe były jedynie pośrednie pomiary tych temperatur i do tego dokonywane były ze znaczącym opóźnieniem. Tymczasem opracowany w Szwecji termometr pozwala na bardzo szybkie i niezwykle precyzyjne bezpośrednie pomiary temperatur na końcu falowodu. Nasz termometr do obwód nadprzewodzący bezpośrednio podłączony do końca falowodu, którego temperaturę mierzy. To dość prosty i prawdopodobnie najszybszy i najbardziej precyzyjny termometr do tego typu pomiarów. Pracuje on w skali milikelwinów, mówi profesor Simone Gasparinetti. Specjaliści z Wallenberc Centre for Quantum Technology (WACQT) chcą do roku 2030 stworzyć kwantowy komputer korzystający z co najmniej 100 kubitów. Osiągnięcie tego celu będzie wymagało schłodzenia procesora do temperatury bliskiej zeru absolutnemu, mówi się o 10 milikelwinach. Nowy termometr będzie bardzo ważnym narzędziem na drodze do osiągnięcia tego celu. Dzięki niemu naukowcy sprawdzą, jak dobrze sprawuje się ich system i jakie ma niedociągnięcia. Konkretna temperatura jest związana z konkretną liczbą fotonów termicznych, a ich liczba spada wykładniczo wraz ze spadkiem temperatury. Jeśli uda nam się obniżyć temperaturę na końcu falowodu do 10 milikelwinów to drastycznie zredukujemy ryzyko wystąpienia błędów, mówi profesor Per Delsing, lider WACQT. Precyzyjne pomiary temperatury są też istotne dla producentów podzespołów dla komputerów kwantowych, gdyż dzięki nim będą wiedzieli, czy ich produkty spełniają odpowiednie standardy. Nowy termometr może mieć jednak znacznie szersze zastosowania. Może przyczynić się do dokonania znacznego postępu w nauce i technologii. Takie zjawiska jak superpozycja, splatanie czy dekoherencja mogą mieć bowiem znaczenie również w termodynamice. Nie można wykluczyć, że w nanoskali prawa termodynamiki ulegają zmianom. I być może zmiany te uda się wykorzystać np. do udoskonalenia silników, akumulatorów i innych urządzeń. Przez ostatnich 15–20 lat prowadzono badania, których celem było sprawdzenie, w jaki sposób zasady termodynamiki mogą ulegać modyfikacjom pod wpływem zjawisk kwantowych. Kwestia wykorzystania zjawisk kwantowych w termodynamice jest wciąż kwestią otwartą, stwierdza Gasparinetti. Nowy termometr mógłby np. posłużyć do pomiarów rozpraszania mikrofal w obwodzie, działającym jak kwantowy silnik cieplny lub kwantowa lodówka. Standardowe termometry były kluczowym narzędziem rozwoju klasycznej termodynamiki. Mamy nadzieję, że w przyszłości nasz termometr będzie fundamentem rozwoju termodynamiki kwantowej, wyjaśnia doktorant Marco Scigliuzzo. « powrót do artykułu
  15. Podczas ostatnich badań w CERN zdobyto dane, które – jeśli zostaną potwierdzone – będą oznaczały, że doszło do naruszenia Modelu Standardowego. Dane te dotyczą potencjalnego naruszenia zasady uniwersalności leptonów. O wynikach uzyskanych w LHCb poinformowano podczas konferencji Recontres de Moriond, na której od 50 lat omawia się najnowsze osiągnięcia fizyki oraz w czasie seminarium w CERN. Podczas pomiarów dokonywanych w LHCb porównywano dwa typy rozpadu kwarków powabnych. W pierwszym z nich pojawiają się elektrony, w drugim miony. Miony są podobne do elektronów, ale mają około 200-krotnie większą masę. Elektron, mion i jeszcze jedna cząstka – tau – to leptony, które różnią się pomiędzy sobą zapachami. Zgodnie z Modelem Standardowym, interakcje, w wyniku których pojawiają się leptony, powinny z takim samym prawdopodobieństwem prowadzić do pojawiania się elektronów i mionów podczas rozpadu kwarka powabnego. W roku 2014 zauważono coś, co mogło wskazywać na naruszenie zasady uniwersalności leptonów. Teraz, po analizie danych z lat 2011–2018 fizycy z CERN poinformowali, że dane wydają się wskazywać, iż rozpad kwarka powabnego częściej dokonuje się drogą, w której pojawiają się elektrony niż miony. Istotność zauważonego zjawiska to 3,1 sigma, co oznacza, iż prawdopodobieństwo, że jest ono zgodne z Modelem Standardowym wynosi 0,1%. Jeśli naruszenie zasady zachowania zapachu leptonów zostanie potwierdzone, wyjaśnienie tego procesu będzie wymagało wprowadzenie nowych podstawowych cząstek lub interakcji, mówi rzecznik prasowy LHCb profesor Chris Parkes z University of Manchester. Rozpad kwarka powabnego prowadzi do pojawienia się kwarka dziwnego oraz elektronu i antyelektronu lub mionu i antymionu. Zgodnie z Modelem Standardowym w procesie tym pośredniczą bozony W+ i Z0. Jednak naruszenie zasady uniwersalności leptonów wskazuje, że zaangażowana w ten proces może być jakaś nieznana cząstka. Jedna z hipotez mówi, że jest to leptokwark, masywny bozon, który wchodzi w interakcje zarówno z leptonami jak i z kwarkami. Co istotne, dane z LHCb zgadzają się z danymi z innych anomalii zauważonych wcześniej zarówno w LHCb, jak i obserwowanych od 10 lat podczas innych eksperymentów na całym świecie. Nicola Serra z Uniwersytetu w Zurichu mówi, że jest zbyt wcześnie by wyciągać ostateczne wnioski. Jednak odchylenia te zgadzają się ze wzorcem anomalii obserwowanych przez ostatnią dekadę. Na szczęście LHCb jest odpowiednim miejscem, w którym możemy sprawdzić potencjalne istnienie nowych zjawisk fizycznych w tego typu rozpadach. Musimy przeprowadzić więcej pomiarów. LHCb to jeden z czterech głównych eksperymentów Wielkiego Zderzacza Hadronów.Jego zadaniem jest badanie rozpadu cząstek zawierających kwark powabny. Artykuły na temat opisanych tutaj badań zostały opublikowane na stronach arXiv oraz CERN. « powrót do artykułu
  16. Na słynnym stanowisku Sanxingdui w prowincji Syczuan dokonano ważnego odkrycia. W ostatnim czasie znaleziono tam setki artefaktów sprzed ponad 3000 lat takich jak tajemnicza maska z brązu czy ponad 2-metrowa statua również wykonana z brązu. Odkrycia dopełniło najnowsze znalezisko – złota maska. Stanowisko Sanxingdui odkryto w 1929 roku. Intensywne prace wykopaliskowe są tam prowadzone od 1986 roku. W trakcie badań stwierdzono, że mamy tam do czynienia ze stanowiskiem ważnej kultury epoki brązu – Sanxingdui – i artefaktami datowanymi na XII-XI wiek przed naszą erą. Odkrycie Sanxingdui i innych stanowisk podważyło tradycyjną narrację historyczną, zgodnie z którą chińska cywilizacja rozprzestrzeniła się z centralnych równin wokół Rzeki ŻÓŁtej. Obecnie mówi się o wielu centrach, które stworzyły chińską cywilizację. Sanxingdui, pomimo trwających tam od dziesięcioleci prac wykopaliskowych, wciąż przynosi nowe odkrycia. Narodowa Administracja Dziedzictwa Kulturowego poinformowała, że pomiędzy listopadem 2019 roku, a majem 2020 znaleziono tam 6 nowych prostokątnych dołów ofiarnych o powierzchni od 3,5 do 19 metrów kwadratowych. W dołach tych mieszkańcy państwa Shu (XI w. p.n.e. – ok. 316 p.n.e.) składali ofiary niebiosom, Ziemi i swoim przodkom. Jak mówi Ran Honglin z Instytutu Badań Archeologicznych, odkrycie pokazuje, że cywilizacja Shu była odmienna od innych. Jest jednocześnie dowodem na różnorodność kultur, z których narodziły się Chiny. Wśród znalezionych artefaktów warto wymienić złote ozdoby w kształcie ptaków, złotą folię, malowane portrety, olbrzymią maskę z brązu, drzewo z brązu czy narzędzia z żadu. Najmniejszy ze wszystkich jest dół nr 5. Ale to właśnie w nim znaleziono większość złotych przedmiotów, w tym ceremonialną maskę ważącą około 280 gramów i w 84% wykonaną ze złota. Dno dołu pokrywały liczne złote liście. Są one bardzo cienkie i delikatne, a na podstawie ich rozmieszczenia eksperci wnioskują, że w przeszłości były one przymocowane do tkanin. Uwagę specjalistów zwracają przede wszystkim trzy niezwykłe przedmioty. Pierwszy z nich to ogromna maska z brązu. Jej wysokość to 66 cm, a szerokość aż 138 cm. Maska ma wielkie uszy, wystające oczy oraz wydatne usta. Niektórzy archeolodzy sądzą, że to przedstawienie Canconga, półlegendarnego założyciela królestwa Shu. Zdaniem innych specjalistów maska ma związek z bogiem smokiem, który ma podobnie wystające oczy. Między oczami maski widnieje prostokątny otwór. Być może umieszczano tam jakąś ozdobę. Kolejne niezwykłe znalezisko to niekompletna złota maska. Całość mogła ważyć nawet 500 gramów. Jeśli to prawda, jest to najcięższa złota maska znana z terenu Chin z tego okresu. Niektórzy archeolodzy zwracają uwagę na jej podobieństwo do złotej maski ze stanowiska Jinsha. To nie pierwszy obiekt z Sanxingdui, który jest podobny do obiektów z Jingsha, co rodzi pytania o związki pomiędzy tymi obiema cywilizacjami. Niewykluczone, że Jinsha było ostatnią fazą kultury Sanxingdui. W końcu należy wspomnieć o 262-centymetrowej figurze z brązu. To najstarsza na świecie figura przedstawiająca człowieka o rozmiarach zbliżonych do rzeczywistych. Ramiona figury są zgięte w pobliżu piersi, co może wskazywać, że coś na nich kładziono. Część specjalistów twierdzi, że przedstawia ona władcę królestwa Shu, zdaniem innych to przedstawienie kapłana i jednoczesna personifikacja boga. « powrót do artykułu
  17. W połowie marca br. do Działu Archeologii Muzeum w Raciborzu dotarła wiadomość, że na polu uprawnym w rejonie Starej Wsi (najstarszej dzielnicy Raciborza) rolnik znalazł ludzkie kości. Niezwłocznie podjęto działania, które miały zabezpieczyć odkryte szczątki. Jak podkreślono w komunikacie Muzeum, okazało się, że są to fragmenty całego pochówku, znajdującego się bardzo płytko (ok. 30 cm) poniżej poziomu terenu. Tak płytkie usytuowanie mogiły wiąże się z postępującą erozją stoku, która powoduje odsłanianie znajdujących się pierwotnie dużo głębiej pochówków. Podjęto decyzję o eksploracji mogiły. Dzięki temu ustalono, że kościec był ułożony na prawym boku ze zgiętymi rękoma, podkurczonymi nogami i twarzą skierowaną na wschód. Specjaliści podkreślają, że jest to charakterystyczne dla pochówków z okresu neolitu oraz wczesnej epoki brązu. Podczas prac polowych wydobyto kości nóg. Poniżej i obok opisywanego grobu odkryto następne 2 pochówki (tu także stwierdzono ułożenie na boku). Fakt ten wskazuje, że natrafiono na pozostałości cmentarzyska. W tej sytuacji można uznać, że opisywane pochówki mogą stanowić część grobu zbiorowego. Podjęto decyzję o odłożeniu dalszej eksploracji do zakończenia sezonu prac rolniczych. Pochówki zostały zabezpieczone, a kolejne prace badawcze przeprowadzone zostaną jesienią tego roku. « powrót do artykułu
  18. Archeolodzy z Danii, USA, Wielkiej Brytanii i Australii przeprowadzili badania podwodnych wysypisk muszli, udowadniając, że tego typu usypiska stworzone ręką człowieka można odróżnić od naturalnych składowisk muszli, a zatem można je wykorzystać do badań ludzkiego osadnictwa sprzed okresu, gdy badany obszar został pochłonięty przez wodę. Naukowcy zbadali wysypiska znajdujące się obecnie w wodach Zatoki Meksykańskiej oraz u wybrzeży Danii. Sam fakt ich istnienia dowodzi, że osadnictwo w badanych regionach było o setki lat starsze, niż się dotychczas uważa. Ponadto wysypiska muszli pozwalają badań związek środowiska wodnego z wczesnymi mieszkańcami regionów nadbrzeżnych. Wysypiska muszli to dla nas cenny, obecny na całym świecie, znacznik wskazujący na intensywne wykorzystywanie zasobów morskich. Jednak zawsze sądziliśmy, że wiele takich struktur zostało zniszczonych przez podnoszące się wody oceanów, mówi profesor Geoff Bailey z University of York. Przez znaczną część historii ludzkości poziom oceanów był znacznie niższy, nawet o 130 metrów niższy, niż obecnie. Powierzchnia lądów była o miliony kilometrów kwadratowych większa. A zdobyte dowody jasno pokazują, że ludzie żyli na tych rozległych równinach zanim pochłonęła je woda, dodaje profesor Jonathan Benjamin z Flinders University. Dzięki nowym badaniom wiemy na przykład, że w Danii takie usypiska muszli były bardziej powszechne niż się uważa, co może znacząco zmienić pogląd na użytkowanie wybrzeża 5000–7300 lat temu. Badania pokazują, że im więcej takich miejsc znajdziemy, z tym większym prawdopodobieństwem będziemy musieli na nowo napisać historię wykorzystania wybrzeża przez ludzi. Bardzo ważne jest, byśmy kontynuowali badania podwodnych wysypisk muszli, stwierdza doktor Peter Moe Astrup z duńskiego Moesgaard Museum. W takich wysypiskach muszli możemy znaleźć resztki pożywienia, wyrzucone narzędzia i ozdoby, struktury mieszkalne, a nawet pochówki, wyjaśnia doktor Katherine Woo z Uniwersytetu im. Jamesa Cooka. Dostarczają nam więc one tak istotnych informacji jak dane o diecie, technologii wytwarzania przedmiotów i handlu. Co ważne, pozwalają nam zrozumieć, jak ludzie zmieniali z czasem swoją kulturę, jak wchodzili w interakcje z otoczeniem, również w czasach, gdy zmieniał się klimat i rósł poziom oceanów. Specjaliści zwracają uwagę, że w czasach, gdy intensywnie rozwijamy infrastrukturę nadbrzeżną – budując np. morskie farmy wiatrowe – musimy uwzględnić potrzebę prowadzenia podwodnych prac archeologicznych na szelfie kontynentalnym. Inaczej możemy bezpowrotnie zniszczyć ważne stanowiska i utracić zawarte w nich informacje.   « powrót do artykułu
  19. Superlekkie materiały składające się w ponad 99% z powietrza mogą stać się kluczowymi elementami dostarczającymi energię przyszłym misjom kosmicznym. Materiały te, porowate aerożele węglowe, tworzą elektrody superkondensatora zbudowanego na zlecenie NASA przez Merced nAnomaterials Center for Energy and Sensing, University of California, Santa Cruz (UCSC), University of California, Merced i Lawrence Livermore National Laboratory. Superkondensator przyda się też podczas prac na biegunach, gdyż działa w bardzo niskich temperaturach. Wiele pojazdów kosmicznych wymaga stosowania wewnętrznego ogrzewania. Łaziki pracujące na Marsie muszą mierzyć się ze średnimi temperaturami rzędu -62 stopnie Celsjusza. W zimie temperatura spada poniże -125 stopni Celsjusza. Dlatego też np. Perseverance wyposażony jest w grzałki, które dbają o to, by nie zamarzł elektrolit w akumulatorach łazika. Jednak grzałki i ich źródła zasilania to kolejne elementy dodające masy łazikowi, przez co rosną koszty i poziom skomplikowania misji. Rozwiązaniem wielu problemów mogłyby być superkondensatory. To urządzenia, które łączą zalety akumulatorów i kondensatorów. Przede wszystkim są zdolne do przechowywania znacznie większych ilości energii niż kondensatory, chociaż nie są tak dobre w jej przechowywaniu jak akumulatory. Jednak nad akumulatorami mają tę przewagę, że można je ładować i rozładować w ciągu minut. Ponadto wytrzymują miliony cykli ładowanie/rozładowanie, podczas gdy akumulatory potrafią przetrwać jedynie kilka tysięcy takich cykli. W końcu, co ważne, w przeciwieństwie do akumulatorów nie działają dzięki reakcjom chemicznym, a dzięki przechowywaniu ładunków w formie naładowanych jonów umieszczonych na powierzchni elektrod. Zespół pracujący pod kierunkiem Jennifer Lu z UC Merced i Yata Li z USCS stworzył elektrody do swojego kondensatora za pomocą druku 3D. Atramentem było połączenie celulozowych nanokrysztalów, które dostarczyły węgla, i krzemowych mikrosfer, tworzących podporę dla makroporów. W ten sposób powstał aerożel z porami o średnicy od kilku nanometrów do 500 mikrometrów. Utworzono hierarchiczną strukturę kanałów, które znakomicie zwiększają tempo, w jakim jony z elektrolitu przemieszczają się przez materiał, minimalizując drogę, którą muszą przebyć. Uzyskany aerożel ma powierzchnię około 1750 m2/g, a stworzona z niego elektroda charakteryzuje się pojemnością elektryczną rzędu 148,6 F/g przy przyłożonym napięciu 5 mV/s. Twórcy elektrody wykazali, że działa ona przy temperaturze nawet -70 stopni Celsjusza, podczas gdy większość komercyjnie dostępnych akumulatorów litowo-jonowych i superkondensatorów przestaje działać w temperaturze -20 do -40 stopni Celsjusza, gdyż dochodzi do zamarznięcia elektrolitu. Obecnie trwają testy mające na celu dokładne określenie wydajności elektrody przy niskich temperaturach. Prowadzimy testy w warunkach, jakie panują na Księżycu, Marsie i Międzynarodowej Stacji Kosmicznej, mówi Lu. Szczegóły badań opublikowano na łamach Nano Letters. « powrót do artykułu
  20. Po raz pierwszy w górnych warstwach ziemskiej atmosfery zaobserwowano kosmiczny huragan wraz z elektronowym deszczem. Odkrywcy tego zjawiska mówią, że biorąc pod uwagę warunki odnośnie plazmy i pól magnetycznych, wymaganych do pojawienia się tego zjawiska, takie burze powinny być codziennością na Ziemi. W niższych warstwach atmosfery mamy do czynienia ze znanymi wszystkim huraganami. Formują się one nad zbiornikami wodnymi o wysokiej temperaturze. Gdy ogrzane przez nie wilgotne powietrze unosi się do góry, tworzy się obszar niskiego ciśnienia, który zasysa otaczające go powietrze, tworząc silne wiatry i powodując pojawienie się chmur, co prowadzi do dużych opadów. W wyniku działania siły Coriolisa powietrze wewnątrz huraganu porusza się po okręgu. Huragany wykryto również w dolnych warstwach atmosfery Marsa, Jowisz i Saturna, a powierzchni Słońca zaobserwowano tzw. „słoneczne tornada”. Dotychczas jednak nie obserwowano wirujących mas w górnej atmosferze planet. Wspomniany na początku kosmiczny huragan został zarejestrowany nad Biegunem Północnym przez cztery satelity działające w ramach US Defense Meteorological Satellite Program. Zauważono go w jonosferze, kilkaset kilometrów nad powierzchnią Ziemi. Huragan miał miejsce w sierpniu 2014 roku, ale odkryto go dopiero teraz, podczas retrospektywnej analizy danych prowadzonej pod kierunkiem naukowców z chińskiego Uniwersytetu Shandong. Dzięki narzędziom do trójwymiarowego modelowania magnetosfery uczeni stworzyli model 3D tego zjawiska. Okazało się, że był to tunel o szerokości 1000 kilometrów, który został stworzony przez wirującą plazmę. Obracała się ona w kierunku przeciwnym do ruchu wskazówek zegara, składała się z wielu spiralnych ramion i cichego centrum. Burza trwała przez około 8 godzin i stopniowo zanikła. Dotychczas w ogóle nie byliśmy pewni, czy kosmiczne huragany plazmowe w ogóle istnieją. Dokonanie tej obserwacji to coś niesamowitego. Burze tropikalne związane są z istnieniem olbrzymiej ilości energii, więc takie huragany kosmiczne muszą powstawać w wyniku szybkiego transferu dużych ilości energii wiatru słonecznego i naładowanych cząstek w górnych warstwach atmosfery Ziemi, mówi współautor badań, Mike Lockwood z University of Reading. Naukowcy sądzą, że kosmiczny huragan powstaje w wyniku interakcji pomiędzy wiatrem słonecznym a ziemskim polem magnetycznym. Zwracają uwagę na fakt, że zarejestrowany huragan miał miejsce podczas niskiej aktywności Słońca i niskiej aktywności geomagnetycznej, gdy międzyplanetarne pola magnetyczne były zwrócone na północ. To zaś sugeruje, że tego typu huragany mogą być częstym zjawiskiem w atmosferze Ziemi i innych planet. John Coxon, fizyk z University of Southampton, który nie brał udziału w opisywanych tutaj badaniach, przypomina, że naziemne radary są w stanie mierzyć prędkość plazmy. Interesującym byłoby sprawdzenie, czy takie radary są w stanie zarejestrować duży wir, o jakim donoszą autorzy badań, a jeśli nie, to dlaczego, mówi Coxon. Od pewnego czasu wiemy, że interesujące magnetyczne interakcje, takie jak opisane w tych badaniach, mają miejsce, gdy międzyplanetarne pola magnetyczne są zwrócone na północ. Jednak zwykle nikt się tym nie zajmuje, bo jest to uważane za mało ważne, stwierdza Maria-Theresia Walach z Lancaster University. Badania te to bardzo ładny przykład interakcji pomiędzy wiatrem słonecznym, magnetosferą, a jonosferą. O ile sam kosmiczny huragan nie ma większego wpływu na powierzchnię naszej planety, to deszcz elektronów może potencjalnie zakłócić działanie satelitów GPS czy radarów. « powrót do artykułu
  21. W 1973 roku dwóch wybitnych fizyków Leszek Łukaszuk i Basarab Nicolescu ogłosiło, że z ich wyliczeń wynika, iż powinna istnieć nieznana dotychczas kwazicząstka. Odderon, bo o nim mowa, miał być kulą gluonową przewidzianą przez chromodynamikę kwantową. Ten partner znanego już wcześniej – chociaż również teoretycznie – pomeronu, miał składać się z trzech gluonów. Rozpoczęły się poszukiwania odderonu. Teraz, po niemal 50 latach, poinformowano o jego odnalezieniu. Szwedzko-węgierskiemu zespołowi naukowemu udało się znaleźć odderony w danych z Wielkiego Zderzacza Hadronów i Tevatronu. Przez wiele miesięcy analizowali dane ze zderzeń protonów oraz protonów z antyprotonami. To kamień milowy w fizyce cząstek. Wspaniale jest brać udział w lepszym zrozumieniu materii, mówi Roman Pasechnik z Uniwersytetu w Lund. Współpracujemy z jednymi z najlepszych fizyków cząstek na świecie. Byli zdumieni, gdy opublikowaliśmy wyniki naszej pracy, dodaje. Odkrycie to efekt współpracy naukowców z eksperymentu TOTEM prowadzonego w LHC z badaczami z eksperymentu D0 z Fermilab. Uzyskane wyniki dotykają najbardziej istotnych zagadnień chromodynamiki kwantowej, szczególnie zaś interakcji pomiędzy gluonami i faktu, że nieparzysta liczba gluonów może nie posiadać koloru. Bardzo ważnym elementem odkrycia jest fakt, że dane pozwalające na jego dokonanie pochodzą z LHC i Tevatronu, które pracowały z różnymi energiami, mówi rzecznik TOTEM Simone Giani. Stany składające się z dwóch lub więcej gluonów zwane są kulami gluonowymi. Są bardzo szczególnymi obiektami złożonymi wyłącznie z nośników oddziaływań silnych. Postępy chromodynamiki kwantowej pozwoliły na przewidzenie istnienia odderonu, ale do jego wykrycia potrzebne były bardzo szczegółowe dane ze zderzeń protonów. Większość wysokoenergetycznych kolizji protonów kończy się ich rozbiciem na tworzące je kwarki i gluony. Jednak w około 25% przypadków dochodzi do elastycznego odbicia. Protony nie ulegają zniszczeniu, ale odbiciu i rozproszeniu. Przy wysokich energiach różnice w elastycznym rozpraszaniu po kolizjach proton-proton a proton-antyproton tłumaczy się faktem, że w interakcji pomiędzy protonami pośredniczą wyłącznie gluony. W szczególności tłumaczono to wymianą pomeronu, neutralnej pod względem koloru kuli gluonowej złożonej z parzystej liczby gluonów. Jednak w 2018 roku badacze z TOTEM poinformowali o uzyskaniu wyników, których nie dało się wytłumaczyć w powyższy sposób. Wydawało się, że w grę wchodzi tutaj jeszcze jakiś obiekt z dziedziny chromodynamiki kwantowej. Musiała być nim kula glonowa składająca się co najmniej z trzech lub innej nieparzystej liczby gluonów. Była to silna wskazówka, ale jeszcze nie odkrycie. Teraz dokonano niezależnej analizy, w której wzięto pod uwagę wyniki zderzeń protonów z LHC dokonywanych przy energiach 2,76 TeV, 7 TeV, 8 TeV oraz 13 TeV. Ponadto wyniki te ekstrapolowano na energię 1,96 TeV. Dodatkowo w analizie uwzględniono wyniki z Tevatronu, gdzie zderzano protony i antyprotony przy energii 1,96 TeV. Ponownie znaleziono dowody na istnienie odderonu. Gdy wyniki te porównano z danymi ze zderzeń z eksperymentu TOTEM dokonanych przez eksperyment TOTEM, uzyskano pewność, że mamy do czynienia z odkryciem. Prawdopodobieństwo statystyczne uzyskanych wyników wynosi 5,2–5,7, zatem mówimy o pierwszym eksperymentalnym potwierdzeniu istnienia odderonu, mówi Christophe Royon, który prezentował wyniki podczas spotkania w CERN. Z pracą Evidence of Odderon-exchange from scaling properties of elastic scattering at TeV energies można zapoznać się na łamach The European Physical Journal C. « powrót do artykułu
  22. Naukowcy z Politechniki Opolskiej (PO) opracowali i wydrukowali model 3D żyły z guzem w środku. Zrobili to doskonale. Rzeczywisty model był nam potrzebny do dokładnego zwizualizowania guza, co pozwoliło prawidłowo zaplanować operację i jej zakres [patologiczna struktura ciągnęła się wewnątrz dużej żyły od serca aż po miednicę] – wyjaśnia prof. Grzegorz Oszkinis z Uniwersyteckiego Szpitala Klinicznego w Opolu. Nieoczywista diagnoza Prof. Marek Gierlotka, kierownik Oddziału Kardiologii Uniwersyteckiego Szpitala Klinicznego w Opolu i Kliniki Kardiologii Uniwersytetu Opolskiego, opowiada, że pacjentka została przyjęta do szpitala, bo w badaniu ultrasonograficznym stwierdzono obecność dużej, nieprawidłowej struktury wewnątrz serca, która sięgała daleko w dół, wewnątrz dużej żyły, aż na wysokość miednicy. Wstępna diagnoza w tomografii komputerowej wskazywała na zakrzep, tym bardziej że chora rok wcześniej miała zator tętnicy płucnej. Ostatecznie przypadek okazał się o wiele bardziej skomplikowany, dlatego żeby wszystko ustalić i zaplanować leczenie, nawiązano współpracę z licznymi specjalistami: radiologami, patomorfologami, kardiochirurgami, chirurgami naczyniowymi, ginekologami i specjalistami od modelowania 3D z PO. Wykonaliśmy dodatkowo rezonans magnetyczny i obraz, który zobaczyłam, okazał się bardziej skomplikowany. Okazało się, że mamy do czynienia z rozległym nowotworem rozpoczynającym się od narządów rodnych, który rozrastając się wewnątrz dużej żyły, sięgał aż do serca – wyjaśnia dr n. med. Katarzyna Sznajder, kierownik Zakładu Klinicznego Diagnostyki Obrazowej USK UO w Opolu. Guz był tak duży, że odpowiednia objętość krwi nie dopływała do serca, przez co pacjentka nie tolerowała wysiłku i mdlała. Najpierw operatorzy zajęli się fragmentem guza od strony serca, a później usunięto przeważającą część nowotworu z miednicy i jamy brzusznej, czyli [z] narządów rodnych i żyły. W trakcie zabiegu chirurdzy wypreparowali żyłę główną dolną od żył biodrowych i nerkowych. Nacięli ją i usunęli całego guza. Pomoc specjalistów od modelowania 3D Pod względem merytorycznym pracami zespołu z PO kierowali prof. Jarosław Zygarlicki i prof. Mirosław Szmajda. Wobec wątpliwości co do dokładnej lokalizacji guza w żyle w oparciu o przeprowadzone w naszym zakładzie badania obrazowe, poprosiliśmy ich o opracowanie i wydrukowanie modelu 3D żyły z guzem w jej wnętrzu – wyjaśnia dr Sznajder. Prof. Andrzej Cichoń (również z PO) tłumaczy, że prace składały się z 3 zasadniczych faz: 1) detekcji obrysów żyły i zmiany patologicznej na podstawie przekrojów TK, 2) komputerowego modelowania żyły i zmiany oraz 3) ostatecznego wydruku 3D. Analiza ponad 1,5 tys. obrazów z tomografii komputerowej Ponieważ planowany czas prac był bardzo krótki, zadania należało podzielić. Analizą ponad 1500 obrazów tomografii komputerowej zajęła się ekipa studentów inżynierii biomedycznej (Anna Wieczorek, Karolina Nowak, Wiktoria Krak, Aleksandra Kawiak i Szymon Nieckarz), doktorantów (mgr inż. Anna Froń i mgr inż. Mirosław Chyliński) i naukowców PO (dr inż. Łukasz Nagi i prof. Mirosław Szmajda). Ze względu na złożoność zagadnienia i trudność interpretacji obrazów TK, szczególnie w przypadku badania zakontrastowanych żył, cały zespół został przeszkolony przez lek. med. Andrzeja Falbę, członka ekipy radiologów z USK, po czym w ciągu 3 dni (i nocy) zespół dokonał stosownych obrysów, zweryfikowanych finalnie przez dr. Falbę – relacjonuje prof. Szmajda. Modelowanie komputerowe i ostateczny wydruk 3D W drugiej fazie prac należało stworzyć wirtualny model przestrzenny żyły i patologicznej zmiany i zapisać w postaci umożliwiającej druk 3D (dla żyły, dla zmiany i dla całości). Zastosowaliśmy metody maszerujących sześcianów oraz triangulacji. Dzięki tym metodom zostały wygenerowane siatki trójkątów, które ostatecznie odwzorowały z zadaną dokładnością modele żyły oraz zmiany patologicznej. Następnie modele te posłużyły do przygotowania plików wejściowych do drukarki 3D - opowiada prof. Zygarlicki. W 3. fazie drukowano fizyczny model, dobierając najpierw odpowiednie surowce do uzyskania nieprzezroczystej zmiany i przezroczystych ścian żyły. Prof. Oszkinis podsumowuje, że po zabiegu nie wystąpiły żadne komplikacje. Stan pacjentki szybko się poprawiał. Została już wypisana do domu. « powrót do artykułu
  23. Ambitny nowicjusz na rynku pracy? Czeka Cię nie lada wyzwanie: pierwsza rozmowa kwalifikacyjna. W końcu chcesz zdobyć pracę - ale czym przekonasz do siebie pracodawcę, jeśli Twoi konkurenci są na rynku pracy już przynajmniej kilka lat i mają znacznie bogatsze doświadczenie zawodowe? Podpowiadamy jak właściwie przygotować się do pierwszej rozmowy kwalifikacyjnej o pracę. Rozmowa kwalifikacyjna po raz pierwszy - wejście na rynek pracy Wkraczanie na rynek pracy nie jest łatwe. Zwykle "nowy narybek", osoby tuż po ukończeniu studiów, technikum zawodowych i innych placówek edukacyjnych - każdy, kto wchodzi na ścieżkę kariery zawodowej, prędzej czy później spotka się z na rozmowie kwalifikacyjnej z rekruterami. Powiemy więc kilka słów o tym, jak postawić ten pierwszy krok w swoim życiu zawodowym, od którego tak wiele przecież zależy. Pomyślmy o naszych zasobach. Prezencja musi być nienaganna. Warto wykazywać swoje zainteresowanie oferowaną pracą, ale zasoby kandydat na pierwszej rozmowie kwalifikacyjnej ma dość skąpe. Pierwsza praca - tego nie oferuje każda firma, bowiem zwykle szuka się pracowników bardziej doświadczonych. Jednakże na rozmowie o pierwszą pracę mamy szereg atutów. Nie łudźmy się, że nasze pierwsze zatrudnienie będzie wysoce płatne, musimy pogodzić się z tym, że w ubieganiu się o pierwszą pracę na rozmowie konkurujemy również przez zaproponowanie konkurencyjnych stawek wynagrodzenia. Bądźcie pewni swego - pierwsza rozmowa kwalifikacyjna W CV warto wpisać wszystko, co dobrze o nas świadczy, co potwierdza aktywność i zaangażowanie. Jeżeli jakaś firma ma na myśli przyjęcie pracownika do jego pierwszej pracy, to zwykle znaczy, że będzie też myślała o dalszym przyuczaniu go do zawodu i dalszej współpracy, co będzie wiązać się ze szkoleniami, kursami - na pierwszej rozmowie kwalifikacyjnej powinniśmy więc wykazać także gotowość do dalszej edukacji, powinniśmy przekonywać, że potrafimy uczyć się szybko (co może być substytutem względem innych kandydatów, którzy już posiadają ustaloną pozycję na rynku pracy). Nasze główne zasoby w tym początkowym okresie to wszystko, czego dokonaliśmy w czasie naszej edukacji (np. dyplom studiów wyższych), lecz także wolontariaty, osiągnięcia osobiste, i - to może najważniejsze - gotowość do nawiązania współpracy na regularnym rynku pracy, gdzie głównym kryterium jest użyteczność dla przedsiębiorstwa. Na pierwszej rozmowie o pracę powinniśmy więc pokazać naszą świeżość i nowe pomysły na rozwój firmy, to co firma dzięki nam zyska, powinniśmy wzbudzić zaufanie może nie jako "starzy wyjadacze", ale jako "młoda krew", osoby przydatne na oferowanym stanowisku i nastawione na dalszy rozwój. Proszę jeszcze zapoznać się z tym świetnym materiałem: List motywacyjny – dlaczego warto go napisać? - bowiem tu znajdziemy rzetelne informacje o znaczeniu listu motywacyjnego oraz o poprawnych zasadach jego konstrukcji. Pierwsza praca? Głowa do góry! To nie koniec dobrych rad. W przypadku starań o pierwszą pracę i poszukiwań sprawdzonych informacji o rozmowach kwalifikacyjnych, namawiamy do przeczytania znakomitego artykułu znalezionego w renomowanym serwisie z ofertami pracy Aplikuj.pl: https://www.aplikuj.pl/porady-dla-pracodawcow/908/rozmowa-kwalifikacyjna-o-czym-nalezy-pamietac. Warto kontynuować lekturę i "na bank" przygotować się do rozmowy kwalifikacyjnej, a wspomniany artykuł z przekonaniem możemy polecić jako dalszy ciąg krótkiego szkolenia, które możemy zatytułować: Jak przygotować się do rozmowy kwalifikacyjnej w przypadku pierwszej pracy? Powodzenia dla wszystkich kandydatów! Nigdy się nie poddawajcie. W przypadku pierwszej pracy mogą wystąpić pewne trudności, ale są one do przezwyciężenia, zresztą "świeżość" i młodość nowego kandydata na stanowisko bardzo często bywają zaletą, z której należy skorzystać na początku swojej kariery zawodowej. Trzeba wykazać się dojrzałością, która w oczach pracodawcy uprawni go do powierzenia nam pierwszych zadań zawodowych. « powrót do artykułu
  24. Już jutro (23 marca) w południe Muzeum Mazowieckie w Płocku zaprasza na wyjątkowe wydarzenie na Facebooku "Niech zagra dla nas płocka fidel - koncert i opowieść". Prosto z Muzeum, gdzie prezentowana jest oryginalna, odkryta w 1985 r. fidel z XVI w., zabrzmią dźwięki zrekonstruowanego instrumentu. Zagra Bart Pałyga, a o pracy nad rekonstrukcją opowie lutnik Hubert Połoniewicz. Znalezisko z 1985 r. W 1985 r. podczas prac archeologicznych na Starym Rynku w Płocku z nieużywanej od stuleci z latryny (ze zsypiska XVI-wiecznej studni służącej jako wysypisko śmieci) wydobyto artefakt przypominający w pewnym stopniu dzisiejsze skrzypce. Warto dodać, że drugi średniowieczny instrument tego typu został znaleziony w Elblągu; elbląska fidel jest starsza, bo datuje się na XIV w. Instrument z Płocka szybko zyskał sławę. Specjaliści od instrumentów i muzyki dawnej stworzyli kopię artefaktu. Jak można przeczytać na witrynie Muzeum Mazowieckiego, dzięki badaniom dr hab. Ewy Dahlin-Turek i dr hab. Marii Pomianowskiej warszawski lutnik Andrzej Kuczkowski wykonał z niewielkimi zmianami grający egzemplarz fideli płockiej. W dążeniu do oryginalnego brzmienia... Ta szeroko dziś znana kopia została w pewnym sensie udoskonalona. Jest bowiem głośniejsza i bardziej efektowna niż delikatne znalezisko ze Starego Rynku. Połoniewiczowi i Pałydze zależało jednak na ustaleniu, jak brzmiał oryginał. To ja chyba z innej strony powiem. Dlaczego powstał taki instrument? Z ciekawości, ze zwykłej ludzkiej ciekawości. Wiedzieliśmy od dawna, że ta fidel, która znajduje się w Muzeum, jest mniejsza. Ja słyszałem o tym od Marysi Pomianowskiej, czyli – że tak powiem – u źródła tę wiedzę zdobyłem. Maria powiedziała, że ten oryginalny [instrument] był bardzo mały i miał bardzo słaby dźwięk. Że powstała taka wersja mała i ona, niestety, się nie bardzo sprawdzała. A ponieważ miał to być instrument grający na scenie, no to wprowadzono pewne udoskonalenia [...], żeby był głośniejszy, grający i tak dalej - tłumaczył w audycji z serii "Źródła. Magazyn kultury ludowej" w czerwcu zeszłego roku Bart Pałyga. [...] Latami sobie ta wiedza leżała i mnie to nie interesowało. Później, w miarę tego, że poznawaliśmy inne kultury, że dostałem w ręce kobyz, że zacząłem grać na włosianych strunach. [...] Potem telharpa... Te wszystkie doświadczenia mi powiedziały, że takie inne, dziwne struny mają przepiękną barwę dźwięku i że jeszcze nie wiemy, co by to było, gdyby ten chordofon w oryginalnym rozmiarze obarczyć takimi strunami archaicznymi. I dopiero ta ciekawość została ujawniona, jak faktycznie grałem w Muzeum w Płocku i zobaczyłem pierwszy raz ten właśnie egzemplarz w oryginalnym rozmiarze. Szczęka mi opadła, bo ja miałem tam ze sobą fidel moją, która jest jeszcze większą fidelą niż fidel zaproponowana przez Andrzeja Kuczkowskiego i Marię. Więc ogromna fidel stała przy bardzo małej babci. Wrzuciłem coś takiego na Facebooka, minął moment i odezwał się Hubert - opowiadał Pałyga. W ten właśnie sposób rozpoczęła się współpraca obu specjalistów. Nowa rekonstrukcja zostanie zaprezentowana w ramach wydarzenia "Niech zagra dla nas płocka fidel - koncert i opowieść". Panowie uważają, że nadszedł czas, w którym chordofon płocki stał się atrakcyjny w archaicznej formie, jaką chcą prezentować światu. Nie jest obciachem, nie jest cofaniem się w kierunku tradycji, która trąci myszką. Jest po prostu czymś cennym, prawdziwym, wartościowym, niepowtarzalnym. I to jest chyba główna przyczyna. [Nastał po prostu] zupełnie inny czas niż końcówka lat 80., lat 90. Niech zagra dla nas płocka fidel - koncert i opowieść Podczas spotkania w Muzeum Mazowieckim Pałyga i Połoniewicz opowiedzą, jak to z fidelą płocką było. Dowiemy się, kto grał na takich instrumentach i jakiej techniki używał, a także co decyduje, że fidel brzmi tak, a nie inaczej. Hubert Połoniewicz jest absolwentem Wydziału Sztuk Pięknych Uniwersytetu Mikołaja Kopernika w Toruniu. Zajmuje się wytwarzaniem polskich instrumentów historycznych, takich jak suka biłgorajska, chordofon płocki, fidel płocka czy suka mielecka, a także zagranicznych instrumentów ludowych (w tym miejscu wymieniane są choćby norweskie skrzypce "hardanger fele"). Bart Pałyga jest wiolonczelistą, multiinstrumentalistą oraz improwizatorem, który specjalizuje się w grze na kilkunastu instrumentach etnicznych z całego globu. W zapowiedzi wydarzenia na stronie Muzeum podkreślono, że jest on prekursorem użycia technik śpiewu gardłowego i alikwotowego w muzyce folkowej i rozrywkowej w Polsce. Wieloletni współpracownik Marii Pomianowskiej, której grę na fideli możemy podziwiać na filmie zaprezentowanym poniżej, współtworzy zespoły Yerba Mater, Masala, Village Kollektiv, Mosaik, Milo Ensemble i Laterna. Pałyga nagrał aż 20 albumów z muzyką świata i filmową. Obok gości prezentowana będzie oczywiście oryginalna fidel płocka. Zainteresowanych fidelą płocką odsyłamy do odcinka 3. muzealnych "Unikatów spod łopaty".   W krótkiej zapowiedzi jutrzejszego wydarzenia widzimy lutnika Huberta Połoniewicza oraz wykonawcę Bartłomieja Pałygę:    « powrót do artykułu
  25. Od czasów Alberta Einsteina wiemy, że żaden obiekt nie może poruszać się szybciej od prędkości światła. Te ok. 300 tysięcy km/s to granica, poza którą nigdy nie będziemy w stanie szybciej się poruszać. Jednak Erik Lentz z Uniwersytetu w Gottingen zaproponował metodę na obejście tego ograniczenia. Problem w tym, że wymaga ona wykorzystania olbrzymich ilości energii. Lentz mówi, że za pomocą konwencjonalnych źródeł energii można by zorganizować czasoprzestrzeń w formę solitonu, czyli samopodtrzymującej się odosobnionej fali. Soliton działałby jak „bąbel warp”, ściskając przestrzeń przed pojazdem i rozszerzając ją za nim. Jako, że czasoprzestrzeń można zaginać, ściskać i rozszerzać, takie rozwiązanie pozwoliłoby na podróże powyżej prędkości światła bez łamania praw fizyki. Pomysł na stworzenie „bąbla warp” nie jest nowy. W 1994 roku został on zaproponowany przez Miguela Alcubierre'a. Jednak do czasu badań Lentz'a sądzono, że jedynym sposobem na uzyskanie napędu warp jest pozyskanie olbrzymich ilości ujemnej energii. Być może pochodzącej z jakiejś egzotycznej materii lub z ciemnej energii. Lentz chciał obejść ten problem i skonstruował teoretyczne struktury czasoprzestrzeni wynikające z nowych rozwiązań ogólnej teorii względności, solitonów energii dodatniej. Mimo że obliczenia Lentza wydają się być w zgodzie z ogólną teorią Einsteina i eliminują konieczność wytworzenia ujemnej energii, to zbudowanie tego typu napędu raczej nigdy nie będzie możliwe. Jak bowiem wylicza Lenz, do nadania pojazdowi o średnicy 100 metrów prędkości wyższej niż prędkość światła, konieczne byłoby zamienienie na energię masy setki razy większej niż masa Jowisza. Uczony dodaje, że do praktycznego zrealizowania jego pomysłu konieczne byłoby zredukowanie zapotrzebowania na energię o 30 rzędów wielkości. Obecnie Lenz sprawdza, czy uda się zredukować ilość potrzebnej energii do praktycznych poziomów. Alcubierre, który pochwalił pracę Lentza, nazywając ją „znaczącym krokiem naprzód”, przypomina, że przed napędami warp stoi wiele problemów. Jednym z nich tzw. problem horyzontu. Bąbel warp, przemieszczający się szybciej od światła, nie może zostać stworzony z wewnątrz bąbla, gdyż wiodąca krawędź bąbla będzie poza zasięgiem pojazdu znajdującego się w jego wnętrzu. Problem w tym, że potrzebujesz energii do zdeformowania całej przestrzeni od statku po krawędzie bąbla. A statek nie może jej tam dostarczyć, wyjaśnia. Lentz sądzi, że w nieokreślonej przyszłości możliwe będzie skonstruowanie napędu warp. Moja praca przesuwa problem podróży z prędkością większą od światła o jeden krok naprzód, w kierunku od teoretycznych rozważań do rozwiązań inżynieryjnych. Z pracą Lentza można zapoznać się na łamach Classical and Quantum Gravity. « powrót do artykułu
×
×
  • Dodaj nową pozycję...