Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Dziwny powtarzający się sygnał radiowy dobiegający z okolic centrum Drogi Mlecznej nie przypomina żadnego innego znanego sygnału. Ma zupełnie inną sygnaturę. Jak wynika z wyników badań zaakceptowanych do publikacji w The Astrophysical Journal i udostępnionych na arXiv [PDF], źródło sygnału przez wiele tygodni jest bardzo jasne w paśmie radiowym, a następnie zanika w ciągu jednego dnia Takie zachowanie się sygnału radiowego nie pasuje do żadnego znanego obiektu niebieskiego. Dlatego też naukowcy z Australii, USA, Niemiec, Kanady, Hiszpanii, Francji i RPA, którzy badali to zjawisko za pomocą Australian SKA Pathfinder, przypuszczają, że mogli odkryć nową klasę obiektów kosmicznych. Tajemniczy sygnał ASKAP J173608.2−321635 jest wysoce spolaryzowany i wysoce zmienny. Na potrzeby badań obserwowano go pomiędzy kwietniem 2019 a sierpniem 2020 roku. W tym czasie pojawił się 13 razy. Nigdy nie trwał dłużej niż kilka tygodni. Źródło jest bardzo zmienne, pojawia się i znika nagle, bez żadnego wzorca, który udałoby się odczytać. Badacze próbowali dopasować ten sygnał do danych z wielu innych teleskopów, w tym do Chandra X-ray Observatory, Neil Gehrels Swift Observatory czy Visible and Infrared Survey Telescope for Astronomy. W żadnym nie znaleziono niczego, co przypominałoby ASKAP J173608.2−321635. Wygląda więc na to, że źródło nie emituje niczego w innych częstotliwościach spektrum elektromagnetycznego. Naukowcy nie potrafią wyjaśnić takiego zjawiska. Autorzy badań piszą, że co prawda gwiazdy o małej masie mogą okresowo generować rozbłyski w paśmie radiowym, jednak zwykle towarzyszy im emisja w paśmie promieniowania rentgenowskiego. Nic nie wskazuje też na to, by źródłem mogły być pulsary lub magnetary. Pulsary emitują silne sygnały radiowe, ale jest to emisja o przewidywalnym okresie i nie trwa całymi tygodniami. Z kolei magnetary charakteryzuje też silna emisja w zakresie rentgenowskim. Z wszystkich znanych źródeł emisji sygnał ASKAP J173608.2−321635 najbardziej przypomina tajemnicze GCRT (Galactic Center Radio Transient). Dotychczas znamy trzy tego typu obiekty. Również i one znajdują się w kierunku centrum naszej galaktyki, wszystkie nagle rozpoczynają emisję w paśmie radiowym i równie gwałtownie ją kończą. Mają też podobną jasność i nigdy nie towarzyszy im promieniowanie rentgenowskie. Jednak pojawiają się i znikają szybciej niż ASKAP J173608.2−321635.  Niewykluczone zatem, że źródło ASKAP J173608.2−321635 jest w jakiś sposób powiązana z GCRT, a być może również jest takim obiektem. « powrót do artykułu
  2. W rosyjskim module Międzynarodowej Stacji Kosmicznej rozległ się dźwięk alarmu, a astronauci czuli dym, poinformowały Roskosmos i NASA. W module serwisowym Zwiezda uruchomił się czujnik dymu. Doszło do tego podczas automatycznego ładowania akumulatorów, zdradzili przedstawiciele Roskosmosu. Wydarzenie miało miejsce dzisiaj o godzinie 3:55 czasu polskiego, przed planowanym wyjściem astronautów na zewnątrz stacji. Francuski astronauta Thomas Pesquet mówi, że zapach palącego się plastiku lub elektroniki dotarł do amerykańskiego segmentu stacji. Rosyjscy astronauci włączyli filtr powietrza. Po oczyszczeniu atmosfery poszli spać. Przedstawiciele Roskosmosu zapewniają, że wszystkie podzespoły działają poprawnie. Nie planuje się też przełożenia spaceru w przestrzeni kosmicznej, w ramach którego Oleg Nowicki i Piotr Dubrow mają prowadzić prace na module Nauka, który zadokował do Stacji w lipcu. Na Międzynarodowej Stacji Kosmicznej niejednokrotnie dochodziło do drobnych awarii. Szczególne obawy budzą rosyjskie moduły. Przed kilkoma dniami jeden z rosyjskich urzędników ostrzegał, że Stacja może ulegać "nienaprawialnym" awariom z powodu przestarzałego sprzętu. Władimir Sołowiow, główny inżynier firmy Energia poinformował, że kosmonauci znaleźli w ISS nowe pęknięcia, które mogą powiększać się z czasem. Dodał przy tym, że 80% systemów rosyjskiego segmentu pracuje dłużej niż powinno. Moduł Zwiezda dołączył do Stacji w 2000 roku. W 2014 roku zauważono w nim dym, w 2020 wykryto wyciek powietrza. W ubiegłym tygodniu zaś wykryto problemy w module Zarja, który na ISS pracuje dwa lata dłużej. Najnowszy z rosyjskich modułów, Nauka, który miał zadokować do stacji w 2007 roku, a trafił na MSK dopiero z końcem lipca 2021 też powoduje problemy. Moduł przez pomyłkę uruchomił silniki, co wywołało nieplanowany obrót Stacji o 540 stopni. Międzynarodowa Stacja Kosmiczna pracuje już ponad 20 lat i powoli zbliża się do końca służby. Termin jej zakończenia nie został jednoznacznie ustalony, ale jasnym jest, że w ciągu najbliższych 10 lat stacja zostanie skierowana w stronę Ziemi i spłonie w atmosferze. « powrót do artykułu
  3. Orliki krzykliwe (Clanga pomarina) gniazdujące w polskich Karpatach przygotowują się do odlotu. Zimowiska tych ptaków znajdują się na sawannach wschodniej, środkowej i południowej Afryki. Jak wyjaśnia dr Marian Stój z Komitetu Ochrony Orłów, odlatujące orliki są wyjątkowo punktualne: znikają z naszych terenów prawie równocześnie 15 września. W wypowiedzi dla PAP-u dr Stój ujawnił, że orliki już intensywnie żerują, żeby nabrać sił. Są niespokojne, a szybując w powietrzu, wydają głośne okrzyki. Wszystko to oznacza, że przymierzają się do odlotu do Afryki. Ten rok był dla rozrodu udany, bo w 3/4 gniazd odchował się młody osobnik. W Polsce jest blisko 2800 par C. pomarina. Dr Stój wyjaśnia, że najliczniej występują w północno-wschodniej i południowo-wschodniej części kraju. W polskiej części Karpat gniazduje prawie 450 par (gniazda znajdują się przede wszystkim na jodłach). W Beskidzie Niskim, gdzie na 100 km2 gniazduje nawet do kilkunastu par, mamy do czynienia z największym zagęszczeniem w Europie. Do pozostałych regionów w Polsce południowo-wschodniej zasiedlonych przez te drapieżniki należą Bieszczady, Góry Sanocko-Turczańskie, Beskid Sądecki oraz Pogórza Przemyskie, Dynowskie, Bukowskie, Strzyżowskie i Jasielskie. Orliki gniazdują również w państwach ościennych, w tym na Białorusi, Ukrainie, Litwie i Łotwie oraz na Słowacji. Orliki nie tylko punktualnie odlatują, ale i wracają. Pierwsze osobniki przy sprzyjającej pogodzie pojawiają się w ostatnich dniach marca, a główna ich fala około 10 kwietnia - powiedział PAP-owi przyrodnik. « powrót do artykułu
  4. Polscy naukowcy opracowali pierwszą na świecie siatkę przepuklinową 3D, dostosowaną do pacjenta (struktur anatomicznych jego pachwiny) na podstawie wyników tomografii komputerowej (TK). Pierwsze wszczepienie spersonalizowanego implantu herniologicznego Optomesh 3D ILAM będzie miało miejsce 14 września w Toruniu, podczas warsztatów towarzyszących jubileuszowemu kongresowi Towarzystwa Chirurgów Polskich. Zabieg odbędzie się w Szpitalu Specjalistycznym Matopat i będzie transmitowany online. Zespół z 3 ośrodków Nad innowacyjnym implantem pracowali lekarze oraz inżynierowie z Gdańskiego Uniwersytetu Medycznego (GUM), Politechniki Krakowskiej (PK) i łódzkiej firmy Tricomed SA (Tricomed jest częścią grupy TZMO i posiada status centrum badawczo-rozwojowego). Zespół pracował pod kierunkiem prof. Macieja Śmietańskiego z GUM, prof. Krzysztofa Karbowskiego z PK, a także dr. hab. inż. Witolda Sujki z Tricomedu. Stworzenie implantu, który współpracuje z organizmem człowieka, było możliwe m.in. dzięki wykorzystaniu obrazów tomografii komputerowej do opracowania modeli struktur anatomicznych ciała i zaprojektowania na ich podstawie kształtu implantu, a następnie form do jego produkcji – wyjaśnia dr hab. inż. Krzysztof Karbowski, prof. PK. Jak można przeczytać na stronie poświęconej wynalazkowi, Optomesh 3D ILAM (Inguinal Laparoskopic Anatomical Mesh) to nieresorbowalny, chirurgiczny wyrób siatkowy o przestrzennej konstrukcji, wytwarzany techniką dziewiarską z monofilamentowej transparentnej i niebieskiej przędzy. W zgłoszeniu patentowym zawarto informacje dot. sposobu wytwarzania oraz opis wyrobu. Przepuklina pachwinowa i krótka historia ewolucji implantów Wg statystyk NFZ za 2020 r., przepukliny pachwinowe stanowiły 78,4% przepuklin przedniej ściany brzucha. Podczas operacji w celu wzmocnienia uszkodzonych tkanek i struktur ściany brzucha wszywa się specjalne siatki syntetyczne. Ich wprowadzenie w drugiej połowie XX w. zrewolucjonizowało sposoby zaopatrzenia przepuklin i całkowicie zmieniło rokowanie po takich zabiegach, ale nie rozwiązywało wszystkich problemów - podkreśla prof. Śmietański, współtwórca implantu, światowej sławy specjalista w dziedzinie chirurgii przepukliny. Mało elastyczne siatki, które nie uwzględniały skomplikowanej struktury ściany brzucha oraz wypukłości pachwiny konkretnego chorego, skutkowały niejednokrotnie komplikacjami po operacji, bólem oraz tzw. "odczuciem ciała obcego" czy nawrotami przepukliny. Implanty więc ewoluowały, a marzeniem medyków było, aby zamiast silnych, gęstych splotów polipropylenu czy poliestru zmierzać podczas zaopatrywania przepuklin w kierunku lekkich implantów, dedykowanych konkretnemu pacjentowi - dodaje Śmietański. Warto przypomnieć, że prace opisujące przednią ścianę brzucha (nieoparty o kościec konglomerat czynnościowy licznych mięśni i powięzi) na bazie modelowania matematycznego prowadzi się już od jakiegoś czasu (również w Polsce). W ten sposób uzyskano podstawy dla indywidualnych implantów. Implant, który zaprojektowaliśmy i unikalny proces jego wytworzenia, to jakby następny krok w rozwoju leczenia przepuklin. Tomograf zbierający dane anatomiczne i przetwarzający pliki dla obrabiarek przemysłowych, produkujących implant w oparciu o koncepcje matematyki, fizyki i wytrzymałości. Na początku będzie drogo, czasochłonnie i w kontrapozycji do głównego nurtu korporacji. Ale to przyszłość. Indywidualizowany makroporowy implant anatomiczny spełnia wszystkie założenia tego, co dziś uznajemy za ważne i współczesne. Droga się otwiera - zaznacza prof. Śmietański na stronie projektu (zakładka "Okiem chirurga"). Od modelu do unikatowego produktu Na podstawie wyników TK 50 pacjentów prof. Krzysztof Karbowski od 2019 r. pracował nad stworzeniem modelu struktur anatomicznych, na których powinien zostać oparty implant. Analizując powyższe modele, dokonałem podziału na grupy selekcyjne ze względu na budowę ciała pacjentów i doszedłem do wniosku, że dla większości pacjentów potrzebne są dwa rozmiary implantu (S-M i L), każdy w wersji prawej i lewej. Zaprojektowałem implanty, których modele, wykonane metodą druku 3D, zostały sprawdzone w Gdańskim Uniwersytecie Medycznym. Następnie zaprojektowałem formy do termicznego kształtowania implantów, przygotowałem technologię wykonania form i programy sterujące dla 3-osiowego centrum frezarskiego. Formy zostały wykonane w laboratorium Katedry Inżynierii i Automatyzacji Produkcji Wydziału Mechanicznego PK. Opracowano 3 wersje implantu: standardową (dla większości chorych) i dwie wersje spersonalizowane, które są dopasowywane do anatomii. To dopasowanie odbywać się może na dwa sposoby – albo poprzez wirtualne dopasowanie implantu do anatomii pacjenta oraz zdefiniowanie krawędzi siatki, albo poprzez zaprojektowanie i wykonanie spersonalizowanego implantu na potrzeby konkretnego pacjenta – tłumaczy prof. Karbowski. Korzyści dla chirurgów i pacjentów Niebieski znacznik ułatwia ułożenie implantu w strukturach anatomicznych. Zakończona strzałką pozioma linia pokrywa się z linią więzadła pachwinowego (strzałka wskazuje oś ciała), zaś linia pionowa pokrywa się z naczyniami nabrzusznymi dolnymi. Implant cechuje się wysoką wytrzymałością. Podczas zabiegu nie trzeba go mocować ani docinać. Ponieważ świetnie się dopasowuje do struktur anatomicznych, skraca się czas operacji, a także ryzyko powikłań czy nawrotów. Specjaliści mówią także o ograniczeniu odczucia ciała obcego i skróceniu czasu rekonwalescencji.   « powrót do artykułu
  5. Na Uniwersytecie Kalifornijskim w San Diego (UCSD) opracowano potencjalną szczepionkę przeciwko COVID-19, której przechowywanie nie wymagają użycia lodówki. Jej głównymi składnikami są wirusy roślin lub bakterii. Szczepionka jest na wczesnym etapie rozwoju, ale badania na myszach wykazały już, że po jej podaniu w organizmach zwierząt pojawił się bardzo wysoki poziom przeciwciał skierowanych przeciwko SARS-CoV-2. Jeśli okaże się, że szczepionka jest bezpieczna i skuteczna u ludzi, znakomicie ułatwi to i obniży koszty dystrybucji szczepionek, szczególnie na obszarach wiejskich i w ubogich krajach. Najbardziej ekscytujący jest fakt, że nasza technologia pozwala stworzyć termiczne stabilną szczepionkę, więc można będzie ją dostarczyć tam, gdzie nie ma odpowiednio wydajnych chłodziarek, czy gdzie nie można dojechać ciężarówką wyposażoną w tego typu urządzenia, mówi profesor nanoinżynierii Nicole Steinmetz, dyrektor Center for NanoImmunoengineering na UCSD. Uczeni z Kalifornii stworzyli dwie szczepionki. W pierwszej użyli wirusa mozaiki wspięgi chińskiej (CMPV). To wirus roślinny, którym od dawna budzi zainteresowanie naukowców. Wykorzystywany jest zarówno w pracach nad hybrydowymi materiałami umożliwiającymi stworzenie układów elektronicznych kompatybilnych z organizmami żywymi, jak i w badaniach z dziedziny immunoterapii antynowotworowej. Druga szczepionka powstała przy użyciu bakteriofagu Qbeta, który infekuje bakterie, w tym Escherichię coli. Obie szczepionki powstały według podobnego przepisu. Naukowcy użyli wspięgi chińskiej oraz E. coli do wyhodowania milionów kopii CMPV i Qbeta, które miały kształt kulistych nanocząstek. Następnie zebrali te nanocząstki i do ich powierzchni przyłączyli niewielki fragment białka S wirusa SARS-CoV-2. Z zewnątrz całość przypomina koronawirusa, więc układ odpornościowy może nauczyć się rozpoznawać patogen, a przyłączone na powierzchni fragmenty białka stymulują go do ataku. Ani bakteriofagi ani wirusy roślinne nie są zaś w stanie zainfekować ludzi czy zwierząt. Naukowcy wymieniają kilka olbrzymich zalet swoich szczepionek. Po pierwsze, można będzie je tanio produkować w dużych ilościach. Hodowla roślin jest dość prosta i nie wymaga złożonej infrastruktury. Z kolei fermenacja z udziałem bakterii to bardzo dobrze poznany proces, mówi Steinmetz. Po drugie, nanocząstki wirusów roślinnych i bakteriofagów są niezwykle stabilne w wysokich temperaturach. Wytworzone z nich szczepionki nie muszą być więc przechowywane w chłodzie. Mogą być też poddawane procesom produkcyjnym, w których używa się wysokich temperatur. Naukowcy z San Diego użyli takiego procesu do wyprodukowania szczepionek w formie plastrów i implantów, w ramach którego szczepionki były mieszane i rozpuszczane z polimerami w temperaturze bliskiej 100 stopniom Celsjusza. Dzięki temu zyskujemy więcej opcji podania szczepionki. Możliwe będzie bowiem albo jednorazowe wszczepienie niewielkiego biokompatybilnego implantu, który przez miesiąc będzie stopniowo uwalniał szczepionkę, albo zaoferowanie plastrów ze szczepionką i mikroigłami, które można będzie samodzielnie przylepić do skóry i w ten sposób samemu podać sobie szczepionkę. Wyobraźmy sobie, że takie plastry możemy wysłać pocztą do ludzi najbardziej narażonych na COVID-19. Nie musieliby oni wtedy opuszczać swoich domów i narażać się, by udać się do punktu szczepień, mówi profesor Jan Pokorski z UCSD Jacobs School of Engineering, którego zespół popracował implanty i plastry. Z kolei implanty przydałyby się osobom, które co prawda decydują się zaszczepić, ale z jakichś powodów nie chcą lub nie mogą zgłosić się po drugą dawkę, dodaje Pokorski. Podczas testów nowe szczepionki podawano myszom na wszystkie trzy sposoby: tradycyjnie za pomocą strzykawki, za pomocą implantu oraz za pomocą plastra. We wszystkich przypadkach w ich organizmach pojawiły się wysokie poziomy przeciwciał. Co ciekawe, te same przeciwciała neutralizowały wirusa SARS-CoV. Stało się tak dlatego, że zespół Steinmetz wybrał odpowiedni fragment białka S, który został użyty w szczepionkach. Jedna z jego części, epitop, jest niemal identyczny u SARS-CoV-2 i SARS-CoV. Fakt, że dzięki epitopowi układ odpornościowy uczy się rozpoznawać też innego śmiercionośnego wirusa, jest niezwykle ważny. Daje to nadzieję, że możemy stworzyć wspólną dla koronawirusów szczepionkę, która będzie chroniła także w przypadku przyszłych pandemii, cieszy się Matthew Shin. Kolejną zaletą tego konkretnego epitopu jest fakt, że dotychczas nie został on zmieniony przez żadną znaną mutację SARS-CoV-2. Dzieje się tak, gdyż epitop ten znajduje się w regionie białka S, które nie łączy się bezpośrednio z komórkami. Tymczasem podawane obecnie szczepionki przeciwko COVID-19 korzystają z epitopów z regionów, którymi białko S przyłącza się do komórek. A w regionach tych dochodzi do wielu mutacji. Niektóre z nich powodują, że wirus staje się bardziej zaraźliwy. Epitopy z regionów nie przyłączających się do komórek, nie ulegają tak szybkim zmianom. To jednak nie wszystkie zalety techniki opracowanej przez naukowców z UCSD. Nawet jeśli te szczepionki nie sprawdzą się przeciwko COVID-19, można je będzie szybko wykorzystać przeciwko innym wirusom, przekonuje Steinmetz. Wystarczy bowiem tą samą metodą uzyskać nanocząstki wirusów roślinnych lub bakteriofagów i dołączyć do nich fragmenty wirusów, innych patogenów czy biomarkerów, na które szczepionki mają działać. Używamy tych samych nanocząstek, tych samych polimerów, tego samego sprzętu i tych samych procesów chemicznych do połączenia wszystkiego w całość. Jedyną różnicą jest antygen, który przyłączamy do powierzchni. « powrót do artykułu
  6. Po rozpoczęciu europejskiej kolonizacji, w obu Amerykach doszło do załamania miejscowej populacji. Jedną z przyczyn tego zjawiska było wprowadzenie przez kolonizatorów nowych patogenów, z którymi wcześniej Indianie nie mieli kontaktu. Istnieje wiele hipotez dotyczących patogenów, które zdziesiątkowały rdzenną ludność Nowego Świata – mówi się o ospie prawdziwej, odrze i śwince – ale brak jest bezpośrednich dowodów potwierdzających, jakie choroby masowo zabijały mieszkańców skolonizowanych obszarów. Naukowcy z Universidad Nacional Autónoma de México, Uniwersytetu w Kopenhadze, North Carolina State University, Universidad Nacional Autónoma de México i innych instytucji zbadali szczątki ludzi, którzy zmarli pomiędzy XVI a XVIII wiekiem w Meksyku. Pochodzące z XVI wieku dokumenty z wicekrólestwa Nowej Hiszpanii wspominają o epidemiach Cocoliztli („zaraza” w języku nahuatl), które zabijały olbrzymią liczbę miejscowej ludności, w olbrzymim stopniu dotyczyły też afrykańskich niewolników oraz w mniejszym stopniu dotykały Europejczyków. W raporcie z 1576 roku opisane są wyniki autopsji ofiar Cocoliztli, które przeprowadzono u osób leczonych w Hospital Real de San Jose de los Naturales (HSJN). Był to pierwszy w Meksyku szpital założony po to, by leczyć rdzenną ludność. Autorzy najnowszych badań przeanalizowali szczątki ludzi pochodzące z dwóch stanowisko archeologicznych. Pierwsze z nich to Colonial Hospital, czyli miejsce, w którym stał HSJN. Drugie zaś to kaplica La Concepcion (COY), położona 10 kilometrów od HSJN w prehiszpańskiej miejscowości Coyoacán. Pobrano próbki ze szkieletów należących zarówno do Afrykańczyków, jak i Indian. Naukowcom udało się zrekonstruować DNA wirusów. Okazało się, że zmarłe osoby były zarażone wirusami zapalenia wątroby typu B oraz parwowirusem B19. Porównanie uzyskanych genomów wykazało, że wirusy te prawdopodobnie pochodziły z Afryki. Uzyskane przez nas wyniki wskazują, że wirusy te zostały introdukowane do Ameryki przez kolonistów w wyniku prowadzonego przez nich handlu niewolnikami, mówi profesor Daniel Blanco-Melo z Fred Hutchinson Cancer Research Center. Bardzo złe warunki panujące na zatłoczonych statkach transportujących niewolników sprzyjały rozprzestrzenianiu się patogenów. Później wraz z niewolnikami trafiały one do Nowego Świata i dziesiątkowały rdzenną ludność, która była wobec nich bezbronna. DNA patogenów znaleziono zarówno wśród szczątków rdzennej ludności, jak i Afrykańczyków. Naukowcy nie są w stanie stwierdzić, gdzie doszło do zakażenia akurat tych osób. Czy w Afryce, czy w czasie transportu, czy też Czarni zarazili się już na terenie Ameryki. Nie wiadomo też, czy to te wirusy były przyczyną ich śmierci. Wiadomo jednak, że wiele nowych wirusów krążyło w tym samym czasie, co może wyjaśniać, dlaczego epidemie były tak zabójcze dla miejscowej ludności, mówi Maria Ávila-Arcos z Universidad Nacional Autónoma de México. Badania to pokazują, że nowa dziedzina nauki – paleowirologia – może pomóc w opisaniu możliwej roli tych i innych patogenów w epidemiach epoki kolonialnej oraz lepiej zrozumieć rolę człowieka w ich rozprzestrzenianiu. Ze szczegółami badań można zapoznać się w artykule Ancient viral genomes reveal introduction of human pathogenic viruses into Mexico during the transatlantic slave trade, opublikowanym na łamach pisma eLife. « powrót do artykułu
  7. Wydawałoby się, że zdolność do wytwarzania nasion, owoców czy orzechów będzie rosła wraz ze wzrostem drzew. Badania prowadzone przez naukowców z 13 krajów z całego świata nie potwierdzają jednak tej hipotezy. Naukowcy zbadali prawie 600 gatunków drzew. Okazało się, że u około 80 proc. z nich płodność osiągała wartość szczytową, gdy drzewa były umiarkowanej wielkości. Potem zaczynała spadać. Pozostałe 20 proc. gatunków niekoniecznie posiada sekretny „eliksir młodości” – zaznaczają naukowcy. I dodają, że gatunki te prawdopodobnie również doświadczają spadku płodności w pewnym wieku. Jednak, aby to stwierdzić, nie ma na razie wystarczająco wielu danych na temat starszych, większych drzew z tej grupy gatunków. Publikacja autorstwa 59 badaczy z 13 krajów (Chile, Włoch, Kanady, Polski, Francji, Hiszpanii, Szwajcarii, Japonii, Słowenii, Niemiec, Panamy, Portoryko i USA) ukazała się niedawno na łamach Proceedings of the National Academy of Sciences of the United States of America. Jednymi z autorów są dr hab. Michał Bogdziewicz z Wydziału Biologii UAM w Poznaniu, dr hab Magdalena Żywiec i Łukasz Piechnik z Instytutu Botaniki im. Władysława Szafera PAN w Krakowie oraz dr Mateusz Ledwon z Instytutu Systematyki i Ewolucji Zwierząt PAN w Krakowie. Owoce i orzechy drzew stanowią 3 proc. diety człowieka. Są również ważne dla wielu ptaków i małych ssaków, a nasiona drzew są niezbędne do regeneracji lasów. Aby skutecznie zarządzać tymi zasobami i je chronić, musimy wiedzieć, czy prawdopodobne jest wystąpienie spadku płodności oraz w jakim rozmiarze lub wieku może się taki spadek pojawić – mówi kierujący badaniami, dr Tong Qiu z Nicholas School of the Environment na Duke University (USA), cytowany w informacji prasowej związanej z publikacją, przesłanej PAP przez UAM. Odpowiedź na to pozornie proste pytanie pozostawała jednak dotychczas w sferze domysłów. Z jednej strony jest niezwykle nieprawdopodobne, aby płodność drzew wzrastała w nieskończoność wraz z wiekiem i wielkością, biorąc pod uwagę to, co wiemy o starzeniu się lub pogarszaniu się funkcji fizjologicznych związanym z wiekiem u ludzi i innych organizmów wielokomórkowych – zauważa James S. Clark, profesor nauk o środowisku z Nicholas School of the Environment na Duke University w Durham (USA). Z drugiej strony, ściśle mówiąc, nie było jednoznacznych dowodów, aby to obalić – zauważa dr hab. Michał Bogdziewicz, biolog z Uniwersytetu im. Adama Mickiewicza w Poznaniu, cytowany w informacji prasowej. Clark zwraca uwagę, że wiele upraw drzew owocowych jest wymienianych co dwie lub trzy dekady, i że istnieją trudności w monitorowaniu produkcji nasion na drzewach rosnących poza uprawą. Właśnie dlatego większość dotychczasowych badań dotyczących płodności drzew opierała się na zestawach danych, które zawierały głównie młodsze drzewa, które są wciąż zbyt małe lub średnie. Nie mając wystarczających danych na temat produkcji nasion na późniejszych etapach rozwoju osobników naukowcy szacowali te liczby na podstawie średnich z wcześniejszych etapów. Problem polega na tym, że drzewa niekoniecznie produkują regularną liczbę nasion każdego roku, niezależnie od wielkości i wieku. Mogą występować ogromne różnice z roku na rok i pomiędzy drzewami – od zera nasion w jednym roku do milionów w następnym. Tak więc wykorzystanie średnich obserwacji z przeszłości do prognozowania przyszłej produkcji może prowadzić do sporych błędów – podkreślają naukowcy. Nowe badanie – jak informują jego autorzy – pozwala uniknąć tego problemu, gdyż zawiera syntezę danych dotyczących produkcji nasion dla 585 670 drzew z 597 gatunków monitorowanych za pośrednictwem sieci MASTIF (Masting Inference and Forecasting). Michał Bogdziewicz z UAM jest jednym z członków tej dynamicznie rozwijającej się grupy badawczej. W ramach stypendium badawczego Bekkera finansowanego przez NAWA przez najbliższe dwa lata będzie pracował w laboratorium Clarka - informuje UAM. Globalna baza danych stworzona przez sieć zawiera szczegółowe dane, obejmujące często wiele dziesięcioleci wstecz, a dotyczące rocznej produkcji nasion przez drzewa rosnące w ponad 500 różnych miejscach w Ameryce Północnej, Ameryce Południowej, Azji, Europie i Afryce. Nowe obserwacje można łatwo do bazy danych. Może to zrobić każdy. Dostęp do tak ogromnego repozytorium surowych danych umożliwił Qiu, Clarkowi i ich współpracownikom opracowanie skalibrowanego modelu, aby i dokładnie obliczyć długoterminową płodność drzew. Dla większości badanych przez nas gatunków, w tym ludzi, jedną z najbardziej podstawowych zmiennych, które mierzymy, jest wskaźnik urodzeń. Dla zwierząt często jest to proste – liczysz jaja w gnieździe lub szczenięta w miocie. Ale kiedy chodzi o drzewa, jest to trudniejsze. Bardzo trudno jest bezpośrednio obserwować, ile nasion jest produkowanych – wyobraźmy sobie liczenie wszystkich żołędzi na 100 letnim buku. Jak pokazuje to badanie, przybliżanie również nie działa. Potrzebny jest inny sposób. Nasz model może rozwiązać ten problem – powiedział Clark. « powrót do artykułu
  8. W naszych organizmach bez przerwy znajdują się tysiące komórek, w których DNA pojawiły się błędy mogące powodować nowotwory. Jednak tylko w rzadkich przypadkach rzeczywiście dochodzi do rozwoju choroby. Standardowe wyjaśnienie tego fenomenu jest takie, że potrzebna jest odpowiednia liczba konkretnych mutacji, by pojawił się nowotwór. Nauka zna jednak liczne przypadki, gdy ten sam zestaw mutacji raz powoduje nowotwór, a raz nie. Dobrym przykładem takiego zjawiska są pieprzyki na skórze. Komórki, z których one powstają, nie są normalne pod względem genetycznym. Często zawierają one zmutowany gen BRAF, który – gdy znajdzie się w komórkach poza pieprzykiem – często powoduje czerniaka. Jednak zdecydowana większość pieprzyków u zdecydowanej większości ludzi nigdy nie zamienia się w guzy nowotworowe. Na łamach Science opublikowano właśnie artykuł, z którego dowiadujemy się, że powstanie czerniaka zależy od czegoś, co autorzy badań nazwali „kompetencją onkogeniczną”. Jest ona wynikiem współpracy pomiędzy mutacjami DNA w komórce a konkretnym zestawem genów, które są w niej aktywowane. Jak się okazało, komórki posiadające kompetencję onkogeniczną do utworzenia czerniaka mają dostęp do zestawu genów, które normalnie są nieaktywne w dojrzałych melanocytach. Odkrycie to wyjaśnia, dlaczego jedne komórki tworzą guzy nowotworowe, a inne nie. Pewnego dnia odkrycie to może zostać wykorzystane do walki z nowotworami. Dotychczas sądzono, że do rozwoju nowotworu konieczne jest pojawienie się dwóch mutacji DNA: aktywny onkogen i nieaktywny antyonkogen. Teraz naukowcy ze Memorial Sloan Kettering Cancer Center (MSK) odkryli trzeci element. Zauważyli bowiem, że do pojawienia się czerniaka potrzebny jest dostęp do genów, które są zwykle wyłączone w dojrzałych melanocytach. Aby ten dostęp mieć, komórki potrzebują specyficznych protein. Bez nich guz się nie utworzy, nawet jeśli występują powiązane z nowotworem mutacje DNA. Przed ponad 10 laty profesor Richard White badał rozwój czerniaka u danio pręgowanego. To złośliwy nowotwór skóry i błon śluzowych wywodzący się z komórek pigmentowych, melanocytów. Przeprowadzone wówczas analizy wykazały, że w guzach aktywne są liczne geny charakterystyczne bardziej dla komórek embrionalnych, a nie dojrzałych melanocytów. Zaczęliśmy się więc zastanawiać, dlaczego geny te zostały włączone. Czy są one ważne dla rozwoju guza, a jeśli tak, to w jaki sposób, mówi White. Naukowcy wzięli na warsztat gen BRAF, którego zmutowana forma jest obecna w połowie przypadków czerniaka. Gen ten aktywowano w komórkach danio na trzech różnych etapach ich rozwoju. Na etapie grzebienia nerwowego (NC), z którego rozwija się wiele różnych komórek, w tym melanocyty; na etapie melanoblastu (MB), czyli komórki prekursorowej melanocytu, oraz na etapie dojrzałego melanocytu (MC). Okazało się, że do rozwoju guzów doszło tylko u tych ryb, u których zmutowana forma BRAF została aktywowana na etapie NC i MB. Następnie uczeni wprowadzili zmutowany BRAF do ludzkich macierzystych komórek pluripotencjalnych znajdujących się na tych samych trzech stadiach rozwoju, co komórki badane u ryb, i wszczepili je myszom. I znowu okazało się, że tylko w przypadku komórek w dwóch stadiach rozwoju, NC i MB, pojawiły się guzy nowotworowe. Badacze zaczęli więc poszukiwać różnic molekularnych pomiędzy komórkami. Zauważyli, że różnica dotyczy genu ATAD2, który kontroluje dynamikę chromatyny, substancji występującej w jądrze komórkowym. Gen ten był aktywny w komórkach NC i MB, ale nie MC. Gdy naukowcy usunęli ATAD2 z podatnych na czerniaka danio pręgowanych, guzy nie powstały. Gdy zaś wprowadzili aktywny ATAD2 do dojrzałych melanocytów (MC), komórki zyskały zdolność tworzenia guza. Autorzy badań przeanalizowali następnie dane kliniczne zarówno pacjentów Memorial Sloan Kettering Cancer Center jak i dane dostępne w Cancer Genome Atlas. Zauważyli, że ATAD2 jest ważnym czynnikiem rozwoju czerniaka. Okazało się bowiem, że pacjenci, u których gen ten był bardziej aktywny, mieli mniejsze szanse przeżycia. Wydaje się więc, że jest on istotny dla rozwoju nowotworu. Mutacje DNA są jak zapalniczka. Jeśli masz nieodpowiednie drewno lub jest ono mokre, może powstać iskra, ale nie będzie ognia. Jeśli jednak drewno jest odpowiednie, wszystko zaczyna się palić", mówi doktor Arianna Baggiolini. Technika pracy z pluripotencjalnymi komórkami macierzystymi, która została opracowana na potrzeby badań nad czerniakiem, może zostać wykorzystana podczas spersonalizowanego leczenia nowotworu. Richard White i Lorenz Studer z MSK uzyskują z krwi pacjentów pluripotencjalne komórki macierzyste. Następnie są w stanie wprowadzać do tych komórek specyficzne mutacje, charakterystyczne dla guza nowotworowego każdego pacjenta. W ten sposób tworzony jest indywidualny model choroby, na którym można testować wiele różnych leków, by sprawdzić, które dadzą najlepsze efekty u danej osoby. Wykorzystując pluripotencjalne komórki macierzyste możemy próbować stworzyć indywidualne modele choroby dla każdego pacjenta i każdego rodzaju tkanki. Mam nadzieję, że z czasem stanie się to standardową metodą leczenia nowotworów, mówi Studer. « powrót do artykułu
  9. Na Warszawskim Uniwersytecie Medycznym (WUM) wystartował program diagnostyki czynnościowej mikrokrążenia wieńcowego. W ten sposób można wykryć zmiany w najdrobniejszych tętnicach serca i stwierdzić, czy, jak to wyjaśniono w komunikacie uczelni, przyczyną dolegliwości dławicowych jest [właśnie] choroba mikrokrążenia. Pierwszy zabieg diagnostyki mikrokrążenia odbył się 23 sierpnia. Przeprowadził go zespół w składzie: dr hab. Łukasz Kołtowski, dr hab. Mariusz Tomaniak, mgr Iwona Wyszomirska, mgr Ewa Brauła oraz Tomasz Badylak. Standardem przy diagnostyce choroby wieńcowej jest koronarografia, czyli radiograficzna metoda badania tętnic wieńcowych serca z zastosowaniem środka cieniującego. Okazuje się jednak, że tętnice wieńcowe stanowią zaledwie fragment układu krążenia mięśnia sercowego, a pozostałe 90 proc. tworzone jest przez mikrokrążenie. Poszerzenie diagnostyki o ocenę mikrokrążenia jest wskazane u pacjentów z dolegliwościami stenokardialnymi, u których nie stwierdza się zmian w tętnicach wieńcowych (tzw. zespół INOCA i MINOCA) - podkreśla dr hab. Łukasz Kołtowski. INOCA (ang. ischemia and no obstructive coronary artery disease) to niedokrwienie mięśnia sercowego bez istotnych zwężeń w tętnicach wieńcowych, zaś MINOCA (ang. myocardial infarction with nonobstructive coronary arteries) oznacza zawał serca bez istotnych angiograficznie zmian w tętnicach wieńcowych. Co ważne, dzięki ocenie mikrokrążenia można nie tylko postawić diagnozę, ale i określić patogenezę choroby. To z kolei pozwala wdrożyć odpowiednie leczenie. Program diagnostyki mikrokrążenia jest realizowany w ramach Pracowni Kardiologii Inwazyjnej I Katedry i Kliniki Kardiologii WUM. « powrót do artykułu
  10. Naukowcy od dawna wiedzą, że duży koronalny wyrzut masy na Słońcu może poważnie uszkodzić sieci energetyczne, doprowadzając do braków prądu, wody, paliwa czy towarów w sklepach. Znacznie mniej uwagi przywiązują jednak do tego, jak takie wydarzenie wpłynie na internet. Jak się okazuje, skutki mogą być równie katastrofalne, a najsłabszym elementem systemu są podmorskie kable łączące kraje i kontynenty. Przed kilkunastu laty amerykańskie Narodowe Akademie Nauk przygotowały na zlecenie NASA raport dotyczący skutków wielkiego koronalnego wyrzutu masy, który zostałyby skierowany w stronę Ziemi. Takie wydarzenie mogłoby pozbawić ludzi wody, towarów w sklepach, transportu publicznego i prywatnego, uniemożliwić działanie szpitali i przedsiębiorstw, doprowadzić do wyłączenia elektrowni. Jak wówczas informowali autorzy raportu same tylko Stany Zjednoczone poniosłyby w ciągu pierwszego roku straty rzędu 2 bilionów dolarów. Przywrócenie stanu sprzed katastrofy potrwałoby 4-10 lat. Katastrofy naturalne zwykle są najbardziej odczuwane przez najbiedniejsze państwa. Wielki koronalny wyrzut masy jest zaś tym bardziej niebezpieczny, im bardziej rozwinięte państwo i im bardziej uzależnione jest od sieci energetycznej i – jak się okazuje – internetu. Koronalne wyrzuty masy to gigantyczne obłoki plazmy, które co jakiś czas są wyrzucane przez Słońce w przestrzeń kosmiczną. Mają one masę miliardów ton i posiadają silne pole magnetyczne, które może uszkadzać satelity, sieci energetyczne i zakłócać łączność radiową. Ludzkość nie ma zbyt wielu doświadczeń z tego typu wydarzeniami. W marcu 1989 roku w Kanadzie 6 milionów osób było przez 9 godzin pozbawionych prądu właśnie z powodu burzy na Słońcu. Jednak wiemy, że wyrzuty koronalne mogą być znacznie silniejsze. Najpotężniejsze znane nam tego typu zjawisko to wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak brytyjski astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, a Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety, doszło do kilku pożarów drewnianych budynków telegrafów, igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne widać było nawet w Kolumbii. Jednak wydarzenie to miało miejsce na długo przed rozwojem sieci energetycznych. Obecnie tak silny rozbłysk miałby katastrofalne skutki. Podczas zakończonej niedawno konferencji SIGCOMM 2021 profesor Sangeetha Abdu Jyothi z University of California Irvine, wystąpiła z odczytem Solar Superstorms. Planning for an Internet Apocalypse. Przedstawiła w nim wyniki swoich badań nad wpływem wielkiej chmury szybko poruszających się namagnetyzowanych cząstek słonecznych na światowy internet. Z badań wynika, że nawet gdyby stosunkowo szybko udało się przywrócić zasilanie, to problemów z internetem doświadczalibyśmy przez długi czas. Dobra wiadomość jest taka, że lokalna i regionalna infrastruktura internetowa nie powinna zbytnio ucierpieć. Światłowody same w sobie są odporne na tego typu wydarzenia. Znacznie gorzej byłoby z przesyłaniem danych w skali całego globu. Największe zagrożenie czyha na kable podmorskie. Przesyłają one dane przez tysiące kilometrów, a co 50–150 kilometrów są na nich zainstalowane wzmacniacze. I o ile sam podmorski kabel nie byłby narażony, to wielka burza słoneczna mogłaby uszkodzić te wzmacniacze. Gdy zaś doszłoby do uszkodzenia odpowiednich ich liczby, przesyłanie danych stałoby się niemożliwe. Co więcej, kable podmorskie są uziemiane co setki lub tysiące kilometrów, a to stwarza dodatkowe zagrożenie dla wzmacniaczy. Jakby jeszcze tego było mało, budowa geologiczna morskiego dna jest bardzo różna, i w niektórych miejscach wpływ burzy słonecznej na kable będzie silniejszy niż w innych. Zapomnijmy też o przesyłaniu danych za pomocą satelitów. Wielki rozbłysk na Słońcu może je uszkodzić. Obecnie nie mamy modeli pokazujących dokładnie, co mogłoby się stać. Lepiej rozumiemy wpływ koronalnego wyrzutu masy na sieci energetyczne. Jednak one znajdują się na lądach. Jeszcze trudniej jest przewidywać, co może stać się na dnie morskim, mówi Abdu Jyothi. Koronalne wyrzuty masy są bardziej niebezpieczne dla wyższych szerokości geograficznych, tych bliższych biegunom. Zatem Polska czy USA ucierpią bardziej niż położony w pobliżu równika Singapur. A Europa i Ameryka Północna będą miały większe problemy z internetem niż Azja. Internet zaprojektowano tak, by był odporny na zakłócenia. Gdy dojdzie do awarii w jednym miejscu, dane są automatycznie kierowane inną drogą, by omijać miejsce awarii. Ale jednoczesna awaria w kilku czy kilkunastu kluczowych punktach zdestabilizuje całą sieć. Wszystko zależy od tego, gdzie do niej dojdzie. Wspomniany tutaj Singapur jest hubem dla wielu azjatyckich podmorskich kabli telekomunikacyjnych. Jako, że położony jest blisko równika, istnieje tam mniejsze ryzyko awarii w razie wielkiej burzy słonecznej. Ponadto wiele kabli w regionie jest dość krótkich, rozciągają się z huba w różnych kierunkach. Tymczasem kable przekraczające Atlantyk czy Pacyfik są bardzo długie i położone na wyższych, bardziej narażonych na zakłócenia, szerokościach geograficznych. Niestety, podmorskie kable rzadko są zabezpieczane przed skutkami wielkich zaburzeń geomagnetycznych, takich jak burze słoneczne. Nie mamy doświadczenia z takimi wydarzeniami, a właściciele infrastruktury priorytetowo traktują cyberataki czy katastrofy naturalne mające swój początek na Ziemi i to przed nimi zabezpieczają swoje sieci. Abdu Jyothi zauważa jednak, że o ile wielkie koronalne wyrzuty masy są niezwykle rzadkie, a jeszcze rzadziej są one skierowane w stronę Ziemi, to stawka jest tutaj bardzo duża. Długotrwałe zaburzenie łączności w skali globalnej miałoby negatywny wpływ niemal na każdy dział gospodarki i niemal każdego człowieka na Ziemi. « powrót do artykułu
  11. Wszyscy wiemy, że pianie koguta o świcie nie wywołuje wschodu słońca. Jednocześnie nie mamy wątpliwości, że użycie włącznika spowoduje zapalenie lub zgaszenie światła. Skąd zatem pewność, że jedno zdarzenie spowodowało drugie? Przyczynowość jest jedną z najszerzej dyskutowanych i najtrudniejszych do wykazania kategorii w nauce i medycynie. Rewolucja Przyczynowa, zainicjowana przez Judeę Pearla i innych badaczy, położyła kres wiekowi niejasności pojęciowych i oparła przyczynowość na solidnej podstawie naukowej. Dzieło Pearla i Mackenziego zawiera historię samej idei, a także dostarcza narzędzi niezbędnych do oceny, czego może - lub nie - dokonać Big Data. Autorzy tłumaczą, na czym polega drabina przyczynowości i opierając się na wielu przykładach z życia, ukazują istotę ludzkiej myśli oraz klucz do sztucznej inteligencji. Każdy, kto pragnie zrozumieć jedno lub drugie, powinien przeczytać książkę Przyczyny i skutki. Judea Pearl, wybitny informatyk i laureat Nagrody Turinga, pokazuje, jak zrozumienie przyczynowości zrewolucjonizowało naukę i jak zrewolucjonizuje sztuczną inteligencję. Kilkadziesiąt tysięcy lat temu ludzie zaczęli sobie uświadamiać, że jedne rzeczy powodują inne i że manipulowanie tymi pierwszymi może zmieniać drugie. Dzięki temu odkryciu narodziły się zorganizowane społeczeństwa, później miasta i metropolie, a wreszcie cywilizacja oparta na nauce i technice. Wszystko to, ponieważ zadaliśmy proste pytanie: "dlaczego?". Dzieło Pearla ukazuje, jak nowa nauka wnioskowania wpływa na nasze obecne życie i jak wielki może mieć wpływ na przyszłość - od opracowania nowych lekarstw, edukacji i robotyki po kontrolę handlu bronią i globalne ocieplenie. Gdyby podsumować przesłanie tej książki jednym krótkim zdaniem, brzmiałoby ono: jesteśmy mądrzejsi niż nasze dane. Dane nie pojmują przyczyn i skutków - umysł ludzki tak. Ufam, że nowa nauka wnioskowania przyczynowego pozwoli na uchwycenie, jak on tego dokonuje - Judea Pearl Czy zastanawialiście się kiedyś nad tajemnicami korelacji i związków przyczynowych? Ta niezwykła książka zawiera wnikliwe odpowiedzi, a na dodatek świetnie się ją czyta - Daniel Kahneman, autor książki Pułapki myślenia
  12. Łazik Perseverance pobrał pierwszą próbkę marsjańskiego gruntu. To rdzeń nieco grubszy od ołówka, który pobrano za pomocą wiertła. Został on przeniesiony do szczelnie zamykanego tytanowego pojemnika, w którym będzie czekał na transport na Ziemię. Jednym z zadań misji Mars 2020 jest pobranie około 35 próbek, które w ciągu dekady zostaną przywiezione na naszą planetę. NASA i ESA (Europejska Agencja Kosmiczna) już planują Mars Sample Return, serię wypraw, które przywiozą próbki zebrane przez Perseverance. Będą to pierwsze w historii próbki przywiezione z innej planety na Ziemię. Tutaj zostaną szczegółowo zbadane przez naukowców. To historyczny moment dla wydziału naukowego NASA. Tak, jak misje Apollo dowiodły naukowej wartości próbek przywożonych z Księżyca, tak w ramach programu Mars Sample Return uczynimy to z próbkami zbieranymi przez Perseverance. Sądzimy, że dostępne w ziemskich laboratoriach instrumenty naukowe najwyższej klasy przyniosą zaskakujące odkrycia i pozwolą odpowiedzieć na pytanie, czy na Marsie kiedykolwiek istniało życie, stwierdził Thomas Zurbuchen, dyrektor NASA ds. naukowych. Pobieranie próbki rozpoczęto 1 września, kiedy to łazik rozpoczął wiercenie w skale nazwanej „Rochette”. Po zakończeniu wiercenia rdzeń został przeniesiony do tuby, a kamera Mastcam-Z wykonała zdjęcia jej wnętrza. Gdy dotarły one na Ziemię i kontrola misji potwierdziła, że próbki znajdują się w tubie, wysłano do łazika polecenie dokończenia całego procesu. Dzisiaj tuba o numerze seryjnym 266 została przeniesiona do wnętrza łazika, gdzie została zmierzona i sfotografowana. Następnie tuba została szczelnie zamknięta, Perseverance wykonał kolejne jej zdjęcie i przeniósł ją do magazynu w swoim wnętrzu. Sampling and Caching System składa się z ponad 3000 części. Jest to najbardziej skomplikowany mechanizm, jaki kiedykolwiek został wysłany w przestrzeń kosmiczną. Jesteśmy niezwykle podekscytowani widząc, jak dobrze spisuje się on na Marsie i że pierwszy krok w kierunku dostarczenia próbek na Ziemię został wykonany, cieszy się Larry D. James, dyrektor w Jet Propulsion Laboratory. Przypomnijmy, że miesiąc temu Perseverance próbował już pobrać rdzeń skały. Wówczas się to nie udało, a analiza danych wykazała, że skała, w której wiercono, była zbyt luźna, więc nie została pobrana. Perseverance znajduje się obecnie w regionie nazwanym Artuby. To szeroka na 900 metrów granica pomiędzy dwiema jednostkami geologicznymi. Naukowcy sądzą, że zawiera ona najgłębsze i najstarsze z odsłoniętych warstw skał krateru Jezero. Pobranie pierwszej próbki z tego obszaru to moment przełomowy. Gdy próbki trafią na Ziemię, zdradzą nam one wiele szczegółów na temat pierwszych rozdziałów ewolucji Marsa. Niezależnie jednak od tego, jak intrygujący materiał trafił do tuby numer 266, musimy pamiętać, że nie opowie nam całej historii. W kraterze Jezero jest jeszcze wiele do zbadania, a my będziemy prowadzili naszą misję jeszcze przez wiele miesięcy i lat, stwierdził Ken Farley, jeden z naukowców pracujących przy misji 2020. Podstawowy etap misji Perseverance zaplanowano na kilkaset marsjańskich dni. Taki dzień zwany jest sol. Zakończy się on, gdy Perseverance wróci do miejsca lądowania. W tym czasie łazik przejedzie od 2,5 do 5 kilometrów i pobierze próbki nawet z 8 miejsc. Następnie Perseverance uda się na północ, później skręci na zachód, w miejsce drugiego etapu swojej misji – delty rzeki, która wpadała niegdyś do jeziora w Jezero. Obszar ten może być bardzo bogaty w iły. Na Ziemi w takim materiale mogą być obecne mikroskopijne skamieniałe ślady, które mogą świadczyć o procesach biologicznych sprzed milionów lat. NASA liczy, że i na Marsie trafi na tego typu ślady. Głównym zadaniem misji Mars 2020 jest prowadzenie badań astrobiologicznych, w tym poszukiwanie śladów dawnego życia. To pierwsza misja, w ramach której zbierane są i przechowywane próbki marsjańskiego gruntu. Ma ona przetrzeć drogę załogowej misji na Czerwoną Planetę. Mars 2020 to część większego projektu o nazwie Moon to Mars. W jego ramach zaplanowano m.in. misję Artemis na Księżyc. Srebrny Glob będzie najprawdopodobniej przystankiem podczas załogowej eksploracji Marsa. « powrót do artykułu
  13. W III lub II tysiącleciu przed naszą erą pojawiły się pierwsze przenośne lampki ceramiczne służące do oświetlania wnętrz. Fenicjanie i Grecy nadawali czasem takim przedmiotom bardzo dekoracyjną formę. W Rzymie tego typu oświetlenie staje się powszechne w III wieku przed Chrystusem. Od greckiego λύχνος (lychnos) nazwano je lucerna. Lampki oliwne tak się rozpowszechniły, że w całym państwie Rzymian powstawały warsztaty je produkujące. Na terenie dzisiejszej Hiszpanii liczne manufaktury tego typu istniały już w I wieku p.n.e. W 1989 roku na stanowisku El Monastil w miejscowości Elda w Hiszpanii archeolog Antonio M. Poveda odkrył rzymski warsztat garncarski z epoki Augusta i Tyberiusza. Z form na ceramiczne lampki wiemy, że należał on do niejakiego Luciusa Erosa. Warsztat posiadał co najmniej trzy paleniska. Wśród znalezionej tam ceramiki uwagę archeologów przyciągnęły przede wszystkim duże fragmenty, z których wystawały liczne palniki. Zwykle lampka oliwna posiadała 1 lub 2 palniki. Wyjątkowo znajduje się lampy z większą liczbą palników, dochodzącą nawet do 10. Jednak w warsztacie Luciusa Erosa odkryto coś zupełnie wyjątkowego. W toku kolejnych sezonów wykopalisk, aż do sezonu 2009/2010, znaleziono pozostałości po co najmniej dwóch wielkich „żyrandolach”. Profesor Antonio M. Poveda, który pracuje obecnie na Uniwersytecie w Alcalá de Henares, stwierdził, że przedmioty te posiadały ponad 30 palników. Warsztat Erosa znajdował się niedaleko ważnej kolonii rzymskiej Ilici (Elche) i z pewnością nie był jedynym miejscem w Imperium Romanum, gdzie wytwarzano „żyrandole” oliwne. Jest to jednak jedyne odkryte dotychczas miejsce, gdzie zachowały się pozostałości po tak dużych ceramicznych punktach oświetleniowych i to produkowanych tak dawno. W czasach Konstantyna Wielkiego, cesarza, który zakończył prześladowania epoki Dioklecjana, a w 313 roku wydał edykt zezwalający na wyznawanie chrześcijaństwa, ceramiczny projekt „żyrandola” został zaadaptowany przez chrześcijan. Wówczas zaczęto wytwarzać znane już nam żyrandole z metalu, zwykle z brązu. Służyły one do oświetlania kościołów i nazywano je polycandelum. Jednak dotychczas nie sądzono, że polycandelum zawierające kilkadziesiąt palników wytwarzano już na przełomie epok, u początków istnienia Cesarstwa Rzymskiego. Stworzenie ceramicznego polycandelum wymagało wysokich umiejętności, więc Lucius Eros zatrudniał świetnych specjalistów i zapewne sprzedawał swoje produkty po wysokich cenach. Dlatego też brak innych znalezisk tego typu. Musiały to być w tym czasie naprawdę bardzo rzadkie i drogie przedmioty. Wydaje się, że polycandelae wytwarzane w warsztacie Luciusa Erosa miały 0,5 metra średnicy, 32 palniki oraz kilka otworów (infundibula), w które wlewano oliwę. Eva Mª. Mendiola Tebar wspaniale zrekonstruowała polycandelum o kilkunastu palnikach i kilku infundibulach. Wyjątkowy zabytek można oglądać w Museo Arqueológico de Elda. « powrót do artykułu
  14. Analiza 3 butów, które mogły należeć do Michała Anioła, pokazała, że renesansowy artysta nie był zbyt wysoki. Wg naukowców, miał ok. 1,6 m wzrostu. Wyniki uzyskane przez parę badaczy z Forensic Anthropology, Paleopathology, and Bioarchaeology Research Center (FAPAB) ukazały się właśnie w piśmie Anthropologie. Elena Varotto, która zajmuje się antropologią sądową i paleopatolog Francesco Galassi zajęli się parą skórzanych butów i pojedynczym klapkiem (drugi, lewy, został skradziony 14 stycznia 1873 r.) z muzeum Casa Bunarroti we Florencji. Obuwie znaleziono w domu mistrza po jego śmierci. Buty miały zbliżony rozmiar, co sugeruje, że nosiła je ta sama osoba. Para uczonych zastosowała wzory, dzięki którym można było oszacować wzrost na podstawie wymiarów stopy (Uhrová et al.). Średnia ze wszystkich wyników dała 160,3 cm. Choć dziś artysta nie uchodziłby za zbyt wysokiego, w XV-XVI w. jego wzrost nie odbiegałby od normy (taki wynik pasuje do średniej dla okresu od średniowiecza po renesans). Oszacowania autorów publikacji pasowałyby też do opisu Michała Anioła z "Żywotów najsławniejszych malarzy, rzeźbiarzy i architektów" Giorgia Vasariego (pierwsze wydanie tego dzieła ukazało się w 1550 r.; prace nad 2. edycją książki Vasari zaczął dzień po pogrzebie Michała Anioła w 1564 r.). Historiograf sztuki stwierdził tam, że Michał Anioł był przeciętnego wzrostu (Fu di statura mediocre). Buty były tradycyjnie uznawane za należące do Michała Anioła. Jak zauważają Galassi i Varotto, ich styl odpowiada okresowi, w jakim żył mistrz. Ze względu na zastrzeżenia natury konserwatorskiej, nigdy nie przeprowadzono ich datowania radiowęglowego, dlatego nie można wyciągać ostatecznych wniosków odnośnie do ich autentyczności i trzeba wziąć pod uwagę możliwość, że np. należały do innego członka rodziny. Naukowcy podkreślają, że wysunięto kilka hipotez odnośnie do stanu zdrowia Michała Anioła; wspominano m.in. o wolu czy zatruciu ołowiem. [...] Sugerowano także, że w ostatnich latach przed śmiercią, wskutek ciężkiego i długiego życia, jego dłonie były naznaczone przewlekłym zapaleniem stawów. Propozycje te są spójne z paleopatograficznymi diagnozami, stawianymi w oparciu o źródła pośrednie, np. portrety artysty czy jego własne zapiski. Dotąd jednak nikt nie wziął pod uwagę bezpośrednich śladów biologicznych pozostawionych przez samego Michała Anioła. Warto dodać, że szczątków Michała Anioła nigdy nie ekshumowano (artystę pochowano w kościele Santa Croce we Florencji) i choćby z powodów etycznych nie będzie to możliwe w najbliższej przyszłości. Możność zidentyfikowania niektórych biologicznych śladów pozostawionych przez wielkiego artystę - tak jak w przypadku prowadzonego przez nas badania odcisków palców - pozwoli jednak zdobyć więcej informacji nt. biologicznego wymiaru tego geniusza [...]. Jak pamiętamy, niedawno pracownicy Victoria and Albert Museum poinformowali o znalezieniu prawdopodobnego odcisku palca Michała Anioła. Odcisk zauważono na woskowym modelu, którego autorstwo jest przypisywane wielkiemu artyście. Konserwatorzy mówią, że stał się on widoczny dzięki zmianom temperatury i wilgotności w miejscu przechowywania dzieła. « powrót do artykułu
  15. Wulkaniczne szczyty Hawajów, pustynia Atacama w Chile i góry Wysp Kanaryjskich to najlepsze na Ziemi miejsca do uprawiania astronomii. To tam znajdują się najbardziej zaawansowane teleskopy. Teraz nauka może zyskać kolejne takie idealne miejsce. Chińscy specjaliści poinformowali, że znajduje się ono w pobliżu miasta Lenghu w prowincji Qinghai. Wyżyna Tybetańska ma wiele zalet z punktu widzenia astronomii. Jest położona wysoko nad poziomem morza, jest tam niewielkie zanieczyszczenie sztucznym światłem i niska wilgotność. Astronomowie od wielu lat mieli nadzieję, że uda się na niej zlokalizować miejsce nadające się do prowadzenia obserwacji. Jednak warunki środowiskowe powodują, że prowadzenie zaawansowanych badań astronomicznych byłoby tam zbyt trudne lub niemożliwe. Opinie takie są tym bardziej uzasadnione, że przed kilkunastu laty prowadzono badania w Ngari, Muztagh Ata i Daocheng. Żadne z tych miejsce nie miało warunków dobrych dla astronomii. Wielu specjalistów uważa też, że przechodzące w pobliżu Lenghu burze piaskowe wykluczają ten obszar jako miejsce wybudowania wielkich teleskopów. Jednak Licai Deng i jego koledzy z Narodowych Obserwatoriów Astronomicznych Chin Chińskiej Akademii Nauk postanowili spróbować szczęścia. Od 2018 roku monitorują zachmurzenie, jasność nocnego nieba, temperaturę powietrza, wilgotność oraz siłę i kierunek wiatru wiejącego na wierzchołku C góry Saishiteng, położonego na wysokości 4200 m. n.p.m. Naukowcy stwierdzili, że podczas około 70% nocy niebo jest na tyle wolne od chmur, że można prowadzić obserwacje. Jeśli zaś chodzi o widzialność (seeing), czyli kluczowy parametr określający, w jaki stopniu turbulencje atmosfery prowadzą do rozmazywania się obrazu gwiazd, to mediana wzdłuż promienia świetlnego wynosi 0,75 sekundy kątowej, czyli 1/4800 stopnia. Mediana nocnych zmian temperatury na szczycie to 2,4 stopnia Celsjusza, a opad pary wodnej jest przeważnie nie większy niż 2 mm. Parametry na wierzchołku C Saishiteng są więc porównywalne do tak znanych miejsc prowadzenia obserwacji astronomicznych jak Manua Kea na Hawajach, Cerro Paranal w Chile czy La Palma na Wyspach Kanaryjskich. To właśnie tam znajdują się najpotężniejsze ziemskie teleskopy. Badane przez Chińczyków miejsce wydaje się mieć też kilka wyjątkowych zalet. Jedną z nich są niewielkie fluktuacje temperatury, co wskazuje na bardzo stabilne powietrze. Kolejna zaleta to fakt, że w zimie temperatura spada tam poniżej -20 stopni Celsjusza, co czyni Saishiteng świetnym miejscem dla obserwacji w podczerwieni. A niewielka ilość pary wodnej oznacza, że może być to idealne miejsce dla urządzeń działających w paśmie teraherców, za pomocą których badany jest ośrodek międzygwiezdny, co pozwala na lepsze zrozumienie pochodzenia gwiazd, galaktyk i samego wszechświata. Chiny mają spore ambicje odnośnie badań astronomicznych. Jednak Państwo Środka wyraźnie odstaje od innych. Znajduje się tam niewiele większych teleskopów, a głównym problemem jest właśnie brak dobrego miejsca do obserwacji. Dlatego też chińskie środowisko naukowe już chce rozpocząć prace nad teleskopami, które staną na Saishiteng. Uniwersytet Nauki i Technologii buduje właśnie teleskop optyczny o aperturze 2,5 metra, który ma rozpocząć pracę w 2023 roku. Pojawiły się też propozycje budowy obserwatorium słonecznego i zespołu teleskopów o nazwie Near Earth Object Hunter. Całe chińskie środowisko astronomiczne zaproponowało też rządowi w Pekinie budowę teleskopu o aperturze 12 metrów. Chińczycy mają nadzieję, że w Saishiteng w przyszłości staną międzynarodowe teleskopy. Dobre miejsca do obserwacji astronomicznych zawsze są w cenie. A ostatnio stały się jeszcze bardziej cenne, gdyż rdzenni mieszkańcy Hawajów nie chcą, by na Mauna Kea powstawały kolejne teleskopy. Nowe miejsce nie tylko przysłużyłoby się nauce, wypełniło istniejącą lukę jeśli chodzi o obserwatoria na wschodniej półkuli, ale byłoby też niezwykle ważne z punktu widzenia Chin. Pozwoliłoby ono zwiększyć współpracę Państwa Środka z międzynarodowym środowiskiem naukowym. Historia badań wierzchołka C Saishiteng pod kątem przydatności dla astronomii sięga roku 2017, kiedy to Licai Deng stwierdził, że rosnące zanieczyszczenie sztucznym światłem znacznie utrudnia mu obserwacje. Zaczął poszukiwać innego miejsca. Został wówczas zaproszony przez władze miasta Lenghu do oceny warunków na Saishiteng. Lenghu było w przeszłości 100-tysięcznym miastem, którego gospodarka opierała się na polach naftowych. Gdy jednak ropa się skończyła, pozostało kilkuset mieszkańców. Deng podpisał pięcioletni kontrakt, w ramach którego miał sprawdzić warunki panujące na górze Saishiteng, na którą nikt wcześniej się nie wspinał. Gdy uczony wraz z zespołem weszli na szczyt, okazało się, że główne obawy astronomów dotyczące tego miejsca – dotyczące burz piaskowych – są bezpodstawne. Piasek pozostał poniżej. Niebo oczyszczało się na wysokości 3800–4000 metrów. A 200 metrów wyżej, tam, gdzie można by prowadzić obserwacje, piasek nie stanowił problemu. "Nikt nie mógł tego wiedzieć bez wdrapania się na szczyt", stwierdził uczony. Deng i jego koledzy dziesiątki razy wspinali się na szczyt, wnosząc tam sprzęt. Miejscowe władze wynajęły śmigłowiec, by im pomóc i rozpoczęły budowę drogi, która po 18 miesiącach dotarła do wierzchołka C. Deng przeniósł tam swój teleskop, a władze wprowadziły już zakaz zanieczyszczania sztucznym światłem obszaru 18 000 kilometrów kwadratowych wokół wierzchołka. Licai Deng i jego zespół opublikowali wyniki swoich badań na łamach Nature. « powrót do artykułu
  16. Możliwość uwięzienia cząstek i schłodzenia ich do temperatur bliskich zeru absolutnemu jest niezbędna do przeprowadzenia wielu badań fizycznych, w tym do badania problemu asymetrii pomiędzy materią a antymaterią. Naukowcy pracujący przy eksperymencie BASE (Baryon Antibaryon Symmetry Experiment) w CERN-ie poinformowali o pierwszym udanym schłodzeniu pojedynczego protonu za pomocą techniki chłodzenia sympatycznego. Wszechświat powinien składać się z równej ilości materii i antymaterii. Jednak tak nie jest. Jednym z obiecujących sposobów na rozwiązanie tej zagadki jest badanie momentów magnetycznych protonu i antyprotonu. Tym właśnie zajmują się uczeni z BASE. Specjaliści wykorzystują w tym celu bardzo zaawansowane urządzenie zwane pułapką Penninga. Jest ona w stanie przechwycić i utrzymać pojedynczą cząstkę, którą dzięki temu można badać. Dotychczas zespołowi BASE udało się zwiększyć precyzję pomiarów momentu magnetycznego protonu 30-krotnie, a w przypadku antyprotonu udoskonalono pomiar aż o trzy rzędy wielkości. Dzięki temu można testować symetrię materii i antymaterii z dokładnością do 1,5 części na miliard. Tym samym wykazali, że wartość momentów magnetycznych protonu i antyprotonu jest taka sama w przedziale dziewięciu cyfr znaczących. Problem z tak precyzyjnymi pomiarami polega na tym, że aby ich dokonać, musimy utrzymać cząstki w temperaturze bliskiej zeru absolutnemu (-273,15 stopnia Celsjusza). Podczas swoich ostatnich prac uczeni z BASE wykorzystali schłodzoną laserem chmurę jonów berylu do schłodzenia protonu. Laserowego chłodzenia nie można użyć bezpośrednio na cząstkach subatomowych. Można natomiast, jak się okazuje, użyć chłodzenia sympatycznego do obniżenia temperatury protonów za pomocą schłodzonych jonów berylu. Specjaliści z BASE pod kierunkiem Stefana Ulmera z japońskiego RIKEN przeprowadzili swój eksperyment w laboratorium Uniwersytetu w Moguncji. Wykorzystali w tym celu dwie pułapki jonowe Penninga, oddalone od siebie o 9 centymetrów. Pułapki były połączone za pomocą kriogenicznego obwodu rezonansowego (LC). W jednej znajdował się pojedynczy proton, a w drugiej chmura jonów berylu schłodzonych za pomocą lasera. Częstotliwość pracy obwodu LC zostaładobrana tak, by możliwy był transfer energii od protonu do jonów. Uczeni dowiedli, że są w stanie obniżyć temperaturę protonu o 85%, do poziomu 17 kelwinów, a następnie obniżyli ją do 2,5 kelwina. Twierdzą, że w przyszłości, odpowiednio dobierając parametry swojego eksperymentu, w tym geometrię pułapek, będą w stanie w ciągu sekund obniżyć temperaturę protonu do dziesiątków milikelwinów. Dotychczas chłodzenie antyprotonów do 100 mK trwało około 10 godzin. Dzięki uzyskaniu jeszcze niższych temperatur możliwe będą bardziej precyzyjne pomiary symetrii pomiędzy materią a antymaterią. Nie wiadomo jednak, jak bardzo precyzyjne byłyby to pomiary. Już pojawiły się głosy, że technika ta może być przydatna do chłodzenia na dowolną odległość każdej cząstki posiadającej ładunek elektryczny, a być może nawet do wymiany bitów kwantowych informacji w sposób bardziej efektywny niż za pomocą światła. « powrót do artykułu
  17. Nikt nie lubi być śledzony - nie ma w tym nic dziwnego. Faktem jest jednak, że ogromne korporacje gromadzą różnego rodzaju dane na temat Twojej aktywności w internecie. Informacje te wykorzystywane są przez nie przede wszystkim w celach marketingowych. W jaki sposób firmy śledzą Twoje działania i jak się przed tym chronić? Mechanizmy śledzenia w internecie. Jak korporacje zdobywają informacje na Twój temat? Wszystkie działania, które podejmujesz w internecie zostawiają na Twoim komputerze i serwerach firm wiele śladów. Nieustannie pozostawiasz w sieci chociażby informacje na temat swojej lokalizacji (poprzez adres IP przypisany do Twojego komputera), preferencji i potencjalnych działań w przyszłości. Techniki, które wykorzystują korporacje do śledzenia są na tyle subtelne, że prawdopodobnie nigdy nawet nie rzuciły Ci się w oczy. Które z nich są najczęściej stosowane w dzisiejszych czasach? Pliki cookies - popularne "ciasteczka" Zdecydowanie najpopularniejszym i najskuteczniejszym narzędziem do śledzenia aktywności użytkowników są pliki cookies, nazywane inaczej ciasteczkami. Zasadniczo są one plikami tekstowymi o niewielkich rozmiarach, które przechowuje Twój komputer. Gromadzisz je po prostu odwiedzając kolejne strony internetowe i przeglądając je. Plik cookie stanowi informację o Twojej aktywności dla strony internetowej, którą odwiedzasz. Przykładowo - załóżmy, że wpisujesz w wyszukiwarkę hasło “płaszcz męski”, ponieważ jesteś zainteresowany jego kupnem. Później przeglądasz różne sklepy internetowe, porównujesz ceny i produkty - w międzyczasie Twój komputer gromadzi ciasteczka. Kiedy rozeznasz się nieco w ofercie rynku, zamykasz przeglądarkę. Po pewnym czasie wznawiasz poszukiwania - tym razem jednak, kiedy wejdziesz na jakąś stronę, otrzyma ona informację o tym, że odwiedzasz ją po raz kolejny. Czemu to służy? Korporacje mogą w ten sposób spersonalizować reklamy, które widzisz na stronie. Zamiast promocji przypadkowych produktów będą Ci się wyświetlać oferty kupna płaszczy w okazyjnej cenie. Co więcej - częstą praktyką korporacji jest manipulowanie cenami i ofertami. Bazują one na danych odnośnie Twoich wcześniejszych zachowań. Jeśli podczas szukania płaszcza męskiego dodałeś produkt lub kilka produktów do koszyka, może Cię na przykład śledzić reklama proponująca darmową dostawę czy kod rabatowy. Ponadto, przy następnych odwiedzinach na stronie całkiem możliwe, że ceny towarów będą w jakiś sposób zmodyfikowane. Można się z tym spotkać niemalże w każdej branży działającej internecie. Tego typu praktyki wykorzystywane są chociażby przez duże linie lotnicze, hotele czy wypożyczalnie samochodów. Statystyka udowadnia skuteczność takiego rozwiązania, a w praktyce precyzja tego narzędzia jest o wiele większa, niż w podanym przykładzie. Firmy motywują w ten sposób użytkowników do szybszego kupna, co przekłada się na większe zyski. Adres IP - sieciowy identyfikator Twojego komputera Niemalże każdy komputer podpięty do sieci posiada swój unikalny adres IP. Dla korporacji stanowi on informację dotyczącą przede wszystkim Twojej lokalizacji. Jej znajomość pozwala - po raz kolejny - na wyświetlenie reklamy spersonalizowanej względem Twoich potrzeb. Przykładowo - jeśli jesteś mieszkańcem Warszawy, po wyszukaniu płaszczy męskich w Google i odwiedzeniu kilku stron, zaczną Ci się wyświetlać materiały promocyjne. Będą one jednak dotyczyć nie tylko odwiedzonego sklepu internetowego, ale na przykład fizycznego punktu dystrybucji na terenie Warszawy, razem z adresem i numerem kontaktowym. Narzędzie do sprawdzania własnego adresu IP: https://ip.pc.pl/ Odcisk palca przeglądarki, czyli nowoczesne narzędzie śledzące Odciski palców przeglądarki lub urządzenia są jedną z najnowocześniejszych metod, za pomocą których korporacje śledzą Twoją aktywność w sieci. Pozwalają one na identyfikację danego użytkownika w oparciu o specyficzne ustawienia przeglądarki lub inne jej cechy charakterystyczne. Co ciekawe - ta identyfikacja jest możliwa nawet w sytuacji, gdy na bieżąco czyścisz pliki cookies i ukryjesz swój adres IP. Ochrona prywatności w internecie - jak możesz zabezpieczyć się przed gromadzeniem danych przez korporacje? Zabezpieczenie przed śledzeniem w internecie okazuje się dość trudnym zadaniem. Możesz bowiem wyłączyć systemy takie jak JavaScript, za pośrednictwem których jesteś śledzony. Problemem jest jednak to, że większość stron internetowych opiera swoje funkcjonowanie właśnie na nich. Jeśli chcesz uchronić się przed zostawianiem odcisków palców w internecie, musisz skonfigurować swoją przeglądarkę tak, aby nie wyróżniała się żadnymi cechami szczególnymi. Istnieją specjalne narzędzia, które pozwalają określić, w jakim stopniu możliwe jest zidentyfikowanie Cię w internecie. Przykładami mogą być chociażby programy takie jak AmIUnique czy Uniquemachine. Pomocne mogą okazać się także blokery reklam (jak np. uBlock czy Ghostery) oraz blokery śledzenia (DoNotTrackMe czy Disconnect), które uniemożliwiają korporacjom personalizację reklam i manipulowanie cenami czy ofertami. Programy i usługi uniemożliwiające śledzenie oraz gromadzenie danych często możemy znaleźć w ofercie firm zajmujących się szeroko rozumianym bezpieczeństwem w sieci. Istnieje również wiele samodzielnych produktów tego rodzaju, które możemy łatwo znaleźć w wyszukiwarce lub dedykowanych stronach. Przeczytaj: 4 narzędzia, które pozwolą Ci zachować prywatność w sieci VPN jako alternatywny sposób na ochronę Twoich danych Narzędziem, które pozwoli Ci zabezpieczyć się przed zostawianiem wirtualnych odcisków palców, jest VPN. Stanowi on zabezpieczone, prywatne i szyfrowane połączenie dwóch sieci lub użytkownika i sieci. To rozwiązanie pozwala na możliwie największą anonimowość w internecie. Stanowi bowiem swoistą zaporę pomiędzy Twoimi danymi, a dostępem korporacji. Zobacz: Co to jest VPN i jak działa: https://vpn.co.pl/ Musisz jednak pamiętać o tym, że całkowita ochrona swojej prywatności wymaga podejmowania również innych działań. Najlepiej, abyś używał kompleksowo zarówno VPN, jak i różnego rodzaju wtyczek czy modyfikacji przeglądarki, które ograniczają dostęp korporacji do Twoich danych. « powrót do artykułu
  18. Katalogi reklamowe są nośnikami, które mogą mieć duży zasięg i oddziaływanie. Pozwalają na pełne zaprezentowane usług oraz produktów firmy, docierając do praktycznie nieograniczonej liczby osób zainteresowanych. Ze względu na miejsce, jakim dysponują, umożliwiają dodanie wyraźnych zdjęć oraz dużych partii tekstu. Jeśli chcesz mieć profesjonalnie wykonane katalogi reklamowe, warto powierzyć ich wykonanie JKB Print. Dowiedz się dlaczego! JKB Print – specjaliści od druku katalogów JKB Print to nowoczesna drukarnia internetowa oferująca druk różnego rodzaju materiałów poligraficznych. Jej zaletą jest zarówno nowoczesny park maszynowy umożliwiający druk w różnych technologiach (solwentowa, offsetowa, laserowa i atramentowa), jak i duże doświadczenie w tworzeniu katalogów reklamowych. Dlatego przy tych produktach proponuje szeroki wybór. Katalogi reklamowe oferowane przez JKB Print mogą być szyte, klejone, spiralowane lub też szyte i dodatkowo sklejane. Na stronie usługi druku katalogów możesz samodzielnie ustawić wszystkie parametry – zaczynając od rodzaju papieru, kończąc na szerokości skrzydełek okładki. Taka liczba opcji sprawia, że stworzysz katalog, który z pewnością będzie rzucać się w oczy i pozwoli ci na przekazanie potencjalnym klientom wszystkich informacji, których chcesz udzielić. Katalogi reklamowe szybko i sprawnie Ponieważ JKB Print jest drukarnią internetową, zamówienia odbywają się poprzez stronę. Pozwala ci to na złożenie ich za pośrednictwem laptopa, komputera, a nawet smartfona. Po prostu wejdź w odpowiedni dział i wybierz z oferty „Katalogi”. Następnie wybierasz parametry, ustalasz nakład i widzisz cenę za całość. Gotowe katalogi reklamowe zostaną dostarczone przez kuriera pod wskazany w trakcie składania zamówienia adres. JKB Print stara się, aby czas realizacji był jak najkrótszy, dlatego możesz spodziewać się dostawy w ciągu kilku dni. Jeśli planujesz wyjazd z katalogami na targi lub eventy, warto pomyśleć o zleceniu druku odpowiednio wcześniej. Katalogi reklamowe – zalety nie do przecenienia Katalogi reklamowe to niezwykle cenione w biznesie nośniki informacji. Wręcza się je nie tylko potencjalnym odbiorcom oferowanych przez twoją firmę usług i produktów, lecz także potencjalnym kontrahentom. Solidnie wykonany katalog reklamowy zwiększa prestiż firmy i pozwala budować oraz umacniać świadomość jej marki. Dlatego już dzisiaj sprawdź, ile będą cię kosztować katalogi reklamowe – odwiedź stronę JKB Print! « powrót do artykułu
  19. Odkryte niedawno w Bristolu fragmenty średniowiecznego manuskryptu, opowiadające historię Merlina, czarodzieja znanego opowieści o królu Arturze, są jednymi z najstarszych znanych zapisków dotyczących tej postaci. Naukowcy, którzy badali zabytki, znaleźli różnice pomiędzy tą a innymi wersjami tekstu, a dzięki użyciu nowoczesnych narzędzi byli w stanie odczytać uszkodzone fragmenty, określić czas i miejsce powstania manuskryptu oraz typ atramentu. Do niezwykłego odkrycia doszło w 2019 roku. Wówczas to Michael Richardson ze Special Collection Library na University of Bristol przypadkowo zauważył pergamin wklejony w wewnętrzne strony okładek wczesnonowożytnego dzieła opublikowanego w latach 1494–1502. Szybko okazało się, że spisany na pergaminie tekst należy do starofrancuskiego cyklu Lancelot-Graal, zwanego też Cyklem Wulgaty. To jedno z najważniejszych dzieł średniowiecznej prozy powieściowej. Cykl powstał na początku XIII wieku. I to najprawdopodobniej ten cykl był głównym źródłem kompilacji średniowiecznej literatury arturiańskiej czyli romansu Le Morte Darthur (Śmierć Artura) autorstwa Thomasa Malory'ego, najbardziej znanej wersji historii o słynnym władcy. Na wydanym w 1485 roku dziele Malory'ego opierali się późniejsi pisarze. Badaniem odkrytych fragmentów zajęli się profesor anglistyki i prezydent brytyjskiego oddziału International Arthurian Society Leah Tether, jej mąż, historyk średniowiecza i specjalista od manuskryptów doktor Benjamin Pohl oraz doktor Laura Chuhan Campbell z Durham University, specjalistka od starofrancuskich opowieści o Merlinie. Na podstawie badań paleograficznych [paleografia zajmuje się badaniem rozwoju pisma w procesie historycznym i badaniem środowiska, w jakim żył i tworzył dany pisarz – red.] stwierdziliśmy, że manuskrypt pochodzi z lat 1250–1275, a analiza lingwistyczna wskazuje, iż powstał na północy, a prawdopodobnie północnym wschodzie Francji, mówi profesor Tether. Uczona przypomina, że Cykl Wulgaty został spisany mniej więcej w latach 1220–1225, zatem odkryte w Bristolu fragmenty powstały zaledwie pokolenie później. Z kolei analiza paleograficzna zapisków na marginesach tekstu z Bristolu wskazała, że już w latach 1300–1350 manuskrypt znajdował się w Anglii. To czyni odkrycie szczególnie cennym. Większość tekstów arturiańskich, jakie w średniowieczu trafiły do Anglii, powstała po roku 1275. Tutaj mamy więc do czynienia z bardzo wczesną wersją opowieści o Merlinie, która znalazła się na Wyspach Brytyjskich. Kolejnym przełomowym momentem w badaniach była współpraca z zespołem profesora Beeby'ego z Wydziału Chemii Durham University. Zespół ten, specjalnie na potrzeby badań manuskryptów z Bristolu, stworzył specjalny mobilny spektrometr ramanowski. Posłużył on do wykonania zdjęć uszkodzonych fragmentów, które następnie poddano cyfrowej analizie, co pozwoliło na lepsze odczytanie tekstu. Badanie to pozwoliło też stwierdzić, jaki atrament został wykorzystany. W świetle podczerwonym tekst był ciemny, zatem obaj skrybowie wykorzystali bazujący na węglu atrament wykonany z sadzy, a nie znacznie powszechniej stosowany atrament żelazowo-galusowy. Wybór rodzaju atramentu miał prawdopodobnie związek z tym, co było dostępne w najbliższej okolicy. Naukowcy odkryli też, jak to się stało, że fragmenty pergaminu trafiły do różnych ksiąg, a księgi do Bristolu. Pergaminy znaleziono w czterotomowej kopii dzieł wybitnego francuskiego teologa i filozofa Jeana Gersona, które wydrukowano w latach 1494–1502. Analizując sposób wykonania oprawy, naukowcy doszli do wniosku, że manuskrypt, z którego pochodzi pergamin, znajdował się w Oxfordzie lub Cambridge i tam został uznany za zbędny. Cenny pergamin postanowiono więc wykorzystać do oprawy innego dzieła. Wszystko wskazuje na to, że okładki wykonano przed rokiem 1520. Nie wiadomo, dlaczego ktoś postanowił pozbyć się manuskryptu. Niewykluczone, że miał do dyspozycji nowszą, drukowaną, wersję legend arturiańskich i uznał, że staroć nie jest mu już potrzebny. Z kolei do Bristolu dzieło Gersona wraz z cennym pergaminem w okładkach trafiło najprawdopodobniej za sprawą Tobiasa Matthewa. Matthew był biskupem Durham i kolekcjonerem ksiąg należących uprzednio do mnichów. Wiele z tych ksiąg było oprawianych w Oxfordzie, gdyż mnisi z Durham zwyczajowo studiowali w Durham College w Oxfordzie (obecnie to Trinity College). W 1613 roku – już jako arcybiskup Yorku – Matthew pomógł ufundować Bristol Public Library i podarował jej wiele ze swoich ksiąg. Badacze znaleźli też niewielkie, ale znaczące, różnice pomiędzy wersją spisaną na pergaminach z Bristolu a nowożytnymi wersjami. Pergaminy bardziej szczegółowo opisują działanie różnych postaci w niektórych sytuacjach, szczególnie tam, gdzie dochodzi do bitew. Jednym z takich fragmentów jest np. ten, gdzie Merlin mówi, kto będzie stał na czele poszczególnych oddziałów króla Artura. Gdzie indziej mamy różnicę co do rany, jaką odniósł przeciwnik Artura, król Klaudas. W wersjach nowożytnych ranny został w udo, natomiast w pergaminie z Bristolu miejsce rany nie zostało dokładnie określone. To istotna różnica dla ekspertów badających stare teksty, gdyż stwierdzenie o ranie w udo jest często interpretowane, jako metafora impotencji lub kastracji. W sumie w okładkach książki Gersona znaleziono siedem stron opisujących historię Merlina. Badania nad nimi zaowocowały zaś książką pt. „The Bristol Merlin: Revealing the Secrests of a Medieval Fragment”. « powrót do artykułu
  20. W okolicach Jordanowa Śląskiego na Dolnym Śląsku polsko-amerykański zespół prowadził poszukiwania zestrzelonego w marcu 1945 r. amerykańskiego bombowca B-17. Jak poinformowano w relacji prasowej Uniwersytetu Wrocławskiego, działania terenowe z ramienia amerykańskiej agencji rządowej DPAA [...], której misją jest odzyskanie amerykańskiego personelu wojskowego, prowadziła Alta Archaeological Consulting LLC. Amerykanom pomagali studenci, a także pracownicy UWr, specjaliści m.in. z zakresu archeologii i archeologii sądowej. Studenci brali udział w pracach archeologicznych czy badaniach terenu. Opowiadając o działalności DPAA, Alex De Georgey, kierownik prac terenowych, zaznaczył, że obecnie wiadomo o ok. 36 tys. Amerykanów zaginionych w Europie podczas II wojny światowej oraz innych wojen. DPAA współpracuje z państwami europejskimi w celu prowadzenia wspólnych dochodzeń. Prace w okolicach Jordanowa Śląskiego rozpoczęły się pod koniec lipca (26 lipca), a zakończyły na początku września. Był to pierwszy sezon badawczy, ale już wiadomo, że będą kolejne. Odkryto m.in. szczątki ludzkie i liczne fragmenty poszukiwanego wraku. Ze strony UWr projekt jest koordynowany przez prof. Macieja Trzcińskiego z Katedry Kryminalistyki. Jak podkreślił naukowiec, na UWr już od 2012 r. prowadzone są międzywydziałowe studia podyplomowe z archeologii sądowej. Ludzkie szczątki zostaną przesłane do USA na badania laboratoryjne. Fragmenty samolotu i jego wyposażenia mają być zaprezentowane w przyszłym roku w Muzeum Archeologicznym we Wrocławiu; poświęcona im będzie specjalna wystawa. Na Dolnym Śląsku poszukujemy zaginionych Amerykanów, których samolot bombowy wybuchł w 1945 roku podczas misji wojskowej. Wiemy o siedmiu Amerykanach zaginionych w tej katastrofie. Pracujemy nad tym, żeby zrobić wystawę, opowiadającą tę historię i pokazującą znalezione artefakty - podsumowuje De Georgey.   « powrót do artykułu
  21. Po przebadaniu 40 000 przypadków raka jelita grubego naukowcy doszli do wniosku, że istnieje oczywisty związek pomiędzy przyjmowaniem antybiotyków a rozwojem tej choroby w ciągu 5–10 lat. Autorzy badań, uczeni z Uniwersytetu w Umeå w Szwecji, przypuszczają, że przyczyną zwiększenia ryzyka nowotworu jest wpływ antybiotyków na mikrobiom jelit. Nasze badania pokazują, że istnieje wiele powodów, by ograniczać użycie antybiotyków. Stosowanie antybiotykoterapii jest w wielu przypadkach konieczne i ratuje życie, jednak tam, gdzie mamy do czynienia z lżejszymi chorobami, należy stosować je bardzo ostrożnie. Przede wszystkim dlatego, by nie doprowadzić do rozwoju antybiotykooporności u bakterii. Ale również dlatego, że – jak pokazały nasze badania – antybiotyki zwiększają ryzyko pojawienia się w przyszłości nowotworu jelita grubego, mówi Sophia Harlid z Umeå University. Przeprowadzone badania wykazały, że u osób, które przyjmowały antybiotyki przez ponad pół roku, ryzyko rozwoju nowotworu we wstępnicy (okrężnicy wstępującej) jest o 17% wyższe, niż u osób, które antybiotyków nie zażywały. Nie znaleziono natomiast dowodów, by antybiotyki zwiększały ryzyko nowotworu w zstępnicy (okrężnicy zstępującej). Nie zauważono też, by antybiotyki zwiększały ryzyko raka odbytnicy u mężczyzn, a u kobiet przyjmujących antybiotyki ryzyko rozwoju nowotworu odbytnicy było nawet nieco mniejsze niż u pań, które antybiotyków nie zażywały. Zwiększone ryzyko raka wstępnicy pojawiało się 5 do 10 latach po przyjmowaniu antybiotyków przez ponad pół roku. Ryzyko było tym większe, im więcej antybiotyków przyjmowali badani, ale istniało nawet u osób, które jednorazowo przyjęły antybiotyki. Autorzy badań wykorzystali dane 40 000 osób, które w latach 2010–2016 trafiły do Szwedzkiego Rejestru Raka Jelita Grubego. Dane te porównano z grupą 200 000 Szwedów, którzy nie chorowali na raka jelita grubego. Natomiast dane o użyciu antybiotyków pochodziły z centralnego Szwedzkiego Rejestru Przepisanych Leków z lat 2005–2016. Wnioski z tych badań są takie same, jak z wcześniejszych badań brytyjskich, które były jednak prowadzone na mniejszej grupie pacjentów. Szwedzcy naukowcy, chcąc zrozumieć, w jaki sposób antybiotyki mogą zwiększać ryzyko zachorowania, wzięli też pod uwagę osoby, które w związku z infekcjami układu moczowego przyjmowały niebędące antybiotykami leki zabijające bakterie. Leki takie nie wpływają na mikrobiom. Okazało się, że u takich osób ryzyko raka jelita grubego nie rośnie. To zaś sugeruje, że tym, co zwiększa ryzyko raka u osób przyjmujących antybiotyki jest wpływ antybiotyków na mikrobiom. Ze szczegółami badań można zapoznać się na łamach Journal of the National Cancer Institute. « powrót do artykułu
  22. Można ocalić życie setek tysięcy ludzi, a liczbę zachorowań zmniejszyć o kilka milionów, zmniejszając ilość cukru w sprzedawanej żywności – czytamy na łamach pisma Circulation. Jeśli zmniejszymy ilość cukru o 20% w pakowanej żywności i o 40% w napojach, to w ciągu życia jednego dorosłego pokolenia w USA liczba takich zdarzeń jak ataki serca czy udary zmniejszy się o 2,48 miliona przypadków. Jednak to nie wszystko. Naukowcy z Massachusetts General Hospital, Wydziału Zdrowia Nowego Jorku oraz Uniwersytetów Tufts i Harvarda donoszą, że taka redukcja cukru w żywności doprowadziłaby do zmniejszenia liczby przedwczesnych zgonów o 480 000, a liczby przypadków cukrzycy o 750 000. Zmniejszenie ilości cukru w dostępnej w sklepach gotowej żywności i napojach miałoby większy pozytywny wpływ na zdrowie Amerykanów, niż inne propozycje zwalczające nadmierne spożycie cukru, jak nałożenie większych podatków, obowiązek oznaczania ilości cukru czy zakaz słodzonych napojów w szkołach, mówi główny autor badań Siyi Shangguan. Naukowcy badali, jaki wpływ na zdrowie Amerykanów miałoby wdrożenie projektu ograniczenia spożycia cukru, zaproponowane przez organizację o nazwie US National Salt and Sugar Reduction Initiative (NSSRI). To koalicja ponad 100 lokalnych, stanowych i ogólnokrajowych organizacji zajmujących się promowaniem zdrowego trybu życia. W 2018 roku NSSRI zarysowała wstępny projekt zmniejszenia ilości cukru w 15 kategoriach żywności i napojów, a przed kilkoma miesiącami zaproponowała szczegółowy plan zakładający, że przemysł dobrowolnie zacznie zmieniać receptury produkowanej żywności. Teraz naukowcy stworzyli model, za pomocą którego zbadali, jaki wpływ miałoby wdrożenie planu NSSRI. Z oblićżeń wynika, że dziesięć lat po wdrożeniu planu Amerykanie zaoszczędziliby 4,28 miliarda dolarów na kosztach leczenia, a za życia obecnej dorosłej populacji (w wieku 35–79 lat) oszczędności te sięgnęłyby 118,04 miliarda USD. Dodając do tego zmniejszenie kosztów spadku produktywności osób chorujących z powodu nadmiernej konsumpcji cukru, całkowite oszczędności sięgnęłyby kwoty 160,88 miliarda USD. Autorzy wyliczeń podkreślają, że rzeczywiste oszczędności byłyby prawdopodobnie znacznie większe, gdyż przyjęto bardzo ostrożne założenia. Co więcej, nawet gdyby przemysł wdrożył tylko część rozwiązań proponowanych rzez NSSRI, można by osiągnąć znaczące oszczędności. Badacze zauważyli też, że pierwsze pozytywne skutki ekonomiczne pojawiłyby się w 6. roku od wdrożenia propozycji NSSRI, a koszty wdrożenia zaczęłyby się zwracać w 9. roku od wdrożenia. Zmniejszenie ilości cukru miałoby też pozytywny wpływ na inne szkodliwe dla zdrowia składniki. Zmiana sposobu produkcji żywności i jej składu spowodowałaby też bowiem zmniejszenie ilości tłuszczów trans i sodu. Propozycje NSSRI to najbardziej na świecie przemyślany i całościowy, a jednocześnie możliwy do osiągnięcia, projekt zmiany składu żywności, mówi Shangguan. Cukier jest dodawany do olbrzymiej liczby produktów spożywczych. Występuje tam, gdzie nigdy byśmy się go nie spodziewali. Nadmierne jego spożycie jest związane z występowaniem zarówno cukrzycy, jak i chorób układu krążenia. Problemem jest też ogólnoświatowa epidemia otyłości. W Polsce nadwagę ma aż 60% osób. Tymczasem aż 25% Polaków jada fast-foody kilka razy w miesiącu, a 33% pije słodzone napoje co najmniej kilka razy w tygodniu. Cukrzycę ma około 3 milionów dorosłych Polaków, a choroby układu krążenia są w Polsce główną przyczyną śmierci. Każdego roku umiera z ich powodu około 180 000 osób w naszym kraju, co stanowi ponad 40% wszystkich zgonów. « powrót do artykułu
  23. Stanowisko Navalmaillo Rock Shelter było obozem myśliwskim neandertalczyków, donosi Abel Moclan i jego koledzy z Centro Nacional de Investigación sobre la Evolución Humana (CENIEH – Narodowe Centrum Badań nad Ewolucją Człowieka). W artykule opublikowanym na łamach Quaternatry Science Reviews czytamy, że obóz ten był przed 76 000 lat wykorzystywany głównie do polowania na duże wołowate i jeleniowate. Stanowisko, położone w Pinilla del Valle około 50 kilometrów na północ od Madrytu, zajmuje około 300 m2 i prawdopodobnie jest największym neandertalskim obozowiskiem w okolicy. Już wcześniej było wiadomo, że neandertalczycy wytwarzali tutaj kamienne narzędzia i używali ognia. Jednak dopiero badania Moclana i jego zespołu przyniosły pełniejszy obraz i pokazały, jak ważne było to miejsce. Wykazaliśmy, że okoliczni neandertalczycy polowali głównie na duże wołowate i jeleniowate, przynosili zdobycz tutaj i ją przetwarzali. Spożywana była natomiast gdzie indziej. To bardzo interesujące miejsce, gdyż na całym Półwyspie Iberyjskim znaleźliśmy jedynie kilka stanowisk świadczących o takim zachowaniu. Odkrycia udało nam się dokonać za pomocą potężnych narzędzi statystycznych i sztucznej inteligencji, mówi uczony. Zebrane dowody wskazują, że miejsce to było używane okresowo, za każdym razem był to dość krótki czas. Zidentyfikowano ślady całościowej obróbki zabitych zwierząt, włącznie z wydobywaniem szpiku z kości. Naukowcy nie znaleźli też zbyt wielu dowodów na konkurencję pomiędzy ludźmi a mięsożernymi drapieżnikami. Mięsożercy albo polowali na małe zwierzęta, albo posilali się resztkami zostawionymi przez ludzi. Jedna nie był to proces zbyt intensywny, gdyż wyrzucone przez ludzi resztki były w niewielkim stopniu przemieszczone przez zwierzęta. « powrót do artykułu
  24. Jason Veatch to fizyk pracujący w CERN-ie przy eksperymencie ATLAS. Jest pasjonatem historii fizyki, a jego bohaterami zawsze byli wielcy fizycy. Nic więc dziwnego, że owocem tej fascynacji jest stworzona z żoną Yuko niezwykła talia kart poświęcona fizyce kwantowej. Jedną z królowych jest tutaj Maria Skłodowska-Curie, inne figury to światowej sławy fizycy i fizyczki, a w roli dżokera zobaczymy kota Schrödingera. Oczywiście żywego bądź martwego. Do QUANTUM, bo tak nazwali swoją talię, twórcy dodali dwie dodatkowe karty, które wyjaśniają doświadczenie Younga i instruują, w jaki sposób przeprowadzić je w domu. W zestawie znajdziemy też książeczkę z wprowadzeniem do fizyki kwantowej, krótkimi biogramami wszystkich 12 uczonych przedstawionych na kartach oraz listą sugerowanych lektur dla zainteresowanych dalszym zgłębianiem tematu. Poczet królów fizyki kwantowej tworzą Niels Bohr, Ernest Rutherford, Richard Feynman i Max Planck. Towarzyszą im Lise Meitner, Maria Göppert-Mayer, Maria Skłodowska-Curie i Irena Joliot-Curie. A Sayendra Nath Bose, Paul Dirac, Erwin Schrödinger i Werner Heisenberg są waletami. Fundusze na zrealizowanie projektu zebrano za pośrednictwem platformy Kickstarter. Obecnie wszystko już jest zaprojektowane, całość można obejrzeć online, a produkcją kart zajmuje się właśnie firma Cartamundi. Zestaw będzie gotowy jesienią. Jason i Yuko mówią, że bardzo ważny jest dla nich aspekt edukacyjny. Dlatego też szkołom i innym instytucjom zestaw będzie oferowany po niższej cenie, a nie wykluczone, że nawet za darmo. Małżonkowie właśnie poszukują źródeł finansowania takiej formy dystrybucji. Planują też przygotowanie bezpłatnych cyfrowych zasobów, takich jak np. edukacyjne kolorowanki dostępne na ich stronie. Na tym jednak plany państwa Veatchów się nie kończą. Już rozpoczęli projektowanie kolejnej serii kart z fizykami. W sumie planują 12 zestawów, a każdy z nich będzie związany z inną dziedziną fizyki. W każdej znajdziemy wizerunki innych uczonych i inne eksperymenty do wykonania w domu. « powrót do artykułu
  25. Od 27.08.2021 r. w rdzeniu reaktora MARIA pracuje z powodzeniem sonda pozwalająca na napromienianie próbek materiałowych w temperaturze 1000°C, czyli w warunkach jakie panują w reaktorach HTGR. Urządzenie powstało w NCBJ w ramach projektu GoHTR. Sonda ISTHAR (Irradiation System for High-Temperature Reactors) zbudowana i zaprojektowana  w Departamencie Eksploatacji Obiektów Jądrowych NCBJ, umożliwia napromienianie w reaktorze MARIA próbek materiałowych w warunkach panujących w gazowych  reaktorach wysokotemperaturowych, tj. temperaturze do 1000°C i w atmosferze helowej. Tak wysoka temperatura zapewniona jest we wnętrzu sondy dzięki jednoczesnemu grzaniu promieniowania gamma i grzaniu elektrycznemu oraz dzięki izolacji cieplnej z gazu osłonowego. Prowadzone badania próbek umieszczonych w sondzie mają określić wpływ pól promieniowania i wysokiej temperatury na wytrzymałość i strukturę materiałów przewidywanych do wykorzystania w konstrukcji nowych reaktorów, w szczególności przy konstrukcji elementów rdzenia i jego otoczenia.  „Uruchomienie sondy wysokotemperaturowej ISHTAR i osiągnięcie temperatury pracy równej 1000°C odbyło się po wejściu reaktora na moc docelową - nominalną dla danego cyklu pracy” - wyjaśnia mgr inż. Marek Migdal, jeden z konstruktorów urządzenia. „W tej chwili badamy próbki grafitu, z którego wykonanych będzie wiele elementów rdzenia reaktora. Sonda ma pracować w rdzeniu reaktora MARIA ok. jednego miesiąca. Strumień neutronów w naszym reaktorze badawczym jest o kilka rzędów wielkości większy niż w reaktorach energetycznych. Dzięki temu ewentualne zaobserwowane po miesiącu efekty zniszczeń i zmian struktury badanych próbek będą odpowiadały efektom, które w docelowych reaktorach powstałyby dopiero po kilku latach pracy.” Po cyklu naświetlania w reaktorze MARIA próbki zostaną przetransportowane do Laboratorium Badań Materiałowych NCBJ, gdzie zostaną przeprowadzone właściwe badania. Materiał poddany silnemu promieniowaniu będzie aktywny na skutek przemian jądrowych wywoływanych przez bombardujące go neutrony. Dlatego zarówno transport jak i późniejsze badania będą się odbywały w specjalnych warunkach. Sonda ISTHAR została zaprojektowana i wykonana w NCBJ w ramach projektu GoHTR - „Przygotowanie instrumentów prawnych, organizacyjnych i technicznych do wdrażania reaktorów HTR”. Projekt z udziałem Ministerstwa Klimatu i Środowiska, NCBJ oraz Instytutu Chemii i Techniki Jądrowej jest realizowany w ramach Strategicznego Programu Badań Naukowych i Prac Rozwojowych – GOSPOSTRATEG współfinansowanego przez Narodowe Centrum Badań i Rozwoju.  Reaktory HTGR (ang. High-Temperature Gas Reactors) uważane są na świecie za jedną z obiecujących opcji spośród różnych technologii reaktorów nowych generacji. Mogą one produkować ciepło o temperaturze wystarczającej do zastosowań w przemyśle chemicznym, np. do produkcji wodoru w procesie wysokotemperaturowego rozszczepienia wody. Badania nad tą technologią obecnie prowadzą m.in. Japonia i Chiny. Odpowiednie kompetencje budowane są także w NCBJ. « powrót do artykułu
×
×
  • Dodaj nową pozycję...