Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Jedna z największych na świecie organizacji charytatywnych finansujących badania naukowe – Howard Hughes Medical Institute (HHMI) – ogłosiła, że od początku 2022 roku wyniki wszystkich badań, w których sfinansowaniu odegra główną rolę, będą musiały zostać natychmiast udostępnione publicznie. Obecnie HHMI wymaga, by artykuły takie zostały upublicznione 12 miesięcy od publikacji. HHMI przyznaje, że gdy nowe zasady wejdą w życie, mogą odczuć je też naukowcy zatrudnieni przez tę instytucję, wśród których są najlepsi fachowcy z wielu dziedzin, publikujący z Nature, Cell czy Science. Instytut przeznacza olbrzymie kwoty na badania biomedyczne. W 2019 roku było to 763 miliony dolarów. Uważamy, że bardzo ważnym jest, by informacja szybko się rozprzestrzeniała, by można było weryfikować badania i budować nowe na ich podstawie, mówi prezydent Instytutu, biochemczka Erin O'Shea. Opóźnienia to poważny problem nauki. Nie ułatwiają one w przyspieszeniu odkryć, dodaje. Zasady ogłoszone przez HHMI są podobne do tych, jakie stosuje Coalition S, grupa, która w 2018 roku rozpoczęła kampanię na rzecz natychmiastowego otwartego dostępu do bazujących obecnie na subskrypcji pism naukowych. Członkami tej koalicji są głównie europejskie organizacje, w jej skład weszli też tacy giganci jak Wellcome Trust oraz Fundacja Billa i Melindy Gatesów. Teraz dołącza HHMI. O'Shea przyznaje, że decyzja HHMI to forma nacisku na najbardziej prestiżowe pisma naukowe. W 2019 roku autorzy z HHMI byli wymieniani w 13% publikacji w Cell, 5% w Nature i 7% w Science. Mimo tego wydawcy czołowych pism naukowych nie spieszą się ze zmianą polityki. Springer Nature zaprzeczył właśnie, jakoby miał całkowicie otworzyć dostęp do swoich publikacji od stycznia 2021 roku, kiedy to zasady opracowane przez Coaliton S wejdą w życie. Z kolei AAAS, wydawca Science, rozważa pewne zmiany. Obecnie AAAS pozwala autorom na publikowanie niemal ukończonych artykułów na swoich osobistych stronach lub na witrynach swoich instytucji naukowych. Jednak publikacja ostatecznej pełnej wersji ogólnodostępnego artykułu następuje w PubMed Central 6 miesięcy po jego opublikowaniu w Science. Członkowie Coalition S argumentują, że znalezienie artykułu naukowego na stronach autorów lub uniwersytetów może być trudne. Dlatego chcą, by artykuły takie były od razu udostępniane przez pisma naukowe. Mają też być objęte licencją CC-BY, która pozwala publikować je w innych miejscach, używać i przeszukiwać pod warunkiem umieszczenia informacji o autorach. W samym HHMI istnieje spory sprzeciw wobec planów wymuszenia pełnej otwartości na recenzowanych pismach naukowych. Pomimo tego, że od kilku lat trwają w nim dyskusje i opracowywany jest plan takich działań, to około 50% naukowców jest im przeciwnych. « powrót do artykułu
  2. W zeszklonym mózgu ofiary Wezuwiusza znaleziono doskonale zachowane neurony. Odkrycia dokonano badając ciało mężczyzny, które opisywaliśmy na początku bieżącego roku. Wówczas to informowaliśmy o pierwszym znanym przypadku zamiany mózgu w szkło, która zaszła w wyniku erupcji wulkanicznej. Teraz odkrywane są kolejne tajemnice niezwykłych ludzkich szczątków. Doktor Pier Paolo Petrone z Uniwersytetu Neapolitańskiego im. Fryderyka II poinformował właśnie na łamach PLOS One, że odkrył prawdopodobnie najlepiej zachowane pozostałości układu nerwowego w pochodzącym od człowieka materiale archeologicznym. Uczony wraz z zespołem badali zeszklony mózg z pomocą skanningowego mikroskopu elektronowego oraz innych narzędzi i zauważyli liczne wyjątkowo dobrze zachowane struktury, które wydają się neuronami i aksjonami z ludzkiego mózgu i rdzenia kręgowego. Dzięki precyzyjnym pomiarom tych struktur wiemy, że ich poszczególne wymiary odpowiadają aksonom, neuronom czy otoczce mielinowej. Dodatkowych dowodów na to, że mamy do czynienia z mózgiem i jego strukturami dostarczyło odkrycie protein, do ekspresji których dochodzi w wielu miejscach mózgu. Znaleziono tam m.in. proteiny KIF26B, WDR13, ATP6V1F, MED13L czy ATPazę. Już samo odkrycie zeszklonego mózgu było czymś niezwykłym. Ale znalezienie całego centralnego układu nerwowego złożonego z neuronów i aksjonów to coś niesamowitego, mówi Petrone. Naukowcom udało się zidentyfikować różne proteiny, dzięki czemu mogli określić, które części mózgu się zachowały. Analiza ciemnego szklistego materiału wykazała, że mamy tam do czynienia z proteinami obecnymi w korze mózgowej, jądrze podstawnym, śródmózgowiu, przysadce mózgowej, ciele migdałowatym, móżdżku, hipokampie, podwzgórzu i rdzeniu kręgowym, informują naukowcy. Do erupcji Wezuwiusza doszło w 79 roku naszej ery. Najprawdopodobniej, na co wskazują niedawne badania, miała ona miejsce 24 października. Erupcja zniszczyła miasta i osady w promieniu 20 kilometrów do wulkanu. Herculaneum, w której znaleziono ofiarę z zeszklonym mózgiem, zostało przykryte 20-metrową warstwą materiału naniesionego przez lawinę piroklastyczną. Temperatury znacznie przekraczały 500 stopni Celsjusza. Na pierwsze pozostałości Herculaneum natrafiono w 1710 roku. Pod koniec 1739 roku odkopano zwłoki pierwszej ofiary Wezuwiusza. W połowie lat 60. XX wieku zaczęto wykopaliska w Collegium Augustalium, budynku dedykowanym kultowi cesarza Augusta. Znaleziono tam zwłoki ok. 20-letniego mężczyzny, który leżał na drewnianym łóżku w niewielkim pomieszczeniu. Najprawdopodobniej był on strażnikiem Collegium. W właśnie w jego czaszce odkryto niedawno zeszklony mózg, który stał się przedmiotem fascynujących badań. « powrót do artykułu
  3. Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem. Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu. Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii. Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych. Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla. W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań. Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center. Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach. Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym. Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych. Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego. « powrót do artykułu
  4. Prowadząc badania na wybrzeżu Morza Rossa, ornitolog Steven Emslie dokonał niespodziewanego odkrycia. Na Przylądku Irízara (znajduje się on na południe od Lodowca Drygalskiego na Wybrzeżu Scotta) znalazł zarówno stare, jak i, wydawałoby się, świeże szczątki pingwinów Adeli, głównie piskląt. Świeże szczątki były jednak zastanawiające, ponieważ od czasów wczesnych eksploratorów nie odnotowano tu aktywnych kolonii pingwinów. Mimo że Emslie znalazł liczne rozrzucone kości piskląt, a także ślady guana, co sugerowało niedawne wykorzystanie miejsca, taki scenariusz był niemożliwy. W niektórych przypadkach znaleziono kompletne zwłoki piskląt z piórami (obecnie w stanie rozkładu, jak we współczesnej kolonii), w innych nietknięte mumie. Zespół naukowców zebrał część "powierzchniowych" szczątków do analizy i datowania radiowęglowego. Zabiegi te miały pomóc w ustaleniu, co tu się właściwie stało. Uczeni znaleźli na przylądku stare kamienie, którymi niegdyś były otoczone gniazda. Gdy pingwiny Adeli opuszczają jakieś stanowisko, kamienie zostają rozwleczone, ale wyróżniają się w krajobrazie, bo wszystkie mają zbliżoną wielkość. Prowadziliśmy wykopaliska 3 takich stert. By wydobyć zachowane tkanki pingwinich kości i piór, a także skorupki jaj i twarde części ofiar [...] z guana, używaliśmy podobnych technik jak archeolodzy. Gleba była bardzo sucha i pylista, tak jak na bardzo starych miejscach, gdzie miałem okazję pracować w okolicach Morza Rossa [...]. Ogólnie rzecz biorąc, próbkując, uzyskaliśmy mieszaninę szczątków starych i wyglądających na świeże, co wskazywało na liczne epizody zajmowania i porzucania przylądka przez pingwiny na przestrzeni tysięcy lat. Przez te wszystkie lata pracy w Antarktyce nigdy czegoś takiego nie widziałem. Analizy, których wyniki ukazały się w piśmie Geology, wskazują na co najmniej 3 okresy wykorzystywania przylądka przez rozmnażające się pingwiny Adeli. Ostatni zakończył się ok. 900 lat temu. Gdy pingwiny zniknęły przez narastającą pokrywę śniegową albo inne czynniki (Emslie wymienia np. małą epokę lodową), "świeże" szczątki na powierzchni zostały przykryte śniegiem i lodem i zachowały się nietknięte aż do epizodu topnienia. « powrót do artykułu
  5. Patogeny występujące w tkankach otaczających zęby przyczyniają się do rozwoju raka kolczystokomórkowego jamy ustnej i przełyku (ang. oral and pharyngeal squamous cell cancer carcinoma, OSCC). Jak się jednak okazuje, procesy mediowane przez te bakterie można zahamować za pomocą bakteriocyny zwanej nizyną. Rak kolczystokomórkowy regionu głowy i szyi (ang. head and neck squamous cell carcinoma, HNSCC) rozwija się z nabłonka płaskiego, wyściełającego powierzchnię dróg oddechowych i pokarmowych. Cechuje go wysoka śmiertelność. Do grupy nowotworów regionu głowy i szyi zaliczany jest m.in. rak kolczystokomórkowy jamy ustnej i przełyku (OSCC). Odsetek 5-letnich przeżyć chorych na OSCC jest niski i nie zmieniło się to od dziesięcioleci. Takie czynniki ryzyka, jak palenie tytoniu, picie alkoholu i zakażenie wirusem brodawczaka ludzkiego, nie pozwalają w pełni wyjaśnić występowania i agresywnej natury OSCC. W rozwoju i rozroście zmian nowotworowych oraz przerzutowaniu ważną rolę mogą odgrywać inne czynniki, np. patogeny jamy ustnej, ale kwestie te nie zostały dotąd dobrze zbadane. Zespół Yvonne Kapila z Uniwersytetu Kalifornijskiego w San Francisco testował, czy patogeny związane z chorobami przyzębia sprzyjają rozwojowi OSCC i czy leczenie nizyną może modulować te reakcje. Okazało się, że u myszy 3 bakterie związane z periodontopatiami (Porphyromonas gingivalis, Treponema denticola i Fusobacterium nucleatum) nasilały migrację oraz inwazję komórek OSCC, a także rozwój nowotworu. Dla odmiany bakterie komensalne jamy ustnej nie oddziaływały na migrację komórek OSCC. Jak podkreślają akademicy, powiązana z patogenami migracja komórek OSCC była mediowana przez aktywację integryny alfa V i kinazy ogniskowo-adhezyjnej (ang. focal adhesion kinase, FAK), gdyż trwałe zablokowanie ekspresji alfa V i FAK znosiło opisane zjawiska. Ponadto T. denticola indukowały ekspresję receptorów Toll-podobnych typu 2. i 4. (TLR2 i TLR4) oraz białka MyD88. Badania pokazały, że trwała supresja MyD88 znacząco hamowała aktywację FAK indukowaną przez T. denticola i znosiła patogenopochodną migrację. Łącznie dane te pokazują, że patogeny przyzębne przyczyniają się do wysoce agresywnego fenotypu choroby na drodze sprzężenia szlaków sygnałowych TLR/MyD88 oraz integryny/FAK. Można to odwrócić za pomocą terapii nizyną - bakteriocyną wykorzystywaną jako konserwant. Autorzy artykułu z pisma PLoS Pathogens podkreślają, że to pierwszy bezpośredni dowód na to, że bakteriocyna ogranicza rozwój nowotworu mediowany przez patogeny przyzębne. Uzyskane wyniki sugerują, że nizyna może mieć szeroki potencjał terapeutyczny (naukowcy wspominają w tym miejscu zarówno o wpływie antydrobnoustrojowym, jak i przeciwnowotworowym). « powrót do artykułu
  6. Grafenowe bolometry mogą całkowicie zmienić zasady gry na polu komputerów kwantowych, stwierdzają na łamach Nature fińscy naukowcy z Uniwersytetu Aalto i VTT Technical Research Centre of Finland. Stworzyli oni nowy detektor mierzący energię z niedostępnymi wcześniej dokładnością i szybkością. To może pomóc w rozwoju komputerów kwantowych i upowszechnieniu się tych maszyn poza laboratoria. Bolometr to urządzenie, które określa ilość promieniowania mierząc, jak bardzo zostało przez to promieniowanie ogrzane. Głównym autorem nowego niezwykle precyzyjnego bolometru jest profesor Mikko Möttönen, który pracował nad nim przez ostatnią dekadę. Współczesne komputery kwantowe działają dzięki pomiarom energii kubitów. Większość z nich mierzy napięcie elektryczne indukowane przez kubit. Dokonywanie takich pomiarów jest jest związane z występowaniem trzech problemów. Po pierwsze pomiary takie wymagają rozbudowanych obwodów wzmacniających napięcie, co może ograniczać możliwości skalowania systemów kwantowych. Po drugie obwody takie zużywają sporo energii. W końcu po trzecie, pomiary napięcia wprowadzają szum kwantowy, który z kolei generuje błędy w odczytach kubitów. Specjaliści zajmujący się komputerami kwantowymi od dawna mają nadzieję, że wszystkie trzy problemy można będzie rozwiązać dzięki bolometrom. A profesor Möttönen stworzył właśnie bolometr, który jest wystarczająco czuły i szybki, by sprostać takim zadaniom. Bolometry wchodzą do technologii kwantowych i być może ich pierwszym zadaniem będzie odczyt informacji z kubitów. Czułość i dokładność bolometrów właśnie osiągnęła poziom wymagany w takich zadaniach, mówi Möttönen. Przed rokiem zespół profesora Möttönena stworzył ze stopu złota i palladu bolometr, którego pomiary charakteryzował niezwykle niski poziom szumu. Jednak urządzenie pracowało zbyt wolno jak na potrzeby komputerów kwantowych. Najnowszy bolometr, którego osiągi pozwalają na zastosowanie go w komputerach kwantowych, został zbudowany z grafenu. Grafen charakteryzuje się bardzo niską pojemnością cieplną, co oznacza, że pozwala on na szybkie wykrywanie niewielkich zmian w poziomie energii. Dzięki temu nadaje się do pomiarów w systemach kwantowych. Grafenowy bolometr dokonuje pomiaru w czasie znacznie krótszym niż mikrosekunda, a więc szybkością pracy dorównuje obecnie używanym systemom pomiarowym. Jest jednak pozbawiony ich wad. Zmiana stopu złota i palladu na grafen spowodowała 100-krotne przyspieszenie pracy detektora przy zachowaniu niskiego poziomu szumów. Uważamy, że możemy jeszcze bardziej udoskonalić nasze urządzenie, mówi profesor Pertti Hakonen z Aalto. To bardzo ważne, gdyż pokazuje, że skoro bolometry dorównują systemom opartym na pomiarach napięcia prądu, to w przyszłości będą od nich bardziej wydaje. Możliwości obecnej technologii są ograniczone przez zasadę nieoznaczoności Heisenberga. Wynika z niej, że – przynajmniej teoretycznie – możliwe jest stworzenie bolometru p pozbawionego szumu kwantowego. Teoria nie pozwala zaś na stworzenie systemu pomiaru napięcia bez szumu kwantowego. Zatem wyższa teoretyczna dokładność, niższe zapotrzebowanie na energię oraz znacznie mniejsze rozmiary czynią z grafenowych bolometrów niezwykle obiecującą technologię, która pozwoli na wprowadzenie komputerów kwantowych pod strzechy. Ze szczegółami badań Finów można zapoznać się na łamach Nature.   « powrót do artykułu
  7. Od ubytków jaskiniowców po hollywoodzkie uśmiechy warte miliony... - fascynująca historia stomatologii Czy wiesz, że: - najstarszy odnotowany uraz stomatologiczny odkryto na pochodzących z dewonu skamieniałych szczątkach rybopodobnego stworzenia, a próchnica zbierała swoje żniwo już sto milionów lat temu? - Pierre Fauchard, nazywany ojcem stomatologii, na ból zęba zalecał między innymi płukanie jamy ustnej moczem? - z zębów wyrwanych tysiącom poległych w bitwie pod Waterloo zrobiono protezy dentystyczne? James Wynbrandt w bezbolesny sposób opowiada o krwawej historii stomatologii. Płynnie przechodzi od czasów najciemniejszej niewiedzy, błędnych przekonań, przesądów i barbarzyńskich zabiegów, bardziej przypominających sceny z horroru niż jakąkolwiek opiekę medyczną, do świadomego leczenia, które – nawet jeśli wzbudza strach – raczej nie zakończy się powolną i wyjątkowo bolesną śmiercią. I choć wizyty w gabinecie stomatologicznym nawet teraz nie należą może do najprzyjemniejszych, a wielu ludzi na samą myśl o dentyście oblewa się zimnym potem, współcześni pacjenci mogą być naprawdę wdzięczni losowi. Gdyby przyszło im leczyć uzębienie choćby w pierwszej połowie XX wieku, mogliby zostać potraktowani dawką promieniowania lub stracić kilka zdrowych zębów w imię poprawy ogólnego stanu zdrowia. Jeszcze trochę wcześniej dla ukojenia bólu upuszczono by im krew, przypieczono, przyprawiając o uciążliwe bąble i oparzenia, albo podano by im śmiertelną dawkę arszeniku. Możliwe nawet, że trafiliby na scenę, gdzie wyrwiząb, artysta bólu i prekursor profesji, ku powszechnej radości zgromadzonego tłumu zająłby się problemem. Ta opowieść raczej nie wyleczy nikogo z dentofobii, z pewnością jednak pomoże docenić wykształcenie dzisiejszych stomatologów, sterylność ich gabinetów i dostępność szerokiej gamy skutecznych środków przeciwbólowych. James Wynbrandt – ma na swoim koncie książki na temat zaburzeń genetycznych, muzyki popularnej i humoru politycznego, a także liczne teksty z zakresu aeronautyki. Obecnie mieszka w Nowym Jorku.
  8. Dzięki sile odśrodkowej i wykorzystaniu cieczy o różnych gęstościach można opracować samoorganizujące się fabryki chemiczne. Zaproponowany przez Polaków pomysł na wirujące reaktory jest nie tylko sprytny, ale i piękny. Badania trafiły na okładkę prestiżowego Nature. Polsko-koreański zespół pokazał, jak przeprowadzać całe serie skomplikowanych reakcji chemicznych naraz - nie uciekając się do skomplikowanych systemów urządzeń, a korzystając z... siły odśrodkowej. Pierwszymi autorami publikacji są dr Olgierd Cybulski (Uniwersytet UNIST w Korei Płd.) i dr Mirosław Dygas (UNIST i Instytut Chemii Organicznej PAN). Pokazujemy, jak przygotować samoorganizujące się fabryki chemiczne - opisuje w rozmowie z PAP autor korespondencyjny publikacji prof. Bartosz Grzybowski (UNIST i IChO PAN). I dodaje, że ma już pomysł, jak wykorzystać taki wirujący reaktor chemiczny choćby do... odzyskiwania litu z cieczy w bateriach. To, że ciecze o różnych gęstościach mogą tworzyć niemieszające się warstwy, można zaobserwować nawet podczas obiadu - wpatrując się w oka na rosole. Tłuszcz z zupy unosi się na wierzchu, ma bowiem mniejszą gęstość niż wodnista część zupy. W warunkach domowych można zrobić i bardziej złożone doświadczenie: do jednego naczynia powoli wlewa się po kolei wiele cieczy o różnych gęstościach. Zacząć można od najgęstszego miodu, przez syrop klonowy, płyn do naczyń, wodę, olej roślinny aż po najrzadszą naftę. Jeśli zrobi się to odpowiednio powoli, w tej (niejadalnej) tzw. kolumnie gęstości można zobaczyć oddzielone od siebie, niewymieszane różnokolorowe warstwy. Gdyby jednak teraz taką kolumną gęstości zacząć bardzo, bardzo szybko wirować - obracając naczynie wokół pionowej osi (tak jak na kole garncarskim, tylko że znacznie szybciej - np. 2,6 tys. obrotów na minutę), okaże się, że kolejne warstwy ułożą się w koncentryczne pierścienie. Najlżejsze ciecze będą miały mniejszą średnicę i będą ułożone najbliżej centrum tej wirówki, a najgęstsze ułożą się w duże pierścienie bliżej jej obrzeży. Wirowanie jest tu o tyle ważnym czynnikiem, że siła odśrodkowa zaczyna dominować nad napięciem powierzchniowym cieczy. Można więc uzyskać bardzo cieniutkie warstewki cieczy - nawet rzędu 0,15 mm, a może i jeszcze cieńsze - bez ryzyka, że się ze sobą wymieszają. Jeśli odpowiednio dobierze się gęstość cieczy, można - co wykazali naukowcy - uzyskać w wirówce nawet 20 wirujących wokół wspólnej osi kolorowych pierścieni. Wirująca kolumna gęstości to niezwykle estetyczny eksperyment fizyczny. Dodatkowo prof. Bartosz Grzybowski z zespołem pokazał, jak bardzo skorzystać mogą z niego chemicy. Wirujące ciecze o różnych gęstościach można bowiem przygotować tak, aby w każdej z nich znajdował się inny odczynnik potrzebny do reakcji chemicznej. Załóżmy, że do samego centrum wirówki wlewamy jakiś związek chemiczny. On się rozchodzi po wirówce, zaczynając swoją dyfuzję od kontaktu z najrzadszą, najbardziej wewnętrzną warstwą. Tam jednak dochodzi do reakcji chemicznej i powstaje jakiś nowy związek chemiczny. On również zaczyna dyfuzję i dociera do kolejnej, gęstszej warstwy, gdzie dochodzi do kolejnej reakcji chemicznej. Powstaje kolejny produkt. I tak dalej, aż z produktu wyjściowego dojdziemy do produktu finalnego. Dzięki wirującej kolumnie gęstości wiele reakcji chemicznych zachodzi więc samorzutnie jedna po drugiej. Nie trzeba serii doświadczeń, wielu naczynek, mieszalników ani rurek. Ponieważ pierścienie są bardzo cienkie, a powierzchnia ich kontaktu jest spora, to dyfuzja związków między kolejnymi z nich zachodzi w stosunkowo krótkim czasie (o wiele krótszym, niż gdyby kolumna się nie poruszała). Prof. Grzybowski zaznacza, że takie samoorganizujące się fabryki chemiczne mogą znaleźć zastosowanie przemysłowe - choćby do oddzielania składników z mieszanin. W publikacji w Nature badacze pokazali, jak w takim wirującym doświadczeniu odzyskiwać aminokwasy (składniki białek) z brzeczki fermentacyjnej. Podobnie można byłoby to wykonać w przypadku odzyskiwania litu z mieszaniny po bateriach. To byłby biznes. A przecież na to na razie nie ma dobrych metod - uważa chemik. Prof. Grzybowski osiągnął w ostatnich kilku dniach to, o czym większość polskich naukowców może tylko pomarzyć. Jego artykuł o wirujących reaktorach trafił teraz na okładkę Nature. A tydzień temu artykuł jego zespołu na zupełnie inny temat - o chemicznym "drzewie początków życia" - ukazał się w innym najbardziej prestiżowym czasopiśmie naukowym świata - Science (tym samym badacz ma już na koncie 13 publikacji w tych prestiżowych czasopismach). Naukowiec jednak daje do zrozumienia, że ma jeszcze coś w zanadrzu. Zapowiada, że wkrótce w którymś z tych ważnych czasopism ma się ukazać kolejny jego artykuł, na zupełnie inny temat. I ten będzie najważniejszy w mojej dotychczasowej karierze - uśmiecha się profesor. Badania opublikowane w Nature wykonane były w dużej części w Korei i częściowo w IChO PAN. , a oprócz prof. Grzybowskiego i dr. Cybulskiego i dr. Dygasa byli w nie zaangażowani także inni polscy naukowcy (Barbara Mikulak-Klucznik, dr Marta Siek i dr Tomasz Klucznik). « powrót do artykułu
  9. Naukowcy z Gladstone Institutes we współpracy z badaczami z Uniwersytetu Kalifornijskiego w San Francisco (UCSF) i Uniwersytetu Technicznego w Monachium (TUM) stworzyli mapę genetyczną, dzięki której są w stanie odróżnić regulatorowe limfocyty T od pozostałych limfocytów T. Odkrycie to pozwoli na stworzenie terapii, które pozwolą na wzmacnianie lub osłabianie działania regulatorowych limfocytów T. Odkrycie sieci powiązań genetycznych, które kontrolują biologię regulatorowych limfocytów T to pierwszy krok w kierunku znalezienia leków zmieniających funkcję tych komórek, co pomoże w terapii nowotworów i chorób autoimmunologicznych, mówi doktor Alex Marson, dyrektor Gladstone-UCSF Institute of Genomic Immunology. Ludzkie regulatorowe limfocyty T (Treg) są niezbędnym składnikiem homeostazy immunologicznej. [...] zidentyfikkowaliśmy czynniki transkrypcyjne, które regulują krytyczne proteiny Treg zarówno w warunkach bazowych, jak i prozapalnych, stwierdzają naukowcy. Dotychczasowe badania na myszach wskazują, że zwiększenie liczby regulatorowych limfocytów, T, a tym samym wytłumienie układu odpornościowego, pomaga zwalczać objawy chorób autoimmunologicznych. Z drugiej zaś strony, zablokowanie Treg, a tym samym zwiększenie aktywności układu odpornościowego, może pomagać w skuteczniejszej walce z nowotworami. Obecnie testowane są na ludziach terapie polegające na zwiększeniu liczby Treg. Polegają one na pobieraniu od pacjentów tych komórek, namnażaniu ich i ponownych wstrzykiwaniu. Dotychczas jednak w takich terapiach nie zmienia się samego działania komórek. Większość naszej wiedzy o Treg pochodzi z modeli mysich. Chcieliśmy zidentyfikować geny związane z działaniem Treg, by lepiej zrozumieć, jak wszystko jest ze sobą połączone i móc manipulować działaniem tych komórek. Gdy już rozumiemy funkcje każdego z genów możemy precyzyjnie edytować komórki i zwalczać choroby, wyjaśnia profesor Kathrin Schumann z Monachium. Podczas swoich najnowszych badań naukowcy selektywnie usuwali jeden z 40 czynników transkrypcyjnych, by zmienić działanie Treg. Wybrali te właśnie czynniki, gdyż wcześniejsze badania wskazywały, że mogą one odgrywać specyficzne funkcje w działaniu Treg w odróżnieniu od innych limfocytów T. Następnie skupili się na 10 czynnikach, które wywierały największy wpływ na funkcjonowanie regulatorowych limfocytów T. Za każdym razem przyglądali się tysiącom genów, by sprawdzić, jak zmieniło się ich działanie w wyniku manipulacji czynnikiem transkrypcyjnym. W ten sposób przebadali aż 54 424 indywidualne komórki Treg. Dzięki tak szczegółowej analizie byli w stanie stworzyć rozległą mapę powiązań genetycznych i czynników transkrypcyjnych, które wpływały na pracę Treg. Jednym z najbardziej zaskakujących odkryć było spostrzeżenie, że słabo poznany czynnik HIVEP2 bardzo silnie oddziałuje na funkcjonowanie Treg. Po przeprowadzeniu badań na myszach naukowcy zauważyli, że usunięcie genu HIVEP2 obniżyło zdolność Treg do zwalczania stanu zapalnego. To ważne odkrycie. Wcześniej tak naprawdę nigdy nie rozważano roli HIVEP2 w biologii Treg, mówi Sid Raju z MIT i Harvarda. Naukowcy mówią, że ich badania pokazują też, jak potężnymi narzędziami badawczymi obecnie dysponujemy. Teoretycznie możemy wziąć dowolną komórkę ludzkie organizmu, wybiórczo usuwać z niej pojedyncze geny i badać wpływ takich działań na funkcjonowanie tej komórki. To naprawdę otwiera drogę do traktowania ludzkich komórek jako eksperymentalnego systemu. « powrót do artykułu
  10. W ogrodzie Kunsthaust Dahlem w Berlinie przypadkiem odkryto jedno z najbardziej znanych dzieł Arno Brekera, jednego z ulubionych artystów Adolfa Hitlera. Marmurowa rzeźba zatytułowana Romanichel została znaleziona w towarzystwie innego dzieła, również przedstawiającą głowę rozmiarów większych niż naturalne. To dzieło nie zostało jeszcze zidentyfikowane. Stylem przypomina jednak Romanichela, więc specjaliści przypuszczają, że również wyszło spod dłuta Brekera. Obie rzeźby są lekko uszkodzone. Prawdopodobnie do uszkodzeń doszło przed ich zakopaniem w ogrodzie. Zakopać zaś mogli je amerykańscy żołnierze w 1945 roku. Rzeźby znaleziono podczas prac budowlanych przy muzeum. To był zupełny przypadek. Budujemy nowe chodniki. Zwykle nie wymaga to kopania głębiej niż na 50 centymetrów. Jednak tym razem postanowiliśmy wymienić przy okazji kanalizację i wtedy za budynkiem odkryliśmy rzeźby, mówi Dorothea Schöne, dyrektor Kunsthaud Dahlem. Romanichel, uznawana za zaginioną od wojny, przedstawia Sinti lub Romę, którego Breker spotkał w latach 20. w Paryżu i niejednokrotnie portretował. Jego głowa natychmiast mnie zafascynowała, wspominał artysta. Nie wiadomo, dlaczego powrócił do tematu i w 1940 roku wykonał znaną rzeźbę. Muzeum Kunsthaus Dahlem powstało w 2015 roku w były studio artysty. Breker, mianowany w 1937 roku „oficjalnym rzeźbiarzem państwa” wykorzystywał w latach 1939–1942. Miał za zadanie pracować w nim nad artystyczną przebudową stolicy III Rzeszy. Ściśle współpracował z Albertem Speerem, głównym architektem Hitlera. Panowie mieli zmienić Berlin w Germanię, miasto o monumentalnej architekturze, dorównujące wspaniałością światowym stolicom przeszłości, takim jak Babilon czy Rzym. W 1943 roku w wyniku alianckich nalotów Breker opuścił swoje studio. Po wojnie budynek przez rok był wykorzystywany przez amerykańską administrację wojskową. Dzieła Brekera, które wciąż znajdowały się w studio, zostały przeniesione. Prawdopodobnie wówczas żołnierze zakopali obie rzeźby. Romanischer i znaleziona wraz z nim rzeźba zostały wystawione w Kunsthaus Dahlem. Można je tam oglądać do 15 stycznia przyszłego roku. Arno Breker był wybitnym, znanym rzeźbiarzem tworzącym w stylu neoklasycznym. Styl ten podobał się władzom III Rzeszy, które przeciwstawiały taki rodzaj sztuki „sztuce zdegenerowanej”. Artysta stworzył dziesiątki rzeźb, z których niemal wszystkie przetrwały wojnę, ale ponad 90% z nich zostało zniszczonych po wojnie. Gdy po wojnie otrzymał propozycję wyrzeźbienia portretu Stalina, odmówił stwierdzając, że wystarczy mu jedna dyktatura. Artysta po wojnie nadal pracował, otrzymując wiele zleceń od znanych osób i instytucji. Wykonał portrety Anwara Sadata, Salvadora Dali, Jeana Cocteau czy Konrada Adenauera, jego prace były wystawiane w paryskim Centrum Pompidou. Zmarł w 1991 roku. « powrót do artykułu
  11. Very Large Telescope zauważył sześć galaktyk zgromadzonych wokół supermasywnej czarnej dziury z czasów, gdy wszechświat liczył sobie mniej niż miliard lat. Po raz pierwszy zauważono takie zgrupowanie z czasów tak nieodległych od Wielkiego Wybuchu. Odkrycie pomaga lepiej zrozumieć, w jaki sposób supermasywne czarne dziury mogą powstawać i ewoluować tak szybko. Głównym celem naszych badań było lepsze zrozumienie jednych z najbardziej niezwykłych obiektów astronomicznych – supermasywnych czarnych dziur istniejących już we wczesnym wszechświecie. Dotychczas nikt nie potrafi dobrze wyjaśnić ich istnienia, mówi główny autor badań, Marco Mignoli z Narodowego Instytutu Astrofizyki w Bolonii. Nowe obserwacje ujawniły istnienie galaktyk znajdujących się w okolicach supermasywnej czarnej dziury, a całość otoczona jest „pajęczą siecią” gazu rozciągającego się na obszarze 300-krotnie większym niż obszar Drogi Mlecznej. Olbrzymia ilość gazu zasila zarówno galaktyki, jak i czarną dziurę. Naukowcy szacują, że czarna dziura ma masę miliarda mas Słońca, a otaczająca całość gazowa struktura powstała, gdy wszechświat liczył sobie zaledwie 900 milionów lat. Obecnie uważa się, że pierwsze czarne dziury powstały z pierwszych gwiazd, które się zapadły. Musiały one błyskawicznie ewoluować, skoro po 900 milionach lat istnienia wszechświata osiągały masę miliarda Słońc. Astronomowie mają jednak problemy z wyjaśnieniem tej ewolucji. Takie czarne dziury musiałyby bowiem bardzo szybko wchłaniać olbrzymie ilości materii. Odkrycie galaktyk otaczających czarną dziurę i spowijającej wszystko sieci gazu może wyjaśniać tę błyskawiczną ewolucję. Powstaje jednak pytanie, w jaki sposób dochodzi do tworzenia się „pajęczej sieci” gazu. Astronomowie sądzą, że bierze w tym udział ciemna materia. To ona przyciąga gaz, który tworzy olbrzymie struktury, wystarczające, by wyewoluowały z nich zarówno galaktyki, jak i czarne dziury. Nasze badania wspierają hipotezę mówiącą, że najbardziej odległe masywne czarne dziury tworzą się i rosną w masywnym halo ciemnej materii. Dotychczas takich struktur nie wykrywaliśmy, gdyż ograniczały nas nasze możliwości obserwacyjne, wyjaśnia współautor badań Colin Norman z Uniwersytetu Johnsa Hopkinsa. Zaobserwowane teraz galaktyki są jednymi z najsłabiej świecących, jakie udało się zarejestrować.  Aby je zauważyć, konieczne były wielogodzinne obserwacje za pomocą jednych z najpotężniejszych teleskopów optycznych. Dzięki temu uczeni dowiedli też, że istnieje związek pomiędzy czterema galaktykami, a czarną dziurą Sądzimy, że obserwujemy wierzchołek góry lodowej. Że te galaktyki, które widzimy, są najjaśniejszymi, jakie się tam znajdują, przyznaje Barbara Balmaverde z Narodowego Instytutu Astrofizyki w Turynie. Pozostaje tylko mieć nadzieję, że jeszcze większe teleskopy optyczne, jak budowany właśnie Extremely Large Telescope, pozwolą dostrzec więcej szczegółów. « powrót do artykułu
  12. Fińskie studio projektowe Berry Creative stworzyło znaczki pocztowe Climate Change Stamps. Zastosowano w nich tusz reagujący na ciepło, dzięki czemu wizerunki ptaków czy chmur śniegowych zmieniają się w szkielety i chmury burzowe. Serię zamówiła Poczta Fińska. Ma to być sposób na zakomunikowanie negatywnych skutków wzrostu temperatur w Finlandii. Ptaka, ograniczoną imigrację i chmurę śniegową w postaci czarnego zarysu nadrukowano na gradientowym tle. Ponieważ wykorzystano tusz wrażliwy na temperaturę, pod wpływem ciepła palca symbole z czarnych stają się przezroczyste. Dzięki temu pokazują się wzory ukryte pod spodem. Chmury śnieżne stają się chmurami burzowymi. W ten sposób projektanci wskazują, że wzrost temperatur prowadzi do zaniku zimowych opadów śniegu. Imigracja zmienia się w masowe migracje; migranci klimatyczni muszą opuścić swoje domy i szukać schronienia gdzie indziej. Ptak staje się szkieletem, co ma reprezentować wymieranie fińskich gatunków. Ukryte obrazy pokazują, co nas czeka, jeśli nie zadziałamy szybko, by zapobiec zmianie klimatu. Jak podkreślają Finowie, by uzymysłowić ludziom, że sytuacja wymaga pilnych działań, znaczki mają ząbkowane, poszarpane brzegi, a tło jest gradientowe. Zależało mi na wykorzystaniu alarmujących obrazów. Zazwyczaj lubię nie tyle wskazywać problem, co skupiać się na alternatywie, sposobie pójścia naprzód, ale tym razem nie było na to miejsca. Wybrałem [...] 3 skutki zmiany klimatu w Finlandii: śnieg zmieniający się w deszcz, kryzys związany z uchodźcami klimatycznymi i utratę gatunków endemicznych - wyjaśnia dyrektor kreatywny Berry Creative Timo Berry. Włosko-hiszpański projektant Pablo Dorigo Sempere także postanowił przekazać mieszkańcom Wenecji wiadomość nt. środowiska za pomocą znaczków. Jego znaczki From Venice with Algae wykonano z papieru z glonów (papier Shiro Alga Carta został po raz pierwszy wyprodukowany w 1992 r. przez wenecką papiernię Favini). W tym celu Dorigo Sempere wyekstrahował glony zanieczyszczające Lagunę Wenecką. « powrót do artykułu
  13. Od dawna słyszymy teorię, że w przeszłości Ziemia była sucha, a wodę przyniosły z czasem bombardujące ją komety i asteroidy. Tymczasem badania opublikowane właśnie na łamach Science sugerują, że woda mogła istnieć na naszej planecie od zarania jej dziejów. Naukowcy z Centre de Recherches Pétrographiques et Géochimiques we Francji odkryli, że grupa kamiennych meteorytów o nazwie chondryty enstatytowe, zawiera na tyle dużo wodoru, by dostarczyć na Ziemię co najmniej trzykrotnie więcej wody niż jej zawartość w ziemskich oceanach. Chondryty enstatytowe mają skład taki, jak obiekty z wewnętrznych części Układu Słonecznego, zatem taki, z jakiego powstała Ziemia. Nasze odkrycie pokazuje, że materiał, z jakiego powstała Ziemia mógł w znacznym stopniu dostarczyć jej wodę. Materiały zawierające wodór były obecne w wewnętrznych częściach Układu Słonecznego w czasie, gdy formowały się planety skaliste. Nawet jeśli temperatura była wówczas zbyt wysoka, by woda występowała w stanie ciekłym, mówi główny autor badań, Laurette Piani. Najnowsze odkrycie to spore zaskoczenie, gdyż zawsze sądzono, że materiał, z którego powstała Ziemia, był suchy. Pochodził bowiem z wewnętrznych obszarów formującego się Układu Słonecznego, gdzie temperatury nie pozwalały na kondensację wody. Chondryty enstatytowe pokazują, że woda nie musiała dotrzeć na naszą planetę z krańców Układu. Są rzadkie, stanowią jedynie 2% meteorytów znajdowanych na Ziemi. Jednak ich podobny do Ziemi skład izotopowy wskazuje, że jest z takiego właśnie materiału powstała planeta. Mają bowiem podobne izotopy tlenu, tytanu, wapnia, wodoru i azotu co Ziemia. Jeśli chondryty enstatynowe tworzyły Ziemię – z ich skład izotopowy na to wskazuje – to oznacza, że miały one w sobie tyle wody, by wyjaśnić jej pochodzenie na naszej planecie. To niesamowite, ekscytuje się współautor badań, Lionel Vacher. Badania wykazały też, że znaczna część azotu obecnego w ziemskiej atmosferze może pochodzi z chondrytów enstatynowych. Mamy do dyspozycji niewiele chondrytów estatynowych, które nie zostały zmienione przez asteroidę, której były częścią, ani przez Ziemię. Bardzo ostrożnie dobraliśmy chondryty do naszych badań i zastosowaliśmy specjalne techniki analityczne, by upewnić się, że to, co znajdziemy, nie pochodzi z Ziemi, mówi uczony. Badania wody w meteorytach zostały przeprowadzone za pomocą spektrometrii mas i spektrometrii mas jonów wtórnych. Założono, że chondryty enstatynowe uformowały się blisko Słońca. Były więc powszechnie uznawane za suche i prawdopodobnie z tego powodu nie przeprowadzono ich dokładnych badań pod kątem obecności wodoru, mówi Piani. « powrót do artykułu
  14. Niektórzy ludzie bardzo ciężko przechodzą zarażenie SARS-CoV-2 i wymagają hospitalizacji, podczas gdy inni wykazują jedynie łagodne objawy lub nie wykazują ich wcale. Na przebieg choroby wpływa wiele czynników, a wśród nich, jak się okazuje, są też czynniki genetyczne. A konkretnie geny, które odziedziczyliśmy po neandertalczykach. Jak dowiadujemy się z najnowszego numeru Nature, badania prowadzone na Okinawa Institute of Science and Technology Graduate University (OIST) wykazały, że osoby posiadające pewne warianty genetyczne w jednym z regionów na chromosomie 3, są narażone na większe ryzyko ciężkiego przebiegu COVID-19. Okazuje się, że u ludzi tych region ten jest niemal identyczny z odpowiadającym mu regionem DNA neandertalczyka, który przed 50 000 lat żył na południu Europy. Dalsze badania wykazały, że Homo sapiens, krzyżując się z neandertalczykiem, odziedziczył ten wariant przed około 60 000 lat. To niesamowite, że genetyczne dziedzictwo neandertalczyków może mieć tak tragiczne konsekwencje podczas obecnej pandemii, mówi profesor Svante Pääbo, który kieruje Human Evolutionary Genomics Unit w OIST. W ramach projektu COVID-19 Host Genetics Initiative naukowcy przyjrzeli się DNA ponad 3000 osób, w tym ludziom, którzy byli hospitalizowani z powodu COVID-19, jak i osobom, które zaraziły się, ale nie wymagały hospitalizacji. W chromosomie 3 zidentyfikowano region, którego budowa decydowała o tym, czy po zarażeniu SARS-CoV-2 osoba chora będzie wymagała hospitalizacji. Region ten jest bardzo długi, składa się z 49 400 par bazowych. Występujące w nim zmiany związane z większą podatnością na poważny przebieg choroby są ściśle ze sobą powiązane. Jeśli u kogoś występuje jeden wariant genu decydującego o większej podatności, to najprawdopodobniej będzie miał wszystkie 13. Jako że już wcześniej wiadomo było, że tego typu zmiany odziedziczyliśmy po neandertalczykach lub denisowianach, profesor Pääbo i współpracujący z nim profesor Hugo Zeberg z Instytutu Antropologii Ewolucyjnej im. Maxa Plancka, postanowili sprawdzić, czy tak jest i w tym przypadku. Okazało się, że neandertalczyk z południa Europy posiadał niemal identyczne zmiany w genomie, natomiast dwóch neandertalczyków z południa Syberii i denisowianin zmian takich nie mieli. Po tym odkryciu naukowcy postanowili jeszcze sprawdzić, skąd u H. sapiens takie warianty. Czy odziedziczyliśmy je po wspólnym przodku z neandertalczykiem, czy też trafiły one do naszego genomu w wyniku krzyżowania się z Homo neanderthalensis. W pierwszym przypadku wariant powinien być obecny w naszym genomie od około 550 000 lat, w drugim może nawet zaledwie od 50 000 lat. Po badaniach profesorowie Pääbo i Zeberg doszli do wniosku, że warianty takie trafiły do naszego genomu przed około 60 000 laty. Jak informuje profesor Zeberg, osoby ze zmianami genetycznymi odziedziczonymi po neandertalczykach są narażone na 3-krotnie większe ryzyko, że będą wymagały podłączenia do respiratora. Wspomniane warianty genetyczne są najbardziej rozpowszechnione w Azji Południowej. Praktycznie nie występują w Azji Wschodniej, ani w Afryce. « powrót do artykułu
  15. Archeolodzy prowadzący wykopaliska na terenie XIII/XIV-w. gospodarstwa cystersów w Beamore (Drogheda) w Irlandii odkryli m.in. średniowieczny odświeżacz powietrza. Najmniejsza społeczność cysterska to 12 mnichów, lecz patrząc na skalę tutejszych budynków, [wnioskujemy, że] Beaubec było pokaźniejsze. Mieszkało tu 30-50 mnichów. [Skądinąd] wiemy, że każdy mnich dostawał za dzień swojej pracy jeden bochenek chleba. Jeśli więc weźmiemy pod uwagę wielkość pieca i to, ile bochenków się w nim zmieści, na tej podstawie [również] można szacować, ilu mnichów tu mieszkało - wyjaśnia Geraldine Stout. Wykopaliska zakończyły się na początku sierpnia. Geraldine Stout, która interesuje się cystersami, pracowała już na podobnym stanowisku w Bective w Meath. Jak podkreśla, cystersi byli wielkimi wynalazcami i rolnikami. W drugiej turze wykopalisk w Beamore znaleziono m.in. średniowieczny klucz, kości krów, owiec, kotów i psów, a także pozostałości różnych płodów rolnych (fasoli, owsa czy pszenicy). Beaubec było gospodarstwem klasztornym prowadzonym przez cystersów, którzy przybyli z macierzystego klasztoru De Bello Becco w Normandii. Mnisi uprawiali tu ziemię, a plony eksportowali do Normandii. Choć wykopaliska koncentrowały się na irlandzkim stanowisku, Matthew i Geraldine Stoutowie odwiedzili także stanowisko w Normandii. Przeprowadzili intensywne badania dot. zależności między nimi. Z zeszłego roku wiemy, że w 1201 r. społeczność mnichów przybyła z Normandii, by założyć farmę. Ponieważ cystersi wypracowali wzorzec farmy, bez względu na to, gdzie się w Europie pojawiali, wszystkie farmy były takie same. Wiemy, że pierwszą rzeczą, jaką zrobili po przybyciu na miejsce w XIII w., było podłączenie do najbliższej rzeki i utworzenie fosy. Robiono to z myślą o całej społeczności; chodziło o mielenie ziarna itp., ale także o podłączenie latryn. Tegoroczne wykopaliska dostarczyły kolejnych dowodów na uprawę mieszaną, praktykowaną przez francuskich cystersów w XIII-XIV w. Ich żywy inwentarz stanowiły owce, kozy, bydło, świnie i drób. Uprawiano groch, fasolę, owies, pszenicę i żyto. Cystersi mieli również sady i hodowali [...] śliwki, tarninę i czarny bez. Importowali m.in. figi. [...]. Archeolodzy dodają, że pozostałości średniowiecznej maselnicy to doskonały dowód na samowystarczalność mnichów. Prowadząc wykopaliska w zeszłym roku, odkryliśmy budynek mieszkalny, gdzie żyła społeczność ok. 50 mnichów [...]. Teraz znaleźliśmy obszar, gdzie mogły się odbywać różne niebezpieczne czynności, takie jak pieczenie, suszenie kukurydzy i prace związane z obróbką metalu. Archeolodzy natrafili na piwnicę, która była zapewne wykorzystywana jako latryna, a w niej odkryli naczynie, które pełniło funkcję średniowiecznego odświeżacza powietrza. W głównym budynku mieszkalnym znajdowała się imponująca centralna latryna [...]. Na zewnątrz [...] znaleźliśmy dowody na istnienie systemu wodnego. Zaspokajał on potrzeby mieszkańców związane z toaletami, myciem i przygotowywaniem jedzenia. « powrót do artykułu
  16. Poczta elektroniczna nie jest już tylko sposobem na komunikację pomiędzy osobami, które znajdują się daleko od siebie. Używa się jej również do łatwego przekazywania informacji i plików pomiędzy pracownikami wykonującymi swoje obowiązki w tym samym biurze. Odbieramy i wysyłamy coraz więcej wiadomości, dlatego tak ważne jest, żebyśmy posiadali odpowiednią aplikację do ich obsługi. Jaką wybrać? Poczta e-mail kluczowym narzędziem Badania wykazują, że poczta elektroniczna jest obecnie najpopularniejszą usługą stosowaną w firmach do komunikacji, a w kolejnych latach ma dalej zyskiwać na znaczeniu. Okazuje się, że pracownicy, którzy obsługują firmową pocztę e-mail, poświęcają na to zadanie średnio ponad 3 godziny dziennie. Natomiast analiza przeprowadzona przez firmę The Radicati Group wykazała, że każdy użytkownik sieci w 2018 roku odbierał i wysyłał dziennie średnio 122 wiadomości. Biorąc pod uwagę ilość SPAM-u, jaką dostajemy na swoje skrzynki e-mail, można stwierdzić, że liczba ta wcale nie jest duża. Poczta firmowa korzysta jednak najczęściej z zaawansowanych filtrów antyspamowych, które ograniczają ilość niechcianych wiadomości do minimum. Poza tym, przedsiębiorstwa nie używają darmowych adresów e-mail, na które otrzymuje się dziesiątki wiadomości reklamowych dziennie. Firmy mają własne domeny, korzystają z usług hostingowych i z reguły posiadają zaawansowane rozwiązania do obsługi poczty. Jest to niezbędne m.in. ze względu na kwestie związane z ochroną. W badaniu przeprowadzonym przez przedsiębiorstwo Barracuda 94 proc. respondentów przyznało, iż uznaje pocztę e-mail za jeden z najwrażliwszych punktów w zabezpieczeniach ich organizacji. Groźne są m.in. ataki phishingowe. To, czy firmowa poczta nie będzie zagrożona, zależy m.in. od tego, na jakie narzędzia postawi firma w zakresie obsługi wiadomości. Warto brać pod uwagę następujące rozwiązania: •   Microsoft Exchange Online – niemal każdy użytkownik poczty e-mail miał kiedyś do czynienia z produktami marki Microsoft, a wymieniona usługa została stworzona specjalnie z myślą o firmach. Jej atutem są m.in. filtry antyspamowe, do 100 GB powierzchni na wiadomości, ochrona przed złośliwym oprogramowaniem i dostęp na urządzeniach mobilnych. Do tego dochodzi możliwość wspólnej pracy, tj. korzystania z jednej skrzynki przez wielu użytkowników, współdzielonego kalendarza czy grupowych konwersacji. Decydując się na tę skrzynkę, możesz używać adresów we własnej domenie, a na pocztę logować się za pomocą przeglądarki. •   Gmail – kolejne bardzo popularne rozwiązanie, które ma na świecie ponad 1 mld użytkowników, a przynajmniej tak twierdzi Google. Usługa ta jest również dostępna w wersji dla firm. Według jej właścicieli blokuje ona aż 99,9 proc. phishingu i złośliwego oprogramowania. Aplikacja Gmail automatycznie tworzy kopie zapasowe twoich danych. Narzędzie możesz powiązać z adresem e‑mail we własnej domenie. Pocztę dla firm od Google masz prawo testować przez 14 dni za darmo. •   Tutanota – to zdecydowanie mniej znana, ale również godna uwagi usługa. Poczta jest bezpieczna, a to m.in. dzięki szyfrowaniu end-to-end i 2FA. Twoje wiadomości nie mogą być przez nikogo odczytane. Z serwisu możesz korzystać zarówno na urządzeniach mobilnych, jak i na komputerze. Firma stale pracuje nad zabezpieczeniami, żeby ograniczyć do minimum ilość SPAM-u otrzymywanego przez użytkowników. To ciekawa oferta, którą warto rozważyć. •   Zoho – alternatywą dla powyższych rozwiązań jest Zoho, które jednak cieszy się zdecydowanie mniejszą popularnością niż wymienione powyżej usługi. W sieci można znaleźć informacje, że liczba użytkowników tego rozwiązania przekracza 1 mln. Zapewnia ono szyfrowanie wiadomości, a jego skuteczność w zatrzymywaniu SPAM-u, według twórców, przekracza 99,9 proc. Wybierając tę usługę, możesz korzystać z adresów we własnej domenie i korzystać z poczty przez przeglądarkę. Panel administracyjny tego narzędzia wygląda podobnie jak w innych rozwiązaniach o tym samym zastosowaniu. Wszystkie wymienione webowe programy pocztowe mają swoje plusy i minusy. Warto przetestować przynajmniej dwa z nich, zanim zdecydujesz się na dane rozwiązanie. « powrót do artykułu
  17. W Holandii można się włączyć w cykl natury, decydując się na pochówek w żywej trumnie z grzybni, która przyspiesza rozkład ciała. Na pomysł Living Cocoon wpadł Bob Hendrikx z Technische Universiteit Delft. Jak można przeczytać w relacji prasowej z witryny naukowca, Living Cocoon pomaga w wydajniejszym kompostowaniu ciała i usuwa toksyczne substancje, tworząc lepsze warunki do wzrostu nowych drzew i innych roślin. Po intensywnych testach, prowadzonych we współpracy z firmami pogrzebowymi CUVO (Haga) i De Laatste Eer (Delft), nowa forma pochówku jest już gotowa do wdrożenia. Pierwszą pochowaną w ten sposób osobą była 82-letnia kobieta. Prędkość, z jaką rozkłada się ciało, zależy od wielu czynników, ale praktyka pokazuje, że proces ten może potrwać ponad 10 lat. Lakierowane i metalowe elementy trumny, a także ubiór z syntetycznych tkanin zachowują się dłużej. Przedstawiciele firmy Loop mają nadzieję, że ich trumna sprawi, że cały proces zakończy się w ciągu 2-3 lat (aktywnie przyczynia się ona bowiem do kompostowania). Jak podkreśla Holender, sama Living Cocoon zniknie w ciągu 30-45 dni. "To tak naprawdę żywy organizm; jest wykonana z grzybni", czyli plechy stanowiącej ciało grzybów. Ponieważ grzyby są mistrzami recyklingu, to najbardziej naturalny sposób [pochówku], jaki można sobie wyobrazić. Nie zanieczyszczamy środowiska toksynami ze swojego ciała i trumien, ale wzbogacamy je i stajemy się kompostem [...] - dodaje Hendrikx. Testy przeprowadzone przez Ecovative w Ameryce pokazały, że w normalnych holenderskich warunkach żywa trumna jest absorbowana w ciągu 30-45 dni. By określić korzystny wpływ na  jakość gleby, Loop nawiązało współpracę ze specjalistami z Naturalis. Celem mają być badania nad wzrostem bioróżnorodności związanym z tą formą pochówku. Chcemy dokładnie znać wkład Living Cocoon w skład gleby, ponieważ to pomoże nam przekonać lokalne władze, by wykorzystując nasze ciała jako źródło składników odżywczych, przekształcać zanieczyszczone obszary w zdrowy las. Hendrikx chciałby, aby żywa trumna pomogła stworzyć system o obiegu zamkniętym; chowając ciało w Living Cocoon, można by naprawić szkody wyrządzone naturze. Obecnie żyjemy na cmentarzysku natury. Nasze zachowanie jest nie tylko pasożytnicze, ale i krótkowzroczne. [...] Living Cocoon pozwala zjednoczyć się z przyrodą. W dodatku zamiast zanieczyszczać glebę, można ją użyźnić. Trumna z grzybni ma tę samą wielkość i formę, co klasyczna trumna. Różni się tylko kolorem, który pochodzi od barwy grzybni. Wnętrze wyścielone jest mchem. Living Cocoon jest lżejsza od drewnianego odpowiednika. Obecnie kosztuje ok. 1500 euro. Living Cocoon rośnie i jest kształtowana w ciągu 7 dni. By ją uzyskać, grzybnię miesza się w formie z organicznym substratem. W ciągu 7 dni, a więc całkiem szybko, grzybnia urośnie i stanie się ciałem stałym, które jest de facto żywym organizmem. Później całość jest naturalnie "suszona" przez usunięcie formy [...]. Wtedy grzybnia staje się nieaktywna. Po umieszczeniu w ziemi następuje ponowna aktywacja. Od 21 września Living Cocoon można oglądać na wystawie (Re)Design Death. Cube Design Museum w Kerkrade zachęca zwiedzających do "karmienia" trumny; ma się to przyczynić do wzrostu pobliskiego lasu. Obecnie Hendrikx i jego zespół eksperymentują ze świecącymi grzybami, tak by za ich pomocą móc oznaczać miejsca, gdzie zostali pochowani ludzie. Takie grzyby wykorzystywano by w zastępstwie nagrobnych zniczy i kwiatów. Living Cocoon nie jest pierwszym rozwiązaniem funeralnym uwzględniającym grzyby. W zeszłym roku nowojorska projektantka Shaina Garfield stworzyła ekologiczną "trumnę" Leaves. W tym przypadku owinięte w bawełnianą tkaninę ciało kładzie się na sosnowym drewnie. Całość zabezpiecza się siatką ze sznurka z zarodnikami grzybów. « powrót do artykułu
  18. Instalacje fotowoltaiczne cieszą się w dzisiejszych czasach coraz większym zainteresowaniem. To odnawialne źródło energii oznacza, iż domownicy oszczędzają spore pieniądze i bazują na ekologicznych oraz ekonomicznych rozwiązaniach. Panele fotowoltaiczne są bardzo łatwe w montażu, a założeniem całej instalacji zajmują się doświadczeni fachowcy. To stabilna inwestycja, która z biegiem lat zacznie się zwracać, więc nic dziwnego, że warto wziąć ją pod uwagę, zwłaszcza wtedy, gdy zacznie się budować własny dom. Instalacje fotowoltaiczne – największe zalety oraz wady Jeśli weźmie się pod lupę instalację fotowoltaiczną, trzeba zwrócić uwagę na całkowite koszty fotowoltaiki, które na samym początku mogą być dość okazałe. Wszystko zależy od mocy wybranej instalacji, przykładowo instalacja o mocy 4 kW będzie kosztowała około 30 tysięcy złotych. Średnio wartości te wahają się w granicach 15-20 tysięcy złotych. W tym wszystkim warto jednak wyróżnić największe zalety fotowoltaiki, a tych jest mnóstwo: •    wytwarzanie darmowego prądu z promieni słonecznych, •    nadwyżki energii, które można uzyskać, są następnie sprzedawane, •    wartość nieruchomości zdecydowanie wzrośnie, •    instalacja może być odliczona od podatku, •    domownicy stają się niezależni od wzrostu cen za prąd. Jak widać zalet jest naprawdę bardzo dużo, więc nic dziwnego, że takie instalacje cieszą się sporym zainteresowaniem. Trzeba jednak wziąć pod uwagę również wady fotowoltaiki, a tych jest akurat mało. Chodzi tutaj o uzależnienie od promieni słonecznych, możliwość wytwarzania energii jedynie w ciągu dnia czy też spore koszty początkowe. Instalacje fotowoltaiczne - doskonała inwestycja pod kątem ekologicznym Osoby, które zechcą zainwestować w fotowoltaikę powinny mieć na uwadze to, iż jest to doskonała inwestycja pod kątem ekologicznym. Wystarczy wspomnieć o tym, że fotowoltaika zapewnia czystą energię, a do tego jest ona odnawialna i zrównoważona. Wszystkie osoby żyją w zgodzie z otaczającym ich środowiskiem. Ekologiczne zalety fotowoltaiki to także cicha praca oraz szeroka dostępność czystej energii. Dodatkowo cała instalacja prezentuje się nad wyraz schludnie i estetycznie, a z technologii można skorzystać nawet w bardzo trudnych warunkach. Istotną informacją jest również to, że zestawy fotowoltaiczne przez cały czas się rozwijają. Instalacje fotowoltaiczne - jak wyposażyć się w konkretne produkty? W sytuacji, gdy zainteresowani zapoznają się już z największymi zaletami wspomnianych instalacji oraz przeanalizują znane wady fotowoltaiki, podejmują decyzję o inwestowaniu we wszystkie niezbędne produkty. Jeśli decyzja jest pozytywna, zakupów można dokonać przez internet, z pomocą Ceneo.pl. W ten sposób można nabyć m.in. wysokiej klasy panele fotowoltaiczne, które znajdą potem zastosowanie w użytkowanej instalacji. Oczywiście ostateczne decyzje powinny być jak najbardziej przemyślane, ale na Ceneo.pl nie ma z tym najmniejszych problemów. To właśnie tam otrzymuje się dostęp do zaufanych opinii innych użytkowników, ale też do wielu ofert sklepowych, które mogą zostać między sobą porównane w jednym miejscu. Nie ma więc mowy o jakichkolwiek pomyłkach. Warto wziąć pod uwagę koszty fotowoltaiki, ale też korzyści płynące z tej inwestycji i zdecydować się na dokonanie zakupów. Wszystkie produkty, które będą potrzebne do wykonania instalacji fotowoltaicznej znajdzie się na Ceneo.pl, a dodatkowym atutem jest to, iż są one dostępne w bardzo korzystnych cenach. Wystarczy przeanalizowanie poszerzających się ofert sklepowych i wybranie tych produktów, które okażą się najwłaściwsze, bez wychodzenia z domu. « powrót do artykułu
  19. Chińskie sukcesy w walce z zanieczyszczeniem powietrza mogą mieć negatywny wpływ na ocieplenie się klimatu, zauważają autorzy najnowszych badań. Naukowcy z Carnegie Institution of Science i University of California Irvine oraz Chińskiej Akademii Planowania Środowiskowego i Uniwersytetu Tsinghua, wykorzystali modele komputerowe do zbadania wpływu redukcji zanieczyszczeń siarką, sadzą i węglem na zmiany klimatu. W ostatnich dekadach chiński wzrost gospodarczy i uprzemysłowienie były napędzane przez coraz większą konsumpcją węgla. Chiny stały się największym emitentem zanieczyszczeń, takich jak dwutlenek siarki i sadza. Zanieczyszczenia te miały olbrzymi wpływ na jakość powietrza i zdrowie ludzi, więc wprowadzono bardziej surowe normy, by sobie z tym poradzić. Działania te przyniosły spodziewany efekt i po roku 2013 zanieczyszczenie aerozolami w Chinach znacząco się zmniejszyło, co miało widoczny wpływ na zdrowie populacji, mówi główny autor badań, doktor Yixuan Zheng z Chińskiej Akademii Planowania Środowiskowego. Jednak zmniejszenie ilości zanieczyszczeń, takich jak dwutlenek siarki i sadza, ma też wpływ na wymuszenie radiacyjne, czyli zmianę bilansu promieniowania. A to z kolei jeden z głównych elementów zmian klimatycznych. Szacuje się, że emitowane przez ludzi tlenki siarki ochładzały w 2010 roku powierzchnię planety średnio o 0,5 stopnia Celsjusza. Odpowiadały one za 76% efektu chłodzącego wywoływanego aerozolami emitowanymi przez człowieka. Z drugiej strony sadza absorbuje energię cieplną i ogrzewa Ziemię. Zrozumienie całościowego efektu zmniejszenia emisji do atmosfery tych zanieczyszczeń jest niezwykle ważne dla prac nad strategią walki z globalnym ociepleniem, dodaje Zheng. Naukowcy przeprowadzili więc symulacje komputerowe, by zbadać, jak wpływ na globalne ocieplenie miało zredukowanie przez Chiny emisji zanieczyszczeń powietrza. Z obliczeń wynika, że chińska polityka poprawy jakości powietrza, wprowadzana w latach 2006–2017 spowodowała, że półkula północna ogrzeje się o dodatkowe 0,1 stopnia Celsjusza. Przed takim zresztą zjawiskiem amerykańscy naukowcy ostrzegali już przed ośmioma laty. Współautor badań, profesor Steven J. Davis z University of California, wyjaśnia: Pomiędzy rokiem 2006 a 2017 chińska emisja dwutlenku węgla zwiększyła się o około 54%. Jednocześnie emisja dwutlenku siarki spadła o około 70%, sadzy o około 30%, a organicznych związków węgla o 40%. Rozdzielenie się emisji dwutlenku węgla od emisji aerozoli to wynik zastosowania urządzeń do kontroli emisji, które redukują ilość emitowanych aerozoli, ale nie ilość dwutlenku węgla. Takie rozdzielnie spowodowało wzmocnienie efektu cieplarnianego spowodowanego emisją dwutlenku węgla. Naukowcy przypominają, że zmniejszenie emisji aerozoli do atmosfery ma olbrzymie znaczenie dla jej oczyszczenia i poprawy zdrowa ludzi, jednocześnie jednak obecność aerozoli częściowo maskuje globalne ocieplenie. O podobnym zjawisku informowaliśmy przed 8 laty. Wtedy to naukowcy z Uniwersytetu Harvarda dowiedli, że zanieczyszczenia emitowane przez przemysł częściowo chroniły wschodnią część USA przed ociepleniem. Gdy zaś zaczęto redukować zanieczyszczenia, ocieplenie przyspieszyło. « powrót do artykułu
  20. Doktor Marek Olszewski z Instytutu Archeologii Uniwersytetu Warszawskiego uważa, że odkryta na Cyprze mozaika z IV wieku jest krytyką chrześcijaństwa. Zdaniem uczonego, mozaika znajdująca się w domu w Pafos Nea postała z inspiracji neoplatończyków. Mozaika to antychrześcijańska polemika, która miała miejsce w czasie rosnącej dominacji chrześcijaństwa, mówi doktor Olszewski. Tocznie publicznych sporów religijnych i filozoficznych było w tamtym czasie bardzo popularne. Miasto Pafos Nea to jedno z najważniejszych stanowisk archeologicznych na Cyprze. Było w swoim czasie stolicą wyspy. Wykopaliska trwają tam od dziesięcioleci. W 1983 roku zespół profesora Wiktora Daszewskiego z Uniwersytetu Warszawskiego odkrył ruiny wspaniałej willi z IV wieku, nazwanej Domem Aiona. W dużym pomieszczeniu o powierzchni 68 metrów kwadratowych odsłonięto wspaniałą mozaikę. Architektura pomieszczenia wskazuje, że mogła to być jadalnia, gdzie spotykano się, by spożyć posiłek i prowadzić ożywione dyskusje. Sala była jednym z pomieszczeń niezależnych od reszty domu, z osobnym wejściem od strony ulicy. Prawdopodobnie była ona wynajmowana grupom osób, np. stowarzyszeniom, które się w niej spotykały. Mozaika o powierzchni 16 metrów składa się z 5 paneli, z których każdy zdobią pogańskie mity. Widzimy tam więc Ledę z Zeusem pod postacią łabędzie, Dionizosa-niemowlę siedzącego na kolanach Hermesa w momencie, gdy zostaje przekazany Nimfom (niańkom), Anatrofe (pierwszej opiekunce) i Trofeusowi (pierwszemu nauczycielowi) na górze Nysie. Na panelu centralnym widzimy królową Etiopii Kasjopeę, która staje przed boskim sądem, który ma wydać wyrok, kto jest piękniejszy, kobieta czy morskie boginie Nereidy. Dwa kolejne panele pokazują orszak dionizyjski, w tym boga w otoczeniu menad i satyrów oraz wyrok śmierci na Marsjaszu, wydany przez Apollina po tym, jak sylen przegrał z bogiem konkurs muzyczny. Dzięki monecie znalezionej w zaprawie murarskiej mozaikę datowano na okres po 318 roku, a więc na czasy, gdy władza i administracja rzymska odrzucały starą religię i przechodziły na chrześcijaństwo. To czas gorących sporów pomiędzy zwolennikami nowej i starej wiary. Dotychczas nikt nie potrafił jednoznacznie zinterpretować znaczenia całej mozaiki. Doktor Olszewski ustalił, że cała opowieść ma charakter narracji alegorycznej. Jego zdaniem historia opowiada dzieje człowieka religijnego, poganina, od poczęcia (Leda z Zeusem), który jest wychowywany w duchu wiary pogańskiej (Dionizos wśród wychowawców), żyjącego w pogańskiej wierze (orszak dionizyjski). Jeśli człowiek ten odstąpi od swojej wiary, nie szanuje bogów, czeka go kara (Apollo i Marsjasz), jeśli zaś pozostaje wiernym religii swoich przodków może oczekiwać nagrody (zwycięstwo Kasjopei nad Nereidami). Po umieszczeniu mozaiki w szerszym kontekście czasów, a których powstała, doktor Olszewski dokonał ostatecznej interpretacji. Zdaniem naukowca mozaika to ilustrowana polemika antychrześcijańska. Jak zauważył Olszewski, podlega ona kilku zasadom sztuki retorycznej starożytności. Mamy tutaj alegorię, analogię, personifikację i – co było najważniejszym odkryciem – antytezę. Mozaika to retoryczna antyteza zasad chrześcijaństwa, krytykująca Pasję Chrystusa. Interpretacja polskiego naukowca spotkała się z przychylnym przyjęciem specjalistów, a z jej szczegółami można zapoznać się w artykule pod tytułem Les figures de rhétorique et l’antithèse dans la narration allégorique de la mosaïque de la Maison d’Aiôn à Paphos. « powrót do artykułu
  21. Zwykle węże połykają swoje ofiary w całości. Wąż Oligodon fasciolatus wyewoluował jednak inną makabryczną strategię. Podczas badań w Tajlandii naukowcy udokumentowali 3 sytuacje, gdy O. fasciolatus rozpruwały żywcem ropuchy Duttaphrynus melanostictus i wyrywały im narządy wewnętrzne. Wyniki badań zespołu Henrika Bringsøe ukazały się w piśmie Herpetozoa. O. fasciolatus rozrywały brzuch ofiary zębami, a potem wkładały do środka całą głowę. Ropuchy usiłowały się wyrwać i uniknąć wypatroszenia, ale za każdym razem ich próby okazywały się daremne. Wg naukowców, strategia O. fasciolatus może być związana z tym, że ropuchy D. melanostictus uwalniają z gruczołów zausznych silną toksynę. Niewykluczone więc, że węże zaczęły stosować brutalną strategię żerowania, by uniknąć otrucia. Jeden z opisanych przypadków miał miejsce w 2016 r., reszta w br. W 2016 r. w momencie pojawienia się obserwatorów ropucha była już martwa, ale teren wokół pokrywała krew, co oznacza, że ropucha zginęła po walce. Wąż dostał się do środka przez ranę pod lewą przednią kończyną. Wsadził do środka głowę i systematycznie usuwał narządy wewnętrzne. Pocięte na mniejsze kawałki połykał. W kwietniu 2020 r. rozegrała się bitwa, która trwała niemal 3 godziny. Nim pojawili się naukowcy, O. fasciolatus zdążył już wsadzić głowę do wnętrza ropuchy. Mimo urazu D. melanostictus przesuwała się w kierunku bajorka. Zatrzymała się dopiero na brzegu. W pewnym momencie wąż wysunął łeb; prawdopodobnie chciał zaczerpnąć powietrza. Ropucha spryskała go toksyczną wydzieliną; jej część wylądowała na głowie drapieżnika. Poza tym pewna ilość cieczy spłynęła z ropuchy, skapując na głowę i do oczu węża. D. melanostictus zdołała wtedy odskoczyć. Wąż ocierał głowę o podłoże, m.in. o opadłe liście, próbując pozbyć się toksyny. Uciekł pod stertę drewna. Po 10 min wypełzł i ponownie udał się w pościg za ropuchą. Ropucha przemieściła się 2,5 m w kierunku bajorka, ale wąż chwycił ją za tylną kończynę. Gdy toksyczna wydzielina pojawiła się w okolicy grzbietowej ropuchy, jej część ponownie dostała się do oczu napastnika, który znów wycofał się i zaczął się czyścić. W tym czasie ropucha wskoczyła do wody. Wypłynęła na brzeg i przez pół godziny próbowała się chować pod kłodą. W tym czasie O. fasciolatus również przebywał pod pobliską kłodą, ciągle próbując się oczyścić. Później zaatakował ostatni raz. Przez utworzoną wcześniej ranę wyrwał zapadnięte płuco, tkankę mięśniową i prawdopodobnie tkankę tłuszczową D. melanostictus. Choć ofiara się nie ruszała, nadal oddychała. Metoda ekstrahowania i połykania narządów była taka sama, jak zaobserwowana w 2016 r. W czerwcu 2020 r. wąż obrał na cel środek brzucha. Myśliwy naciął skórę, by zyskać dostęp do organów wewnętrznych. Następnie porzucił zdobycz, aby pojawić się ponownie po ok. 5 godz. i zakończyć żerowanie na narządach martwej ropuchy. W czwartym opisanym przez zespół przypadku dorosły wąż zaatakował mniejszy okaz ropuchy. Tym razem D. melanostictus została jednak połknięta w całości. Dlaczego? Tego na razie nie wiadomo. Jedna z hipotez jest taka, że mniejsze ropuchy są mniej toksyczne od dorosłych egzemplarzy. Z drugiej strony badacze dopuszczają wyjaśnienie, że węże są oporne na toksynę ropuchy, a przyczyną zachowania zaobserwowanego w pozostałych 3 przypadkach są gabaryty dorosłych ropuch (nie da się ich połknąć w całości). Obecnie nie możemy odpowiedzieć na te pytania, ale kontynuujemy obserwacje i raportowanie na temat tych fascynujących węży. Mamy nadzieję, że odkryjemy kolejne interesujące aspekty ich biologii - podsumowuje Bringsøe. « powrót do artykułu
  22. Homo sapiens dotarł na zachodnie krańce Europy około 5000 lat wcześniej niż dotychczas sądzono. Profesor Jonathan Haws, dziekan Wydziału Antropologii University of Louisville, i prowadzony przez niego międzynarodowy zespół naukowy stwierdzili, że człowiek współczesny zasiedlił portugalskie wybrzeża Atlantyku 38–41 tysięcy lat temu. Z Proceedings of the National Academy of Sciences (PNAS) dowiadujemy się, że w jaskini Lapa do Picareiro, położonej w pobliżu wybrzeża Atlantyku w środkowej Portugalii, znaleziono kamienne narzędzia podobne do tych, jakie H. sapiens pozostawiał w innych jaskiniach Eurazji. Odkrycie to wspiera hipotezę mówiącą, że od czasu pojawienia się w południowo-wschodniej Europie H. sapiens potrzebował zaledwie kilku tysięcy lat, by dotrzeć do zachodnich krańców kontynentu. Dowodzi też, że neandertalczyk nie był jedynym gatunkiem człowieka, który zamieszkiwał te tereny w tamtym czasie. Jednym z nierozwiązanych zagadek paleoantropologii jest odpowiedź na pytanie, czy ostatni neandertalczycy Europy zostali zasymilowani czy zastąpieni przez Homo sapiens. Odkrycie wczesnych narzędzi kultury oryniackiej w Lapa do Picareiro pokazuje, że H. sapiens nie zasiedlał terenów, na których od dawna nie było już neandertalczyków. Już samo to jest ekscytujące, mówi współautor badań, antropolog Lukas Friedl z Uniwersytetu Zachodnioczeskiego w Pilźnie. Odkrycie narzędzi kultury oryniackiej, której nosicielem był H. sapiens, w niezaburzonych warstwach stratygraficznych jednoznacznie dowodzi, że człowiek współczesny wcześniej niż sądzono przybył na europejskie wybrzeże Atlantyku. Nie wiadomo, jaką drogą tam się dostał. Ludzie mogli migrować wzdłuż rzek, jednak nie można wykluczyć migracji wzdłuż wybrzeża. Wykopaliska w jaskini Picareiro trwają od 25 lat. Przyniosły one dowody, że ludzie zamieszkiwali tę jaskinię od przez ostatnich 50 000 lat. Celem najnowszych badań jest określenie, kiedy przybył tam H. sapiens i jak wyglądały interakcje naszego gatunku z Homo neanderthalensis. Datowanie znalezionych narzędzi zostało wykonane na podstawie znajdujących się w tej samej warstwie kości, na których widać ślady pozyskiwania szpiku. Z badań wynika, że H. sapiens wprowadził się do jaskini 41–38 tysięcy lat temu. Ostatnie ślady pobytu w niej neandertalczyka pochodzą sprzed 45–42 tysięcy lat. Co prawda wskazuje to, że H. sapiens przybył, gdy neandertalczyków już nie było, jednak w pobliskiej jaskini Oliveira znaleziono dowody, że neandertalczycy przebywali w niej jeszcze 37 000 lat temu. Zatem oba gatunki przez kilka tysięcy lat mogły mieszkać na tym samym terenie. Jeśli grupy te przez jakiś czas sąsiadowały ze sobą na atlantyckim wybrzeżu Portugalii, to mogły mieć ze sobą kontakt i wymieniać nie tylko technologie i narzędzia, ale również geny. To może wyjaśniać, dlaczego wielu Europejczyków ma neandertalskie geny, mówi Nunu Bicho z Uniwersytetu w Algarve. Dotychczas jednak nie znaleziono dowodów, by oba gatunki się ze sobą kontaktowały. Neandertalczycy ciągle używali tych samych narzędzi, co przed przybyciem Homo sapiens. Różnice w narzędziach używanych przez oba gatunki są widoczne zarówno przed jak i po 42 000 lat temu. To uderzający fakt w Picareiro. W starszych warstwach widzimy narzędzia zdominowane przez kwarc i typową dla neandertalczyków technikę lewaluaską. W warstwach z narzędziami oryniackimi widzimy dominację krzemienia i bardzo małe ostrza, używane prawdopodobnie jako groty strzał, stwierdza João Cascalheira z Uniwersytetu w Algarve. Jaskinia Picareiro to bardzo obiecujące stanowisko archeologiczne. Od 25 lat prowadzę wykopaliska w Picareiró i gdy zaczynam myśleć, że odkryliśmy już wszystkie tajemnice, pojawia się coś nowego. Co kilka lat znajdujemy coś nadzwyczajnego, więc kopiemy dalej, przyznaje profesor Haws. « powrót do artykułu
  23. Cztery średniowieczne bełty do kuszy wraz z fragmentami drewnianych promieni odkryli warszawscy archeolodzy w czasie badań jeziora Hammersø - największego naturalnego zbiornika na Bornholmie. W jego centralnej części spoczywała też zatopiona... wanna. Do znaleziska doszło we wrześniu w okolicy zamku Hammershus, który położony jest w północno-zachodniej części wyspy. Naukowcy liczyli, że odkryją na dnie fragmenty dawnej broni. Ludy mieszkające w Skandynawii 1500-2500 lat temu praktykowały rytualne niszczenie broni zdobytej na najeźdźcach. Uzbrojenie było następnie wrzucane w czasie ceremonii do jezior - opowiada PAP prof. Bartosz Kontny z Wydziału Archeologii UW, który kierował badaniami. Przeprowadzone we wrześniu tego roku kilkudniowe badania dna jeziora zaskoczyły jednak naukowców. Nie było tam bowiem rytualnie zniszczonej broni, a dość duża liczba śmieci; odkryto butelki, puszki, monety, kluczyk czy żelazne pręty - ekwipunek związany z eksploatacją skał nad jeziorem i w pobliskim kamieniołomie. A na środku jeziora spoczywała... współczesna wanna z tyczką w miejscu jej odpływu! Ciekawych z punktu widzenia archeologów przedmiotów było natomiast kilka i pochodziły ze znacznie późniejszego okresu, niż przewidywali naukowcy. Blisko linii brzegowej w północnej części zbiornika, na przestrzeni około 20 m, znaleźliśmy cztery średniowieczne bełty do kuszy z XIII lub XIV w. Ciekawostką jest fakt, że w każdym z nich zachowały się drewniane promienie w tulejkach. To prawdziwa rzadkość. Bełty wykonano w różnych typach - zarówno mocowane za pomocą tulejki, jak i trzpienia wbijanego w drewno - powiedział PAP prof. Bartosz Kontny. Teraz drewno będzie poddane szczegółowym analizom. Naukowcy szacują, że przebadali zaledwie kilka procent powierzchni dna jeziora. Zbiornik ma ok. 700 m długości i 160 m szerokości. Archeolodzy używali do swojej pracy detektorów metalu, przy czym przejrzystość wody jest bardzo dobra. Przed nurkowaniem wykonali pomiary całego dna za pomocą sonaru. Wówczas dostrzegli w centralnej części jeziora wannę. Początkowo sądziliśmy, że jest to dłubanka, czyli łódź zrobiona z jednego pnia. Liczyliśmy zatem na ciekawe znaleziska sprzed co najmniej kilkuset lat - wspomina archeolog. Naukowcom udało się namierzyć na dnie Hammersø też dwa nowożytne wraki. Przypuszczalnie są to XIX-wieczne żaglówki. To nie pierwsze badania podwodne polskich archeologów w jeziorze Hammersø. W ubiegłym roku natrafili na późnośredniowieczny, masywny grot broni drzewcowej (ma ok. 64 cm i waży ponad 1 kg), zaopatrzony w tzw. skrzydełka i wąsy. Naukowcy określają jego stan zachowania jako bardzo dobry. Dr hab. Kontny mówi, że jeziora na terenie Danii (do niej należy również Bornholm) są terra incognita dla archeologów. Prawie nikt w nich nie nurkuje, nie prowadzi się w nich również badań archeologicznych. W ostatnich latach zajęliśmy się tym zagadnieniem tylko my - dodaje. « powrót do artykułu
  24. Obecnie na świecie jeździ ponad 7 milionów samochodów elektrycznych. To olbrzymia zmiana w porównaniu z 20 tysiącami sprzed dekady, jednak zdaniem naukowców z Wydziału Inżynierii Uniwersytetu w Toronto samo przechodzenie na transport elektryczny nie wystarczy, by sektor transportowy przestał przyczyniać się do zmian klimatycznych. Wiele osób sądzi, że wystarczy masowo przesiąść się do samochodów elektrycznych, by rozwiązać problemy klimatyczne powodowane przez sektor transportowy. Jednak trzeba spojrzeć na to w inny sposób. Masowy transport elektryczny jest niezbędny, jednak sam w sobie niewystarczający, mówi Alexandre Milovanoff, główny autor artykułu opublikowanego na łamach Nature Climate Change. Naukowcy z Toronto postanowili przyjrzeć się wpływowi, jaki na emisję węgla będzie miało przechodzenie na transport elektryczny. Rządy wielu krajów intensywnie promują ten rodzaj transportu. Na przykład w Norwegii, gdzie już w tej chwili samochody elektryczne stanowią połowę wszystkich sprzedawanych pojazdów, rząd chce, by do roku 2025 zaprzestać sprzedaży samochodów z napędem spalinowym. Rząd Holandii chce taki zakaz wprowadzić w roku 2030, a rządy Francji i Kanady w roku 2040. Uczeni z University of Toronto przeprowadzili swoje analizy dla USA. Wybraliśmy ten rynek, gdyż Amerykanie używają dużych, ciężkich pojazdów, liczba samochodów w przeliczeniu na mieszkańca jest tam wysoka, a właściciele pojazdów dużo nimi podróżują. Ponadto w USA zbieranych jest dużo danych wysokiej jakości na temat całego sektora transportowego, więc stwierdziliśmy, że analizy dla tego rynku dadzą nam najlepsze odpowiedzi, mówi Milovanoff. Stworzono więc model komputerowy, by zbadać, ile samochodów elektrycznych musi być wykorzystywanych w USA by globalne ocieplenie pozostało do roku 2100 na poziomie nie wyższym niż 2 stopnie Celsjusza powyżej epoki preindustrialnej. Z wyliczeń wynika, że do roku 2050 po amerykańskich drogach powinno poruszać się około 350 milionów samochodów elektrycznych. Innymi słowy, aż 90% amerykańskiej floty pojazdów powinno wykorzystywać silniki elektryczne. Żeby uświadomić sobie skalę problemu trzeba wiedzieć, że obecnie samochody elektryczne stanowią w USA 0,3% całej floty, mówi Milovanoff. To prawda, że sprzedaż rośnie szybko. Ale nawet najbardziej optymistyczne scenariusze zakładają, że w roku 2050 samochody elektryczne będą stanowiły 50% całego amerykańskiego parku samochodowego, dodaje uczony. Rozwojowi motoryzacji opartej na silnikach elektrycznych towarzyszą nie tylko bariery w postaci preferencji użytkowników. Flota 350 milionów samochodów elektrycznych wymagałaby 1730 TWh rocznie więcej niż obecnie. To oznacza wzrost zapotrzebowania na energię o 41% ponad obecny poziom. Tę dodatkową energię trzeba będzie wyprodukować i dostarczyć. To zaś wymaga olbrzymich inwestycji zarówno w zakłady produkujące energię, jak i w sieci przesyłowe. Olbrzymia flota samochodów elektrycznych zmieni też krzywą zapotrzebowania na energię. Szczyty zapotrzebowania na nią będą wyglądały inaczej niż obecnie. To zaś oznacza, że zarządzanie przesyłem stanie się jeszcze bardziej skomplikowane niż obecnie. Jakby jeszcze tego było mało, pozostaje wyzwanie w postaci zapewnienia odpowiedniej ilości surowców do produkcji samochodów elektrycznych, takich jak kobalt, lit czy mangan. Kanadyjscy naukowcy stwierdzają, że osiągnięcie do roku 2050 poziomu 90% nasycenia rynku USA samochodami elektrycznymi jest nierealne. Ich zdaniem nie wystarczy propagować samochodów elektrycznych. Należy jak najwięcej osób zachęcać do rezygnacji z indywidualnych środków transportu na rzecz transportu zbiorowego. To zresztą też będzie wymagało wielu zmian. Do większej liczby pasażerów trzeba będzie dostosować linie autobusowe, pociągowe, metro. Konieczne będzie też przemyślenie architektury miast tak, by łatwiej było po nich przemieszczać się pieszo czy na rowerze. Musimy przemyśleć nasze zachowania, przeprojektować nasze miasta, a nawet pewne aspekty naszej kultury. Każdy musi wziąć za to odpowiedzialność, mówi współautorka badań, Heather MacLean. « powrót do artykułu
  25. Na początku września informowaliśmy, że orka Tahlequah (J35), która w 2018 r. przepychała głową nieżywe młode przez co najmniej 17 dni, urodziła parę dni wcześniej żywe cielę (J57). Teraz wiadomo już, że jest to samiec. Na tym jednak nie koniec dobrych wiadomości. Stado J powiększyło się bowiem o kolejnego członka. Tym razem matką została J41. J41 (Eclipse) urodziła w czwartek - 24 września - po południu, na południowy zachód od Race Rocks Ecological Reserve. Świadkami narodzin stali się ludzie zgromadzeni na pokładzie Pacific Explorera (statek ten należy do Orca Spirit Adventures). Byli w drodze do Race Rocks, gdy nagle zobaczyli samotną orkę. Jak wspomina biolog Talia Goodyear, przez kilka minut trzymała się ona bardzo blisko powierzchni wody. Po zanurzeniu na jakiś czas pojawiła się ponownie. Tym razem popychała coś pyskiem. Wynurzała się w ten sposób 3- czy 4-krotnie. Wreszcie obserwatorzy zdali sobie sprawę, że oglądają narodziny i pierwsze oddechy drugiego cielęcia J41 (matka pomagała cielęciu w wynurzeniach). Chwilę trwało, nim zdałam sobie sprawę, co się właściwie dzieje. Potem, widząc, że młode jest żywe i ruchliwe, byłam już tylko podekscytowana - wspomina Leah Vanderwiel. To drugie młode J41. Pierwsze cielę (samca J51) Elicpse urodziła w 2015 r. w wieku 10 lat. Drugi poród w stadzie J w ciągu miesiąca jest oczywiście powodem do świętowania [składająca się ze stad J, K i L populacja SRKW - od ang. southern resident killer whales - jest uznawana przez Służbę Połowu i Dzikiej Przyrody Stanów Zjednoczonych za zagrożoną] - podkreśla prof. Deborah Giles z Uniwersytetu Waszyngtońskiego. « powrót do artykułu
×
×
  • Dodaj nową pozycję...