Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Teren obecnej Polski nie opustoszał pod koniec ostatniej epoki lodowcowej ok. 9500 lat p.n.e. Był dalej zamieszkiwany przez łowców reniferów, którzy stopniowo przystosowali się do życia w coraz cieplejszym klimacie – wynika z analiz polskich naukowców opublikowanych w Journal of World Prehistory. W ciągu ostatniego miliona lat lodowiec kilkukrotnie zajmował dużą część obszaru Polski. Ostatni zniknął zupełnie z naszych obszarów ok. 13 tys. lat p.n.e. Z reguły swoim zasięgiem obejmował północną część kraju. Jego bliskość powodowała, że ludzie mogli przez większość pradziejów zamieszkiwać głównie południową część dzisiejszej Polski. Wraz z cofnięciem się lodowca na północ, na teren Skandynawii, obszary obecnej Polski stały się możliwe do zamieszkania dla większej liczby ludzi. Wcześniej zapuszczali się tam jedynie sezonowo łowcy reniferów – wędrowali za zwierzętami, które stanowiły podstawę ich egzystencji. Jednak wraz z wytopieniem się lodowca klimat zmienił się – temperatura znacznie wzrosła, a po kilku tysiącach lat od jego zniknięcia teren obecnej Polski porósł gęstymi lasami. Pojawiły się też liczne polodowcowe jeziora. Do tej pory naukowcy uważali, że zmiana ta spowodowała emigrację paleolitycznych łowców na północny–wschód – poza obszary Polski. Przez 150–300 lat od ok. 9500 lat p.n.e. nasze tereny miały być opuszczone przez ludzi. Dopiero potem na te obszary miała nadejść ludność z południa lub południowego zachodu Europy – opowiada PAP dr hab. Tomasz Płonka z Instytutu Archeologii Uniwersytetu Wrocławskiego. Z jego analiz, przeprowadzonych wspólnie z Michałem Szutą z tej samej uczelni i Dariuszem Bobakiem z Fundacji Rzeszowskiego Ośrodka Archeologicznego opublikowanych w prestiżowym periodyku Journal of World Prehistory, wynika jednak coś zupełnie innego. Okazuje się, że obszar dzisiejszej Polski nie został opuszczony – z naszych badań wynika, że był ciągle zasiedlony – podkreśla dr hab. Płonka. Taki wniosek udało się wyciągnąć na podstawie modelowania wykonanego w oparciu o statystykę bayesowską (nazwa pochodzi od XVIII–wiecznego matematyka Thomasa Bayesa). Metoda ta jest używana w zachodniej Europie, jednak polscy badacze przeszłości nadal rzadko po nią sięgają. Do tego modelu zespół dr. hab. Płonki wprowadził daty pozyskane w czasie analiz radioaktywnego izotopu węgla (C14) z kilkudziesięciu stanowisk archeologicznych z przełomu schyłkowego paleolitu i mezolitu. Samo wykonanie datowania metodą C14 nie jest jednak wystarczające – ma nadal sporo mankamentów i nie jest w pełni doskonałe. Naukowcy wskazują, że statystyka bayesowska umożliwia sprecyzowanie poprzednio ustalonej chronologii i urealniają wcześniej uzyskane dane. Można też badać zjawiska w skali mikro nawet sprzed wielu tysięcy lat, bo modelowanie to jest bardziej dokładne. Podobne modelowanie ten sam zespół archeologów wykonał dla Niziny Północnoniemieckiej w tym samym okresie. Uzyskał bardzo podobny obraz. Nie ma mowy o opuszczeniu tego terenu. W przeciwieństwie do obszaru Polski, gdzie stanowiska z okresu schyłkowego paleolitu i mezolitu następowały po sobie, na terenie Niemiec występowały one w tym samym okresie – opowiada naukowiec. Oznacza to jednak to samo, co dla terenu Polski: poszczególne grupy ludzi stopniowo przystosowały się do zmian środowiska naturalnego. Nic nie wskazuje na migracje – uważają autorzy artykułu. Archeolodzy znajdują ślady po życiu i działalności łowców schyłkowego paleolitu głównie w postaci krzemiennych narzędzi, które stosowali m.in. do polowania czy oprawiania zwierzyny. Część z nich odróżniała się zdecydowanie od tych, z których korzystali ludzie w okresie mezolitu. Widzimy jednak pewnie nawiązania i ciągłość w tradycji takich wyrobów, jak na przykład tzw. zbrojników, czyli niewielkich elementów krzemiennych, które montowano na strzałach – podkreśla dr hab. Płonka. To – w jego ocenie – uprawomocnia wnioski grupy badaczy płynące z analiz statystycznych: Łowcy nie opuścili naszych terenów, tylko po prostu przystosowali się do zmieniających się warunków klimatycznych. Potrzebowali odpowiednich narzędzi do polowania; teraz polowali nie na renifery tylko głównie na zwierzęta mieszkające w lasach – wskazuje. Dodaje, że ciągłość widać również w elementach sztuki – zdobieniach części odkrywanych przedmiotów, zwłaszcza na przełomie tych dwóch okresów. « powrót do artykułu
  2. Peter Andrekson i jego koledzy z Uniwersytetu Technologicznego Chalmersa w Göteborgu poinformowali o skonstruowaniu najbardziej czułego odbiornika sygnałów optycznych przesyłanych bezprzewodowo. Szwedzi osiągnęli bezprecedensową czułość niemal 1 fotonu na 1 bit danych. Udało się to dzięki nowatorskiemu podejściu do przygotowania sygnału oraz likwidacji zakłóceń w samym odbiorniku. Agencje kosmiczne, w miarę realizacji coraz bardziej ambitnych planów badania przestrzeni pozaziemskiej, próbują zwiększać możliwości komunikacyjne swoich satelitów. Jednak obecne radiowe systemy transmisji z trudem nadążają za rosnącymi potrzebami. Dlatego też coraz częściej mówi się o wykorzystaniu sygnałów optycznych do szybkiej transmisji danych na duże odległości. Mają bowiem tę olbrzymią zaletę, że w miarę rozchodzenia się w przestrzeni tracą znacznie mniej mocy niż sygnały radiowe. A pamiętać trzeba, że mówimy tutaj o transmisjach na olbrzymich dystansach. Żeby jednak przyspieszyć transmisję danych optycznych potrzebne są jak najbardziej czułe odbiorniki, które wymagają użycia jak najmniejszej liczby fotonów do przekazania bitu informacji. Zespół Andreksona stworzył nową architekturę, w ramach której dane są najpierw kodowane w sygnałową falę światła, następnie jest ona łączona z falą ciągłą o różnych częstotliwościach. Gdy takie fale przechodzą przez nieliniowy światłowód generują trzecią falę. W końcu wszystkie te fale zostają wzmocnione i wysłane w kierunku odbiornika. Sygnał przechwytywany jest przez światłowód i trafia do wzmacniacza fazoczułego. Ostatecznie sygnał trafia do standardowego odbiornika, gdzie oryginalna informacja zostaje odzyskana. Obecnie najbardziej zaawansowane bezprzewodowe systemy komunikacji optycznej pozwalają na przekazywanie danych z prędkością poniżej 1 Gb/s i wymagają do pracy niezwykle niskich temperatur. Urządzenie Andreksona osiąga czułość niemal 1 fotonu na 1 bit w temperaturze pokojowej, pozwalając na transmisję danych z prędkością dochodzącą do 10,5 Gb/s. Ponadto, jako że system wykorzystuje proste techniki modulacji sygnału, jego przetwarzania i korekcji błędów, może z łatwością być skalowany do większych prędkości. « powrót do artykułu
  3. Posługując się polem magnetycznym i hydrożelem, naukowcy ze Szkoły Medycyny Uniwersytetu Pensylwanii zademonstrowali potencjalną metodę odtwarzania złożonych tkanek. Za jej pomocą można by sobie radzić np. z degeneracją tkanki chrzęstnej. Wyniki badań zespołu opublikowano w piśmie Advanced Materials. Odkryliśmy, że jesteśmy w stanie organizować obiekty, takie jak komórki, w taki sposób, by utworzyć [...] złożone tkanki, nie zmieniając samych komórek. By uzyskać reakcję na pole magnetyczne, inni musieli dodawać do komórek cząstki magnetyczne. Zabieg ten może jednak wywierać niepożądany długofalowy wpływ na zdrowie komórki. Zamiast tego manipulowaliśmy więc magnetycznym charakterem otoczenia komórki; dzięki temu mogliśmy organizować obiekty za pomocą magnesów - opowiada Hannah Zlotnick. U ludzi ubytki w chrząstce naprawia się za pomocą różnych sztucznych i biologicznych materiałów. Ich właściwości odbiegają jednak od oryginału, dlatego należy się liczyć z ograniczeniami takiego rozwiązania. Zlotnik wskazuje też na naturalny gradient chrząstki (powierzchniowo występuje większa liczba komórek). Mając to wszystko na uwadze, Amerykanie postanowili poszukać innego rozwiązania. Podczas eksperymentów odkryli, że gdy do hydrożelu mającego formę ciekłą doda się ciecz magnetyczną, można porządkować komórki i inne obiekty, w tym mikrokapsułki do dostarczania leków, według specyficznego wzorca, który przypomina naturalną tkankę. Wystarczy przyłożyć zewnętrzne pole magnetyczne. Po działaniu pola magnetycznego całość wystawiano na oddziaływanie ultrafioletu (naukowcy prowadzili fotosieciowanie, utrwalając rozmieszczenie obiektów). W porównaniu do standardowych jednolitych materiałów syntetycznych [...], takie "odwzorowane magnetycznie" tkanki lepiej przypominają oryginał pod względem rozmieszczenia komórek i właściwości mechanicznych [uczeni odtworzyli chrząstkę stawową] - podkreśla dr Robert Mauck. Technikę badano na razie wyłącznie in vitro. « powrót do artykułu
  4. Jeszcze w tym miesiącu będzie można kupić... bar przy którym zasiadał Adolf Hitler. Aluminiowy bar w kształcie kuli ziemskiej znajdował się na jachcie Aviso Grille. Hitler planował, że po zdobyciu Wielkiej Brytanii popłynie Tamizą na pokładzie Aviso Grille do Pałacu Westminsterskiego. Ostatnich 70 lat bar spędził ukryty w jednej ze stodół w stanie Maryland. Teraz trafi na aukcję organizowaną przez dom Alexander Historical Auctions. Szacuje się, że osiągnie cenę 250 000 USD. Sam jacht nie przetrwał, został sprzedany na złom. Obecny właściciel baru, którego nazwiska nie ujawniono, poinformował, że jego (lub jej) ojciec był bliskim przyjacielem właściciela stoczni Doan Salvage Yard, gdzie Aviso Grille został pocięty na złom. Właściciel stoczni osobiście go zaprosił i zaoferował mu sprzedaż baru. Aviso Grille był 500. jednostką zbudowaną przez stocznię Blohm & Voss w Hamburgu. Stępkę położono w marcu 1934 roku, a jednostka została zwodowana 15 grudnia 1934 roku. Została pomyślana jako niemiecki odpowiednik jachtów królewskich. Na jej pokładzie znajdowało się 35 luksusowych kabin dla gości, pralnie, warsztaty i instalacja do odsalania wody morskiej. Wyposażono ją w trzy działa o średnicy 12,7 cm, sześć działek przeciwlotniczych, dwa karabiny maszynowe oraz możliwość przenoszenia 280 min morskich. Aviso Grille był też pierwszą jednostką, na której testowano wysokociśnieniowe silniki, jakie planowano zastosować w niemieckich niszczycielach. Na Aviso Grille znajdowała się nowoczesna pralnia i prasowalnia. Oficerowie mieli częsty kontakt z Hitlerem i jego najbliższym otoczeniem, odbywały się tam tajne narady dowództwa Kriegsmarine, a na Aviso Grille bywał zarówno Hitler, jak i Göring, Hess, Göbbels, Himmler oraz ich goście z Węgier, Włoch i Japonii. Pierwsze oficjalne pojawienie się Aviso Grille jako państwowego jachtu miało miejsce 30 maja 1936 roku z okazji parady floty w rocznicę bitwy pod Skagerrak. Na pokładzie jachtu był wówczas Hitler i jego minister wojny marszałek von Blomberg. Rok później von Blomberg na czele niemieckiej delegacji popłynął Aviso Grille na koronację króla Jerzego VI. Po inwazji na Polskę Hitler osobiście rozkazał, by jego statek był przygotowany do walki. Aviso Grille stawiał miny w pobliżu Wilhelmshaven, na Morzu Północnym oraz u ujścia Tamizy. Miał też prowadzić niemiecką flotę podczas inwazji na Norwegię, jednak w drodze uległ wypadkowi i powrócił do portu. Wojnę jednostka spędziła raczej spokojnie. Od 1942 roku była statkiem operacyjnym i kwaterą admirała Raedera, a gdy ten został zastąpiony przez admirała Dönitza Grille został jednostką dowodzącą floty U-bootów. Po wojnie jacht został kupiony przez kanadyjskiego finansistę mieszkającego w Surrey, który chciał opłynąć nim świat promując brytyjski eksport. Dwa lata później ponownie wystawiono go na sprzedaż. Kupił go niejaki George Arida, libański producent tekstyliów. W tajemnicy reprezentował on króla Egiptu, Faruka, który nie chciał być publicznie wiązany z kupnem jachtu Hitlera. Podczas podróży do Bejrutu jacht zaczął przeciekać. Aviso Grille trafił na Maltę w celu dokonania napraw. Tam terroryści z organizacji walczącej z Farukiem podłożyli pod niego dwie miny. Te wybuchły nie czyniąc większych szkód, jednak król stracił zainteresowanie jachtem. Arida został z jednostką i rachunkami do spłacenia. Właściciel jachtu zdecydował, że jednostka popłynie do Nowego Jorku i tam poszuka kogoś, kto zmieni ją w luksusowy jacht lub pływające kasyno. Jacht Hitlera był przez chwilę atrakcją turystyczną, potem popadł w zapomnienie. W końcu w kwietniu 1951 roku Arida sprzedał Aviso Grille na złom. Odzyskał zaledwie 10% pieniędzy. Jednostka popłynęła do stoczni na rzece Delaware gdzie została pocięta. Wcześniej zabrano jednak z niej bar, przy którym zasiadali najważniejsi dygnitarze III Rzeszy. « powrót do artykułu
  5. Sika są symbolami Parku Nara. Zgodnie z miejscową legendą, Takemikazuchi, bóg pioruna, wjechał tu na białym jeleniu. Dzięki ochronie z przyczyn religijnych populacja jeleni rozrosła się. Nara Park w swojej współczesnej postaci powstał w 1880 r. Niestety, turyści, którzy przybywają tłumnie, by podziwiać te zwierzęta, zostawiają po sobie masę potencjalnie zabójczych odpadów. W zeszłym roku znaleziono np. martwego jelenia, w którego żołądku podczas sekcji zwłok wykryto aż 4,3 kg tworzyw sztucznych. By jakoś temu zaradzić, grupa miejscowych przedsiębiorców zaprojektowała opakowania z otrębów ryżowych, które sika mogą strawić. Zwiedzający Nara Park mogą karmić jelenie specjalnymi ciastkami shika senbei. Nie zawierają one cukru i są zapakowane jedynie w banderolę. Turyści karmią też jednak zwierzęta innymi przysmakami i wyrzucają opakowania, gdzie popadnie. Później sika je zjadają, bo nadal pachną jak pokarm. Shika gami (dosł. jeleni papier), który nie zaszkodzi sika, nawet gdy go spożyją, to wspólne dzieło Takashi Nakamury, właściciela papierni, hurtownika kosmetycznego Hidetoshi Matsukawy i projektanta Kiyoshi Ogawy. Przyjazny jeleniom materiał powstaje z poddanych recyklingowi kartonów na mleko (pulpy papierniczej) i ryżowych otrębów - składnika wykorzystywanego w ciastkach dla sika. Nakamura opowiada, że spora liczba torebek trafiła do ok. 6 lokalnych firm, w tym do Nara City Tourism Association, sklepu z pamiątkami, banku i apteki. Jak podała Asahi Shimbun, papier, nad którym trio pracowało rok, przeszedł w Japan Food Research Laboratories testy, które dały pozytywne rezultaty. Problemem może być cena, bo jedna torebka z shika gami kosztuje ok. 100 jenów (3,70 PLN). Koszty można [jednak] obniżyć, jeśli zwiększy się produkcję materiału - podkreśla Matsukawa i dodaje, że część dochodów ze sprzedaży panowie zamierzają przekazać Nara Deer Preservation Foundation. « powrót do artykułu
  6. Jeszcze 14 lat temu bardzo niewiele osób zdawało sobie sprawę, że na terenie Polski, na polach uprawnych lub w lesie, można odkryć cały układ średniowiecznego miasta. Stało się to możliwe dzięki coraz powszechniejszemu zastosowaniu archeologii lotniczej i lotniczego skanowania laserowego, powiedział serwisowi GK24.pl Marcin Krzepkowski, prezes fundacji Relicta z Poznania,  zajmującej się popularyzacją i ochroną dziedzictwa kulturowego. Od 2006 roku, kiedy to we wsi Mutowo w pobliżu Szamotuł zlokalizowano nieznany wcześniej ośrodek miejski odkryto w Polsce około 10 takich miejsc. Najnowszego odkrycia dokonano dzięki pomocy pracowników nadleśnictwa Świdwin. Zauważyli oni miejsca, które mogły być stanowiskami archeologicznymi. Poinformowali o tym specjalistów, a ci zaczęli szukać w dokumentach informacji na ten temat. W końcu archeolodzy z Fundacji Relicta potwierdzili, że mamy do czynienia z zaginionym miastem. Fakt pojawienia się Sławoborza wśród zanikłych miast był dla nas dużym zaskoczeniem, bowiem w literaturze regionalnej historycznej i archeologicznej nie natknęliśmy się na informacje dotyczące jego miejskości, mówi Andrzej Kuczkowski, archeolog z Koszalina. Dopiero pod koniec ubiegłego roku w książce Johannesa Courtois z 1909 roku znaleziono wzmiankę, że Stolzenberg został na początku XVII wieku pozbawiony praw miejskich, zaś pod koniec XIX wieku pozostały tylko wały i fosy. W czasie, gdy Courtois pisał swoją książkę teren miasta był pokryty lasem. Naukowcy szukali więc dalej i natrafili na informację z 1291 roku mówiącą o istnieniu parafii. O Sławoborzu jako mieście po raz pierwszy zaś mówi dokument wystawiony przez papieża Urbana VI. Wiadomo jedynie, że pochodzi on z drugiej połowy XIV wieku. Wiemy też, że w latach 1408–1410 Sławoborze, za zgodą lokalnych biskupów, było oddane w zastaw Krzyżakom. W 1606 roku książę pomorski Franciszek I nadał je rodzinie Blankenburgów. Upadek miasta nastąpił zaś prawdopodobnie około roku 1628. Sławoborz został ulokowany na powierzchni 7 hektarów, czyli mniej więcej tylu, ile wynosiła lokalizacja Poznania. Na razie przeprowadzono tam badania przy użyciu detektorów metali. Specjaliści z Fundacji Relicta znaleźli aż 350 dobrze zachowanych zabytków. Przekonali się również, że miejsce było używane przez długi czas. Najstarsze znalezione zabytki pochodzą z epoki brązu, natrafiono na cmentarzysko z czasów wpływów rzymskich. Znaleziono ślady potyczki między Prusakami a Rosjanami z 1761 roku, z czasów wojny siedmioletniej, a nawet żywność ukrytą po marcu 1945 roku przed ludzi uciekających przed frontem. W odkopanej kance znajdowała się marynarka zawinięta w obrus, słoje z mięsem, kaszanka oraz boczek lub słonina. Obok stało kamionkowe naczynie wypełnione masłem. « powrót do artykułu
  7. W ramach prowadzonego przez NASA programu Artemis ludzie mają wkrótce powrócić na Księżyc, a w przyszłości planowany jest załogowy lot na Marsa czy badanie asteroid. Dlatego też NASA i agencje kosmiczne 7 innych państw podpisały właśnie tzw. Artemis Accords, międzynarodową umowę dotyczącą zasad współpracy pomiędzy krajami biorącymi udział w pracach NASA. Artemis będzie najszerszym i najbardziej zróżnicowanym międzynarodowym program eksploracji kosmosu przez człowieka. Artemis Accords kładzie podwaliny pod globalną współpracę. Podpisując to porozumienie wspólnie tworzymy ramy dla bezpiecznej, pokojowej i przynoszącej korzyści całej ludzkości naszej obecności w przestrzeni kosmicznej, mówił administrator NASA, Jim Bridenstine. Do Artemis Accords przystąpiły agencje kosmiczne z USA, Australii, Wielkiej Brytanii, Japonii, Włoch, Kanady, Luksemburga i Zjednoczonych Emiratów Arabskich. Artemis Accords opierają się na Traktacie o przestrzeni kosmicznej z 1967 roku. Wzmacniają i poszerzają jego zapisy. Podstawowe zapisy Artemis Accords to: – pokojowa eksploatacja przestrzeni kosmicznej: wszystkie działania prowadzone w ramach programu Artemis muszą mieć cele pokojowe; – przejrzystość: sygnatariusze Artemis Accord będą prowadzili swoje wszelkie działania w sposób jawny, by uniknąć nieporozumień i konfliktów; – kompatybilność: systemy wykorzystywane w programie Artemis muszą być ze sobą kompatybilne, by zwiększyć bezpieczeństwo i stabilność; – pomoc w nagłych wypadkach: sygnatariusze Artemis Accords zobowiązują się do przyjścia z pomocą osobom w niebezpieczeństwie; – rejestracja obiektów kosmicznych: każdy kraj przystępujący do Artemis Accords musi być sygnatariuszem konwencji o rejestracji obiektów wystrzelonych w przestrzeń kosmiczną lub musi niezwłocznie ją podpisać; – ujawnienie wyników badań: sygnatariusze zobowiązują się do upublicznienia wyników badań tak, by każdy mógł z nich korzystać; – zachowanie dziedzictwa: sygnatariusze zobowiązują się do zachowania dziedzictwa przestrzeni kosmicznej; – wykorzystanie zasobów: wydobywanie i wykorzystywanie zasobów w przestrzeni kosmicznej musi być prowadzone w zgodzie z Traktatem o przestrzeni kosmicznej; – unikanie konfliktów i szkodliwych działań: przystąpienie do Artemis Accords oznacza też potwierdzenie przestrzegania Traktatu o przestrzeni kosmicznej w zakresie powstrzymywania się od konfliktów i szkodliwych działań; – usuwanie odpadów: sygnatariusze zobowiązują się do bezpiecznego usuwania odpadów z przestrzeni kosmicznej. NASA ma nadzieję, że w najbliższych miesiącach i latach do Artemis Accords będą przystępowały agencje kosmiczne kolejnych krajów. « powrót do artykułu
  8. Wiemy, że pomiędzy końcem pliocenu a plejstocenem na Ziemi istniało co najmniej kilka gatunków rodzaju Homo. Do dzisiaj pozostał tylko jeden, a przyczyny wyginięcia pozostałych nie doczekały się jeszcze jednoznacznie satysfakcjonującego wyjaśnienia. Na łamach pisma Cell ukazały się właśnie badania, których wyniki sugerują, że zmiany klimatyczne były głównym czynnikiem jaki spowodował wyginięcie Homo. Ich autorzy, naukowcy Włoch, Wielkiej Brytanii i Brazylii, wykorzystali dane z 2754 stanowisk archeologicznych oraz emulatory dawnego klimatu do stworzenia modeli klimatycznych nisz środowiskowych zajmowanych przez gatunki Homo. Znaleźliśmy statystycznie solidne dowody, że trzy gatunki Homo, reprezentujące niezależne linie, H. erectus, H. heidelbergensis i H. neanderthalensis, utraciły znaczną część przestrzeni klimatycznej swojej niszy ekologicznej bezpośrednio przed wyginięciem, bez odpowiadającej temu utracie zasięgu. Utrata ta zbiega się z większą podatnością na zmiany klimatyczne. W przypadku neandertalczyków ryzyko wyginięcia zostało zwiększone w wyniku konkurencji z Homo sapiens. Nasze badania wskazują, że zmiany klimatyczne były główną przyczyną wyginięcia gatunków Homo. Rodzaj Homo istnieje od około 3 milionów lat. Badania, zajmujące się wyginięciem poszczególnych gatunków skupiały się przede wszystkim na przypadku H. neanderthalensis, a autorzy niemal wszystkich prac jako przyczynę wyginięcia wskazywali albo zmiany klimatu, albo konkurencję ze strony bardziej zaawansowanego technologicznie H. sapiens. Jednak takich badań i dowodów brakuje w odniesieniu do wcześniejszych gatunków naszego rodzaju. Pascuale Raia i jego koledzy postanowili uzupełnić naszą wiedzę odtwarzając przeszły klimat Ziemi na przestrzeni ostatnich 5 milionów lat z rozdzielczością 1000 lat. Uwzględnili maksymalne i minimalne temperatury oraz opady. Wzięli pod uwagę sześć gatunków człowieka: H. habilis, H. ergaster, H. erectus, H. heidelbergensis, H. neanderthalensis i H. sapiens. Badania potwierdziły, że wszystkie gatunki Homo przez większą część swojej historii żyły w stabilnych klimatycznie niszach ekologicznych. Jednak w przypadku trzech z nich, H. heidelbergensis, H. erectus i H. neanderthalensis bezpośrednio przed wyginięciem doszło do statystycznie znacznego pogorszenia warunków klimatycznych. Naukowcy podzielili okres istnienia wspomnianych gatunków na etapy. Stwierdzili, że w ostatnim etapie istnienia H. erectus warunki klimatyczne dla tego gatunku znacznie pogorszyły się w porównaniu z warunkami, z jakimi miał do czynienia przez całą swoją wcześniejszą historię. W całym zasięgu występowania H. erectus najwyższe temperatury i najwyższa wilgotność panowały wówczas w Azji Południowo-Wschodniej i tam też właśnie znajdujemy najmłodsze znane nam szczątki tego gatunku. H. erectus wyginął podczas ostatniego zlodowacenia, czyli podczas najniższych temperatur, z jakimi w ogóle się zetknął. Bardzo podobnie wyglądały losy H. heidelbergensis. Również w jego przypadku warunki klimatyczne w ostatnim okresie istnienia tego gatunku znacząco odbiegały od warunków, jakich doświadczał w swojej historii. Nic zatem dziwnego, że jego najmłodsze znane nam szczątki znajdujemy na subkontynencie indyjskim i w Azji Południowej. Inaczej wygląda jednak sytuacja neandertalczyków. W ich przypadku nie doszło do aż tak znaczącego pogorszenia się klimatu. W ostatnim etapie istnienia H. neanderthalensis przesunął swój zasięg w stronę bardziej suchego i ciepłego klimatu. Jednak gatunek ten, chociaż mniej odporny od H. sapiens na zmiany klimatu, był na nie lepiej uodporniony niż H. heidelbergensis i H. erectus. Dlatego też należy przypuszczać, że w jego przypadku zadziałały co prawda głównie zmiany klimatu, ale znaczenie miała też konkurencja ze strony H. sapiens. Tezę o tym, że zmiany klimatu były jednak główną przyczyną potwierdza fakt wczesnego wyginięcia neandertalczyka na większych wysokościach geograficznych, co jest zgodne z jego preferencjami w kierunku cieplejszego klimatu. Dostępne dowody archeologiczne wskazują, że wyginięcie poszczególnych gatunków Homo nie może być wyjaśnione konkurencją ze strony innego gatunku, być może z wyjątkiem H. neanderthalensis. Badania te dostarczają pierwszego silnego dowodu, że zmiany klimatyczne były wspólną przyczyną wyginięcia wszystkich naszych przodków, podsumowują autorzy badań. « powrót do artykułu
  9. Naukowcy z Tufts University odkryli, że bakterie istotne dla dojrzewania sera reagują na lotne związki organiczne (ang. volatile organic compounds, VOCs) produkowane przez grzyby ze skórki. Powoduje to silniejszy wzrost niektórych z nich. Skład mikrobiomu sera ma krytyczne znaczenie dla smaku i jakości produktu, dlatego ustalenie, jak można go kontrolować czy modyfikować, sporo znaczy dla sztuki serowarniczej. Wyniki badań, które ukazały się w piśmie Environmental Microbiology, zapewniają także model dla zrozumienia i modyfikacji innych istotnych mikrobiomów, np. glebowego czy jelitowego. Ludzie od stuleci cenią rozmaite aromaty serów, ale dotąd nie badano, jak aromaty te wpływają na biologię mikrobiomu sera - podkreśla prof. Benjamin Wolfe. Amerykanie opowiadają, że wiele mikroorganizmów wytwarza lotne związki organiczne w ramach interakcji ze środowiskiem. Dobrze znanym tego rodzaju związkiem jest geosmina emitowana przez mikroorganizmy glebowe; można ją wyczuć w lesie po dużym deszczu. Jak podkreślają uczeni, bakterie i grzyby rosnące w dojrzewającym serze wydzielają enzymy, które rozkładają aminokwasy (powstają m.in. alkohole, aldehydy, aminy czy różne związki siarki) i kwasy tłuszczowe (do estrów, ketonów metylowych i alkoholi drugorzędowych). Wszystkie powstałe związki przyczyniają się do zapachu i smaku serów. Zespół z Tufts University odkrył, że tak naprawdę VOCs spełniają 2 funkcje. Przyczyniają się do wrażeń zmysłowych i dodatkowo pozwalają grzybom komunikować się i odżywiać bakterie mikrobiomu sera. Parując 16 bakterii serowych z 5 grzybami ze skórki sera, naukowcy zauważyli, że grzyby wywoływały u bakterii szereg reakcji (od silnej stymulacji po silne hamowanie). Jeden z gatunków bakteryjnych, Vibrio casei, reagował, rosnąc szybko w obecności VOCs wszystkich 5 grzybów. Inne bakterie, takie jak Psychrobacter, rosły zaś wyłącznie w odpowiedzi na grzyby Galactomyces. Liczebność dwóch innych bakterii spadała natomiast znacząco podczas wystawienia na oddziaływanie VOCs wytwarzanych przez Galactomyces. Uczeni stwierdzili, że lotne związki organiczne zmieniały ekspresję wielu genów bakterii, w tym genów wpływających na sposób metabolizowania składników odżywczych. Jednym ze wzmacnianych mechanizmów metabolicznych jest szlak glioksalowy (ang. glyoxylate shunt). W ten sposób bakterie mogą skuteczniej wykorzystywać pewne VOCs jako źródła energii i wzrostu. Bakterie są w stanie "zjadać" to, co my postrzegamy jako zapachy. To ważne, gdyż ser nie stanowi bogatego źródła łatwo metabolizowanych cukrów, takich jak np. glukoza. Za pośrednictwem VOCs grzyby wspomagają więc bakterie - wyjaśnia dr Casey Cosetta. Teraz, gdy wiemy, że związki znajdujące się w powietrzu są w stanie kontrolować skład mikrobiomów, możemy zacząć myśleć o tym, jak kontrolować skład mikrobiomów innych niż serowe, np. w rolnictwie, by poprawić jakość gleby i plony, czy w medycynie, by lepiej sobie radzić z chorobami mikrobiomozależnymi - podsumowuje Wolfe. « powrót do artykułu
  10. Powszechnie znany jest fakt, że ciecze bardziej lepkie – jak miód – płyną wolniej niż ciecze o niskiej lepkości, jak woda. Dobrze pokazuje to opisany przez nas jeden z najdłużej trwających eksperymentów w historii nauki. Jakie więc było zdziwienie naukowców, gdy okazało się, że wewnątrz specjalnie pokrytych rurek ciecze tysiąckrotnie bardziej lepkie przemieszczają się 10-krotnie szybciej niż ciecze mniej lepkie. Prędkość przemieszczania się cieczy przez różnego rodzaju tuby jest niezwykle ważna zarówno w rafineriach ropy naftowej jak i w ludzkim sercu. Jeśli chcemy zwiększyć przepływ płynu przez rurę o danym przekroju zwykle wystarczy zwiększyć ciśnienie. Oczywiście taka technika ma swoje ograniczenia. Ciśnienia nie można zwiększać bez końca, gdyż doprowadzi to do uszkodzenia rury. Szczególnie jest to ważne w cienkich wąskich rurkach, wykorzystywanych podczas produkcji leków czy innych złożonych związków chemicznych. Dlatego też od dawna naukowcy szukają sposobów na przyspieszenie przepływu płynów w takich systemach bez zwiększania ciśnienia. Z artykułu opublikowanego właśnie na łamach Science Advances dowiadujemy się, że pokrycie rurek środkiem hydrofobowym powoduje, że bardziej lepkie ciecze przemieszczają się szybciej niż mniej lepkie. Powierzchnia superhydrofobowa zawiera niewielkie guzki, pomiędzy którymi zostaje uwięzione powietrze. Znajdujące się tam krople płynu zachowują się jak na poduszce powietrznej, wyjaśnia profesor Robin Ras, który wraz ze swoim zespołem z Aalto University specjalizuje się w badaniach powierzchni hydrofobowych. Sama powierzchnia superhydrofobowa nie powoduje, że bardziej lepki płyn przemieszcza się szybciej od mniej lepkiego. Gdy na takiej powierzchni umieścimy kroplę wody i kroplę miodu, to woda spłynie szybciej. Okazało się jednak, że gdy krople są umieszczone w bardzo wąskiej tubie, dochodzi do dramatycznych zmian. Odkryliśmy, że gdy kropla zostaje umieszczona w superhydrofobowym wąskim naczyniu, wokół bardziej lepkich cieczy tworzy się większa poduszka powietrzna. I to ta większa otoczka z powietrza umożliwia bardziej lepkim płynom na szybsze przemieszczenia się od tych mniej lepkich. Szczegółowe badania pokazały, że krople gliceryny, która jest tysiąckrotnie bardziej lepka niż woda, przemieszczają się w takiej rurce 10-krotnie szybciej od wody. Naukowcy filmowali swoje krople, dzięki czemu mogli też analizować to, co dzieje się wewnątrz nich. Okazało się, że w lepkich cieczach płyn wewnątrz kropli niemal się nie poruszał, natomiast w cieczach o niskiej lepkości dochodziło do szybkiego mieszania się płynu. Fińscy naukowcy opracowali też model dynamiki płynów, który pozwala przewidzieć, jak dany płyn będzie przemieszczał się w rurkach pokrytych różnymi superhydrofobowymi materiałami. Dalsze prace nad tym zagadnieniem pomogą w zaprojektowaniu doskonalszych systemów mikroprzepływowych, stosowanych m.in. podczas produkcji leków. « powrót do artykułu
  11. Na słynnym płaskowyżu Nazca możemy podziwiać wielkie geoglify przedstawiające małpę, orkę czy kolibra. Jednak myliłby się ten, kto przypuszcza, że nic nowego nie uda się tam znaleźć. Właśnie poinformowano o odkryciu na Nazca olbrzymiego kota. Geoglif, datowany na lata 200 p.n.e. – 100 n.e. został zauważony podczas prac na jednym ze wzgórz, które stanowi punkt obserwacyjnych dla już znanych geoglifów. Figura była ledwie widoczna i wkrótce by zniknęła, gdyż znajduje się na dość stromym zboczu podatnym na erozję, oświadczyło peruwiańskie Ministerstwo Kultury. W ubiegłym tygodniu geoglif został oczyszczony i zakonserwowany. Figura ma 37 metrów długości, a szerokość tworzących go linii wynosi od 30 do 40 centymetrów. To niesamowite, że wciąż znajdujemy nowe figury. Ale wiemy, że jest ich więcej, mówi Johny Isla, główny archeolog odpowiedzialny za geoglify z Nazca. W ostatnim czasie prace archeologom znakomicie ułatwiają drony. Jak mówi Isla, w ciągu kilku poprzednich lat w dolinach Nazca i Palpa odkryto 80–100 nowych geoglifów. Poprzedzają one kulturę Nazca, która rozwijała się w latach 200–700 po Chrystusie. Te geoglify są mniejsze, znajdują się na zboczach wzgórz i wyraźnie należą do wcześniejszej tradycji kulturowej. Archeolodzy mówią, że nowo odkryty kot został stworzony przez przedstawicieli późnej kultury Paracas (500 p.n.e. – 200 n.e.). Wiemy to dzięki porównaniu ikonografii. Na przykład na tekstyliach Paracas widzimy ptaki, koty i ludzi, którzy są przedstawieni w bardzo podobny sposób jak na geoglifach. « powrót do artykułu
  12. Żadna z czterech terapii testowanych w ramach pilotowanego przez WHO wielkiego międzynarodowego badania leków przeciwko COVID-19 nie okazała się skuteczna. Zawiódł też remdesivir, z którym wiązano największe nadzieje. Po testach przeprowadzonych na 11 000 pacjentów w 400 szpitalach stwierdzono, że testowane leki nie wydłużają życia chorych. To rozczarowujące, że stosowanie żadnego z czterech leków nie przyniosło skutku w postaci zmniejszonej śmiertelności. Jednak pokazuje to, jak bardzo potrzebujemy szeroko zakrojonych testów, mówi Jeremy Farrar, dyrektor Wellcome Trust. Chcielibyśmy, by któryś z leków działał. Jednak lepiej jest wiedzieć, czy lek w ogóle działa, niż niczego nie wiedzieć i nadal go stosować, dodaje główny naukowiec WHO Soumya Swaminathan. O rozpoczęciu projektu Solidarity, w ramach którego były prowadzone testy, informowaliśmy pod koniec marca. W projekcie wykorzystano już istniejące terapie stosowane w walce z innymi chorobami. Były to remdesivir, połączenie chlorochiny i hydroksycholochiny, kaltera oraz połączenie ritonaviru, lopinaviru i interferonu beta. Już w czerwcu bieżącego roku WHO zaprzestało testowania hydroksychlorochiny i kombinacji ritonaviru/lopinaviru, gdyż duże badania prowadzone w Wielkiej Brytanii wykazały, że są one nieskuteczne. Z czasem okazało się, że pozostałe w teście Solidarity specyfiki również nie przedłużają życia chorych na COVID-19 ani nie opóźniają momentu, w którym chorzy potrzebują podawania tlenu. Największe nadzieje wiązano z remdesivirem. Już wcześniej amerykańskie badania przeprowadzone na 1000 pacjentach sugerowały, że osoby otrzymujące remdesivir szybciej zdrowieją, chociaż nie zanotowano zmniejszonej śmiertelności. Dlatego też w maju amerykańska Agencja ds. Żywności i Leków (FDA) w trybie nadzwyczajnym dopuściła remdesivir do leczenia COVID-19. Badania prowadzone w ramach Solidarity wykazały, że remdesivir nie pomaga w ciężkich przypadkach. Spośród 2743 hospitalizowanych osób, które otrzymały ten środek, zmarło 11%, podczas gdy śmiertelność w grupie kontrolnej wyniosła 11,2%. Różnica jest na tyle niewielka, że mogła powstać przypadkiem. Analiza innych testów wykazała, że różnica w odsetku zgonów wśród osób przyjmujących i nie przyjmujących remdesiviru, jest nieistotna statystycznie. Producent remdesiviru – Gilead Sciences – uważa, że projekt Solidarity był niewłaściwie przeprowadzony, przez co nie jest jasne, czy z tych badań można wyciągnąć jakieś jednoznaczne wnioski. Co ciekawe, jak informuje WHO, Gilead otrzymał informację o wynikach Solidarity 28 września, a 8 października, zanim wyniki testu zostały upublicznione, firma podpisała z Komisją Europejską wartą 1 miliard USD umowę na dostawy remdesiviru. Najbardziej jednak rozczarował interferon beta. Odsetek zgonów wśród osób, które go otrzymały – czy to osobno czy w połączeniu z lopinavirem i ritonavirem – wyniósł 11,9% w porównaniu do 10,5% w grupie konstolnej. Już wcześniejsze badania sugerowały, że interferon beta pomaga, jeśli zostanie poddany wcześniej, a nie u osób hospitalizowanych. Zatem skuteczność interferonu beta na wczesnych etapach choroby pozostaje kwestią otwartą. Leczenie późnego stadium COVID-19 jest bardzo trudne. W stadium tym mamy duży stan zapalny i wiele skrzepów. Prawdopodobnie dlatego testowane leki okazały się nieskuteczne, mówi wirolog Benjamin tenOever z Icahn School of Medicine at Mount Sinai. Program Solidarity jest kontynuowany. Każdego miesiąca zapisywanych jest około 2000 nowych pacjentów. W tej chwili kontynuowane są badania nad remdesivirem, które mają dać lepszy obraz kliniczny tego środka. Do testu dodawane będą też nowe leki. Pacjentom właśnie rozpoczęto podawanie acalabrunitibu, leku przeciwnowotworowego blokującego enzym, który odgrywa ważną rolę w ludzkim układzie odpornościowym. Specjaliści mają nadzieję, że wkrótce będą mogli rozpocząć testy przeciwciał monoklonalnych, które mogą być bardziej skuteczne niż leki opracowane z myślą o innych chorobach. Próba znalezienia skutecznego leku wśród tych, już zatwierdzonych do leczenia innych chorób nie jest optymalną strategią, ale prawdopodobnie najlepszą w obecnych okolicznościach, dodaje tenOever. « powrót do artykułu
  13. Odkurzacze automatyczne, nazywane częściej robotami sprzątającymi, stoją aktualnie na bardzo wysokim poziomie. To zasługa coraz większej liczby technologii, z których korzystają. Które z nich mają największe znaczenie i są najciekawsze? O tym w poniższym artykule! Prawie każdy ranking robotów sprzątających zawiera urządzenia, które zadziwiają swoimi możliwościami. Ten autonomicznie poruszający się sprzęt ma z pozoru proste zadanie – skuteczne odkurzanie bez ingerencji użytkownika. Ale jak radzi sobie z czytaniem otoczenia? Co gdy spotka na swojej drodze jakąś przeszkodę? Jakim cudem jest w stanie sam wytropić większe skupiska śmieci? Skąd wie, gdzie odkurzać, gdzie odkurzać kilka razy, a gdzie nie wjeżdżać? Odpowiedzią na te pytania są najciekawsze technologie robotów sprzątających, które za chwilę poznasz! LDS Lidar + VSLAM Pod tymi dziwnymi nazwami kryje się możliwość laserowego skanowania otoczenia. Robot wyposażony w te technologie za pomocą zintegrowanej wieżyczki z laserem już w kilka sekund potrafi nanieść granice pomieszczenia, w którym się znajduje. Podczas pierwszego odkurzania tworzy precyzyjną mapę, którą ujrzysz w aplikacji mobilnej. Jaka z tego korzyść? Robot dostanie się wszędzie tam, gdzie może – niczego nie ominie. Wspomagając się algorytmami sprzątającymi, wyznaczy optymalną trasę odkurzania. Co więcej, laserowe roboty nic sobie nie robią z warunków oświetleniowych (w porównaniu do tych z kamerkami). Mogą odkurzać nawet po ciemku! Co ciekawe, system laserowy Lidar jest obecny w wielu innych branżach. Wykorzystują go nowoczesne samochody z autonomicznymi funkcjami. Lidar coraz śmielej pojawia się na rynku urządzeń mobilnych, wspomagając aplikacje korzystające z rozszerzonej rzeczywistości oraz poprawiając jakość zdjęć robionych przy gorszym świetle. Reactive AI To zaawansowany system unikania przeszkód, który pojawił się w modelu S6 MaxV od Xiaomi. Oczywiście korzysta z laserowego skanowania, lecz dokłada korzyści płynące z uczenia maszynowego oraz mocnego procesora. Obuwie, listwa zasilająca, wąska podstawa jakiegoś mebla bądź ozdoby, a nawet… kupka zwierzaka – robot ominie tego typu przeszkody. Wystarczy, że mają zaledwie 3 cm szerokości i 5 cm wysokości, aby sprzęt je zlokalizował na swojej trasie. A to nie koniec niespodzianek. Robot z tym systemem potrafi ustalić, co ma na swojej drodze. Chodzi o to, czym dana przeszkoda konkretnie jest. Mało tego, w aplikacji podrzuci ikonę odpowiadającą danemu obiektowi, co potwierdza fakt, że wie, z czym ma do czynienia. I tak oto możesz ujrzeć w apce niewielką ikonę odpowiadają swojemu butowi. Xiaomi chwali się, że ma w bazie dziesiątki tysięcy rodzajów przeszkód, które często leżą na podłogach podczas używania robotów odkurzających. To robi wrażenie. Czujnik piezoelektryczny Czujniki antykolizyjny/przeszkód, schodów/uskoku podłoża – takie czujniki to standard w odkurzaczach automatycznych. Nikogo już nie dziwią. Czujnikiem, który idzie jeszcze dalej, jest za to ten piezoelektryczny. Wytwarza impulsy odbijające się od skupisk śmieci, kurzu itp. Jeżeli wracających do robota impulsów jest dużo, to wie on, że trafił na bardziej zaśmiecony obszar. Co wtedy robi? Podjeżdża w to miejsce i je sprząta! Tak, robot sam potrafi ustalić, gdzie na posadce czy dywanie znajduje się najwięcej śmieci. I szybko na to reaguje. Z tej technologii słyną z kolei lepsze roboty firmy iRobot. Producent nazwał tę technologię Dirt Direct. Wyznaczanie stref w aplikacji Zależnie od warunków lokalowych, nie zawsze chcemy, aby robot gdzieś wjeżdżał. Kiedyś radzono sobie z tym wirtualnymi (choć bardziej z nazwy) ścianami, które trzeba było ustawić, zagradzając tak dany obszar niewidzialną wiązką podczerwieni. Aktualnie roboty sprzątające radzą sobie z tym w inny sposób – rozbudowanymi funkcjami w aplikacji mobilnej. Własnoręcznie poprowadzisz granicę sprzątanego obszaru. To nie wszystko. Niektóre roboty dają możliwość wyznaczenia dokładnych stref, w których odkurzanie odbywa się np. 2 razy… lub w ogóle (tzw. strefy zakazane). Sprzęt trzyma się stref co do centymetra, odkurzając dokładnie tam, gdzie chcesz. Podsumowanie Powyższe technologie mocno popchnęły rynek robotów sprzątających. Oczywiście oprócz nich jest wiele innych, choć już bardziej upowszechnionych i mniej skomplikowanych, np.: samodzielne wracanie do bazy ładującej, powiadomienia głosowe, tworzenie harmonogramu sprzątania, tryb mycia podłóg itp. To wszystko pokazuje, że odkurzacze automatyczne stają się coraz inteligentniejsze, jeszcze bardziej ułatwiając nam życie. W końcu odkurzanie nie jest zbyt przyjemnym obowiązkiem domowym, prawda? « powrót do artykułu
  14. Lilka to kangurzątko po ciężkich przejściach. Przez tężec matka osierociła Lilkę, gdy ta była oseskiem niewychodzącym jeszcze z torby. Mała kangurzyca rdzawoszyja szybko straciła wzrok przez silną zaćmę. Zdarza się to u kangurów, nie do końca wiadomo dlaczego. W tym przypadku najbardziej prawdopodobna przyczyna to nadwrażliwość na laktozę zawartą w preparatach mlekozastepczych. Lilka nie mogła żyć na wybiegu z innymi kangurami i ostatecznie trafiła do lek. wet.  Grzegorza Dziwaka. By zwiększyć jej szanse na normalne życie, weterynarze zdecydowali się na operację okulistyczną. O operacji zaćmy u kangurow wiemy tyle co nic. Ryzyko jest ogromne, ale nie mamy nic do stracenia. Operacją zajął się zespół lek. wet. Natalii Kucharczyk z Centrum Okulistyki Weterynaryjnej EyeVet we Wrocławiu. Odbyła się ona 2 września. Po usunięciu zmienionych mas soczewki okazało się, że ciało szkliste również jest zupełnie mętne i je także trzeba usunąć. Niestety, uniemożliwiło to wszczepienie sztucznych soczewek. Pozostała jednak szansa na widzenie bez akomodacji (siatkówka nie była odklejona). Po operacji trzeba było 6 razy dziennie zakrapiać 3 rodzaje kropli (oznaczało to łapanie Lilki 18 razy dziennie, co jak można sobie wyobrazić, nie było łatwym zadaniem). Ostatnia kontrola po 3 tygodniach wykazała, że [...] w oczach wszystko się wygoiło. Jestem przeszczęśliwa, że mamy te kontrole za sobą i że mimo tego, że cały świat, wszystkie publikacje były przeciwko nam, to jednak byliśmy w tym małym procencie, któremu udało się przywrócić widzenie [był to zabieg, w przypadku którego szanse na sukces nie przekraczały 5%]. Cieszy się także dr Dziwak, który mówi, że Lili może wreszcie normalnie funkcjonować na wybiegu. Jest już połączona z pozostałymi kangurami, kurami, owcami, z emu. Porusza się swobodnie po kilkunastoarowym wybiegu, wraca do swojego domku, kiedy ma ochotę. Doktor Dziwak jest specjalistą zwierząt nieudomowionych. Współpracuje z licznymi fundacjami i stowarzyszeniami pomagającymi zwierzętom domowym i dzikim; jest np. jest laureatem II edycji Wrocławskiego Serca dla Zwierząt i przyjacielem Ekostraży. Dzieli dom z wieloma zwierzętami, w tym z psami, fretkami, skunksem, wydrą czy żółwiem (długa lista wciąż się wydłuża). Doktor Natalia Kucharczyk jest weterynarzem okulistą. Jakiś czas temu zoperowała zaćmę u dzikiego puchacza. Był to pierwszy taki zabieg w Polsce i czwarty na świecie.   « powrót do artykułu
  15. Marcin Sawicki, z wykształcenia historyk, z zawodu nauczyciel, a z zamiłowania tramp, prowadzi nas przez meandry gruzińskiej historii, krajobrazu, kulinariów i legend oraz mitów. Dzięki niemu dowiadujemy się, że tutaj wszystkie drogi wiodą do Tbilisi. Chcesz tego czy nie, podróżując po Gruzji, prędzej czy później znajdziesz się w stolicy ponownie. Na zatłoczonym dworcu Didube, na ludnym lotnisku albo Bóg jeden wie gdzie jeszcze. Autor opowiada ludzkie historie. Mówi też o jedzeniu i winie, a wino jest tu nie byle jakie. Karmazynowy płyn lał się tu strumieniami, zanim jeszcze zakosztowali w jego urokach mieszkańcy Hellady. Jak sam pisze, Sawicki wpuszcza Kaukaz do krwiobiegu przez jedzenie. Uciechom stołu sprzyja zaś, między innymi, leniwa atmosfera Batumi. Prowadząc nas po Gruzińskiej Drodze Wojennej, Sawicki nie mógł nie wspomnieć o górze Kazbek. To do niej miał być przykuty Amirani, protoplasta Prometeusza. Jak podkreśla podróżnik, Gruzja, ojczyzna Stalina, obfituje [też] w postkomunistyczne relikty. W światopoglądzie, kuchni, gustach i upodobaniach. Ale także w architekturze. Takich smaczków można by wymienić sporo, ale nie chcemy zdradzać zbyt wiele. Przeczytajcie "Gruzję. Opowieści z drogi" sami, bo naprawdę warto. Warto dodać, że wciągającą opowieść Sawickiego ilustrują zdjęcia Piotra Malczewskiego. Przedstawiając się na swojej stronie internetowej, Malczewski zdradza, że najchętniej jedzie tam, gdzie rzadko się spotyka ludzi, gdzie trzeba się zmierzyć z surową przyrodą. W jego dorobku znajdują się liczne wystawy, publikacje czy nagrody w konkursach fotograficznych. Marcin Sawicki jest autorem książek reporterskich i podróżniczych. W 2019 r. nakładem wydawnictwa Paśny Buriat ukazała się jego książka "Ludzkie klepisko. Historie z Pogranicza: Białorusi, Litwy i Polski". Paśny Buriat ma też w swojej ofercie inną pozycję tego pisarza pt. "Tadżykistan. Opowieści z gór".
  16. Szwajcarskie towarzystwo reasekuracyjne Swiss Re opublikowało swój nowy indeks ubezpieczeniowy, w którym wylicza, że nieco ponad połowa światowego PKB, czyli niemal 42 biliony USD, jest zależna od towarów i usług zapewnianych przez środowisko naturalne. Problem jednak w tym, że w wielu miejscach na świecie ekosystem stoi na krawędzi załamania. Z raportu Biodiversity and Ecosystem Services Index dowiadujemy się, że w 20% państw sytuacja ekologiczna, a zatem i usługi świadczone przez środowisko naturalne, znajduje się na krawędzi. W krajach tych ponad 33% ziem zostało zniszczonych działalnością człowieka. To 39 krajów, w których ekosystemy są na skraju załamania. Główną przyczyną takiego stanu rzeczy jest olbrzymia utrata bioróżnorodności powodowana wylesianiem, działalnością rolniczą, górniczą, obecnością gatunków inwazyjnych, zanikaniem zapylaczy oraz zanieczyszczeniem odpadami. Stworzony przez Swiss Re indeks to narzędzie dla firm i rządów, które ma pomóc im w zidentyfikowaniu ekosystemów ważnych dla gospodarek państw oraz w znalezieniu odpowiednich rozwiązań ubezpieczeniowych dla zagrożonych terenów. Z raportu dowiadujemy się, że szczególnie dużym ryzykiem obarczone są kraje rozwijające się z dużym sektorem rolnym, jak Kenia, Wietnam, Pakistan, Indonezja i Nigeria, gdyż ich gospodarki w dużej mierze zależą od zasobów naturalnych. Jednak – wbrew intuicji – na ryzyko narażone są też gęsto zaludnione ważne gospodarczo regiony Azji Południowo-Wschodniej, Europy czy Ameryki, które mimo swojej zróżnicowanej gospodarki mogą ucierpieć w wyniku niszczenia ekosystemów. Wśród najbardziej zagrożonych są też gospodarki Australii i RPA, które zmagają się z niedoborami wody, spadkiem liczebności zapylaczy oraz problemami z ochroną wybrzeży przed podnoszącym się poziomem oceanów. Nawet tak wielkie kraje jak Brazylia czy Indonezja, które dotychczas nie naruszyły znacznej części swojego ekosystemu, stają w obliczu coraz większego ryzyka związanego z szybkim rozrostem populacji i rozwijającą się gospodarką, która eksploatuje zasoby naturalne. Jasnym jest, że trzeba ocenić stan ekosystemów, by móc zminimalizować przyszły negatywny wpływ na gospodarkę. Nasz raport dostarcza podstaw do lepszego zrozumienia ryzyk ekonomicznych związanych z pogarszającym się stanem ekosystemów i bioróżnorodności, mówi Christian Mumenthaler, szef Swiss Re. Już wcześniej różne państwa dokonywały tego typu ocen, jednak tutaj mamy do czynienia z pierwszym takim raportem w skali globalnej. Z raportu dowiadujemy się np. że aż 36% wśród wszystkich inwestycji dokonanych przez holenderskie instytucje finansowe jest wysoce lub bardzo wysoce zależnych od jednej lub więcej usług dostarczanych przez ekosystem. W przypadku tych inwestycji utrata usług świadczonych przez ekosystem doprowadzi do poważnych strat finansowych, czytamy w raporcie. Największa zależność w odniesieniu do usług ekosystemu dotyczy zapewniania dostępu do wód gruntowych i powierzchniowych. Specjaliści ze Swiss Re wzięli pod uwagę 195 krajów i 10 usług dostarczanych przez ekosystemy, w tym nietknięte habitaty, jakość powietrza, dostęp do wody, żyzność gleb, erozję czy dostarczanie drewna. W przypadku wspomnianych już 39 krajów zniszczeniu uległo już ponad 33% terenów lądów, w przypadku zaś kolejnych 60% ekosystem został poważnie naruszony na ponad 20% terenów lądowych. Nie wszystkie kraje znajdują się w takiej samej sytuacji i potrzebują takich samych rozwiązań. Na przykład Indie i Nigeria powinny jak najszybciej zacząć zapobiegać utracie bioróżnorodności, gdyż są gęsto zaludnione, a ich gospodarki w wysokim stopniu zależą od usług ekosystemu. Z drugiej strony Australia jest słabo zaludniona, a jej gospodarka w znacznie mniejszym stopniu zależy od usług ekosystemu. Jednak i ona musi mierzyć się z takimi problemami jak pożary i niedobory wody, dlatego też już teraz powinna opracować odpowiednie strategie, by zapobiec pogarszaniu się sytuacji w przyszłości. Krajami o największym odsetku mocno naruszonego ekosystemu są: Malta (100% naruszonego ekosystemu), Izrael (53%), Bahrain (50%), Cypr, Kazachstan, RPA, Grecja, Australia, Singapur, Indie, Maroko, Pakistan, Turcja, Meksyk, Hiszpania, Belgia, Irak, Włochy, Tunezja i Algieria (18%). O ile jednak w przypadku Malty od usług ekosystemu zależy 23% PKB, to w przypadku RPA jest to już 40%, a Pakistanu aż 88%. « powrót do artykułu
  17. Jak borsuki reagują na obecność wilków? Z badań na terenie Puszczy Białowieskiej wynika, że na terenach, gdzie często pojawiają się wilki, borsuki rzadziej korzystają z nor. Za to obecność ludzi niemal w ogóle nie robi na nich wrażenia. Jak obecność wilków w lesie wpływa na sposób wykorzystywania przestrzeni przez borsuki? Aby to sprawdzić, naukowcy z Instytutu Biologii Ssaków PAN w Białowieży za pomocą fotopułapek przez dwa miesiące monitorowali 17 borsuczych nor, położonych w różnych miejscach Puszczy Białowieskiej. Były one bardziej lub mniej narażone na obecność wilków, a także ludzi. Badaczy interesowało, jak często borsuki korzystały z nor. Sprawdzali też, jak często korzystali z nich inni drapieżni lokatorzy, np. lisy czy jenoty (co - jak niektórzy podejrzewali - pozwala im ukryć się przed większymi drapieżnikami). Dzięki analizie zdjęć i filmów okazało się, że wobec dwóch rodzajów potencjalnego zagrożenia - ze strony wilka i ludzi - borsuki reagują odmienne. Stwierdziliśmy, że na terenach, gdzie często pojawiają się wilki (w centralnych częściach ich terytoriów), borsuki rzadziej korzystają z nor. To pozwala sądzić, że unikają one najbardziej ryzykownych fragmentów krajobrazu - mówi jeden z autorów publikacji w Journal of Zoology, dr hab. Dries Kuijper z IBS PAN. Zjawisko to jest dość wyraźne. Biolodzy stwierdzili, że im częściej na danym terenie pojawiają się wilki, tym rzadziej można tam spotkać borsuka. Jamy na obszarach największego ryzyka były wykorzystywane przez borsuki aż o 60 proc. rzadziej niż podobne nory na obszarach najniższego ryzyka. Jeśli chodzi o osobniki młode, to ich obecność stwierdzano tylko i wyłącznie w norach na tych obszarach, które są rzadko odwiedzane przez wilki. Ale właściwie dlaczego borsuki miałyby unikać wilków? Owszem, borsuki nie są gatunkiem kojarzonym jako wilczy łup. Ale nieraz podczas badań diety wilków w ich odchodach stwierdzono szczątki borsuków. I niezależnie od tego zdarzały się obserwacje wilków polujących właśnie na borsuki - zauważa pierwszy autor publikacji, Tom Diserens z IBS PAN i Uniwersytetu Warszawskiego. Jak zauważa, powód takiej relacji między gatunkami może być dwojaki. Po pierwsze, wilki mogą polować na borsuki podczas przypadkowych spotkań w lesie - "jak już się trafią", traktując ich mięso jako dodatkowe źródło pokarmu. Po drugie, wilki mogą przepędzać borsuki z zajmowanych przez siebie terenów, traktując borsuka jako zagrożenie dla szczeniąt. Może on też konkurować z wilkami o pokarm, na przykład korzystając z niedojedzonej padliny. Podsumowując: tak, borsuki bywają ofiarami wilków, choć zapewne rzadko. Ale nawet jeśli wilk rzadko poluje na jakiś gatunek - to i tak wystarczy, by w zachowaniu tegoż gatunku wywołać zmiany (jak np. unikanie przez borsuka obszarów najbardziej intensywnie wykorzystywanych przez wilki). A gatunek-ofiara zawsze chce zminimalizować ryzyko spotkania wilka i padnięcia jego ofiarą - mówi Tom Diserens. Zastrzega jednak, że takie wyjaśnienia to założenia, sformułowane na podstawie wiedzy o relacjach wilków z innymi gatunkami, np. lisami. Dries Kuijper podkreśla, że dotychczas nikt nie badał takich konsekwencji obecności wilków w Puszczy Białowieskiej. Wilki mogą w ten sam sposób (poprzez samą swoją obecność) zmieniać zachowanie mniejszych gatunków drapieżnych. W większości pozostałych terenów, gdzie badano borsuki (głównie w Wielkiej Brytanii), często najważniejszym czynnikiem ryzyka okazywał się człowiek. W Puszczy Białowieskiej konsekwencje obecności wilków wydają się jednak o wiele ważniejsze niż ewentualny fakt niepokojenia borsuków przez ludzi - mówi. Wyniki te oznaczają - piszą autorzy pracy - że w ekosystemach o bardziej naturalnym charakterze (gdzie człowiek wywiera stosunkowo mały wpływ, jak właśnie w Puszczy Białowieskiej) duże drapieżniki mogą wpływać na zachowanie borsuków silniej, niż czynią to ludzie. « powrót do artykułu
  18. Niemieccy fizycy z Uniwersytetu im. Goethego we Frankfurcie dokonali najkrótszego w historii pomiaru czasu. We współpracy z naukowcami z DESY (Niemiecki Synchrotron Elektronowy) w Hamburgu i Instytutu Fritza Habera w Berlinie zmierzyli czas przejścia światła przez molekułę. Dokonany pomiar mieści się w przedziale zeptosekund. W 1999 roku egipski chemik Ahmed Zewail otrzymał Nagrodę Nobla za zmierzenie prędkości, z jaką molekuły zmieniają kształt. Wykorzystując laser stwierdził, że tworzenie się i rozpadanie wiązań chemicznych odbywa się w ciągu femtosekund. Jedna femtosekunda to zaś 0,000000000000001 sekundy (10-15 s). Teraz zespół profesora Reinharda Dörnera po raz pierwszy w historii dokonał pomiarów odcinków czasu, które są o cały rząd wielkości krótsze od femtosekundy. Niemcy zmierzyli, ile czasu zajmuje fotonowi przejście przez molekułę wodoru. Okazało się, że dla średniej długości wiązania molekuły czas ten wynosi 247 zeptosekund. To najkrótszy odcinek czasu, jaki kiedykolwiek udało się zmierzyć. Jedna zeptosekunda to 10-21 sekundy. Pomiarów dokonano wykorzystując molekułę H2, którą wzbudzono w akceleratorze za pomocą promieniowania rentgenowskiego. Energia promieni została dobrana tak, by pojedynczy foton wystarczył do wyrzucenia obu elektronów z molekuły. Elektrony zachowują się jednocześnie jak cząstki i fale. Wyrzucenie pierwszego z nich skutkowało pojawieniem się fali, po chwili zaś dołączyła fala drugiego elektronu. Z kolei foton zachowywał się jak płaski kamyk, który dwukrotnie skakał po falach. Jako, że znaliśmy orientację przestrzenną molekuły wodoru, wykorzystaliśmy interferencję fal obu elektronów, by dokładnie obliczyć, kiedy foton dotarł do pierwszego, a kiedy do drugiego atomu wodoru. Okazało się, że czas, jaki zajęło fotonowi przejście pomiędzy atomami, wynosi do 247 zeptosekund, w zależności od tego, jak daleko z punktu widzenia fotonu znajdowały się oba atomy, wyjaśnia Sven Grudmann. Profesor Reinhard Dörner dodaje: Po raz pierwszy udało się zaobserwować, że elektrony w molekule nie reagują na światło w tym samym czasie. Opóźnienie ma miejsce, gdyż informacja w molekule rozprzestrzenia się z prędkością światła. Dzięki tym badaniom możemy udoskonalić naszą technologię i wykorzystać ją do innych badań. « powrót do artykułu
  19. Dwudziestosześcioletni Jesse Katayama z Osaki marzył, by zobaczyć Machu Picchu. Czternastego marca dotarł do Aguas Calientes (Machu Picchu Pueblo). Niestety, jego plany pokrzyżowała pandemia. Zabytki zostały zamknięte dla turystów, zawieszono międzynarodowe loty. Japończyk "utknął" w Peru na dobre. Po 7 miesiącach udało mu się jednak zrealizować plan: dzięki specjalnemu pozwoleniu zobaczył miasto Inków. Władze podjęły bowiem decyzję o otwarciu Machu Picchu dla jednego turysty. Nie mogąc wrócić do domu, Katayama wynajął w Aguas Calientes mały pokój. Prowadził treningi boksu dla dzieci, brał udział w zajęciach z jogi i uczył się do egzaminów. W wolnym czasie zwiedzał - wspiął się m.in. na górę Putucusi. Niestety, główny cel marcowej podróży pozostawał niezrealizowany. Codziennie rano szedłem pobiegać i z daleka widziałem Machu Picchu. Nie sądziłem, że tam dotrę, bo nie spodziewałem się, że atrakcja turystyczna zostanie otwarta w tym roku. Opłacało się jednak cierpliwie czekać przez 7 miesięcy, gdyż jak poinformował podczas e-konferencji prasowej peruwiański minister kultury, Alejandro Neyra, rząd udzielił Katayamie specjalnego pozwolenia na wejście. Przybył do Peru, marząc o odwiedzeniu parku [archeologicznego]. Zezwolono mu więc na zrealizowanie marzenia w towarzystwie dyrektora. Katayama udostępnił wspólne zdjęcie na Instagramie. Jestem pierwszym człowiekiem zwiedzającym Machu Picchu po lockdownie. Machu Picchu miało zostać ponownie otwarte dla turystów w lipcu, ale termin ten przełożono w najlepszym razie na listopad. W zwykłych okolicznościach, by zapobiec nadmiernemu zatłoczeniu stanowiska, liczbę turystów ogranicza się do ok. 2240 osób dziennie. Po zakończeniu misji Katayama powiedział CNN, że planuje opuścić Peru 16 października. « powrót do artykułu
  20. W czerwcu informowaliśmy, że najczulszy detektor ciemnej materii – XENON1T – zarejestrował niezwykłe sygnały. Jak wówczas pisaliśmy, możliwe są trzy interpretacje tego, co zauważono. Najmniej interesująca z nich to zanieczyszczenie urządzenia. Drugim możliwym wyjaśnieniem jest zarejestrowanie aksjonu, hipotetycznej cząstki tworzącej ciemną materię, a trzecim – równie interesująca możliwość wchodzenia neutrin w niezwykłe interakcje z wypełniającym detektor ksenonem. Na łamach Physical Review D i Physical Review Letters ukazało się właśnie 5 artykułów, których autorzy dokonują niezwykle interesujących interpretacji sygnałów. Fuminotu Takahashi, Masaki Yamada i Wen Yin uważają, że zarejestrowane sygnały świadczą o zauważeniu cząstek podobnych do aksjonów. Mają mieć one masę kilku keV/c2 i wchodzić w interakcje z elektronami. Ich zdaniem cząstki o takich właściwościach tłumaczą zarejestrowany sygnał, stanowią ciemną materię i wyjaśniają pewne anomalie obserwowane w białych karłach i czerwonych olbrzymach. Z kolei niemiecki zespół naukowy, Andreas Bally, Sudip Jana i Andreas Trautner, pisze, że sygnał może pochodzić od nieznanego bozonu cechowania, który pośredniczy w interakcjach pomiędzy pochodzącymi ze Słońca neutrinami a elektronami. Jeszcze inny pomysł ma Nicole F. Bell z University of Melbourne i jej koledzy z USA. Uważają oni, że źródłem sygnału jest cząstka ciemnej materii o relatywnie niskiej masie. Ich zdaniem cząstka taka można trafiać do detektora w "lekkim stanie" i rozpraszać się do "stanu ciężkiego", który rozpada się z towarzyszącą emisją fotonu. I to właśnie ten foton wchodzi w reakcje z elektronem, dając obserwowany sygnał. Bartosz Fornal z University of Utah oraz naukowcy z Pekinu i Hongkongu również uważają, że mamy do czyeniania z cząstką ciemnej materii. Ma ona pochodzić z centrum galaktyki. Sygnał zaś bierze się z jej interakcji z elektronami w XENON1T. Autorami ostatniego artykułu są Joseph Bramante i Ningqiang Song z Kanady. Naukowcy sądzą, że źródłem sygnału są rozpraszające się cząstki ciemnej materii będącej termicznym reliktem wczesnego wszechświata. Na ostateczne rozstrzygnięcie zagadki będziemy musieli jeszcze poczekać. Uda się to pod warunkiem, że podobny sygnał zostanie zarejestrowany w kolejnych eksperymentach związanych z poszukiwaniem ciemnej materii. « powrót do artykułu
  21. Nathan Hrushkin, 12-letni miłośnik paleontologii, dokonał odkrycia życia, gdy w lipcu trafił na kości dinozaura. Specjaliści właśnie zakończyli wydobywanie skamieniałości. Młody hadrozaur to znaczące znalezisko, gdyż wiek skamieniałości oszacowano na 69 milionów lat. Kości z tego okresu to rzadkość. Przed rokiem Nathan był z ojcem na wędrówce w Albertan Badlands, okolicy znanej z występowania kości dinozaurów. Znaleźli tam małe fragmenty skamieniałości, a ojciec chłopca stwierdził, że prawdopodobnie stoczyły się one z wyższych partii wzgórza. W bieżącym roku para ponownie pojechała do Badlands, a Nathan wspiął się na wzgórze, by sprawdzić, czy przypuszczenia ojca są prawdziwe. To, co tam zobaczył, odebrało mu mowę. Ze skał wystawała duża kość. Po powrocie do domu chłopiec skontaktował się z Royal Tyrrell Museum, przesłał zdjęcia i koordynaty geograficzne znaleziska. Specjaliści byli zaskoczeni, gdyż ten region Badlands nie był dotychczas znany ze skamieniałości. Wysłana na miejsce ekipa potwierdziła jednak znalezisko. Dotychczas w ścianach kanionu znaleziono 30-50 kości. Wszystkie należą do hadrozaura, który w chwili śmierci miał 3–4 lata. To bardzo ważne znalezisko, gdyż pochodzi z czasów, z których mamy bardzo skąpe informacje o dinozaurach i innych zwierzętach żyjących w dzisiejszej Albercie. Odkrycie Nathana pomoże nam wypełnić olbrzymią lukę dotyczącą ewolucji dinozaurów, mówi kurator zbiorów paleoekologii, Francois Therrien. Młody odkrywca przyznał, że wcześniej jego ulubionym gatunkiem dinozaura był tyranozaur. Teraz jest nim hadrozaur. Wspaniale było zobaczyć wszystkie te kości wydobyte z ziemi po tylu miesiącach pracy, cieszy się Nathan. « powrót do artykułu
  22. Nowy Poczet Władców Polski autorstwa Waldemara Świerzego to zestaw portretów, który pierwszy raz od czasów Jana Matejki prezentuje królów i władców Polski. Do tej pory obrazy można było zobaczyć na kilku wystawach w największych miastach Polski. Od teraz dostępne są online wraz ze szczegółowym komentarzem historycznym, będąc wyjątkową lekcją historii naszego kraju. Powstała też specjalna witryna NowyPoczet.online. Pomysł na stworzenie Nowego Pocztu narodził się spontanicznie. Andrzej Pągowski zauważył, że często mówi się o tym, że Jan Matejko namalował poczet królów Polski, podczas gdy tak naprawdę do żadnego z portretów nie użył pędzla i farb. To nie były obrazy, tylko grafiki. Druga myśl dotyczyła rzetelności przekazu – czy wizerunki władców odzwierciedlały ich rzeczywistą powierzchowność? Dziś wiemy, że tego typu portrety miały prezentować piękno, dostojeństwo i bogactwo, a nie faktyczne rysy twarzy. Nadszedł więc czas, by stworzyć nowy poczet, a ściślej rzecz biorąc - namalować go. Jedyną osobą, do której mogłem się zwrócić z takim zadaniem, był mój profesor, Waldemar Świerzy, któremu zawdzięczałem tak wiele. To był mój sposób na spłacenie długu. Jako uczeń poprosiłem swojego mistrza o wykonanie tak wielkiego zadania [...] – opowiada Andrzej Pągowski, pomysłodawca projektu. Nowy Poczet powstawał w latach 2004–2013. Na samym początku do projektu dołączył historyk dr Marek Klat, który podjął się opieki nad wiarygodnością historyczną przedsięwzięcia. We współpracy z grupą innych historyków zbierał wszelkie materiały historyczne, które służyły za źródło wiedzy na temat każdej z malowanych postaci. Na podstawie zebranych dokumentów powstały rysopisy, uwzględniające możliwie najbardziej dokładny wygląd i osobowość. Finalnie Waldemar Świerzy stworzył 49 portretów, o 5 więcej niż Jan Matejko. Całość zaprezentowano po raz pierwszy w 2015 r. na Zamku Królewskim w Warszawie. Później wystawa trafiła do Gdańska, Wrocławia i Łodzi, gdzie cieszyła się za każdym razem ogromnym zainteresowaniem odwiedzających. Portrety nigdy nie stały się obiektem wystawy stałej, co tym bardziej czyniło z nich atrakcyjne i prestiżowe dzieło. Pandemia uniemożliwiła organizację kolejnych wystaw. Nowa sytuacja nie sprawiła jednak, że obrazy trafiły do magazynu, gdzie musiałby czekać na "lepsze czasy". Zapadła decyzja o tym, by Nowy Poczet Świerzego zaprezentować w internecie. Z jednej strony jest to odpowiedź na obecną sytuację spowodowaną wirusem [...] – umożliwiamy bezpieczny dostęp do kultury i sztuki, co w mojej ocenie jest niezwykle pozytywne. Z drugiej strony, jest to szansa na prezentację wystawy w zupełnie nowej formie, która daje nam większe możliwości. Jest to projekt wielce edukacyjny – tłumaczy Andrzej Pągowski. W internetowym wydaniu wystawa stała się czymś więcej niż zbiorem portretów. Teraz jest to lekcja historii, ponieważ każdy z obrazów prezentowany jest przez dr. Marka Klata w osobnych filmach opublikowanych na YouTube'ie. Historyk opowiada ze szczegółami o każdym z władców, zdradza ciekawostki i przedstawia fakty, dzięki czemu zyskujemy pewne wyobrażenie o osobie z portretu. Filmy są nafaszerowane merytoryką, z której mogą czerpać nie tylko miłośnicy historii, ale i (a może przede wszystkim) uczniowie i studenci, a nawet ich nauczyciele. Prezentując każdą z postaci, staram się sprowokować widza do uruchomienia wyobraźni. Pomaga w tym pewna dawka humoru i rezygnacja z patosu, który zwykle towarzyszy prezentacji władców. Musimy sobie zdać sprawę, że byli to ludzie z krwi i kości, mieli swoje słabości i unikalną osobowość, która określała ich styl rządzenia. Portrety autorstwa Waldemara Świerzego oddają cechy charakteru tych postaci, co można dostrzec, kiedy "pozna się" je bliżej – mówi Marek Klat, kurator wystawy i narrator jej internetowego wydania. Na oficjalnym kanale wystawy o nazwie "Nowy Poczet Online" znalazły się filmy-wypowiedzi Marka Klata i Andrzeja Pągowskiego. Każdy z nich nagrał swoją wypowiedź na temat kolejnych portretów, dzięki czemu powstała bogata biblioteka krótkich, kilkuminutowych, filmów. Marek Klat podchodzi do tematu od strony historycznej, przedstawia fakty, podczas gdy Andrzej Pągowski poddaje obrazy swoistej interpretacji, zwraca uwagę na szczegóły, które Waldemar Świerzy zaprezentował w wyjątkowo trafny sposób. Całościowo opublikowany materiał można traktować jak bardzo zaawansowane oprowadzenie kuratorskie. Tym samym cały projekt, który w zamyśle był stricte artystyczny, zyskał nową formę, dzięki której stał się również edukacyjny. Do tej pory opublikowano 57 filmików, każdego dnia po 2 nagrania, oraz film wprowadzający. Całość jako projekt edukacyjny pozostanie dostępna w serwisie YouTube bezterminowo.   « powrót do artykułu
  23. Fizycy z University of Rochester poinformowali o stworzeniu pierwszego w historii nadprzewodnika działającego w temperaturze pokojowej. Uzyskany przez nich związek wodoru, węgla i siarki wykazuje właściwości nadprzewodzące w temperaturze dochodzącej do 15 stopni Celsjusza. Po raz pierwszy w historii można rzeczywiście stwierdzić, że osiągnięto nadprzewodnictwo w temperaturze pokojowej, mówi Ion Errea z Uniwersytetu Kraju Basków, fizyk-teoretyk zajmujący się materią skondensowaną. Wyniki badań opublikowano na łamach Nature. Naukowcy od dawna poszukują nadprzewodników działających w temperaturze pokojowej. Materiały takie zrewolucjonizowałyby wiele dziedzin życia. Pozwoliłyby na bezstratne przesyłanie energii liniami wysokiego napięcia, budowę lewitujących pociągów wielkich prędkości czy stworzenie znacznie bardziej wydajnych komputerów. Niestety, opracowany przez Amerykanów materiał nigdy nie posłuży do stworzenia wspomnianych urządzeń, gdyż wykazuje właściwości nadprzewodzące przy ciśnieniu sięgającym 75% ciśnienia panującego w ziemskim jądrze. Ludzie od dawna marzą o nadprzewodnikach. Dlatego też mogą nie docenić tego, co zostało osiągnięte, gdyż potrzebujemy do tego wysokich ciśnień, mówi Chris Pickard z University of Cambridge. Teraz, gdy udowodniono, że nadprzewodnictwo w temperaturze pokojowej jest możliwe, należy jeszcze znaleźć materiał, który będzie nadprzewodnikiem przy ciśnieniu atmosferycznym. Na szczęście niektóre cechy nowego związku sugerują, że możliwe będzie znalezienie odpowiedniego materiału. Opór elektryczny to zjawisko, które ma miejsce, gdy przemieszczające się elektrony zderzają się z atomami metalu, w którym podróżują. W 1911 roku odkryto, że w niskich temperaturach elektrony wywołują drgania w sieci atomowej metallu, a w wyniku tych drgań elektrony łączą się w pary Coopera. Różne prawa fizyki kwantowej powodują, że pary takie przemieszczają się przez sieć krystaliczną metalu, nie napotykając na żaden opór. Jakby jeszcze tego było mało, tworzą one „nadprzewodzący płyn”, który posiada silne pole magnetyczne, pozwalające np. na osiągnięcie magnetycznej lewitacji nad nadprzewodzącymi szynami kolejowymi. W 1968 Neil Ashcroft z Cornell University stwierdził, że w osiągnięciu nadprzewodnictwa powinny pomóc atomy wodoru. Co prawda potrzeba jest niezwykle wysokich ciśnień, by uzyskać sieć krystaliczną wodoru, jednak praca Ashcrofta dawała nadzieję, że uda się znaleźć taki związek wodoru, dzięki któremu będzie to możliwe przy niższych ciśnieniach. Szybkich postępów zaczęto dokonywać w XXI wieku, kiedy to z jednej strony pojawiły się potężniejsze komputery, pozwalające na przeprowadzanie teoretycznych obliczeń i warunków, jakie powinny być spełnione, by osiągnąć nadprzewodnictwo, z drugiej zaś rozpowszechniło się użycie kompaktowych komór diamentowych, pozwalających na osiąganie bardzo wysokich ciśnień. Badania tego typu są bardzo kosztowne, o czym świadczy chociażby przykład z Rochester. Zespół naukowy, który pochwalił się osiągnięciem nadprzewodnictwa w temperaturze pokojowej, posiłkował się obliczeniami i intuicją. Podczas prac testowano wiele związków wodoru, z różną zawartością wodoru. Konieczne było bowiem znalezienie odpowiednich proporcji tego pierwiastka. Jeśli będziemy mieli zbyt mało wodoru, nie uzyskamy dobrego nadprzewodnika. Jeśli będzie go zbyt dużo, to formę metaliczną przybierze on przy ciśnieniach, które niszczą diamentowe ostrza komory. W czasie swoich badań uczeni zniszczyli dziesiątki par takich ostrzy, z których każda kosztuje 3000 USD. Budżet na diamenty to największy problem, przyznaje Ranga Dias, szef zespołu badawczego. Dzisiejszy sukces był możliwy dzięki wykorzystaniu osiągnięć niemieckich naukowców, którzy w 2015 roku uzyskali nadprzewodzący siarkowodór w temperaturze -70 stopni Celsjusza. Amerykanie również rozpoczęli swoją pracę od siarkowodoru. Dodali do niego metan, a całość przypiekli laserem. Byliśmy w stanie wzbogacić całość i wprowadzić do systemu odpowiednią ilość wodoru, by utrzymać pary Coopera w wysokich temperaturach, wyjasnia Ashkan Salamat. Naukowcy przyznają, że nie wiedzą dokładnie, jak wygląda ich materiał. Wodór jest zbyt mały, by było go widać w standardowym próbkowaniu struktury, nie wiadomo zatem, jak dokładnie wygląda sieć krystaliczna uzyskanego związku, ani nawet jaka jest jego dokładna formuła chemiczna. Uzyskane wyniki nie do końca zgadzają się też z wcześniejszymi teoretycznymi przewidywaniami. Niewykluczone, że wysokie ciśnienie w jakiś nieprzewidywalny sposób zmieniło badaną substancję, dzięki czemu udało się uzyskać tak dobre nadprzewodnictwo w temperaturze pokojowej. Obecnie Dias i jego grupa pracują nad dokładnym określeniem budowy swojej substancji. Gdy już będą to wiedzieli, teoretycy będą mogli przystąpić do obliczeń, pozwalających na dalsze udoskonalenie przepisu na nadprzewodnik w temperaturze pokojowej. Dotychczas udowodniono, że próba uzyskania działającego w temperaturze pokojowej nadprzewodnika złożonego z wodoru i jeszcze jednego pierwiastka to ślepy zaułek. Jednak trójskładnikowe związki mogą być rozwiązaniem problemu. Szczególnie obiecująco wygląda tutaj dodanie węgla do całości. Węgiel ma bardzo silne wiązania kowalencyjne i, jak się wydaje, zapobiega on rozpadaniu się par Coopera przy mniejszym ciśnieniu. Ciśnienie atmosferyczne będzie tutaj bardzo dużym wyzwaniem. Ale jeśli do równania dodamy węgiel, to jest to bardzo dobry prognostyk na przyszłość, mówi Eva Zurek z zespołu obliczeniowego, który współpracuje z grupą Diasa. « powrót do artykułu
  24. Udało się zlokalizować i złapać manula, który uciekł z Ogrodu Zoologicznego w Poznaniu. Wychłodzone zwierzę zostało znalezione po godz. 9 na terenie ogródków działkowych przy ul. Krańcowej. Wychłodzony i wyczerpany, ale najważniejsze, że się znalazł - powiedziała "Gazecie Wyborczej" rzeczniczka zoo Małgorzata Chodyła. Czwartek był 6. dobą poszukiwań. W środę pracownicy zoo tracili już nadzieję. Szanse są coraz mniejsze. To zwierzę jest bardzo płochliwe. To nie pies, który będzie stał i czekał na pomoc. On się przed ludźmi kryje. Może być nawet bardzo blisko nas, będziemy przechodzić tuż obok niego. Rzeczniczka podkreśliła, że zoo otrzymało od mieszkańców Poznania wiele sygnałów i fotografii. Większość nie dotyczyła uciekiniera (nazwanego na profilu Ogrodu Zoologicznego na Facebooku Magellanem odbywającym podróż życia), na szczęście były też i dobre wskazówki. Okazuje się, że najpierw manul przemieszczał się w okolicach Jeziora Maltańskiego, a potem wrócił w rejony sąsiadujące z zoo. Dziś rano został złapany przy ulicy Krańcowej, kilkaset metrów od zoo. [...] Sygnały, które dostawaliśmy, świadczą o tym, że świadomie lub nie był coraz bliżej nas. Jakby chciał wrócić do ogrodu - zaznacza Chodyła. Po odebraniu zgłoszenia kilku pracowników wraz z dyrekcją musiało się wczołgiwać pod prywatny samochód na działce, [...] na której znajdował się niezwykły wabik: gołębie domowe. Magellan nie chciał współpracować, został dosłownie capnięty i zapakowany do transportera, mimo głośnych syków i prób kąsania [...]. Tygrys szablozębny nie powstydziłby się takiego temperamentu! Magellan to imię nadane zaledwie wczoraj, kiedy po kolejnym dniu poszukiwań po okolicznych lasach, w deszczu, zimnie i błocie, pracownicy zoo tracili już nadzieję... Wychudzonemu i zziębniętemu manulowi podano środki na odrobaczenie i wzmocnienie odporności. Mocno obrażony, ale nakarmiony i bezpieczny, odsypia teraz przygodę życia. W przesłanym nam mailu rzeczniczka napisała, że zapewne od jutra będzie otrzymywał antybiotyk przez kilka dni. Jest już w swoim kotniku. Dosłownie zasnął przy jedzeniu.   « powrót do artykułu
  25. W ramach Square Kilometre Array (SKA), wielkiego międzynarodowego przedsięwzięcia naukowego, powstaje olbrzymi radioteleskop, którego dwa regiony centralne będą znajdowały się w RPA i Australii. Kraje te wybrano dlatego, że anteny trzeba zbudować w słabo zaludnionych miejscach, by maksymalnie ograniczyć liczbę zakłóceń powodowanych przez człowieka. Wybrano miejsca, w których do których nie dociera nawet sygnał telefonii komórkowej. Jednak teraz miejscom tym zagraża Elon Musk i jego Starlink, które zanieczyszczą całe niebo sygnałami radiowymi. Firma Muska, SpaceX, wystrzeliła już setki niewielkich satelitów, które tworzą konstelację Starlink. W niedalekiej przyszłości satelitów ma być kilkanaście tysięcy. Celem Starlinka jest dostarczenie internetu w każdy zakątek globu i zarabianie pieniędzy dla Muska oraz SpaceX. Starlink już teraz zakłóca badania astronomiczne. Od momentu gdy powstał astronomowie korzystający z teleskopów optycznych skarżą się, że przelatujące satelity zaburzają obraz. Tego samego obawiają się radioastronomowie. Niebo będzie pełne tych rzeczy, mówi dyrektor generalny SKA Phil Diamond. Square Kilometre Array ma składać się z tysięcy antent, których łączna powierzchnia wyniesie 1 km2. Centralne regiony, z setkami anten, będą znajdowały się w RPA i Australii. Całość będzie pracowała jak jeden olbrzymi radioteleskop o niedostępnej dotychczas rozdzielczości. SQA będzie 50-krotnie bardziej czuły niż jakikolwiek inny instrument. Naukowcy mają nadzieję, że dzięki SKA zbiorą dane z okresu Wieków Ciemnych i Pierwszego Światła wszechświata. Zobaczą, jak zapalały się pierwsze gwiazdy i powstawały pierwsze galaktyki. To jest zresztą głównym powodem budowania SKA – chęć zbadania tego, co było między Wiekami Ciemnymi a Pierwszym Światłem. Ale nie tylko. Urządzenie będzie w stanie przeprowadzać testy ogólnej teorii względności, badać zachowanie czasoprzestrzeni w miejscach, gdzie jest ona ekstremalnie zagięta, pozwoli na zmapowanie miliarda galaktyk znajdujących się na krańcach obserwowalnego wszechświata, umożliwi poznanie formowania się i ewolucji galaktyk, dzięki niemu naukowcy będą mogli badać ciemną energię i ciemną materię czy testować podstawowe najważniejsze teorie kosmologiczne. SKA opublikowało właśnie analizę, z której wynika, że Spacelink i inne tego typu przedsięwzięcia będą powodowały interferencję na jednym z kanałów radiowych, przez co zakłócą poszukiwanie molekuł organicznych oraz molekuł wody w przestrzeni kosmicznej. SpaceX twierdzi, że pracuje nad rozwiązaniem tego problemu, jednak naukowcy chcą, by został on rozwiązany prawnie. United Nations Office for Outer Space Affairs (UNOOSA), które przyjrzało się analizie SKA, chce zapobiegać zanieczyszczaniu nieboskłonu przez satelity. Nie tylko ze względu na badania astronomiczne, ale także ze względów społecznych oraz ochrony środowiska naturalnego. Astronomowie mają też nadzieję, że podobne działania podejmie Międzynarodowa Unia Telekomunikacyjna (ITU). Spektrum radiowe to zasób zajmowany przez prywatne firmy, które zwykle nie mają szacunku dla nauki. Sądzę, że może to powstrzymać jedynie interwencja na szczeblu rządowym, mówi Michael Garrett, dyrektor w Jodrell Bank Centre for Astrophysics w Wielkiej Brytanii. Dotychczas SpaceX wystrzeliła ponad 700 satelitów Starlink. Ma zgodę na wystrzelenie w sumie 12 000 satelitów. Podobne plany mają też inne firmy, jak Amazon czy OneWeb. Dziesiątki tysięcy satelitów latających na niskiej orbicie nad naszymi głowami to poważny problem. Szczególnie dla astronomii optycznej i takich urządzeń, jak budowane właśnie Vera C. Rubin Observatory. Na razie astronomowie wspólnie ze SpaceX starają się w jakiś sposób zaradzić temu problemowi, jednak trudno powiedzieć czy i w jakim stopniu się to uda. Problemy będą się też pogarszały jeśli chodzi o radioastronomię. Konstelacja Starlink będzie korzystała z pasma radiowego w zakresie 10,7–12,7 GHz. To pasmo 5b, jedno z siedmiu używanych przez SKA. Z analiz wynika, że gdy Starlink będzie składał się z 6400 satelitów, SKA utraci w tym paśmie 70% czułości. Gdy zaś satelitów będzie 100 000 – jak obawiają się niektórzy – całe pasmo stanie się bezużyteczne dla radioastronomii. A to w tym paśmie można badać takie molekuły jak glicyna, jeden ze składników białek. Gdybyśmy wykryli ją w jakimś formującym się układzie planetarnym, byłoby to niezwykle interesujące. To właśnie nowy obszar badań, który zostanie otwarty przez SKA, mówi Diamond. W tym samym paśmie można też poszukiwać molekuł wody. Dotychczas problem zakłóceń rozwiązywano tworząc odpowiednie strefy ochronne wokół teleskopów. Nie mogły tam powstawać nadajniki, ograniczano działalność, która zaburzała prace naukowe. Jednak nadajniki radiowe latające nad głowami to zupełnie inny problem. Tony Beasley, dyrektor US National Radio Astronomy Observatory mówi, że problem był dyskutowany ze SpaceX. Rozważane są takie rozwiązania jak wyłączanie nadajników na satelitach, zmiana ich orbity czy skierowanie nadajników w inną stronę podczas przelotu nad obszarami, gdzie prowadzone są badania. Jednak wielu astronomów nie chce polegać wyłącznie na dobrej woli właścicieli satelitów. Dlatego też podczas spotkania UNOOSA zaproponowano, by na szczeblu międzynarodowym wprowadzić zakaz emitowania przez satelity sygnału radiowego podczas przelotu nad obszarami chronionym oraz by zobowiązać przedsiębiorstwa do wprowadzenia technologii zapobiegania przypadkowym zakłóceniom. « powrót do artykułu
×
×
  • Dodaj nową pozycję...