Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36934
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    224

Zawartość dodana przez KopalniaWiedzy.pl

  1. Inżynierowie z NASA skonstruowali i przetestowali pierwszy pełnoskalowy silnik rakietowy z rotującą detonacją (RDRE – rotating detonation rocket engine). Tego typu napęd może być przyszłością lotów kosmicznych. Dzięki niemu bowiem rakiety będą lżejsze, mniej skomplikowane i zużyją mniej paliwa. Zaledwie trzy lata temu powstał matematyczny model takiego silnika oraz niewielki prototyp, co pozwoliło inżynierom na rozpoczęcie testów urządzenia. Konwencjonalny silnik rakietowy uzyskuje ciąg dzięki spalaniu paliwa i wyrzucaniu go z tyłu. Silnik z rotującą detonacją składa się z koncentrycznych cylindrów, pomiędzy które wpływa paliwo. Zostaje ono tam zapalone. Dochodzi do gwałtownego uwolnienia ciepła w postaci fali uderzeniowej. Jest to silny impuls gazów o wysokiej temperaturze i ciśnieniu, które poruszają się szybciej od prędkości dźwięku. O ile w konwencjonalnych silnikach stosowane są liczne podzespoły odpowiedzialne za kierowanie i kontrolowanie reakcji spalania, to nie są one potrzebne w silnikach RDRE. Napędzana procesem spalania fala uderzeniowa w sposób naturalny przemieszcza się w komorze, zapalając kolejne porcje paliwa. To bardzo gwałtowny proces, w wyniku którego można uzyskać większy ciąg, zużywając przy tym mniej paliwa. NASA poinformowała właśnie o wynikach ubiegłorocznego testu silnika RDRE. Został on uruchomiony kilkanaście razy i pracował w sumie przez 10 minut. Celem testu było sprawdzenie, czy poszczególne podzespoły są w stanie wytrzymać przez dłuższy czas ekstremalne temperatury i ciśnienie. Podczas pracy z pełną mocą silnik przez niemal minutę wygenerował ciąg o mocy ok. 18 kN, czyli ok. 400 razy mniejszy niż ciąg F-1, najpotężniejszego w historii jednokomorowego silnika na paliwo płynne, który napędzał Saturna V, najpotężniejszą rakietę w dziejach. Średnie ciśnienie w komorze spalania wyniosło 4,2 MPa. To najwyższa wartość ciśnienia osiągnięta w tego typu silniku. Udane testy RDRE pozwalają NASA myśleć o wykorzystaniu tej technologii w przyszłości. Obecnie inżynierowie pracują nad RDRE wielokrotnego użytku, który wygeneruje ciąg 44,5 kN. Posłuży on do testów porównujących tego typu konstrukcję z obecnie używanymi silnikami. « powrót do artykułu
  2. W PAN Bibliotece Gdańskiej od wtorku (24 stycznia) można oglądać wystawę „Nowe nabytki Zbiorów Specjalnych”. Zaprezentowano 70 obiektów z 3256 pozyskanych przez instytucję w zeszłym roku. Do najcenniejszych/najciekawszych należą trzyczęściowa mapa z 1573 r., a także album fotograficzny z 1934 r. z podróży pary drezdeńczyków po Prusach Wschodnich. Jak podkreślono we wpisie PAN Biblioteki Gdańskiej na Facebooku, zgromadzone obiekty trafiły do zbiorów jako darowizny, zostały zakupione na aukcjach czy też wytropione na Jarmarku Dominikańskim i platformach zakupowych. Są to rękopisy, starodruki, mapy, grafiki, dokumenty życia społecznego, fotografie, numizmaty. Wspomniana wcześniej mapa stanowi dar Fundacji Biblioteki Gdańskiej. Powstała w 1573 r. w Antwerpii. Składa się z 3 części. U góry widnieje Pomorze, obejmujące obszar od Rostocku i Rugii po Gdańsk i Hel; na południu sięga do Grudziądza oraz ujścia Warty do Odry. U dołu przedstawiono historyczny region Dithmarschen w południowej części Półwyspu Jutlandzkiego, a także obszar od Lęborka, przez Gdańsk, do Kłajpedy. Opisując album z sentymentalnej podróży dwojga drezdeńczyków, najprawdopodobniej małżeństwa, Marta Pawlik-Flisikowska z PAN Biblioteki Gdańskiej wyjaśnia, że na fotografiach można zobaczyć m.in. wnętrza sopockiego Grand Hotelu, w którym nocowali. Do tej pory nie mieliśmy zdjęć ze środka, [a] to spowodowało, że chcieliśmy posiadać ten album w swoich zbiorach - powiedziała cytowana przez PAP specjalistka. Na trasie drezdeńczyków znalazły się m.in. Królewiec czy Gdańsk. Oprócz tego podróżnicy dotarli do Tannenbergu (pol. Stębark), pod którym w 1914 r. rozegrała się zakończona zwycięstwem Niemiec bitwa między siłami Imperium Rosyjskiego a Cesarstwem Niemieckim. Składająca się z ok. 200 zdjęć pamiątka może zainteresować badaczy hitlerowskiej myśli politycznej. Koordynatorka wystawy Stefania Sychta dodaje, że ciekawa jest również rycina przedstawiająca iluminację wystawioną 3 sierpnia 1735 r. w Elblągu na cześć króla Augusta III. Wydarzenie na cześć monarchy [...] zainicjował, a także sfinansował, Leon Raczyński, dowódca regimentu królewskiego stacjonującego w Elblągu. Sam miedzioryt powstał ok. 1740 r. Jego autorem jest Peter Böse - wyjaśniła Sychta portalowi Gdansk.pl. Jak podano w opisie towarzyszącym eksponatowi, do wykonania iluminacji posłużyła konstrukcja drewniana w formie trzech kamienic, być może wzorowanych na architekturze Elbląga. Otwory okienne i nisze przesłonięto malowanymi dekoracjami figuralno-słownymi – emblematami – oddającymi uniżoność oraz cześć i chwałę władcy. Splendor iluminacji podkreślają setki świec umieszczonych na elewacji. Uwagę przyciąga także relacja z podróży autorstwa szwajcarskiego matematyka Johanna Bernoulliego. Wydano ją w 1779 r. w Lipsku. W latach 1777-78 uczony odwiedził Brandenburgię, Pomorze, Prusy czy Rosję. Bernoulli opisał też pobyt w Gdańsku, m.in. w siedzibie Towarzystwa Przyrodniczego. Dodatkowo w zeszłym roku zbiory specjalne wzbogaciły się o drewniany młotek do regulacji odstępów między półkami regałów bibliotecznych z początku ubiegłego wieku, świadectwo czeladnicze murarza Christiana Fuckerta z Chojnic z 1790 roku czy chorągiewkę z herbem Gdańska z okresu Wolnego Miasta Gdańska. Wystawę „Nowe nabytki Zbiorów Specjalnych” można oglądać do 3 marca w historycznym gmachu biblioteki przy ul. Wałowej 15. « powrót do artykułu
  3. Naukowcy z Wydziału Medycyny Uniwersytetu w Pittsburghu są prawdopodobnie pierwszymi, którzy donoszą o istnieniu w ludzkim mózgu 12-godzinnego cyklu aktywności genetycznej. Co więcej, na podstawie pośmiertnych badań tkanki mózgowej stwierdzili, że niektóre elementy tego cyklu są nieobecne lub zburzone u osób cierpiących na schizofrenię. Niewiele wiemy o aktywności genetycznej ludzkiego mózgu w cyklach krótszych niż 24-godzinne. Od dawna zaś obserwujemy 12-godzinny cykl aktywności genetycznej u morskich, które muszą dostosować swoją aktywność do pływów, a ostatnie badania wskazują na istnienie takich cykli u wielu różnych gatunków, od nicienia C. elegans, poprzez myszy po pawiana oliwkowego. Wiele aspektów ludzkiego zachowania – wzorzec snu czy wydajność procesów poznawczych – oraz fizjologii – ciśnienie krwi, poziom hormonów czy temperatura ciała – również wykazują rytm 12-godzinny, stwierdzają autorzy badań. Niewiele jednak wiemy o tym rytmie, szczególnie w odniesieniu do mózgu. Na podstawie badań tkanki mózgowej naukowcy stwierdzili, że w mózgach osób bez zdiagnozowanych chorób układu nerwowego, w ich grzbietowo-bocznej korze przedczołowej, widoczne są dwa 12-godzinne cykle genetyczne. Zwiększona aktywność genów ma miejsce w godzinach około 9 i 21 oraz 3 i 15. W cyklu poranno-wieczornym dochodzi do zwiększonej aktywności genów związanych z funkcjonowaniem mitochondriów, a zatem z zapewnieniem mózgowi energii. Natomiast w godzinach popołudniowych i nocnych – czyli ok. 15:00 i 3:00 – zwiększała się aktywność genów powiązanych z tworzeniem połączeń między neuronami. O ile nam wiadomo, są to pierwsze badania wykazujące istnienie 12-godzinnych cykli w ekspresji genów w ludzkim mózgu. Rytmy te są powiązane z podstawowymi procesami komórkowymi. Jednak u osób ze schizofrenią zaobserwowaliśmy silną redukcję aktywności w tych cyklach, informują naukowcy. U cierpiących na schizofrenię cykl związany z rozwojem i podtrzymywaniem struktury neuronalnej w ogóle nie istniał, a cykl mitochondrialny nie miał swoich szczytów w godzinach porannych i wieczornych, gdy człowiek się budzi i kładzie spać, a był przesunięty. W tej chwili autorzy badań nie potrafią rozstrzygnąć, czy zaobserwowane zaburzenia cykli u osób ze schizofrenią są przyczyną ich choroby, czy też są spowodowane innymi czynnikami, jak np. zażywanie leków lub zaburzenia snu. « powrót do artykułu
  4. W bitwie pod Waterloo zginęło ponad 10 000 ludzi, jednak dotychczas na polu bitwy udało się znaleźć jedynie 2 szkielety. W ubiegłym roku opisywaliśmy wyniki badań, których autor twierdzi, że kości poległych zostały z czasem wykopane z masowych grobów i... przerobione na nawóz. Okazało się jednak, że do dnia dzisiejszego zachowało się więcej szczątków ofiar bitwy. Były one przechowywane... na strychu prywatnego domu. W listopadzie ubiegłego roku Bernard Wilkin, badacz z Państwowych Archiwów Belgii był w Waterloo z wykładem dotyczącym wykorzystania kości poległych żołnierzy przez przemysł cukierniczy. Po wykładzie podszedł do niego starszy mężczyzna, który powiedział: doktorze Wilkin, mam na strychu kości tych Prusaków. Mężczyzna pokazał uczonemu fotografie i zaprosił go do swojego domu położonego w pobliżu pola bitwy w Plancenoit, o które Francuzi walczyli z korpusem pruskim Bülowa. Kilka dni później Wilkin odwiedził mężczyznę i zobaczył kości. Właściciel domu wyjaśnił mu, że przechowuje je od lat 80. ubiegłego wieku. Dostał je od swojego przyjaciela, który znalazł szczątki kilka lat wcześniej. Jako, że jest kolekcjonerem napoleońskich memorabiliów planował wystawić kości w swoim prywatnym muzeum, ale uznał, że nie byłoby to etyczne i przechowywał szczątki na strychu. Niedawno mężczyzna stwierdził, że jest już stary i obawia się, co stanie się z kośćmi po jego śmierci. Skorzystał więc z okazji, że w okolice przyjechał specjalista pracujący dla rządu i postanowił przekazać mu kości. Już obecnie wiadomo, że kości należą do co najmniej 4 żołnierzy, a znalezione wraz z nimi przedmioty, w tym guziki, sugerują, że byli to żołnierze pruscy. Na jednej z czaszek widoczny jest potężny uraz od miecza lub bagnetu. Obecnie szczątki są badane przez ekspertów z Liege. Specjaliści oceniają, że istnieje 20–30 procent szans, że z kości uda się pozyskać DNA i dowiedzieć o żołnierzach coś więcej. Z Belgami współpracuje niemiecki historyk wojskowości Rob Schäfer, który działa z ramienia Niemieckiej Komisji Grobów Wojennych. Jeśli uda się przeanalizować DNA poległych, Schäfer chciałby porównać je z dostępnymi bazami danych, by sprawdzić, czy obecnie żyją jacyś ich krewni. To jednak nie koniec niespodzianek. Wilkin mówi, że gdy był na strychu w Plancenoit mężczyzna, który go zaprosił, powiedział: a tak przy okazji, mój przyjaciel ma kości prawdopodobnie czterech brytyjskich żołnierzy, które znalazł podczas pracy z wykrywaczem metali przy Kopcu Lwa. Kopiec-pomnik wzniesiony na polu bitwy 10 lat po jej zakończeniu. Kości domniemanych Brytyjczyków są obecnie badane w Brukseli. Wilkin podejrzewa, że więcej osób mieszkających w pobliżu może przechowywać szczątki ofiar bitwy. « powrót do artykułu
  5. Badania na szczurach sugerują, że regularnie spożywanie diety wysokotłuszczowej lub wysokokalorycznej zaburza zdolność mózgu do regulowania ilości przyjmowanych kalorii. Naukowcy z Penn State College of Medicine opublikowali na łamach Journal of Physiology artykuł, z którego dowiadujemy się, że po krótkoterminowym żywieniu dietą wysokokaloryczną mózg adaptuje się do tej sytuacji i redukuje ilość spożywanego pokarmu, by zrównoważyć liczbę przyjmowanych kalorii. Jednak przy długoterminowym spożywaniu takiej diety mechanizm ten zostaje zaburzony. Z przeprowadzonych badań wynika, że astrocyty – największe komórki glejowe – kontrolują szlak sygnały pomiędzy mózgiem a układem pokarmowym. Długotrwałe spożywanie diety wysokotłuszczowej/wysokokalorycznej zaburza ten szlak. Wydaje się, że w krótkim terminie przyjmowanie kalorii jest regulowane przez astrocyty. Odkryliśmy, że krótkotrwała – od 3 do 5 dni – ekspozycja na dietę wysokotłuszczową ma największy wpływ na astrocyty, uruchamiając szlak sygnałowy kontrolujący żołądek. Z czasem jednak astrocyty tracą wrażliwość na wysokokaloryczne pożywienie. Wydaje się, że po około 10–14 dniach takiej diety astrocyty przestają reagować i mózg nie jest w stanie regulować ilości spożywanych kalorii, mówi doktor Kirsteen Browning. Gdy spożywamy wysokokaloryczny pokarm, astrocyty uwalniają glioprzekaźniki i uruchamia się cały szlak sygnałowy kontrolujący prace żołądka. Dzięki temu odpowiednio się on opróżnia i napełnia w reakcji na pożywienie przechodzące przez układ pokarmowy. Zaburzenia pracy astrocytów prowadzą do zaburzeń trawienia, gdyż żołądek nie napełnia się i nie opróżnia prawidłowo. Naukowcy prowadzili badania 205 szczurów, które podzielono na grupę kontrolną i grupy badane. Zwierzęta z grup badanych karmiono wysokokaloryczną dietą przez 1, 3, 5 lub 14 dni. Podczas eksperymentów stosowano metody farmakologiczne i genetyczne (zarówno in vitro, jak i in vivo), które pozwalały manipulować wybranymi obszarami układu nerwowego. Naukowcy planują teraz poszerzenie swoich badań, gdyż chcieliby się dowiedzieć, czy utrata aktywności astrocytów jest przyczyną czy skutkiem przyjmowania nadmiernej ilości kalorii. Chcemy też wiedzieć, czy możliwe jest odzyskanie utraconej przez mózg regulacji ilości spożywanych kalorii. Jeśli tak, to być może powstaną dzięki temu metody leczenia otyłości u ludzi, stwierdza Browning. O ile, oczywiście, występowanie takiego samego mechanizmu uda się zaobserwować u naszego gatunku. « powrót do artykułu
  6. W ostatnim dniu ubiegłego roku Poczta Polska (PP) wprowadziła do obiegu znaczek z Thorgalem. Zaprojektowała go Agnieszka Sancewicz. Na znaczku widnieje rysunek Grzegorza Rosińskiego z Thorgalem Aegirssonem i jego żoną Aaricią, córką Gandalfa Szalonego. Na kopercie Pierwszego Dnia Obiegu (ang. FDC, od first day cover) umieszczono portret bohatera słynnej serii komiksowej. Znaczek o wartości 8 zł ma wymiary 31,25x43 mm, a cały blok - 54x86 mm. Zastosowano druk offsetowy na papierze fluorescencyjnym. Nakład to 100 tys. egzemplarzy. Znaczki można kupić na stronie PP oraz w wybranych placówkach pocztowych. Koperty tej emisji cieszyły się dużym powodzeniem i obecnie dostępne są już jedynie na rynku wtórnym. Nie jest to pierwsze wydawnictwo Poczty Polskiej z bohaterami komiksów. Przypomnijmy, że w zeszłym roku PP zaprezentowała okolicznościowy znaczek na 50. urodziny Kajka i Kokosza. Wydano go w formie bloku. W polu znaczka pojawili się Kajko, Kokosz oraz Miluś. W polu bloku umieszczono zaś Jagę, Łamignata, Lubawę i Mirmiła. W 2009 r., kiedy to przypadała 52. rocznica ukazania się pierwszego odcinka serii, uhonorowano natomiast Tytusa, Romka i A’Tomka. W 2011 r. ukazały się 4 znaczki pocztowe z postaciami Bohdana Butenki - Gapiszonem, Kwapiszonem oraz Guciem i Cezarem. „Thorgal” to efekt współpracy belgijskiego scenarzysty Jeana Van Hamme'a i polskiego rysownika Grzegorza Rosińskiego. Bohaterem komiksu jest wiking Thorgal Aegirsson. Jego autorzy wykorzystali konwencję fantasy i dramatu historycznego oraz motywy z mitologii nordyckiej. Po raz pierwszy „Thorgal” ukazał się w 1977 roku. Van Hamme przerwał prace nad Thorgalem w 2006 roku, a Rosiński w roku 2018. Obecnie komiks tworzony jest przez inny zespół. Dotychczas komiks został wydany w około 20 językach, a jego sprzedaż sięgnęła kilkunastu milionów egzemplarzy. « powrót do artykułu
  7. Naukowcy wykorzystali Teleskop Webba do zarejestrowania pierścieni Chariklo. To największy ze znanych nam centaurów, niewielkich ciał poruszających się po orbitach wokół Słońca pomiędzy orbitami Jowisza i Neptuna. Chariklo znajduje się za Saturnem, w odległości ok. 3,2 miliarda kilometrów od Ziemi. Ma 250 kilometrów średnicy, a w 2013 roku astronomowie korzystający z teleskopów naziemnych odkryli, że posiada system dwóch pierścieni. Naukowcy obserwowali wówczas, jak Chariklo przechodzi na tle jednej z gwiazd. Zjawisko takie, które rzadko możemy obserwować, zwane jest okultacją i jest wykorzystywane do określania właściwości fizycznych zakrywanych obiektów. Ku ich zdumieniu okazało się, że jasność gwiazdy dwukrotnie się zmniejszyła jeszcze zanim została ona zasłonięta przez Chariklo, a gdy asteroida odsłoniła gwiazdę, ponownie doszło do dwukrotnego „mrugnięcia" gwiazdy. To pokazało, że Chariklo posiada system dwóch pierścieni i są to pierwsze znane nam pierścienie w Układzie Słonecznym znajdujące się wokół tak małego obiektu. Obecnie wiemy, że znajdują się one w odległości około 400 kilometrów od centaura. Wśród astronomów, którzy zarezerwowali sobie czas obserwacyjny Teleskopu Webba jest Pablo Santos-Sanz z Instituto de Astrofísica de Andalucía. Postanowił on skorzystać z faktu, że Chariklo miał przejść na tle gwiazdy Gaia DR3 6873519665992128512. Wykorzystał więc Webba do obserwacji tego zjawiska. Dane z przejścia były dokładnie takie, jak się spodziewano. Webb zarejestrował okultację gwiazdy zarówno przez Chariklo jak i jego pierścienie. Zaś krótko po okultacji naukowcy jeszcze raz przyjrzeli się centaurowi za pomocą Webba, zbierając dane dotyczące światła słonecznego odbijanego przez Chariklo i jego pierścienie. W ten sposób teleskop udowodnił nie tylko swoje niezwykłe możliwości obserwacyjne, ale również dostarczył nam nowych danych. Kosmiczny instrument zarejestrował trzy pasma absorpcji zamrożonej wody. Badania za pomocą teleskopów naziemnych również sugerowały istnienie tego lodu, jednak Webb dostarczył pierwszych dowodów, że istnieje tam zamarznięta woda w postaci krystalicznej. Wysokoenergetyczne cząstki zmieniają lód z postaci krystalicznej do amorficznej. Odkrycie krystalicznego lodu w systemu Chariklo oznacza, że bez przerwy zachodzą tam mikrokolizje, które albo odsłaniają pierwotny materiał, albo inicjują proces krystalizacji, mówią autorzy badań. To jednak nie wszystko. Naukowcy mają nadzieję, że dzięki szczegółowej analizie danych z Webba będą w stanie dokładnie odróżnić od siebie oba pierścienie Chariklo, określić ich grubość, rozmiary oraz właściwości budujących go cząstek. Chcieliby się też dowiedzieć, jak to się stało, że tak mały obiekt posiada pierścienie i odkryć pierścienie wokół innych niewielkich obiektów. Olbrzymia czułość Webba w zakresie podczerwieni w połączeniu z możliwościami rejestrowania danych z okultacji oznaczają, że teleskop znakomicie zwiększyć naszą wiedzę o odległych niewielkich obiektach Układu Słonecznego. « powrót do artykułu
  8. Muzeum Archeologiczne w Poznaniu przeprowadziło konserwację cennego zbioru szklanych negatywów fotograficznych. Od kwietnia ub.r. zakonserwowano ich aż 860. Płyty znajdują się w zasobach archiwum naukowego instytucji. Dokumentują archeologię wielkopolską okresu międzywojennego. Jak podkreślono w komunikacie prasowym, zilustrowane zostały na nich m.in. rozmaite odkrycia archeologiczne, badania wykopaliskowe, a także organizowane wówczas, nierzadko w terenie, wystawy zabytków. Na zdjęciach nie zabrakło też znanych osobistości ze świata polityki, nauki i kultury. Choć negatywy przechowywano w opakowaniach, były one zakurzone i zabrudzone. Ludzie, którzy kiedyś z nich korzystali, pozostawili też tłuste odciski palców. Niezbędne zabiegi pozwoliły zabezpieczyć kolekcję przed postępującym zniszczeniem i przygotowały grunt do jej dalszej digitalizacji. Dzięki niej możliwe będzie szersze udostępnienie zbioru do rozmaitych celów naukowych i popularyzatorskich, nie tylko w zakresie archeologii, ale również w dziedzinie historii sztuki czy historii fotografii - podało Muzeum. Prace konserwatorskie przeprowadzili Krzysztof Dudek i Jerzy Gabryszewski - obaj są dyplomowanymi konserwatorami i restauratorami dzieł sztuki, specjalizującymi się w konserwacji fotografii. Projekt stanowił kontynuację prac rozpoczętych w Muzeum w 2009 r. Przeprowadzono wtedy konserwację najstarszych klisz szklanych ze zbiorów. W sumie kolekcja składa się z 3 tys. obiektów, które powstały do roku 1939. Dotąd zakonserwowano ponad 1800 z nich. Warto zaznaczyć, że niektóre negatywy pochodzą nawet z XIX w. « powrót do artykułu
  9. Antarktyka to jedno z najlepszych na świecie miejsc do poszukiwań meteorytów. Jej suchy, pustynny klimat, powoduje, że fragmenty skał, które przed tysiącami lat spadły na Ziemię, w niewielkim stopniu ulegają wietrzeniu. Nie mówiąc już o tym, że ciemne meteoryty są dobrze widoczne na śnieżnobiałym tle. Nawet meteoryty, które zatonęły w lodzie, zostają z czasem wypchnięte w pobliżu powierzchni. Grupa naukowców, pracujących pod kierunkiem Marii Valdes z Field Museum i University of Chicago znalazła właśnie 5 meteorytów, w tym jeden z największych w Antarktyce – okaz o wadze 7,6 kilograma. Valdes mówi, że wśród około 45 000 meteorytów znalezionych na Antarktyce jedynie około 100 było podobnych rozmiarów lub większych. Rozmiar niekoniecznie ma znaczenie w przypadku meteorytów, czasem małe mikrometeoryty mogą mieć olbrzymią naukową wartość. Ale, oczywiście, znalezienie dużego meteorytu to rzadkość i ekscytujące wydarzenie, stwierdza uczona. W ubiegłym roku grupa naukowa prowadzona przez glacjolog Veronikę Tellenaar stworzyła mapę najbardziej obiecujących miejsc poszukiwań meteorytów w Antarktyce. Uczeni wzięli pod uwagę dane satelitarne, informacje o wcześniejszych znaleziskach, dane o temperaturze powierzchni i prędkości ruchu lodu. Na tej podstawie algorytm ocenił szanse na występowanie meteorytów w konkretnych lokalizacjach. Zespół Valdes jest pierwszym, który wybrał się na poszukiwania wykorzystując tę mapę. Uczeni wybrali pięć potencjalnych miejsc. Po 10 dnia poszukiwań, w jednym z nich znaleźli 5 meteorytów. Znaleziska trafią do Królewskiego Belgijskiego Instytutu Nauk Naturalnych, gdzie będą badane. Natomiast Valdes i każdy z naukowców biorących udział w wyprawie otrzymał próbki lodu z miejsc znalezienia meteorytów. W swoich rodzimych instytucjach będą poszukiwali w nich mikrometeorytów. Specjaliści szacują, że na Antarktyce znajduje się jeszcze 300 000 meteorytów. « powrót do artykułu
  10. NASA i DARPA (Agencja Badawcza Zaawansowanych Projektów Obronnych) poinformowały o rozpoczęciu współpracy, której celem jest zbudowanie jądrowego silnika termicznego (NTP) dla pojazdów kosmicznych. Współpraca będzie odbywała się w ramach programu DRACO (Demonstration Rocket for Agile Cislunar Operations), który od jakiegoś czasu prowadzony jest przez DARPA. Celem projektu jest stworzenie napędu pozwalającego na szybkie manewrowanie, przede wszystkim przyspieszanie i zwalnianie, w przestrzeni kosmicznej. Obecnie dysponujemy pojazdami, które są w stanie dokonywać szybkich manewrów na lądzie, w wodzie i powietrzu. Jednak w przestrzeni kosmicznej brakuje nam takich możliwości. Obecnie używane kosmiczne systemy napędowe – elektryczne i chemiczne – mają spore ograniczenia. W przypadku napędów elektrycznych ograniczeniem jest stosunek siły ciągu do wagi napędu, w przypadku zaś napędów chemicznych ograniczeni jesteśmy wydajnością paliwa. Napęd DRACO NTP ma łączyć zalety obu wykorzystywanych obecnie napędów. Ma posiadać wysoki stosunek ciągu do wagi charakterystyczny dla napędów chemicznych oraz być wydajnym tak,jak napędy elektryczne. Dzięki temu w przestrzeni pomiędzy Ziemią a Księżycem DRACO ma być zdolny do szybkich manewrów. Administrator NASA Bill Nelson powiedział, że silnik może powstać już w 2027 roku. Ma on umożliwić szybsze podróżowanie w przestrzeni kosmicznej, co ma olbrzymie znacznie dla bezpieczeństwa astronautów. Skrócenie czasu lotu np. na Marsa oznacza, że misja załogowa mogłaby zabrać ze sobą mniej zapasów, ponadto im krótsza podróż, tym mniejsze ryzyko, że w jej trakcie dojdzie do awarii. Jądrowy silnik termiczny może być nawet 4-krotnie bardziej wydajny niż silnik chemiczny, a to oznacza, że napędzany nim pojazd będzie mógł zabrać cięższy ładunek i zapewnić więcej energii dla instrumentów naukowych. W silniku takim reaktor jądrowy ma być wykorzystywany do generowania ekstremalnie wysokich temperatur. Następnie ciepło z reaktora trafiałoby do ciekłego paliwa, które – gwałtownie rozszerzając się i uchodząc z duża prędkością przez dysze – będzie napędzało pojazd. To nie pierwsza amerykańska próba opracowania jądrowego silnika termicznego. Na początku lat 60. ubiegłego wieku rozpoczęto projekt NERVA (Nuclear Engine for Rocket Vehicle Application). Projekt zaowocował powstaniem pomyślnie przetestowanego silnika. Jednak ze względu na duże koszty, prace nad silnikiem zakończono po 17 latach badań i wydaniu około 1,4 miliarda USD. « powrót do artykułu
  11. Zmumifikowane krokodyle sprzed ponad 2500 lat zdradzają liczne informacje na temat praktyk mumifikacyjnych starożytnych Egipcjan. Archeolodzy z Belgii i Hiszpanii znaleźli w grobowcu w Qubbat al-Hawa na zachodnim brzegu Nilu pięć mniej lub bardziej kompletnych ciał oraz pięć głów krokodyli należących do dwóch gatunków. Zwierzęta prawdopodobnie zmumifikowano w ramach rytuałów ku czci Sobka, boga urodzaju, przedstawianego jako człowiek z głową krokodyla. Stan zachowania zwłok oraz sposób ich mumifikacji dały okazję do wyjątkowo dokładnego przyjrzenia się zwierzętom. Krokodyle odgrywały w starożytnym Egipcie ważną rolę. W jednych miejscach były nietykalne i czczone jako bóstwa, w innych zaś polowano na nie dla mięsa, a ich tłuszcz wykorzystywany był w medycynie do leczenia bólu stawów czy łysienia. Niejednokrotnie natrafiano już na mumie krokodyli, jednak zwykle są to młode osobniki lub ledwo wyklute z jaja. Teraz nie dość, że mamy do czynienia z dorosłymi, to ich ciała bardzo dobrze się zachowały. Jakby jeszcze tego było mało, proces mumifikacji pozwolił na przeprowadzenie szczegółowych badań. Okrycia dokonano pod wysypiskiem śmieci z okresu bizantyńskiego. Archeolodzy natrafili tam na siedem niewielkich grobowców. W jednym z nich, który znajdował się pomiędzy wysypiskiem, a grobowcami datowanymi na rok około 2100 przed naszą erą, znaleziono grobowiec ze zmumifikowanymi krokodylami. Było tam 5 mniej lub bardziej kompletnych ciał o długości od 2,34 do 3,53 cm) oraz 5 głów. W przypadku zachowanych głów całkowitą długość ciał zwierząt oszacowano na od 1,85 do 3,32 m. Jedno z ciał zachowało się w wyjątkowo dobrym stanie. Egipskie mumie są często zawinięte w tkaniny i zabezpieczone żywicą, przez co ich zbadanie wymaga użycia nowoczesnych technik obrazowania. Mumie krokodyli z Qubbat al-Hawa nie zawierały żywicy, a tkaniny zostały niemal w całości zjedzone przez owady. Dzięki temu naukowcy mogli je szczegółowo zbadać. Na podstawie kształtu czaszki i ułożenia łusek specjaliści stwierdzili, że większość zmumifikowanych zwierząt należy do gatunku krokodyl pustynny (Crocodylus suchus), pozostałe zaś to krokodyle nilowe (Crocodylus niloticus). To pokazuje, że Egipcjanie odróżniali oba gatunki, znali ich zachowanie i wiedzieli, od którego gatunku lepiej trzymać się z daleka. Krokodyl nilowy może pożreć człowieka, a z krokodylem pustynnym można pływać w tej samej wodzie, stwierdza Salima Ikram z Uniwersytetu Amerykańskiego w Kairze, która nie brała udziału w badaniach. Brak żywicy wskazuje, że krokodyle zmumifikowano prawdopodobnie grzebiąc je w gorącym piasku, skąd – po naturalnej mumifikacji – przeniesiono je do grobowca. Dlatego też naukowcy sądzą, że zwierzęta zmumifikowano przed okresem ptolemejskim, w którym to używano dużej ilości żywicy. Obecnie specjaliści sądzą, że zwierzęta żyły około V wieku p.n.e. Wtedy bowiem mumifikacja zwierząt zyskała na popularności. Jednak do zweryfikowania tej hipotezy koniecznie będzie przeprowadzenie datowania radiowęglowego. Eksperci mają nadzieję, że uda się też przeprowadzić badania DNA, które ostatecznie potwierdzą, z jakimi gatunkami mamy do czynienia. Ślady na ciałach zwierząt nie pozwoliły stwierdzić, w jaki sposób je zabito, ani gdzie mogły zostać schwytane. « powrót do artykułu
  12. Tysiące kilometrów pod naszymi stopami znajduje się wewnętrzne jądro Ziemi. To struktura o średnicy ponad 1200 km zbudowana z żelaza w formie stałej. Dwoje badaczy z Uniwersytetu w Pekinie stwierdziło właśnie, że dosłownie przed kilkunastu laty ruch obrotowy jądra niemal ustał, a następnie zaczęło się ono obracać w drugą stronę i obecnie obraca się w kierunku przeciwnym do ruchu obrotowego Ziemi. Wciąż niewiele wiemy o samym jądrze oraz jego ruchu, a wiedzę tę zdobywamy badając fale sejsmiczne przechodzące przez środek planety. Yi Yang i Xiaodong Song z Pekinu najpierw przeanalizowali dane pochodzące z początku lat 90. XX wieku, a następnie porównali je danymi zbieranymi od 1964 roku. Z ich analiz wynika, że w 2009 roku ruch obrotowy jądra wewnętrznego niemal się zatrzymał, a następnie zaczęło się ono obracać w przeciwnym kierunku. Sądzimy, że jądro wewnętrzne obraca się raz w jedną, raz w drugą stronę, względem powierzchni Ziemi, mówią naukowcy. Ich zdaniem cały cykl trwa około 70 lat, co oznacza, że do zmiany kierunku ruchu obrotowego jądra dochodzi co 35 lat. Z badań wynika, że poprzednia zmiana miała miejsce na początku lat 70. XX wieku, a kolejna zajdzie w połowie lat 40. XXI wieku. Inni eksperci przestrzegają jednak, przed wyciąganiem zbyt pochopnych wniosków. Przypominają, że wiele rzeczy dotyczących budowy wnętrza Ziemi jest dla nas tajemnicą i istnieją liczne hipotezy dotyczące tej kwestii. To bardzo dobre badania przeprowadzone przez świetnych naukowców. Użyli oni wielu danych, ale – moim zdaniem – żaden z modeli nie pasuje dobrze do wszystkich danych, jakimi dysponujemy, mówi John Vidale, sejsmolog z University of Southern California. Vidale sam jest autorem ubiegłorocznej pracy, w której stwierdza, że jądro zmienia kierunek ruchu co sześć lat. W swoich badaniach opierał się on na falach sejsmicznych wygenerowanych podczas dwóch eksplozji jądrowych z końca lat 60. i początku lat 70. Uczony przypomina też, że istnieją dane sugerujące, iż jądro obracało się w latach 2001–2013, a obecnie jest niemal nieruchome. Z kolei Hrvoje Tkalcic z Australijskiego Uniwersytetu Narodowego jest autorem badań mówiących, że cały cykl zmiany ruchu obrotowego jądra trwa 20–30 lat. Geofizycy porównują swoje próby zbadania wnętrza Ziemi do próby badania wnętrza organizmu bez możliwości rozcięcia pacjenta czy przeprowadzenia obrazowania tomografem. Niektórzy mówią, że jądro wewnętrzne może zawierać jeszcze jedno jądro. Coś tam się dzieje i w końcu się tego dowiemy. Ale może to zająć kolejną dekadę, stwierdza Vidale. Yang i Song na łamach swojej pracy stwierdzają, że zaobserwowane przez nich zmiany kierunku ruchu obrotowego jądra są zgodne z innymi obserwacjami, szczególnie tymi dotyczącymi długości dnia i pola magnetycznego planety. Ich zdaniem to dowód, że wszystkie warstwy planety są ze sobą połączone dynamicznymi interakcjami, zachodzącymi prawdopodobnie za pośrednictwem sprzężenia grawitacyjnego i zachowania momentu pędu. « powrót do artykułu
  13. Systemy podtrzymywania życia, woda, żywność, habitaty, instrumenty naukowe i wiele innych elementów będzie niezbędnych do przeprowadzenia załogowej misji na Marsa. Jednym z najważniejszych z nich są systemy produkcji energii. Te obecnie stosowane w misjach kosmicznych są albo niebezpieczne – wykorzystują rozpad pierwiastków promieniotwórczych – albo też niestabilne wraz ze zmianami pór dnia i roku, bo korzystają z energii słonecznej. Wybór miejsca lądowania każdej z misji marsjańskich to skomplikowany proces. Eksperci muszą bowiem określić miejsca, których zbadanie może przynieść jak najwięcej korzyści i w których w ogóle da się wylądować. W przypadku misji załogowych sytuacja jeszcze bardziej się skomplikuje, gdyż dodatkowo będą musiały być to miejsca najlepiej nadające się do życia, np. takie, w których można pozyskać wodę. Grupa naukowców pracujących pod kierunkiem Victorii Hartwick z NASA wykorzystała najnowsze modele klimatyczne Marsa do przeanalizowania potencjału produkcji energii z wiatru na Czerwonej Planecie. Dotychczas podczas rozważań nad produkcją energii na Marsie nie brano pod uwagę atmosfery. Jest ona bowiem bardzo rzadka w porównaniu z atmosferą Ziemi. Ku swojemu zdumieniu naukowcy zauważyli, że pomimo rzadkiej marsjańskiej atmosfery wiejące tam wiatry są na tyle silne, by zapewnić produkcję energii na dużych obszarach Marsa. Badacze odkryli, że w niektórych proponowanych miejscach lądowania prędkość wiatru jest wystarczająca, by stanowił on jedyne lub uzupełniające – wraz z energią słoneczną bądź jądrową – źródło energii. Pewne regiony Marsa są pod tym względem obiecujące, a inne – interesujące z naukowego punktu widzenia – należałoby wykluczyć biorąc pod uwagę jedynie potencjał energii wiatrowej lub słonecznej. Okazało się jednak, że energia z wiatru może kompensować dobową i sezonową zmienność produkcji energii słonecznej, szczególnie na średnich szerokościach geograficznych czy podczas regionalnych burz piaskowych. Co zaś najważniejsze, proponowane turbiny wiatrowe zapewnią znacznie bardziej stabilne źródło energii po połączeniu ich z ogniwami fotowoltaicznymi. Naukowcy przeanalizowali hipotetyczny system, w którym wykorzystane zostają panele słoneczne oraz turbina Enercon E33. To średniej wielkości komercyjny system o średnicy wirnika wynoszącej 33 metry. Na Ziemi może ona dostarczyć 330 kW mocy. Z analiz wynika, że na Marsie dostarczałaby średnio 10 kW. Obecnie szacuje się, że 6-osobowa misja załogowa będzie potrzebowała na Marsie minimum 24 kW mocy. Jeśli wykorzystamy wyłącznie ogniwa słoneczne, produkcja energii na potrzeby takiej misji będzie większa od minimum tylko przez 40% czasu. Jeśli zaś dodamy turbinę wiatrową, to odsetek ten wzrośnie do 60–90 procent na znacznych obszarach Marsa. Połączenie wykorzystania energii słonecznej i wiatrowej mogłoby pozwolić na przeprowadzenie misji załogowej na tych obszarach Czerwonej Planety, które wykluczono ze względu na słabą obecność promieniowania słonecznego. Te regiony to np. obszary polarne, które są interesujące z naukowego punktu widzenia i zawierają wodę. Autorzy badań zachęcają do prowadzenia prac nad przystosowaniem turbin wiatrowych do pracy w warunkach marsjańskich. Tym bardziej, że wykorzystanie wiatru może wpłynąć na produkcję energii w wielu miejscach przestrzeni kosmicznej. Hartwick mówi, że jest szczególnie zainteresowana potencjałem produkcji energii z wiatru w takich miejscach jak Tytan, księżyc Saturna, który posiada gęstą atmosferę, ale jest zimny. Odpowiedź na tego typu pytania będzie jednak wymagała przeprowadzenia wielu badań interdyscyplinarnych. « powrót do artykułu
  14. Strażnicy z Parku Narodowego Conway w Queensland znaleźli rekordowych rozmiarów ropuchę agę (Rhinella marina). Zwierzę, najprawdopodobniej samica, ważyło aż 2,7 kg. Nic więc dziwnego, że przez skojarzenia z Godzillą zyskało miano ropuchozilli. Kylee Gray opowiada, że wąż pełznący przez drogę zmusił ekipę do zatrzymania samochodu. Gdy strażniczka wysiadła z auta i spojrzała pod nogi, zaskoczył ją widok potężnej ropuchy. Pochyliłam się i złapałam ją. Nie mogłam uwierzyć, że jest tak duża i ciężka. Pokaźnych rozmiarów okaz został umieszczony w kontenerze i zabrany do bazy. Aga tej wielkości może zjeść wszystko: [...] od owadów, przez gady, po małe ssaki. Australijczycy przypuszczają, że mieli do czynienia z samicą, bo u R. marina samice są znacznie większe od samców. Strażnicy nie są pewni, w jakim była wieku. Wspominają jednak, że dzikie agi mogą dożywać nawet 15 lat. Bardzo możliwe, że ropuchozilla osiągnęła taki właśnie wiek. Ponieważ introdukowana w Australii aga jest gatunkiem inwazyjnym, ropuchozillę poddano eutanazji. Ciało przekazano do Queensland Museum na dalsze badania. Placówka była zainteresowana okazem, ponieważ może się on okazać rekordowo duży. Zgodnie z wpisem w Księdze rekordów Guinnessa, dotąd największy był samiec o imieniu Prinsen (Książę), należący do Håkana Forsberga z Åkers Styckebruk w Szwecji. W marcu 1991 r. ważył on 2,65 kg. Od czubka pyska do kloaki mierzył 38 cm, a po pełnym rozciągnięciu 53,9 cm. Jak przypomniano w komunikacie Departamentu Środowiska i Nauki Queensland, w 1935 r. R. marina wprowadzono na te tereny, by kontrolować populację chrząszcza Dermolepida albohirtum. Eksperyment się jednak nie powiódł, bo ropuchy bardzo się rozmnożyły i nie wywarły widocznego wpływu na populację szkodnika trzciny cukrowej. Samice agi mogą złożyć do 30 tys. jaj. Gatunek kolonizuje szeroki zakres habitatów. Nie jest co prawda rozpowszechniony w lasach deszczowych, lecz może je penetrować, korzystając z dróg i ścieżek (tak było zapewne w opisywanym przypadku). Toksyczne dla wielu zwierząt ropuchy olbrzymie konkurują z rodzimą fauną o schronienia i zasoby pokarmowe. Żywią się głównie owadami, ale są oportunistami pokarmowymi i mogą także zaspokajać głód małymi kręgowcami. « powrót do artykułu
  15. We wczesnych społecznościach rolniczych północno-zachodniej Europy przemoc była codziennością, wskazują badania brytyjsko-szwedzko-niemieckiej grupy naukowej. Naukowcy przyjrzeli się szczątkom ponad 2300 rolników ze 180 stanowisk archeologicznych z okresu pomiędzy 8000 a 4000 lat temu i zauważyli, że w przypadku ponad 10% z nich widoczne są obrażenia od broni. Wbrew rozpowszechnionemu poglądowi o pokojowej współpracy, w neolicie dochodziło do konfliktów, w których zabijano całe społeczności. Badania sugerują, że rozpowszechnienie się hodowli roślin i zwierząt i związana z tym zmiana trybu życia z łowiecko-zbierackiego na osiadły, mogły doprowadzić do sformalizowania konfliktów zbrojnych. Naukowcy przyjrzeli się szczątkom ludzkim z Danii, Francji, Niemiec, Wielkiej Brytanii, Hiszpanii i Szwecji. Na szkieletach szukali śladów urazów, przede wszystkim zadanych w czaszkę tępym narzędziem. W ponad 10% przypadków znaleziono uszkodzenia czaszki odpowiadające wielokrotnym uderzeniom tępym narzędziem. Odkryto też obrażenia penetrujące, być może od strzał. W niektórych przypadkach obrażenia były powiązane z masowymi pochówkami, co sugeruje zniszczenie całych społeczności. Ludzkie kości do najlepsze i najbardziej wiarygodne dowody na przemoc. W ostatnich latach zaś znacznie zwiększyły się nasze możliwości odróżnienia śmiertelnych obrażeń od złamań kości, które miały miejsce po śmierci, potrafimy też odróżnić przypadkowe zranienia od napaści z bronią, mówi doktor Linda Fibiger z Uniwersytetu w Edynburgu. Naukowcy zastanawiają się też, dlaczego przemoc stała się tak powszechna w tym czasie. Ich zdaniem, najbardziej prawdopodobnym wyjaśnieniem jest zmiana stosunków ekonomicznych. Wraz z rolnictwem pojawiły się nierówności i ci, którym wiodło się gorzej zaczęli organizować napaści i dochodziło do zbiorowej przemocy, co było alternatywną strategią na odniesienie sukcesu, dodaje doktor Martin Smith z Bournemouth University. Badania zostały opisane w artykule Conflict, violence, and warfare among early farmers in Northwestern Europe. « powrót do artykułu
  16. Rosnąca popularność samochodów elektrycznych (EV) często postrzegana jako problem dla sieci elektroenergetycznych, które nie są dostosowane do nowego masowego źródła obciążenia. Naukowcy z Uniwersytetu w Lejdzie oraz amerykańskiego Narodowego Laboratorium Energii Odnawialnej podeszli do zagadnienia z innej strony. Z analizy wynika, że w ciągu najbliższych lat EV mogą stać się wielkim magazynem energii ze źródeł odnawialnych, stabilizując energetykę słoneczną i wiatrową. Energia z wiatru i słońca to najszybciej rosnące źródła energii. So to jednak źródła niestabilne, nie dostarczają energii gdy wiatr nie wieje, a słońce nie świeci. Z analizy, opublikowanej na łamach Nature Communications, dowiadujemy się, że rolę stabilizatora mogą odegrać samochody elektryczne. Obecnie większość ich właścicieli ładuje samochody w nocy. Autorzy badań uważają, że właściciele takich pojazdów mogliby podpisywać odpowiednie umowy z dostawcami energii. Na jej podstawie dostawca energii sprawowałby kontrolę nad ładowaniem samochodu w taki sposób, by z jednej strony zapewnić w sieci odpowiednią ilość energii, a z drugiej – załadować akumulatory do pełna. Właściciel samochodu otrzymywałby pieniądze za wykorzystanie jego pojazdu w taki sposób, wyjaśnia główny autor badań, Chengjian Xu. Co więcej, gdy pojemność akumulatorów zmniejsza się do 70–80 procent pojemności początkowej, zwykle nie nadają się one do zastosowań w transporcie. Jednak nadal przez wiele lat mogą posłużyć do stabilizowania sieci elektroenergetycznych. Dlatego też, jeśli kwestia taka zostanie uregulowana odpowiednimi przepisami, akumulatory takie mogłyby jeszcze długo służyć jako magazyny energii. Z wyliczeń holendersko-amerykańskiego zespołu wynika, że do roku 2050 samochody elektryczne oraz zużyte akumulatory mogą stanowić wielki bank energii o pojemności od 32 do 62 TWh. Tymczasem światowe zapotrzebowanie na krótkoterminowe przechowywanie energii będzie wówczas wynosiło od 3,4 do 19,2 TWh. Przeprowadzone analizy wykazały, że wystarczy, by od 12 do 43 procent właścicieli samochodów elektrycznych podpisało odpowiednie umowy z dostawcami energii, a świat zyska wystarczające możliwości przechowywania energii. Jeśli zaś udałoby się wykorzystać w roli magazynu energii połowę zużytych akumulatorów, to wystarczy, by mniej niż 10% kierowców podpisało umowy z dostawcami energii. Już w roku 2030 w wielu regionach świata EV i zużyte akumulatory mogą zaspokoić popyt na krótkoterminowe przechowywanie energii. Oczywiście wiele tutaj zależy od uregulowań prawnych oraz od tempa popularyzacji samochodów elektrycznych w różnych regionach świata. Autorzy badań zauważają też, że wielką niewiadomą jest tempo degradacji akumulatorów przyszłości, które będzie zależało m.in. od postępu technologicznego, czy też tempo rozwoju systemów zarządzania energią. Nie wiadomo także, czy nie zajdą radykalne zmiany w samym systemie transportowym. Nie można wykluczyć np. zmiany przyzwyczajeń i rozpowszechnienia się komunikacji zbiorowej czy systemów wspólnego użytkowania pojazdów, na dostępność samochodów i akumulatorów może też wpłynąć rozpowszechnienie się pojazdów autonomicznych. « powrót do artykułu
  17. Nie możemy bezpośrednio obserwować wczesnego wszechświata, ale być może będziemy w stanie obserwować go pośrednio, badając, w jaki sposób fale grawitacyjne z tamtej epoki wpłynęły na materię i promieniowanie, które obecnie widzimy, mówi Deepen Garg, student z Princeton Plama Physics Laboratory. Garg i jego promotor Ilya Dodin zaadaptowali do badań wszechświata technikę ze swoich badań nad fuzją jądrową. Naukowcy badali, w jaki sposób fale elektromagnetyczne rozprzestrzeniają się przez plazmę obecną w reaktorach fuzyjnych. Okazało się, że proces ten bardzo przypomina sposób rozprzestrzeniania się fal grawitacyjnych. Postanowili więc wykorzystać te podobieństwa. Fale grawitacyjne, przewidziane przez Alberta Einsteina w 1916 roku, zostały wykryte w 2015 roku przez obserwatorium LIGO. To zaburzenia czasoprzestrzeni wywołane ruchem bardzo gęstych obiektów. Fale te przemieszczają się z prędkością światła. Garg i Dodin, wykorzystując swoje spostrzeżenia z badań nad falą elektromagnetyczną w plazmie, opracowali wzory za pomocą których – jak mają nadzieję – uda się odczytać właściwości odległych gwiazd. W falach grawitacyjnych mogą być „zapisane” np. o gęstości materii, przez którą przeszły. Być może nawet uda się w ten sposób zdobyć dodatkowe informacje o zderzeniach gwiazd neutronowych i czarnych dziur. To miał być prosty, krótki, sześciomiesięczny program badawczy dla mojego studenta. Gdy jednak zaczęliśmy zagłębiać się w problem, okazało się, że niewiele o nim wiadomo i można na tym przykładzie wykonać pewne podstawowe prace teoretyczne, przyznaje Dodin. Naukowcy chcą w niedługiej przyszłości wykorzystać swoje wzory w praktyce. Zastrzegają, że uzyskanie znaczących wyników będzie wymagało sporo pracy. « powrót do artykułu
  18. Tempo, w jakim ludzkość traci z oczu gwiazdy, jest większe niż dotychczas sądzono. Z powodu rosnącego zanieczyszczenia światłem ludzie na całym świecie widzą coraz mniej gwiazd na nocnym niebie. Jasność nocnego nieboskłonu zwiększa się o 7–10% rocznie. To znacznie szybciej, niż wynikało dotychczas z samych tylko pomiarów satelitarnych emisji sztucznego światła. Naukowcy z niemieckich GeoForschungsZentrum (GFZ), Ruhr-Universität Bochum oraz amerykańskiego NOIRLab (National Optical-Infrared Astronomy Research Laboratory) przeanalizowali ponad 50 000 obserwacji nieba wykonanych nieuzbrojonym okiem przez astronomów-amatorów w latach 2011–2022. Obserwacje były prowadzone w ramach projektu „Globe at Night”. Okazało się, że zanieczyszczenie nocnego nieba światłem zwiększa się znacznie szybciej, niż wynikałoby to z samych tylko pomiarów satelitarnych. Ludzie na całym świecie przez długi czas po zachodzie Słońca widzą rozświetlającą niebo poświatę. Takie ciągłe oświetlenie, brak naturalnej ciemności wpływa negatywnie na wszystkie organizmy żywe, w tym na ludzi. Poświata ma negatywny wpływ na zwierzęta nocne i dzienne, niszczy też ważną część ludzkiego dziedzictwa kulturowego, mówi współautorka badań, Constance Walker. Wiele procesów fizjologicznych roślin i zwierząt jest uzależnionych od cykli dobowych, regulowanych przez światło. Zanieczyszczenie światłem ma też negatywny wpływ na badania astronomiczne. Dotychczas stopień zanieczyszczenia światłem w skali globalnej próbowano szacować za pomocą satelitów, ale nie były to badania zbyt dokładne. Dlatego też naukowcy postanowili skorzystać z pomocy ludzi i ich oczu. Uczestnicy projektu „Globe at Night” patrzyli w nocne niebo i oceniali widoczność gwiazd, przypisując ją do ośmiostopniowego online'owego kwestionariusza. Każdy stopień odpowiada widoczności nieboskłonu w różnych warunkach oświetleniowych. Tempo, w jakim gwiazdy stają się niewidoczne dla mieszkańców środowisk miejskich jest dramatyczne, podsumowuje Kyba. W Europie jasność nocnego nieba zwiększa się o 6,5% rocznie, w Ameryce Północnej jest to 10,4%. Średnia dla wszystkich zbadanych lokalizacji na świecie wynosi 9,6% rocznego wzrostu. Kyba wyjaśnia, co to oznacza. Dziecko, które urodziło się w miejscu, z którego można było obserwować 250 gwiazd, zobaczy tylko 100 gwiazd w dniu swoich 18. urodzin. Dane zabrane przez obserwatorów na Ziemi dramatycznie różnią się od danych satelitarnych. Satelity przekazywały, że sztuczna poświata zmniejsza się w tempie 0,3% rocznie dla Europy i 0,8% rocznie dla Ameryki Północnej. Kyba sądzi, że te kolosalne różnice wynikają ze zmiany stosowanego oświetlenia. Satelity są najlepiej rejestrują światło skierowane w górę. Tymczasem za większość szkodliwej poświaty odpowiada światło skierowane poziomo. Jeśli więc zwiększyła się emisja światła z fasad budynków czy reklam wielkoformatowych, ma to wielki wpływ na poświatę, ale na zdjęciach satelitarnych nie będzie to widoczne, mówi naukowiec. Kolejną przyczyną może być powszechne na całym świecie przejście z lamp sodowych emitujących pomarańczowe światło na białe LED-y, które emitują znacznie więcej światła niebieskiego. Nasze oczy są w nocy bardziej wrażliwe na światło niebieskie, a światło to bardziej rozprasza się w atmosferze, zatem w większym stopniu przyczynia się do powstawania poświaty. Jednak te satelity, które fotografują całą Ziemię noc, nie są przystosowane do rejestrowania światła niebieskiego, dodaje Kyba. Oczywiście poleganie na obserwacjach z Ziemi też ma swoje ograniczenia. Najwięcej danych udało się bowiem zebrać z najbardziej zanieczyszczonych światłem Europy i Ameryki Północnej, a połowa obserwacji z Azji pochodziła z Japonii. Danych z krajów rozwijających się jest mało, a naukowcy podejrzewają, że to tam może dochodzić do najszybszych, najbardziej dramatycznych zmian. Projekt „Globe at Night” jest kontynuowany, więc naukowcy zachęcają każdego chętnego, by wziął udział w obserwacjach. Jeśli pomoże im wystarczająco duża liczba osób, będą mogli stworzyć mapę zanieczyszczenia światłem dla poszczególnych państwa, a może i miast. « powrót do artykułu
  19. Dzięki innowacyjnemu przenośnemu laserowi dowiedzieliśmy się, że złoto z Troi, oddalonej od niej o 60 kilometrów Poliochni z wyspy Lemnos oraz z Ur w Mezopotamii pochodzi z tej samej okolicy, było więc przedmiotem długodystansowego handlu. Nowatorskie podejście badawcze pozwoliło na poznanie tajemnic złotej biżuterii, która dotychczas nie była badana, gdyż jest tak cenna, że nie zgadzano się na jej przewożenie czy wykonywanie badań pozostawiających na niej widoczne ślady. Badania zainicjowali Ernest Pernicka z Uniwersytetu w Tybindze oraz Barbara Horejs z Austriackiej Akademii Nauk. Stali oni na czele międzynarodowego zespołu złożonego ze specjalistów z Curt-Engelhorn-Zentrum Archäometrie, Austriackiej Akademii Nauk i Narodowego Muzeum Archeologicznego w Atenach. Od czasu, gdy w 1873 roku Henryk Schliemann odkrył w Troi Skarb Priama, naukowcy zastanawiali się, skąd pochodziło złoto, z którego został wykonany. Teraz dowiedzieliśmy się, że jego źródłem były złoża wtórne, jak np. rzeki, a skład chemiczny kruszcu ze Skarbu Priama jest identyczny jak złota z Polichni, Urn oraz obiektów znalezionych na terenie Gruzji. To oznacza, że pomiędzy tymi lokalizacjami prowadzono długodystansowy handel, mówi Pernicka. Narodowe Muzeum Archeologiczne w Atenach nie zgadza się ani na zabieranie Skarbu Priama poza muzeum, ani na prowadzenie badań, które zostawiłyby na nim widoczne ślady. Dotychczas żadna z metod badawczych, która mogłaby odpowiedzieć na pytanie o pochodzenie złota, nie spełniała obu tych warunków jednocześnie. Dlatego też grupa Pernicki i Horejs wykorzystała przenośny laser, który wytopił niewidoczną gołym okiem dziurkę o średnicy 120 mikrometrów. Pobraną w ten sposób próbkę zbadano za pomocą spektrometrii mas w Curt-Engelhorn-Zentrum Archäometrie w Mannheim. W dawnej złotej biżuterii można znaleźć też ślady srebra, miedzi, cynku, palladu i platyny. To pozwala na określenie chemicznego profilu złoża, z którego złoto pochodzi. Na przykład wysoka koncentracja cynku, palladu i platyny w Skarbie Priama wskazała uczonym, że złoto zostało wymyte przez rzekę, z której zostało pozyskane w formie złotego piasku. Naukowcy wykazali też, że mieliśmy tutaj do czynienia z masową produkcją, a nie indywidualną. To bowiem jedyne wyjaśnienie faktu, że w złotych dyskach tworzących pochodzące z różnych miejsc naszyjniki o podobnym wyglądzie, występuje identyczna ilość palladu i platyny. Naukowcy przebadali 61 przedmiotów z epoki brązu z lat 2500–2000 p.n.e. To pozwoliło też na rozwiązanie zagadki złota z Ur. W Mezopotamii nie ma bowiem naturalnych złóż złota. Występują za to w Zachodniej Anatolii, gdzie leży Troja, zatem spekulowano, że złoto z biżuterii z Ur mogło pochodzić stamtąd. Nie było to jednak pewne, gdyż złoto występuje też w innych miejscach z którymi Ur łączyły silne relacje handlowe. Zaś badania porównawcze złotych wyrobów wykazały olbrzymie podobieństwa pomiędzy biżuterią znalezioną na wielkim obszarze rozciągającym się od Morza Egejskiego po dolinę Indusu i współczesny Pakistan. Znaleziono na nim pieczęcie, standaryzowane odważniki, podobne kolczyki czy kamienie szlachetne. Wszystkie te badania pokazują, już 4500 lat temu istniały ramy, na których powstały współczesne społeczeństwa z ich relacjami handlowymi. W tej chwili jednak naukowcy nie byli w stanie wskazać dokładnego miejsca pozyskiwania złota, z którego powstała biżuteria z Troi, Poliochni i Ur. Stosunek pierwiastków śladowych sugeruje, że źródłem złota była Gruzja epoki brązu. Wciąż jednak mamy za mało danych z innych regionów i obiektów, by to potwierdzić, mówi Pernicka. « powrót do artykułu
  20. Odnaleziono kolejny fragment barokowej fontanny z Neptunem, która niegdyś zdobiła plac Nowy Targ we Wrocławiu. Okazało się, że jedna z czterech muszli - trzymanych oryginalnie przez syreny i trytony - pełniła funkcję ozdoby w ogródku mieszkanki Wielowsi Średniej. Jak podaje serwis Wroclaw.pl, na muszlę natrafiła dziennikarka Radia Wrocław. Przeprowadzała wywiad z mieszkańcami podsycowskiej miejscowości i to oni skierowali ją w konkretne miejsce. Siedemnastego stycznia br. niemal kompletny element został przewieziony do Wrocławia. Wratislavianista dr Tomasz Sielicki – który wpadł na trop fontanny – przypomina, że w zeszłym roku odnaleziono rzeźbę Neptuna [korpus z prawie całą lewą nogą; górna część sięga linii żuchwy], jedną z muszli, jedną ze ślimacznic, kapitel z resztkami delfinów, głowę delfina oraz dolną partię syreny bądź trytona. Wiosną poszukiwania będą kontynuowane. Choć priorytetem jest odnalezienie głowy Neptuna, inne elementy są również na wagę złota, bo pomogą w ewentualnym odtworzeniu fontanny. Dr Sielicki szacuje, że dotąd odnaleziono ok. 50% całości. Wszystkie zebrane części oddano w depozyt do Muzeum Miejskiego Wrocławia. W pracowni kamieniarskiej na Starym Cmentarzu Żydowskim czekają na stabilne dodatnie temperatury; wtedy zostaną oczyszczone. Mówiąc o przyszłości, dr Sielicki wspomina o 2 ewentualnych scenariuszach. Pozostałości fontanny można by gdzieś wyeksponować albo, co wymagałoby większych środków pieniężnych, pokusić się o odtworzenie zabytku. Wratislavianista uważa, że da się to zrobić dzięki wykorzystaniu odnalezionych elementów i odkuciu nowych na wzór historycznych. Sprawa dalszych losów zabytku pozostaje otwarta.   « powrót do artykułu
  21. W dzisiejszym świecie bezpieczeństwo przekazywania informacji stało się niezwykle istotnym elementem naszego codziennego życia. Większość z nas, nawet nie zdaje sobie sprawy, jak często korzysta z dobrodziejstw dziedziny nauki, jakim jest kryptografia. Za każdym razem, kiedy przeglądamy internet, wysyłamy do kogoś wiadomość czy logujemy się do banku towarzyszy nam szyfrowanie. Firma Alfatronik na co dzień zajmująca się produkcją i dystrybucją urządzeń z zakresu bezpieczeństwa i detektywistyki postanowiła nam nieco opowiedzieć o zagadnieniu, jakim jest kryptografia. Czym jest i jakie są pomysły na jej udoskonalanie oraz co ma wspólnego z przyznaną w tym roku nagrodą Nobla z dziedziny fizyki, dowiedzą się państwo z poniższego artykułu. We wtorek, 4 października 2022 roku Komitet Noblowski poinformował, że trójka naukowców — Alain Aspect z Francji, John F. Clauser z USA i Anton Zeilinger z Austrii, zajmujący się mechaniką kwantową, zostali laureatami Nagrody Nobla z dziedziny fizyki. Co ciekawe Prof. Anton Zeilinger oraz Alain Aspect od lat współpracują z Międzynarodowym Centrum Teorii Technologii Kwantowych Uniwersytetu Gdańskiego. Nagroda ta dotyczy eksperymentów związanych z fizyką kwantową ze splątanymi fotonami, ustalająca naruszenie nierówności Bella. Co fizyka kwantowa ma wspólnego z kryptografią, okazuje się, że całkiem sporo. Żeby przybliżyć ten temat, należy wytłumaczyć, czym jest kryptografia? Jak podaje Wikipedia, kryptografia — to dziedzina  wiedzy o przekazywaniu informacji w sposób zabezpieczony przed niepowołanym dostępem. Jest to oczywiście wersja skrócona tej definicji, ale na potrzeby tego artykułu powinna nam wystarczyć. Następnym pytaniem, jakie się nasuwa, jest – Czy można informacje zaszyfrować w taki sposób, aby nikt niepowołany nie był w stanie jej odczytać? Jest to zagadnienie, które od lat zaprząta głowy najwybitniejszych umysłów tego świata. W standardowym szyfrowaniu mamy informacje, która zostaje przesłana od nadawcy do odbiorcy, ale pomiędzy nimi może znajdować się także osoba podsłuchująca. Co zrobić, aby osoba ta nie była w stanie odczytać przekazywanej informacji. Można w tym celu wykorzystać, chociażby nasz alfabet. Jednym z pierwszych i najprostszych sposobów szyfrowania wiadomości jest podmienianie liter na inne, np. zamiast „a” piszemy „b”, zamiast „b” piszemy „c” itd. Tu dla przykładu zamieniliśmy literę alfabetu na następną z kolei. Oczywiście takie rozwiązanie byłoby zbyt proste. Bardzo możliwe, że podsłuchujący zorientowałby się jakiej metody użyliśmy i szybko odczytałby wiadomość. Jeżeli natomiast mielibyśmy tablice, na której przydzielone do siebie litery są dość losowe, rozszyfrowanie takiej wiadomości mogłoby się okazać już dużo bardziej skomplikowane. Taką tablicę z przydzielonymi do siebie znakami nazywamy kluczem. Oczywiście, aby nadać wiadomość, a potem ją odebrać i odczytać, klucz taki musiał posiadać zarówno nadawca, jak i odbiorca. Takie metody szyfrowania były wykorzystywane już ponad dwa tysiące lat temu, chociażby u Rzymian. Szyfry te z biegiem czasu zaczęły być łamane za pomocą np. statystyki. Okazuje się bowiem że w każdym języku litery w treści wykorzystywane są z konkretną częstotliwością. Przykładowo dla języka polskiego najczęściej wykorzystywaną literą jest litera „a” następnie „i” „o” „e” itd. Znając tę częstotliwość, można było z łatwością podstawić odpowiednie znaki i rozszyfrować wiadomość. Jednak nie o łamaniu szyfrów mamy zamiar opowiedzieć,  dzisiejsza kryptografia jest bowiem dużo bardziej skomplikowana. Bazuje ona bardzo często na liczbach pierwszych, a ich rozszyfrowywanie wymagałoby użycia maszyn obliczeniowych ogromnej mocy. Zazwyczaj stopień skomplikowania szyfru dobierany jest w taki sposób, aby najszybszym aktualnie komputerom, rozszyfrowanie zajęło dziesiątki lat. Mowa jest oczywiście o bardzo istotnych systemach zabezpieczeń jak, chociażby zabezpieczenia bankowe. Największym jednak zagrożeniem dziś jest jednak obawa przed przechwyceniem klucza, bowiem jak już wcześniej wspominaliśmy, klucz musi posiadać zarówno nadawca, jak i odbiorca. Co za tym idzie, on również musi być w jakiś sposób dostarczony do stron chcących się ze sobą komunikować. Niesie to ze sobą ryzyko przechwycenia i odczytania klucza deszyfrującego. Tu z pomocą przychodzi nasz tytułowy bohater, czyli mechanika kwantowa. Przede wszystkim trzeba powiedzieć, czym owa mechanika jest. Jest to teoria praw ruchu obiektów, w której przewidywania mechaniki klasycznej (ogólnie przyjęte prawa fizyki) nie sprawdzają się. Opisuje ona przeważnie świat mikroskopowy – obiekty o bardzo małych rozmiarach czy masach. W tym przypadku będziemy mówili o fotonach, czyli w dużym uproszczeniu o cząsteczkach światła. Foton taki posiada swoją polaryzację – przyjmijmy, że na potrzeby artykułu określimy to jako kierunek jego obrotu. Kierunek ten może być pionowy bądź poziomy. Okazuje się, że potrafimy tworzyć pary fotonów, które są ze sobą splątane (powiązane), czyli występuje pomiędzy nimi zależność. Po takim splątaniu można zaobserwować, że fotony te mają względem siebie zawsze stan przeciwny. Czyli jeżeli jeden foton kręci się w górę, to drugi z pary na pewno będzie kręcił się w dół. Jednocześnie należy mieć na uwadze, że nie da się zbadać stanu danego fotonu, nie zaburzając go. Czyli po sprawdzeniu, w którą stronę foton się obraca, jego stan ulega losowej zmianie, a para fotonów nie jest już ze sobą splątana. Co za tym idzie, zachowują się względem siebie niezależnie. Jak wykorzystać to zjawisko w kryptografii? Otóż opisał to już nasz rodzimy profesor Artur Ekert, ale gdy robił to ponad 30 lat temu, nie wiedział jak ważne się to stanie. Jego pomysł uniemożliwia podsłuchiwanie treści. Można bowiem wykorzystać te splątane fotony do przesyłania klucza deszyfrującego, co umożliwi nadawcy i odbiorcy zweryfikowanie czy klucz taki nie został odczytany przez osobę podsłuchującą. Jeżeli wartości przesyłanego pomiędzy nimi klucza nie będzie dokładnie odwrotna względem siebie, oznacza to, że klucz taki został odczytany przez kogoś innego. Jeżeli jednak klucz nam się zgadza, możemy zapisać nim wiadomość i przesłać pomiędzy nadawcą a odbiorcą. Mamy jednocześnie pewność, że nikt nie zna klucza. A jego czysto losowa budowa uniemożliwia złamanie jego samego. Wypada dodać jedynie, że powyższa metoda jest dość uproszczona i w jej komercyjnej wersji stosuje się nieco bardziej skomplikowane równania Bella, alby obliczać wyniki prawdopodobieństwa. Tam jednak także czerpiemy garściami z właściwości świata kwantowego — informacja praktycznie nie istnieje (jest w super pozycji) przed zbadaniem, a dokładniej występuje we wszystkich pozycjach jednocześnie. Zjawisko to doskonale obrazuje eksperyment myślowy, znany jako Kot Schrödingera. Warto zaznaczyć, że stany splątania cząstek są jednorazowe do momentu ich poznania. Obecnie pracuje się także nad rozwiązaniem samego szyfrowania i przekazywania informacji w całości w sposób kwantowy — nie tylko do kodowania kluczy. Jednak na chwilę obecną są dostępne jedynie hipotezy takiego rozwiązania. Artykuł zawiera wiele uproszczeń — zachęcamy jednak do zapoznania się ze źródłami, które z pewnością przybliżą bardziej omawiane powyżej zagadnienie. Źródło: Kryptografia kwantowa – jak fizyka chroni przed podsłuchami? | prof. Artur Ekert             prof. Artur Ekert, "W poszukiwaniu szyfru doskonałego" « powrót do artykułu
  22. Profesor Jay Stock z kanadyjskiego Western University twierdzi, że konsumpcja mleka w niektórych regionach świata w okresie od 7000 do 2000 lat temu doprowadziła do zwiększenia masy i rozmiarów ciała ludzi. W tym samym czasie w innych regionach świata dochodziło do redukcji wielkości ludzkiego organizmu. Stock i jego zespół zauważyli, że do zwiększenia rozmiarów ciała H. sapiens doszło tam, gdzie z przyczyn ewolucyjnych częściej występowały geny pozwalające dorosłym ludziom na trawienie mleka. Naukowcy porównali 3507 szkieletów z 366 stanowisk archeologicznych. To szczątki ludzi, którzy żyli na przestrzeni ostatnich 25 000 lat. Dowiedzieli się, że pomiędzy 15 a 10 tysięcy lat temu u ludzi z Eurazji i Afryki Północno-Wschodniej doszło do zmniejszenia rozmiarów i masy ciała. W tym mniej więcej czasie w różnych regionach świata zaczęło rozwijać się rolnictwo, a wcześni rolnicy zabierali ze sobą nasiona roślin oraz zwierzęta hodowlany i wkraczali z nimi na tereny eurazjatyckich łowców-zbieraczy. Jednak w niektórych regionach, w tym w centrum i na północy Europy rośliny udomowione w zachodniej Azji nie chciały się przyjąć. Tamtejsze społeczności zaczęły przechodzić z produkcji serów i jogurtów na rzecz bezpośredniej konsumpcji mleka, która ma więcej laktozy. Możliwość trawienia laktozy oznaczała, że ludzie w większym stopniu byli w stanie wykorzystać mleko, by zaspokoić swoje potrzeby energetyczne. W wyniku tych procesów ludzie z północy Europy częściej tolerują mleko, niż ludzie z południa i są od nich wyżsi. Badania bazowały głównie na szkieletach pochodzących z Europy, ale prawdopodobnie ten sam mechanizm można by zauważyć w innych częściach świata. Picie mleka to ważne kulturowo zjawisko na różnych kontynentach i do dzisiaj widzimy ślady genetyczne tego zwyczaju. U ludzi z zachodu Afryki, Wielkich Rowów Afrykańskich, czy Rogu Afryki oraz niektórych części Arabii i Mongolii częściej występują geny pozwalające dorosłym na trawienie laktozy. Sądzę, że ten mechanizm napędzał też różnice regionalne we wzroście w Afryce. Na przykład Masajowie są bardzo wysocy i mają bogatą kulturę picia mleka. Niestety, brakuje mi obecnie danych, by przetestować tę hipotezę, mówi Stock. Uczony dodaje, że zmniejszanie rozmiarów ludzkiego ciała nie miało miejsca – jak się uważa – w związku z pojawieniem się rolnictwa. Zachodziło ono już wcześniej. Z uzyskanych danych wynika, że ludzie stawali się coraz mniejsi po maksimum ostatniego zlodowacenia, gdy środowisko naturalne było mniej produktywne. W wyniku zlodowacenia żywność stała się mniej dostępna i mniej zróżnicowana. Pojawienie się rolnictwa również negatywnie wpłynęło na zróżnicowanie pożywienia, z którego korzystali ludzie. Jednocześnie jednak rolnictwo zapewniło obfite i stabilne źródła pożywienia. Widzimy z tego, że pojawienie się rolnictwa miało w różnych częściach świata różny wpływ na biologię i zdrowie człowieka. Globalne różnice w rozmiarach ciała są częściowo odbiciem tych procesów, dodaje Stock. « powrót do artykułu
  23. Na obrzeżach Puszczy Białowieskiej zaobserwowano rekordowo duże stado żubrów. Liczyło ono aż 170 osobników. Pracownicy Instytutu Biologii Ssaków PAN w Białowieży mówią, że dotychczas ani w puszczy, ani w jej okolicach nie zauważono tak licznych stad. Zdaniem ekspertów powstało ono z połączenia się kilku mniejszych stad w jedno, a był to wynik nagłego ataku zimy. Gdy jest mróz i obficie pada śnieg, żubry tworzą większe stada niż zwykle. Monitorujemy stada żubrów w kilku miejscach w Polsce i za granicą, i dotychczas największe stado, liczące 136 osobników, było przez nas obserwowane tej zimy na obrzeżach Puszczy Knyszyńskiej, stwierdził profesor Rafał Kowalczyk z IBS PAN, który kieruje pracami zespołu badającego żubry. Dzięki zdjęciom z drona można było policzyć zwierzęta i przyjrzeć się strukturze stada. Dzięki temu wiemy na przykład, że w jego skład wchodziło niemal 40 cieląt. Liczba żubrów w Polsce regularnie rośnie. Ostatniej zimy w samej Puszczy Białowieskiej naliczono 779 tych zwierząt. Jak informują naukowcy, część z nich sezonowo migruje z lasów na tereny otwarte. Takie migracje obserwuje się od lat 90. ubiegłego wieku. Żubry wykazują preferencję do terenów otwartych, ponadto przyciągają je atrakcyjne uprawy ozimego rzepaku i zbóż czy skoszone pola kukurydzy, na których pozostały liczne kolby. Zimą w lesie nie są w stanie znaleźć odpowiedniej ilości równie atrakcyjnego pokarmu. Naukowcy podkreślają, że rolnicy nie powinni obawiać się znacznego zmniejszenia plonów wskutek zgryzania przez żubry rzepaku czy ozimin. Rośliny odrastają i rozkrzewiają się. W niektórych krajach celowo wypasa się na nich bydło. Profesor Kowalczyk podkreśla, że nie powinny nas dziwić duże stada społecznych zwierząt, jakimi są żubry. Z drugiej jednak strony uczony mówi, że wprowadzanie żubrów na obszary leśne, szczególnie ubogie bory iglaste, prędzej czy później skutkuje migracjami tych zwierząt na tereny otwarte w poszukiwaniu pokarmu. Obserwujemy to w Puszczy Knyszyńskiej, ale też w niedawno utworzonej populacji w Puszczy Augustowskiej. Niepokoi, że kolejne stada tworzone są w lasach iglastych. Ostatnio wypuszczono żubry w Lasach Janowskich, gdzie w ponad 80 proc. drzewostanów dominuje sosna. A zapowiadane jest wprowadzenie żubrów do Borów Dolnośląskich. To skazuje te zwierzęta na zimowe dokarmianie, a w przyszłości na konflikty, gdy zaczną migrować na tereny otwarte. Dla żubrów najlepsza jest mozaika środowisk, jak łąki i doliny rzeczne, które są bogate w pokarm także zimą. Zdaniem uczonego, dobrym pomysłem byłoby wprowadzanie żubrów na rozległe słabo zaludnione tereny, np. byłe poligony wojskowe. To pozwoli zarówno uniknąć konfliktów, jak i zmniejszyć potrzebę opieki ze strony człowieka. Metody zootechniczne w ochronie żubrów są jednym z zagrożeń dla gatunku, powodującym wzrost ryzyka inwazji pasożytniczych i chorób oraz prowadzącym do uzależnienia żubrów od człowieka i zmniejszenia ich bojaźni, stwierdza prof. Kowalczyk. « powrót do artykułu
  24. Badania przeprowadzone pod kierunkiem naukowców z University of Southern California dowodzą, że za rozpowszechnianie się fałszywych informacji – fake newsów – jest w głównej mierze odpowiedzialna struktura serwisów społecznościowych, a nie nieświadomość indywidualnych użytkowników. Platformy społecznościowe, poprzez nagradzanie konkretnych zachowań, powodują, że 15% osób zwyczajowo przekazujących informacje odpowiada za rozpowszechnianie 30–40% fake newsów. Zwykle sądzi się, że to użytkownicy, którzy nie potrafią krytycznie podejść do napotkanej informacji są głównymi odpowiedzialnymi za szerzenie dezinformacji. Jednak badania przeprowadzone na ponad 2400 użytkowników Facebooka wykazały, że to sama platforma ponosi główną odpowiedzialność. Naukowcy zadali sobie pytanie, co motywuje użytkowników serwisów społecznościowych. Z ich analiz wynika, że – podobnie jak gry wideo – platformy społecznościowe posługują się systemem nagród, który zachęca użytkowników do jak najdłuższego pozostania w serwisie oraz umieszczania i udostępniania informacji. System ten stworzono tak, by użytkownicy, którzy często zamieszczają i przekazują dalej informacje, szczególnie te najbardziej sensacyjne, mieli jak największe zasięgi. Przykuwanie uwagi jak największej liczby osób to ich nagroda. Bazujący na nagrodzie system uczenia się powoduje, że użytkownicy wyrabiają sobie nawyk przekazywania dalej tych informacji, które przyciągają uwagę innych. Gdy taki nawyk się wyrobi, użytkownik automatycznie przekazuje dalej informację na podstawie bodźców pochodzących z samej platformy społecznościowej, bez krytycznego do niej podejścia i rozważania możliwości, że rozsiewa fake newsy, stwierdzają autorzy badań. Nasze badania wykazały, że fałszywe informacje rozpowszechniają się nie z powodu jakichś deficytów występujących u użytkowników. Przyczyną naprawdę jest sama struktura serwisów społecznościowych, mówi profesor psychologii Wendy Wood. Wyrobione zwyczaje użytkowników mediów społecznościowych są większym czynnikiem napędowym dla fake newsów niż indywidualne cechy każdego użytkownika. Co prawda z wcześniejszych badań wiemy, że niektórzy ludzie nie przetwarzają informacji w sposób krytyczny, a inni są motywowani już wcześniej posiadanymi poglądami, co również wpływa na ich możliwość rozpoznania fałszywych informacji. Jednak wykazaliśmy, że struktura nagrody w mediach społecznościowych odgrywa większą rolę w rozprzestrzenianiu fake newsów niż te cechy osobnicze, dodaje Gizem Ceylan, która stała na czele grupy badawczej. W badaniach wzięło udział 2476 użytkowników Facebooka w wieku od 18 do 89 lat. Ich zadaniem było m.in. wypełnienie ankiety bazującej na procesie podejmowania decyzji. Zajmowało to około 7 minut. Naukowcy ze zdumieniem zauważyli, że sam sposób, w jaki osoby te używały mediów społecznościowych mógł 2-, a nawet 3-krotnie, zwiększać liczbę rozprzestrzenianych przez nich fake newsów. Sposób używania platformy miał silniejszy wpływ na rozpowszechnianie nieprawdziwych informacji niż ich poglądy polityczne czy brak krytycznego podejścia. Okazało się, że osoby, które często używały platformy społecznościowej rozsiewały 6-krotnie więcej fake newsów niż osoby rzadko jej używające oraz nowi użytkownicy. Takie zachowania są wzmacniane przez algorytmy, które – na podstawie zaangażowania użytkownika – nadają priorytet kolejnym treściom, jakie mu podsuwają. Naukowcy przeprowadzili też eksperyment, w ramach którego sprawdzali, czy zmiana systemu nagród w mediach społecznościowych mogłaby doprowadzić do spadku popularności fake newsów. Okazało się, że gdy użytkownicy byli nagradzani za udostępnianie prawdziwych informacji a nie informacji najpopularniejszych – jak to ma miejsce obecnie – liczba rozpowszechnianych prawdziwych informacji zwiększyła się dwukrotnie. Z badań wynika zatem, że nawet wyrobiony odruch dalszego przekazywania informacji nie musi oznaczać, że przekazywane będą fake newsy. System nagrody na mediach społecznościowych można zbudować tak, by promował on informacje prawdziwe, a nie te najbardziej popularne, czyli najbardziej sensacyjne. Stworzenie takiego systemu to najlepszy sposób na powstrzymanie rozprzestrzeniania się fake newsów. Wyniki badań zostały opublikowane na łamach PNAS. « powrót do artykułu
  25. Międzynarodowy zespół astronomów poinformował o odkryciu jednych z najgorętszych gwiazd we wszechświecie. Temperatura powierzchni każdej z 8 gwiazd wynosi ponad 100 000 stopni Celsjusza. Są więc one znacznie gorętsze niż Słońce. Autorzy badań przeanalizowali dane pochodzące z Southern African Large Telescope (SALT). Ten największy na Półkuli Południowej teleskop optyczny posiada heksagonalne zwierciadło o wymiarach 10x11 metrów. Naukowcy przeprowadzili przegląd danych pod kątem bogatych w hel karłów i odkryli niezwykle gorące białe karły oraz gwiazdy, które się wkrótce nimi staną. Temperatura powierzchni najbardziej gorącego z nich wynosi aż 180 000 stopni Celsjusza. Dla porównania, temperatura powierzchni Słońca to „zaledwie” 5500 stopni Celsjusza. Jedna ze zidentyfikowanych gwiazd znajduje się w centrum odkrytej właśnie mgławicy o średnicy 1 roku świetlnego. Dwie inne to gwiazdy zmienne. Wszystkie z gorących gwiazd znajdują sie na zaawansowanych etapach życia i zbliżają do końca etapu białch karłów. Ze względu na niezwykle wysoką temperaturę gwiazdy te są ponadstukrotnie jaśniejsze od Słońca, co jest niezwykłą cechą jak na białe karły. Białe karły to niewielkie gwiazdy, rozmiarów Ziemi, ale o olbrzymiej masie, porównywalnej z masą Słońca. To najbardziej gęste z gwiazd wciaż zawierających normalną materię. Z kolei gwiazdy, które mają stać się białymi karłami są od nich kilkukrotnie większe, szybko się kurczą i w ciągu kilku tysięcy lat zmienią się w białe karły. Gwiazdy o temperaturze powierzchni 100 000 stopni Celsjusza lub więcej są niezwykle rzadkie. Byliśmy bardzo zdziwieni, gdyż znaleźliśmy ich aż tak wiele. Nasze odkrycie pomoże w zrozumieniu ostatnich etapów ewolucji gwiazd, mówi Simon Jeffery z Armagh Observatory and Planetarium, który stał na czele grupy badawczej. « powrót do artykułu
×
×
  • Dodaj nową pozycję...