Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Na warszawskiej Białołęce archeolodzy odkryli pozostałości dużej osady kultury łużyckiej sprzed 3 tys. lat. Jednym ciekawszych znalezisk, spośród ok 1,5 tys. odkrytych na miejscu artefaktów, jest naczynie sitowate podobne do durszlaka, które mogło służyć do wyrobu twarogu i serów – informuje Fundacja Ab Terra. Badania zlecone przez Miasto St. Warszawa Dzielnicę Białołęka prowadzone przy ul. Ostródzkiej to tzw. archeologiczne badania ratownicze, które poprzedziły inwestycję budowy basenu. Badania – jak informuje prowadząca je Fundacja Ab Terra – zostały nakazane przez Wojewódzkiego Konserwatora Zabytków w związku ze znalezieniem na powierzchni gruntu fragmentów ceramiki pradziejowej. W trakcie prac archeolodzy odsłonili teren o powierzchni prawie pół hektara. Spodziewaliśmy się odkryć ślady niewielkiego sezonowego obozowiska, okazało się jednak, że trafiliśmy na pozostałości dużej osady kultury łużyckiej sprzed 3000 lat (tzw. późna epoka brązu). Osada ta była związana z niewielkim ciekiem wodnym współcześnie uregulowanym, lecz w pradziejach strumień płynął kilkadziesiąt metrów bliżej teraźniejszego terenu badań. Ślady po starorzeczu oraz wysokim poziomie wód gruntowych, udało się uchwycić w postaci wyraźnych śladów geologicznych. Na przebadanym terenie znajdowała się prawdopodobnie część produkcyjna osady, zaś część mieszkalna leży zapewne w niewielkiej odległości, lecz niestety już poza terenem inwestycji – informuje w przesłanym PAP komunikacie prasowym przedstawiciel Fundacji Ab Terra. W trakcie badań archeolodzy pozyskali około 1500 artefaktów. Zabytki znajdowane na piaszczystej wydmie stanowiska to głównie przedmioty ceramiczne. Reszta, jak przedmioty drewniane, skórzane itp. uległy rozkładowi. Z niemałym trudem i starannością wydobywamy więc maleńkie fragmenty, czyścimy i sklejamy z nich ceramiczne naczynia codziennego użytku. Bardzo ciekawym znaleziskiem jest np. tzw. naczynie sitowate. Jest podobne do współczesnego durszlaka, tylko że służyło zapewne do wyrobu twarogu i serów dwa i pół tysiąca lat temu. Różnica polega na materiale, z jakiego je wytworzono, a mianowicie wypalono je z gliny – czytamy w prasowym komunikacie. Warto zauważyć, że sama metoda produkcji twarogu z mleka nie zmieniła się do dziś. Wtedy jak i dziś przygotowywano zsiadłe mleko, a następnie odciskano przez kawałek tkaniny umieszczony w tymże naczyniu sitowatym. Gotowy twaróg był przekazywany do części mieszkalnej osady. Ponieważ paleniska w południowej części osady wydają się być chwilowe, należy mniemać, iż teren teraźniejszych badań nie służył do konsumpcji, lecz raczej do produkcji niezbędnych artykułów dla ludności pobliskiej części mieszkalnej – opisują archeolodzy. Prócz palenisk odkryto kilkaset tzw. obiektów archeologicznych czyli pozostałości po np. dołkach posłupowych i jamach zasobowych. Te ostatnie dziś można byłoby nazwać piwniczkami magazynowymi. W czasach, gdy na Kujawach kształtowało się grodzisko w Biskupinie, w Warszawie na Białołęce również rozwijało się bogate osadnictwo tej samej kultury łużyckiej. W niedalekiej odległości od ulicy Ostródzkiej znajduje się również wiele innych stanowisk archeologicznych jak np. pozostałości wielkiej osady łużyckiej oddalonej półtora kilometra w kierunku północnym. Ważne jest więc by te tereny badać zanim zostaną zalane betonem i ważne jest również by wiedza o nich docierała do mieszkańców Białołęki – zwraca uwagę przedstawiciel Fundacji. Prócz odkryć pozostałości po ludności łużyckiej na terenie badań znaleziono również ślady z innych czasów: np. kultury trzcinieckiej z wczesnej epoki brązu i ślady działań z II Wojny Światowej. Jednak to odkrycie osady łużyckiej ma największy wpływ na poznanie dziejów tych terenów. Obecnie naukowcy opracowują wydobyte znaleziska, przygotowują dokumentację i materiały do publikacji, która przybliży prahistorię tej części Mazowsza. « powrót do artykułu
  2. Współzałożyciel Arma, Hermann Hauser, twierdzi, że Nvidia chce kupić tę firmę, by ją zniszczyć. Hauser wzywa brytyjski rząd, by do tego nie dopuścił. Obecnie właścicielem Arm jest japoński konglomerat SoftBank. Prowadzi on z Nvidią rozmowy na temat sprzedaży Arma. Zakup tej firmy może kosztować Nvidię nawet 42 miliardy USD. Żeby odpowiedzieć na pytanie, dlaczego sprzedaż Arma wywołuje takie emocje, trzeba uświadomić sobie znaczenie tej firmy dla współczesnego rynku IT. Arm jest firmą projektującą procesory i udzielającą licencji na wykorzystanie swojej architektury. Architektura ARM jest obecna w większości smartfonów i innych urządzeń mobilnych na świecie. Aż 90% procesorów w urządzeniach przenośnych i 75% procesorów w przemyśle motoryzacyjnym to układy ARM. Rynkowa kapitalizacja Nvidii jest obecnie o ponad 50% wyższa niż Intela. Hauser uważa, że kupno Arma to dla Nvidii okazja by odebrać Intelowi koronę rynku procesorów. To firma, która może kupić Arm po to, by go zniszczyć. Jest to w ich interesie. Zyskają w ten ten sposób znacznie więcej niż te 40 mld., które zapłacą, uważa założyciel Arma. Jego zdaniem Nvidia, która również licencjonuje architekturę ARM, więc posiada wszystko czego potrzebuje bez potrzeby kupowania tej firmy, chce wejść w posiadanie ARM-a, by odciąć konkurencję od architektury ARM. W ten sposób firmy, które obecnie korzystają z architektury ARM, musiałyby opracować własną mikroarchitekturę. To zaś jest trudne i kosztowne, dałoby więc Nvidii olbrzymią przewagę. Inny z założycieli Arma, Tudor Brown, już wcześniej mówił mediom, że nie wyobraża sobie, po co inne przedsiębiorstwo IT miałoby kupować Arma jak nie po to, by uzyskać nieuczciwą przewagę nad konkurencją. Hauser zwraca uwagę na jeszcze inny problem. Jeśli Arm stałby się własnością amerykańskiej Nvidii, to przeszedłby pod jurysdykcję amerykańskiego Komitetu Inwestycji Zagranicznych (CFIUS). Komitet ten nadzoruje transakcje, w które zaangażowane są zagraniczne podmioty i może nie dopuszczać do przeprowadzenia transakcji zagrażających amerykańskiemu bezpieczeństwu narodowemu. Jeśli więc prezydent USA uzna, że Wielka Brytania nie zasługuje na procesory, może stwierdzić, iż Brytania nie może używać swoich własnych procesorów. Takie decyzje powinny zapadać na Downing Street, a nie w Białym Domu, mówi Hauser. Uważa on, że rząd brytyjski powinien interweniować. Wielka Brytania ma bowiem podobne regulacje jak USA. Rząd w Londynie ma pewną władzę nad brytyjskimi przedsiębiorstwami i może zdecydować, że w interesie kraju jest, by ARM pozostał brytyjską firmą. Co prawda, jak wspomnieliśmy, Arm należy do japońskiego konglomeratu, ale firma pozostaje obecnie niezależna. Hauser uważa, że rząd mógłby wspomóc SoftBank we wprowadzeniu Arma na giełdę. Mogliby wydać miliard lub dwa po to, by Arm był notowany na giełdzie londyńskiej i pozostał brytyjską firmą. Media jednak donoszą, że interwencja rządu w Londynie w tej sprawie jest mało prawdopodobna. Londyn blokuje przejęcia brytyjskich firm niemal wyłącznie z powodów bezpieczeństwa narodowego, a USA są sojusznikiem, więc sprzedaż Arma Nvidii nie zagraża Wielkiej Brytanii. SoftBank chce sprzedać Arma, gdyż szuka pieniędzy, by odbić sobie spowolnienie spowodowane pandemią. Firma słabo jednak zarządzała Armem. Jak mówi Brown, Japończycy popełnili błędy dywersyfikując linie produktów i inwestując zbyt dużo pieniędzy w Arm, szczególnie w produkty Internet of Things. Od 2016 roku, kiedy to SoftBank przejął Arm, przychody brytyjskiej firmy zwiększyły się z 1,2 do 1,9 miliarda USD. « powrót do artykułu
  3. Drużyna Impuls z Politechniki Świętokrzyskiej, która zwyciężyła dwie ostatnie edycje organizowanych od 2014 r. Europejskich Zawodów Łazików Marsjańskich (ERC), wycofała się z tegorocznej rywalizacji. Dwóch członków zespołu zostało bowiem skierowanych na kwarantannę. Finał ERC Space and Robotics Event odbędzie się 11-13 września na terenie Politechniki Świętokrzyskiej w Kielcach. Jak podkreślono na witrynie ERC, ERC 2020 to edycja wyjątkowa – pierwsza zorganizowana w formule hybrydowej. W zawodach robotów marsjańskich biorą udział drużyny z całego świata. Podobnie jak University Rover Challenge, ERC należy do Rover Challenge Series, ligi najbardziej prestiżowych zawodów robotycznych na świecie. Warto przypomnieć, że w zeszłym roku łazik studentów z PŚk wygrał University Rover Challenge. Musieliśmy się wycofać z zawodów, bo dwóch członków ekipy, w tym i ja, miało ostatnio kontakt z osobą zarażoną koronawirusem. Istnieje bardzo duże prawdopodobieństwo, że i my zostaliśmy zarażeni tym wirusem. Zostaliśmy skierowani na kwarantannę – powiedział Kamil Borycki. Nie chcieliśmy ryzykować zdrowia innych członków zespołu. Co prawda teraz wszystkie konkurencje w zawodach są przeprowadzane zdalnie, ale do tej imprezy musimy się przecież przygotować. Konieczne są wspólne spotkania, a później podczas zawodów musimy podejmować wspólne decyzje. Niestety, nie jest to możliwe, bo mam obowiązkową kwarantannę do 14 września, a wtedy będzie już po zawodach. Członkowie zespołu Impuls podkreślają, że będą trzymać kciuki za inne drużyny, a w przyszłym roku będziemy chcieli znowu wygrać te zawody. « powrót do artykułu
  4. Botanicy sądowi chcą sprawdzić, czy rośliny mogą pomóc w odnalezieniu ciał. Artykuł dotyczący tego zagadnienia ukazał się właśnie w piśmie Trends in Plant Science. W mniejszych, otwartych krajobrazach patrole piesze mogą być skuteczne w odnajdowaniu zaginionych osób, jednak w bardziej zalesionych [...] rejonach świata, takich jak Amazonia, rozwiązania tego rodzaju nie są możliwe. Mając to na uwadze, zaczęliśmy patrzeć na rośliny jako wskaźniki rozkładu ludzkich zwłok. Powinno to prowadzić do szybszego [...] odnalezienia ciała - wyjaśnia prof. Neal Stewart Junior z Uniwersytetu Tennessee. Badania dot. związków między roślinami i rozkładem ludzkich zwłok zostaną przeprowadzone na tzw. trupiej farmie Uniwersytetu Tennessee. Oficjalnie jest ona nazywana Anthropology Research Facility. To tu naukowcy badają rozkład ludzkich ciał w różnych warunkach. W tym samym miejscu specjaliści będą sprawdzać, w jaki sposób wyspy rozkładu zwłok [ang. cadaver decomposition islands] - obszary w bezpośrednim otoczeniu zwłok - zmieniają stężenie substancji odżywczych w glebie i jak te zmiany manifestują się w pobliskich roślinach. Najbardziej oczywistym skutkiem wyspy będzie uwolnienie do gleby dużych ilości azotu, zwłaszcza latem, gdy rozkład zachodzi tak szybko. W zależności od tego, jak prędko rośliny reagują na napływ azotu, może to powodować zmiany barwy liści i współczynnika odbicia - podkreśla Stewart. Amerykanie dodają, że w miejscach, gdzie giną ludzie, mogą także umierać inne duże ssaki, np. jelenie. Wyzwaniem, z którym musi się więc zmierzyć zespół Stewarta, jest odkrycie związków specyficznych dla ludzkiego rozkładu. Ponieważ ludzka dieta zazwyczaj nie jest naturalna, mogą istnieć specyficzne metabolity, np. te związane z lekami czy konserwantami, które będą miały swoisty wpływ na wygląd roślin. Jeśli zaginęła osoba, która dajmy na to, bardzo dużo pali, być może jej ciało ma profil chemiczny, który wyzwala unikatową reakcję roślin i w ten sposób ułatwia odnalezienie. Naukowcy dodają, że gdy wpływ rozkładu zwłok zostanie lepiej poznany, specjaliści będą mogli wykorzystywać urządzenia rejestrujące obrazy, żeby skanować roślinność pod kątem specyficznych sygnałów fluorescencyjnych czy odbicia. Amerykanie wyjaśniają, że choć część rozwiązań technologicznych już istnieje, trzeba jeszcze ustalić, które gatunki roślin są najlepsze i jakiego sygnału należy poszukiwać. Zbudowaliśmy już urządzenie [...], które może analizować sygnatury fluorescencji. Nasze początkowe działania będą miały bardzo niedużą skalę. Przyjrzymy się poszczególnym liściom i zmierzymy zmiany dot. współczynnika odbicia czy fluorescencji, które zachodzą w czasie, gdy rośliny znajdują się w pobliżu zwłok. Gdy diagnostyczne spektra zostaną skompilowane, można będzie zacząć myśleć o przeskalowaniu technologii na potrzeby np. dronów, za pomocą których w krótkim czasie analizowano by większe obszary. Uczeni dodają, że choć taki scenariusz postępowania wydaje się bardzo ekscytujący, musi minąć kilka lat, nim będzie można wykorzystać rośliny jako narzędzia w misjach poszukiwawczych. W międzyczasie wielodyscyplinarny zespół botaników, antropologów i gleboznawców musi zaplanować i przeprowadzić na trupiej farmie swoje eksperymenty. Stewart i inni podkreślają, że na wyspach rozkładu zwłok sukcesja może faworyzować egzotyczne rośliny inwazyjne i chwasty. Rośliny inwazyjne często mają rozbudowany system korzeniowy i mogą szybko reagować na zmiany środowiskowe. Rośliny te mają potencjał, by w reakcji na napływ różnych substancji do gleby prędko zmieć swój skład chemiczny i komórkowy. « powrót do artykułu
  5. „Uśmiechnięty” żółw birmański, Batagur trivittata, został ocalony przed zagładą. Gatunek jest jednak wciąż krytycznie zagrożony, a na wolności żyje prawdopodobnie jedynie 5 lub 6 samic i 2 samce. Do roku 2002 sądzono, że gatunek wyginął. We wspomnianym 2002 roku jednego z przedstawicieli gatunku kupił na chińskim targu amerykański kolekcjoner żółwi. Wtedy też świat dowiedział się, że Batagur trivittata jeszcze istnieje. Ten pochodzący z Mjanmy gatunek był niegdyś bardzo rozpowszechniony w tamtejszych rzekach. Jednak ludzie niemal doszczętnie go wytępili. Do tego stopnia, że uznano, iż wymarł. Gdy jednak okazało się, że pojedyncze sztuki przetrwały, rozpoczął się wielki wyścig z czasem. Teraz Wildlifa Conservation Society i Turtle Survival Alliance poinformowały, że w ośrodku hodowlanym we wsi Limpha w Mjanmie przebywa już niemal 1000 Batagurów trivittata. Jednocześnie ukazał się pierwszy w historii naukowy opis młodego przedstawiciela tego gatunku. Batagur trivittata wyróżnia wygląd jego głowy. Żółw wydaje się uśmiechać, ma zadarty nos i wytrzeszczone oczy. Samice tego gatunku są wyraźnie większe od samców. Mają przy tym znacznie przytłumione kolory. Samce są bardziej kolorowe, szczególnie w czasie sezony godowego, gdy chwalą się jasnym zielono-niebieskim i żółtym ubarwieniem. Mimo tego, że w ostatnich latach w ośrodku hodowlanym na świat przyszły setki żółwi, przyszłość gatunku wciąż jest bardzo niepewna. Na wolności pozostały pojedyncze sztuki. Trwa obecnie walka o zachowanie dzikiej populacji Batagura trivittata. Naukowcy spróbują też wypuścić część z hodowanych żółwi na wolność i będą sprawdzali, jak zwierzęta sobie poradzą. Niestety, w wyniku działalności człowieka nad wieloma gatunkami żółwi wisi widmo zagłady. Wiemy, że spośród 356 gatunków i 122 podgatunków żółwi od roku 1500 wyginęło 7 gatunków i 3 podgatunki. Obecnie aż połowa gatunków uznawana jest za zagrożone wyginięciem. « powrót do artykułu
  6. Chiny prawdopodobnie przeprowadziły w tajemnicy testy pojazdu kosmicznego wielokrotnego użytku. Eksperci interesujący się chińskim programem kosmicznym zauważyli, że rankiem 4 września w okolicach kosmodromu Jiuquan na Pustyni Gobi obowiązywały ograniczenia w ruchu powietrznym. Uznali, że mimo braku wcześniejszych zapowiedzi, chiny wystrzeliły rakietę Długi Marsz 2F. Po jakimś czasie agencja Xinhua potwierdziła, że start miał miejsce, a na pokładzie rakiety znajdował się eksperymentalny pojazd wielokrotnego użytku, który miał przetestować w czasie lotu technologie wielokrotnego użytku przydatne podczas pokojowego wykorzystania przestrzeni kosmicznej. Dwa dni później, 6 września, agencja poinformowała, że pojazd bezpiecznie wylądował. Udostępnione dotychczas dane wskazują, że pojazd wprowadzono na orbitę na wysokości 550 kilometrów. To podobna wysokość, na jakiej odbywały się dotychczasowe chińskie lody załogowe. Chiny trzymają jednak większość informacji w tajemnicy. Nie wiemy, jak duży był pojazd, co robił na orbicie ani jak długo jest w stanie na niej przebywać. Wiadomo, że Chiny od co najmniej dekady pracują nad technologią jakiegoś rodzaju samolotu kosmicznego. W 2017 zapowiedziano, że testowy lot takiego pojazdu może odbyć się w roku 2020. Dotrzymanie terminów zaskoczyło ekspertów. Chińczycy mogli rzeczywiście zrealizować swoje plany gdyż, jak mówi Andrew Jones, dziennikarz interesujący się chińskim programem kosmicznym, ostatnio zmodyfikowano stanowisko startowe i pojawiły się plakietki misji z potencjalnym wizerunkiem nowego pojazdu. Jean Deville, analityk zajmujący się chińskim programem kosmicznym, mówi, że samolot kosmiczny mógłby w znacznym stopniu wspomóc chiński program i plany budowy stacji kosmicznej. Pojazd wielokrotnego użytku byłby bardzo przydatny, tym bardziej, gdyby był to właśnie samolot, gdzie przyspieszenia mogłyby być znacznie mniejsze niż w np. w promach kosmicznych, zatem łatwiejsze do zniesienia dla astronautów. Inna możliwość jest taka, że chiński pojazd bardziej przypomina tajny amerykański X-37B, niewielki bezzałogowy prom kosmiczny, który odbył dotychczas kilka tajnych misji, pozostając na orbicie przez wiele miesięcy. Niezależnie jednak od tego, co naprawdę Chińczycy wystrzelili, wskazuje to na zwiększające się możliwości Państwa Środka. « powrót do artykułu
  7. Podczas rozbudowy drogi nr 885 z Przemyśla przez Hermanowice do granicy polsko-ukraińskiej, odkryto m.in. piece do wypalania ceramiki. Zabytki odkopano na znanym wcześniej stanowisku archeologicznym z okresu neolitu znajdującym się we wsi Malhowice. Wcześniej na stanowisku tym dokonano licznych interesujących odkryć. Teraz doszły kolejne. Wojewódzki Urząd Ochrony Zabytków w Przemyślu poinformował, że w sumie znaleziono 130 obiektów archeologicznych. Wśród nich znajduje się 29 jam gospodarczych, 1 palenisko otwarte, 2 piece garncarskie z jamami przypiecowymi i 1 pochówek kultury mierzanowickiej. Archeolodzy odkryli też liczne fragmenty ceramiki, głównie toczonej na kole. Szczególną uwagę przyciągają fragmenty amfory importowanej w terenu Cesarstwa Rzymskie, zapinka z brązu, aplikacja kościana z nawierconym otworkiem pochodząca z wczesnej epoki brązu, dwa częściowo zachowane kościane grzebienie z okresu wpływów rzymskich oraz fragmenty noża i sierpa. Jak informują archeolodzy, prowadzone obecnie badania potwierdzają, że stanowisko Malhowice 9 jest związane z okresem wpływów rzymskich i znajdują się tam pojedyncze elementy kultury mierzanowickiej. « powrót do artykułu
  8. W gdańskim kościele św. Mikołaja trwa msza święta, w czasie której odbędzie się uroczysty pochówek ludzkich szczątków znalezionych w czasie prac konserwatorskich pod podłogą kościoła. Podczas dwóch niezależnych wykopalisk, prowadzonych w roku 2018 i 2020 natrafiono na tysiące różnej wielkości kości. Pierwsze kości wydobyto podczas prac konserwatorskich w 2018 roku, gdy badano okolice zachodniej i południowej ściany świątyni. Kolejnych odkryć dokonano w roku 2020, gdy prowadzono prace w związku z grożącą kościołowi katastrofą budowlaną. Archeolodzy mówią, że trudno określić dokładny wiek szczątków, gdyż w przeszłości były one naruszone. Najprawdopodobniej doszło do tego w XIX wieku podczas remontu kościoła. Znalezione jednak przy zmarłych przedmioty świadczą o tym, że pochówków dokonano w epoce nowożytnej. Największą niespodzianką była duża liczba drobnych kości, które zwykle sie nie zachowują. Znaleźliśmy głównie kości rąk, stóp, elementy kręgosłupa, kości przedramion i wiele innych, mówi doktor Aleksandra Pudło. Odkryto też kości nienarodzonych dzieci, co wskazuje, że pochowano też kobiety w zaawansowanej ciąży. Naukowcy mówią, że takich pochówków było co najmniej 6. Po zbadaniu ponad 2600 kości doktor Pudło stwierdziła, że szczątki należały do co najmniej 64 osób. Były wśród nich dzieci, osoby młodociane oraz dorośli w wieku 20–70 lat. Na podstawie tych kości można określić wzrost gdańszczan. W średniowieczu kobiety mierzyły około 160 centymetrów, mężczyźni byli o około 10 centymetrów wyżsi. W późniejszych stuleciach w mieście zaczęło robić się ciasno, występowały często epidemie, zatem warunki życia były gorsze, dlatego też mężczyźni i kobiety byli nieco mniejsi. Cechy antropologiczne wskazują też na pochodzenie dawnych mieszkańców Gdańska. Osoby pochowane w średniowieczu w kościele św. Mikołaja pochodziły głównie z okolicznych ziem, a także z Kujaw, Wielkopolski, a nawet centralnej Polski. Zauważalny jest także niewielki napływ ludności ze Skandynawii, mówi uczona. « powrót do artykułu
  9. Naukowcy z Uniwersytetu Illinois w Chicago odkryli powiązania między zaburzonym snem a podwyższonym ciśnieniem i zmianami mikroflory jelit. Wyniki ich badań ukazały się w piśmie Physiological Genomics. Zespół chciał sprawdzić, czy 28-dniowy okres zaburzonego (pofragmentowanego) snu zmieni mikrobiom jelitowy szczurów. Ponieważ szczury są zwierzętami nocnymi, eksperymenty zaprojektowano w taki sposób, by zaburzać ich sen w dzień. Wyodrębniono także grupę kontrolną, która mogła spokojnie spać. Gryzoniom mierzono ciśnienie i tętno. Badano także odchody. Pomysł na badania wziął się stąd, że kilku badaczy pracowało w służbie zdrowia, co wiązało się z dyżurami na nocną zmianę. Kiedy szczurom zaburzano sen, następował wzrost ciśnienia. Ciśnienie pozostawało podwyższone nawet wtedy, gdy zwierzęta mogły z powrotem normalnie spać. To sugeruje, że dysfunkcyjny sen upośledza organizm przez dłuższy okres - podkreśla dr Katherine A. Maki. Niepożądane zmiany nastąpiły także w przypadku mikroflory jelit. Wbrew początkowym założeniom, zmiany te nie nastąpiły jednak od razu. Takie reakcje, jak nierównowaga między różnymi rodzajami bakterii, w tym wzrost organizmów związanych ze stanem zapalnym, pojawiły się po tygodniu. Gdy kończyło się zaburzanie snu, nie obserwowano natychmiastowego powrotu do normy. Nasze badanie wskazuje na istnienie złożonego systemu [zależności] z licznymi czynnikami patologicznymi. Z artykułu możemy się dowiedzieć, że naukowcy analizowali parametry z kilku okresów: wstępnego (od dnia -4. do -1.), wczesnej fragmentacji snu (dni 0.-3.), zaawansowanej fragmentacji snu (dni 6.-13.), późnej fragmentacji snu (dni 20.-27.) oraz regeneracji/odpoczynku (dni 28.-34.). Okazało się, że mniejsza ilość snu na godzinę w czasie fragmentacji snu wiązała się ze wzrostem średniego ciśnienia tętniczego. Analizy społeczności jelitowych i metabolitów pokazały, że w fazie zaawansowanej-późnej fragmentacji snu i regeneracji liczebność domniemanych bakterii produkujących krótkołańcuchowe kwasy tłuszczowe (ang. short-chain fatty acids, SCFA) była inna u zwierząt kontrolnych i poddawanych interwencji. Etap zaawansowanej fragmentacji snu cechowały również niższa różnorodność alfa (wewnątrz społeczności), wzrost względnej liczebności proteobakterii (Proteobacteria) czy niższy stosunek Firmicutes do Bacteroidetes. Uzyskane wyniki ujawniają zależności między fragmentacją snu, średnim ciśnieniem tętniczym i metabolomem mikroflory oraz dają pewien wgląd w powiązania między zaburzonym snem a chorobami sercowo-naczyniowymi. Ponieważ w badaniu przyglądano się wielu zmiennym, na potrzeby raportu sen REM i NREM traktowano łącznie jako sen. Dr Maki napisała w przesłanym nam mailu, że w przygotowywanym dopiero artykule analizuje bardziej szczegółowo fazy snu. Trzeba na niego jednak poczekać jeszcze parę miesięcy. Gdy zapytaliśmy, czy niższy stosunek F:B może być interpretowany jako zmiana pozytywna (z innych badań wiadomo w końcu, że wyższy stosunek F:B jest typowy dla otyłości), dr Maki odpowiedziała, że wbrew pozorom sprawa nie jest wcale prosta, gdyż na stosunek [ten] może wpływać zmiana jednej lub obu zmiennych (wzrost/spadek Firmicutes lub Bacteriodetes). W dyskusji w naszym artykule odnotowaliśmy, że badania dotyczące nadciśnienia, które zestawiały podwyższone ciśnienie ze stosunkiem F:B, wskazywały zarówno na spadki, jak i wzrosty tego stosunku. W mojej opinii stosunek F:B nie powinien więc być prosto interpretowany jako "dobry" czy "zły". Może za to być wykorzystywany jako miara oceny globalnych zmian społeczności bakteryjnej mikrobiomu jelitowego. Uważam, że kolejne badania rzucą nieco światła na to, w jakich przypadkach obniżony bądź podwyższony stosunek F:B może być wskaźnikiem stanów chorobowych. Oprócz tego [należy nadmienić], że wiele bakterii będących domniemanymi producentami SCFA pochodzi z typu Firmicutes, dlatego więc uznaliśmy spadki F:B za zmianę odzwierciedlającą ustalenia dot. spadków w zakresie niższej liczebności domniemanych producentów SCFA. W przyszłości akademicy chcą się lepiej przyjrzeć zjawiskom zachodzącym w mikrobiomie jelitowym (np. metabolitom produkowanym przez bakterie). Zespół zamierza też przeanalizować zmiany cech snu. Amerykanom zależy również na określeniu, jak długo utrzymują się zmiany dot. ciśnienia krwi i mikrobiomu. Później uczeni sprawdzą, jak ich ustalenia przekładają się na ludzi. Przez obowiązki zaburzające sen ludzie zawsze będą narażeni na problemy zdrowotne [choroby sercowo-naczyniowe]. Chcielibyśmy potrafić zmniejszyć to ryzyko, obierając na cel ich mikrobiom (za pomocą nowych terapii albo zmian dietetycznych) - podsumowuje dr Anne M. Fink. « powrót do artykułu
  10. Profesor Nishant Malik z Rochester Institute of Technology opracował model matematyczny, który dowodzi, że to zmiany klimatyczne były prawdopodobną przyczyną rozkwitu i upadku cywilizacji doliny Indusu. Ta pierwsza wysoko rozwinięta cywilizacja na terenie subkontynentu indyjskiego, zwana też kulturą Mohendżo Daro lub kulturą harappańską (od Harappy), istniała równocześnie z cywilizacją starożytnego Egiptu i Mezopotamii. Jak twierdzi Malik, zagładę przyniosły jej zmiany wzorca monsunów. Malik stworzył nowy model matematyczny służący do pracy z danymi paleklimatycznymi. Informacje na temat klimatu z przeszłości możemy zdobyć badając np. obecność izotopów. Na przykład do odtworzenia ostatnich 5700 lat historii klimatu w regionie, że rozwijała się cywilizacja Mohendżo Daro, naukowcy wykorzystują izotopy obecne w stalagmitach Azji Południowej. Na ich podstawie można bowiem odtworzyć wzorce opadów. Malik zauważył, że narzędzia matematyczne używane obecnie do analizowania takich danych są bardzo niedoskonałe. Zwykle otrzymujemy krótkie serie danych, pełne różnego typu zakłóceń i obarczonych sporym marginesem niepewności, mówi uczony. Klimat i pogoda to systemy dynamiczne. Jednak matematyczną teorię systemów dynamicznych trudno jest zastosować do danych paleklimatycznych. Nowa metoda pozwala uzupełnić luki pomiędzy krótkimi seriami dostępnych danych, stwierdza uczony. Istnieje kilka różnych teorii dotyczących upadku cywilizacji Doliny Indusu. Mówi się o inwazji, trzęsieniach ziemi, zmianach klimatu. Ta ostatnia przyczyna jest uważana za najbardziej prawdopodobną, jednak to dopiero badania Malika dostarczają pierwszego matematycznego dowodu na jej prawdziwość. Przeprowadzone przez niego analizy wykazały, że do zmian wzorca monsunów doszło bezpośrednio przed pojawieniem się tej cywilizacji, a bezpośrednio przed jej upadkiem wzorzec monsunów ponownie uległ zmianie. Opracowana przez Malika metoda łączy w sobie trzy różne sposoby analizy nielinearnych serii danych: układów rekurencyjnych (recurrence plot), eigenmaps Laplace'a oraz informacji Fishera. Metodę tę zastosowano do danych paleoklimatycznych z Azji Południowej, obejmujących okres ostatnich 5700 lat. Jednym z najbardziej istotnych wydarzeń, jakie miały miejsce w tym czasie było pojawienie się i upadek cywilizacji doliny Indusu. Rozkwitała ona mniej więcej w latach 3300–1300 przed Chrystusem. Jest ona znana z infrastruktury miejskiej czy opracowania zaawansowanych systemów pomiaru długości i masy. Ostatnie badania wskazują, że mogła ona obejmować 5 milionów osób i rozciągała się od północno-wschodniego Afganistanu po północno-zachodnie Indie. Ewolucję tej cywilizacji można podzielić na trzy fazy: wczesną (3300–2600 p.n.e.), dojrzałą (2600–1900 p.n.e.) oraz późną (1900–1300 p.n.e.). Lata 1300–700 p.n.e. to okres postharappański po całkowitym upadku cywilizacji doliny Indusu. Na załączonej grafice widać, jak zmieniała się liczba osad w poszczególnych okresach i do jak dramatycznego spadku doszło w okresach końcowych. Specjaliści wymieniają trzy możliwe przyczyny upadku cywilizacji doliny Indusu. Są to inwazja plemion indo-aryjskich, trzęsienia ziemi oraz zmiana klimatu. Na inwazję nie mamy zbyt wielu dowodów, jednak istnieją dowody na trzęsienia ziemi, które mogły zmienić bieg systemów rzecznych zapewniających istnienie cywilizacji. Ostatnio jednak zaczęło pojawiać się coraz więcej dowodów wskazujących na zmiany klimatyczne jako przyczynę jej upadku. Malik i jego zespół podkreślają, że większość osad cywilizacji doliny Indusu było zlokalizowanych w systemie rzecznym Ghaggar-Hakra, który jest zasilany przez monsun. Dlatego też zmiany klimatu od dawna były brane pod uwagę jako przyczyna upadku cywilizacji. Brakowało jednak na to jednoznacznych dowodów. Dzięki nowej analizie danych paleoklimatycznych naukowcom udało się wykazać, że około 1500 lat przed naszą erą (± 88 lat) doszło do radykanej zmiany wzorca monsunów. Zmiana ta zbiega się w czasie z upadkiem cywilizacji. Jednak to nie wszystko. Wcześniej, bo około 3259 lat przed Chrystusem (± 88 lat) również zaszła zamiana. Ona z kolei zbiega się z pojawieniem się badanej cywilizacji. Wszystko wskazuje więc na to, że cywilizacja Mohendżo Daro pojawiła się i rozwijała pomiędzy dwiema zmianami wzorca monsunów, które zasilały system Ghaggar-Hakra. Co więcej, uczeni zaobserwowali też trzy zestawy danych odpowiadające trzem różnym dynamikom monsunu i różnym etapom ewolucji cywilizacji doliny Indusu. Jako, że opady monsunowe są wrażliwe na albedo Ziemi, naukowcy sądzą, że do pierwszej zmiany monsunów, która umożliwiła powstanie cywilizacji, przyczynił się koniec holoceńskiego optimum klimatycznego. Koniec ocieplania się klimatu spowodował pojawienie się korzystnego wzorca monsunów. Przez kolejnych 2000 lat monsuny były silniejsze i zasilały system rzeczny, nad którym rozwinęła się cywilizacja. Po tym czasie, prawdopodobnie z powodu zmian w zasięgu lodowców, monsuny osłabły, dolina Indusu zaczęła wysychać i nie była w stanie utrzymać dużej cywilizacji rolniczej. Badania Malika zostały opisane w artykule pt. Uncovering transitions in paleoclimate time series and the climate driven demise of an ancient civilization. « powrót do artykułu
  11. Dotąd oszacowana była tylko długość kopalnego rekina megalodona. Autorzy nowych badań z Uniwersytetów w Bristolu i Swansea ujawnili jednak ostatnio rozmiary reszty ciała olbrzyma, w tym płetwy grzbietowej, która była tak duża, jak dorosły człowiek. Naukowcy podkreślają, że ludzie są zafascynowani określaniem gabarytów największych rekinów. W przypadku form kopalnych, kiedy specjaliści dysponują samymi zębami, nie jest to łatwe zadanie. W oparciu o skamieniałości zębów i dane dot. żarłacza białego wyliczono, że maksymalna długość całkowita megalodona wynosiła ok. 15-18 m (takie wyniki otrzymywali autorzy prac, które ukazały się od 1996 do 2019 r.). Był on więc ponad 2-krotnie dłuższy od żarłacza. Jack Cooper z Uniwersytetu w Bristolu i jego współpracownicy z Uniwersytetów w Bristolu i Swansea poszli o krok dalej i posłużyli się metodami matematycznymi, by określić rozmiary i proporcje kopalnego rekina. Bazowali przy tym na porównaniach do żyjących krewnych, wykazujących ekologiczne i fizjologiczne podobieństwa do megalodona. Projekt był nadzorowany przez ekspertkę od rekinów - dr Catalinę Pimiento z Uniwersytetu w Swansea i przez paleontologa z Bristolu - prof. Mike'a Bentona. Wyniki badań opublikowano w piśmie Scientific Reports. Zawsze byłem zafascynowany rekinami. Podczas licencjatu nurkowałem z żarłaczami białymi w RPA (chroniła mnie, oczywiście, metalowa klatka). [...] Rekiny są pięknymi i świetnie przystosowanymi zwierzętami i stanowią atrakcyjny obiekt badań - podkreśla Cooper. Projekt związany z megalodonem był marzeniem Coopera, lecz badanie zwierzęcia jako całości jest trudne, zważywszy, że tak naprawdę mamy tylko wiele izolowanych zębów. Wcześniej kopalny rekin - Otodus megalodon - był porównywany jedynie do żarłacza białego (Carcharodon carcharias), jednak zespół Coopera jako pierwszy rozszerzył tę analizę, by zawrzeć w niej aż 5 gatunków współczesnych rekinów: wspomnianego żarłacza białego, ostronosa atlantyckiego (Isurus oxyrinchus), ostronosa długopłetwego (Isurus paucus), lamnę dwustępkową (Lamna ditropis) i lamnę śledziową (Lamna nasus). Nim mogliśmy cokolwiek zrobić, musieliśmy stwierdzić, czy dorastając, rekiny te zmieniają proporcje. Gdyby były, na przykład, jak ludzie, w przypadku których dzieci mają duże głowy i krótkie nogi, mieliśmy pewne trudności z przewidywaniem dorosłych rozmiarów dla tak dużego wymarłego rekina - wyjaśnia prof. Benton. Byliśmy jednak zaskoczeni i odczuliśmy ulgę, gdy odkryliśmy, że w rzeczywistości młode wszystkich tych współczesnych drapieżnych rekinów rozpoczynają [życie] jako miniwersje dorosłych i nie zmieniają proporcji, gdy stają się większe. To zaś oznacza, że mogliśmy po prostu przyjąć krzywe wzrostu 5 współczesnych form i szacować ogólny pokrój podczas wzrostu, aż do osiągnięcia długości 16 metrów - dodaje Cooper. Wyniki sugerują, że 16-metrowy O. megalodon miał głowę o długości ok. 4,65 m, płetwę grzbietową o wysokości 1,62 cm i płetwę ogonową o szerokości (wysokości) 3,85 m. Długość płetw piersiowych także robiła wrażenie; oszacowano, że wynosiła co najmniej 3 metry. Rekonstrukcja rozmiarów części ciała megalodona stanowi ważny krok naprzód w kierunku zrozumienia fizjologii tego giganta. « powrót do artykułu
  12. Przenośna konsola, która umożliwia nieograniczenie długą rozgrywkę, bez potrzeby wymiany czy ładowania akumulatora, to marzenie wielu graczy. Urządzenie takie powstało właśnie dzięki współpracy naukowców z amerykańskiego Northwestern University i holenderskiego Uniwersytetu Technologicznego w Delft. Prototyp konsoli podobnej do Game Boya to model badawczy, który posłuży do dalszych prac nad elektroniczną rozrywką bez baterii czy akumulatorów. Akumulatory i baterie są kosztowne i niezwykle szkodliwe dla środowiska naturalnego. Stąd też pomysł, by z nich zrezygnować. Twórcy wspomnianego prototypu postanowili wykorzystać energię słoneczną oraz energię dostarczaną przez samego użytkownika. To pierwsze nieposiadające baterii urządzenie interaktywne, które czerpie energię z działań użytkownika. Gdy naciskasz przycisk, urządzenie zmienia twoje działanie w energię, którą się zasila, mówi współautor badań, Josiah Hester z Northwestern. Zrównoważona rozrywka elektroniczna będzie kiedyś oczywistością, a my – pozbywając się akumulatorów – uczyniliśmy ważny krok w tym kierunku, dodaje Przemysław Pawelczak z Delft. Naukowcy zmodyfikowali Game Boyja dodając wokół ekranu panele fotowoltaiczne. Drugim źródłem energii jest sam użytkownik i naciskane przez niego przyciski. Zaprojektowane od podstaw urządzenie pozwala na uruchomienie dowolnej klasycznej gry zapisanej na kartridżach Game Boya. W momencie gdy urządzenie przełącza się pomiędzy źródłami energii, doświadcza krótkotrwałej utraty zasilania. Naukowcy, by upewnić się, że czas gry pomiędzy takimi wyłączeniami będzie akceptowalnie długi, zaprojektowali swoją konsolę tak, by jak najbardziej oszczędzała ona energię. Stworzyli też nową technikę zapisywania stanu gry w pamięci nieulotnej, dzięki której zminimalizowali koszty układu pamięci oraz skrócili czas ponownego ładowania gry po odzyskaniu zasilania. Użytkownik nie musi naciskać przycisku „zachowaj”. Stan gry zapisywany jest dokładnie w momencie, w którym doszło do utraty zasilania. Gdy dzień nie jest zbyt pochmurny, a gra wymaga co najmniej średniej liczby naciśnięć przycisków, utrata zasilania przydarza się rzadziej niż co 10 sekund i trwa około sekundy. Naukowcy stwierdzili, że jest to wystarczające rozwiązanie, by cieszyć się takimi grami jak szachy, pasjans czy Tetris. Z pewnością jednak będzie to przeszkadzało przy bardziej dynamicznych grach. Oczywiście przed naukowcami jeszcze bardzo długa droga, zanim z tak prostego prototypu uczynią wygodną w użyciu pozbawioną akumulatorów i baterii przenośną konsolę pozwalającą na korzystanie z dowolnych gier. Uczeni mają jednak nadzieję, że ich prace zwiększą świadomość konsumentów w obliczu szybko rozwijającego się Internet of Things. Otaczamy się coraz większą liczbą niewielkich gadżetów, zużywając przy tym coraz więcej baterii i akumulatorów, które w końcu trafiają na wysypiska śmieci, zanieczyszczając glebę, wodę i powietrze.   « powrót do artykułu
  13. Słonie, podobnie jak szympansy i psy, zarażają się ziewaniem od ludzi, których znają. Są więc bardziej do nas podobne, niż się wydaje. Do takich wniosków doszła Zoe Rossman i jej zespół z University of New Mexico, którzy prowadzili badania na słoniach z parku Knysna w RPA. Naukowcy prosili opiekunów słoni, by ziewali w ich obecności i zauważyli, że zwierzęta z większym prawdopodobieństwem również ziewały w reakcji na takie zachowanie człowieka niż w reakcji na jakikolwiek inny ruch ludzkich ust. Spontaniczne ziewanie jest rozpowszechnione wśród kręgowców. Jednak zarażanie się ziewaniem zaobserwowano dotychczas u niewielu gatunków. Rossman i jej koledzy wybrali się do parku Knysna, gdzie przebywają osierocone i uratowane słonie. Jako, że zwierzęta te – mimo iż nigdy nie zostały udomowione – mają długą bogatą historię interakcji z człowiekiem – uczeni chcieli sprawdzić, czy zarażają się od nas ziewaniem. Przed kilku laty uczona Rossman przeprowadziła bowiem badania, w których zauważyła, że zarażają się ziewaniem od innych słoni. Do badań zaangażowano 10 słoni afrykańskich. Ich opiekunowie ziewali naprawdę, udawali ziewanie, otwierali usta lub też w ogóle nie ruszali ustami. Słonie z większym prawdopodobieństwem ziewały, gdy opiekun też ziewał lub udawał ziewanie. Uczona uważa, że również dzikie słonie zarażają się od siebie ziewaniem. Czynność ta pobudza bowiem mózg i wzmaga czujność całego stada. Chociaż nasze dane pochodzą od słoni żyjących w niewoli, jest to dobrze zintegrowana grupa o dynamice podobnej do dzikich stad. Stado odnosi korzyści z szybkiego rozprzestrzeniania się w nim stanu wzmożonej czynności w reakcji na impuls, który pochodzi od jednego czy kilku członków, mówi.   « powrót do artykułu
  14. Właścicieli kotów można przypisać do pięciu różnych kategorii pod względem ich stosunku do takich zachowań kota jak wychodzenie z domu i polowanie. Naukowcy z University of Exeter przyjrzeli się właścicielom kotów i stwierdzili, że wachlarz ich postaw wobec pupili rozciąga się od „świadomego opiekuna”, który przejmuje się wpływem kota na dziką przyrodę i czuje się za wpływ ten odpowiedzialny, po „obrońcę wolności”, który sprzeciwia się nakładaniu jakichkolwiek ograniczeń na kota. Trzy pozostałe wyodrębnione typy właścicieli kotów to: – „troszczący się obrońca”, dla którego najważniejszym elementem jest bezpieczeństwo kota, – „tolerancyjny strażnik”, któremu nie podoba się, że kot poluje, ale to akceptuje, – „wolnościowy pan na włościach”, który generalnie nie ma żadnej wiedzy o potencjalnych skutkach swobodnego przemieszczania się i polowania kota. Organizacje ochrony przyrody od dawna alarmują, że koty mogą czynić duże szkody w dzikiej przyrodzie. Co prawda większość kotów zabija niewiele dzikich zwierząt, jeśli w ogóle mają okazję do polowania, jednak biorąc pod uwagę dużą liczbę kotów żyjących w brytyjskich domach (a jest ich około 10 milionów) oraz ich zagęszczenie, to skutki polowań na ptaki, małe ssaki czy gady mogą być niepokojące. Większość właścicieli kotów ma co najmniej raz w życiu do czynienia ze zwierzęciem zabitym i przyniesionym przez ich pupila. Rozwiązanie problemu niekorzystnego wpływu kotów na dziką przyrodę jest trudne ze względu na bardzo różne postawy ich właścicieli. Dlatego też naukowcy z Exeter rozpoczęli projekt badawczy „Cats, Cat Owners and Wildlife” (Koty, właściciele kotów i dzika przyroda), w ramach którego chcą opracować akceptowalne dla wszystkich strategie, które mają z korzyścią dla kotów ograniczyć liczbę zabijanych przez nie dzikich zwierząt. Opisywane tutaj badania to krok w kierunku zrozumienia postaw właścicieli oraz zidentyfikowania metod dotarcia do nich. Naukowcy podkreślają, że potrzebne są różne strategie, uzależnione od postawy samego właściciela kota. Mimo istnienia różnych postaw, większość brytyjskich właścicieli kotów ceni sobie możliwość wypuszczenia kota z domu i sprzeciwia się pomysłowi trzymania zwierząt cały czas w mieszkaniach, by uniemożliwić im polowanie, mówi główna autorka badań, doktor Sarah Crowley. Z tego też powodu nakazy trzymania kotów w domach raczej nie znajdą poparcia u właścicieli zwierząt. Uczona zauważa jednocześnie, że tylko jeden z typów właścicieli postrzega polowania podejmowane przez kota jako coś pozytywnego. A to oznacza, że właściciele należący do innych kategorii mogą być zainteresowani jakąś metodą ograniczenia polowań przez ich pupili. Jeśli chcemy opracować efektywne strategie radzenia sobie z tym problemem, to muszą być one zgodne z poglądami właścicieli i okolicznościami, w jakich żyją. Pojawiają się sugestie, by wolno chodzące koty były wyposażane w jaskrawe opaski. Niektórzy właściciele przyczepiają też swoim kotom dzwonki. Naukowcy badają obecnie skuteczność tych i innych rozwiązań. Jeśli chcemy, by przyroda wygrała, a gatunki zagrożone przetrwały, musimy opracować pragmatyczne podejście, w którym uwzględnimy poglądy właścicieli kotów, mówi Tom Treeter, przewodniczący organizacji SongBird Survival. Z opinią tą zgadza się doktor Sarah Ellis z organizacji skupiającej miłośników kotów. Odkrycie, że wielu brytyjskich właścicieli kotów przywiązuje wielką wagę do ochrony przyrody i do wpływu ich zwierząt na nią sugeruje, że część z nich będzie skłonna zastosować przyjazne kotom rozwiązania ograniczające polowania. « powrót do artykułu
  15. Alhambra, warowny zespół pałacowy w Grenadzie, jest jednym z najczęściej odwiedzanych zabytków świata. Fotograf Ugo Mellone patrzy jednak na wpisany na Listę Światowego Dziedzictwa UNESCO obiekt w nieco inny sposób. Mauretańska architektura z XIII w. obfituje bowiem w liczne fontanny, sadzawki i arterie wodne, które zapewniają miejsce do życia różnym zwierzętom, głównie płazom. Z zainteresowania nimi wziął się projekt Mellonego Dzika Alhambra (Wild Alhambra). Istnieją dowody, że w Alhambrze i Generalife - letniej rezydencji z ogrodami - od setek lat występowały żaby i traszki. Alhambrę zamieszkuje 5 gatunków płazów. Ropucha szara (Bufo spinosus) i żaba pirenejska (Pelophylax perezi) są najliczniejsze i ławo je wypatrzeć. Do rzadszych należą traszka Waltla (Pleurodeles waltl), pętówka Alytes dickhilleni i krągłojęzyczka zachodnioiberyjska (Discoglossus galganoi). Traszka Waltla była kiedyś rozpowszechniona w Alhambrze. Po reintrodukcji jej populacja ponownie się rozrasta. Jakiś czas temu z wysychających okolicznych stawów uratowano setki kijanek. Zostały one wypuszczone w zbiornikach Alhambry. Po kilku takich akcjach obecnie P. waltl rozmnażają się w swoim nowym domu. W ramach monitoringu i działań mających na celu ochronę zamontowano w Alhambrze specjalne minirampy, po których traszki mogą się przemieszczać. Specjaliści podkreślają, że traszki trafiły również do sztuki. W Muzeum Alhambry znajduje się np. misa ozdobiona ich wizerunkami. W zbiornikach wodnych Alhambry żyje też wąż polujący na płazy - zaskroniec żmijowy (Natrix maura). Ugo Mellone urodził się w 1983 r. w Lecce we Włoszech. Zainteresowanie przyrodą sprawiło, że zajął się fotografią natury i biologią (pierwszą lustrzankę kupił w 1999 r.). Po 10 latach badań terenowych nad migracją ptaków drapieżnych w 2013 r. uzyskał stopień doktora. Obecnie pracuje jako wolny strzelec: przyjmuje zlecenia związane z fotografią, badaniami i dokumentami przyrodniczymi. Mellone podkreśla, że mieszkał już w 4 krajach (Włoszech, Hiszpanii, Szwecji i Argentynie) i podróżował do wielu innych. Obecnie mieszka w Grenadzie i zajmuje się projektami dotyczącymi basenu Morza Śródziemnego i Afryki Północnej. « powrót do artykułu
  16. Analiza roślinności na jednej z wysp Morza Beringa wykazała, że zasięg lodu pływającego na tym akwenie jest obecnie najmniejszy od 5500 lat. Badania, opublikowane na łamach Science Advances, opisują, w jaki sposób rdzeń torfowy z Wyspy Św. Mateusza pozwala zbadać przeszłość klimatu. Pobrany rdzeń pozwolił na cofnięcie się w czasie o 5500 lat i ocenę zmian zasięgu lodu pływającego. To niewielka wyspa na środku Morza Beringa. Jest na niej zapis tego, co działo się w atmosferze i na morzu wokół niej, mówi główna autorka badań Miriam Jones ze Służby Geologicznej Stanów Zjednoczonych i University of Alaska Faribanks. Pani Jones prowadzi swoje badania od 2012 roku. Dane na temat lodu pływającego można odczytać ze względnego stosunku izotopów tlenu-16 do tlenu-18. Stosunek tych izotopów względem siebie zmienia się w zależności od opadów, co odzwierciedla zmiany w atmosferze i oceanie. Więcej tlenu-18 oznacza obecność większych opadów, a rosnący tlen-16 to znak, że opady były lżejsze. Na potrzeby swoich badań naukowcy przeanalizowali też dane z modelu cyrkulacji powietrza i stwierdzili, że bardziej intensywne opady nadchodzą z północnego Pacyfiku, a lżejsze opady są zapoczątkowywane nad Arktyką. Uczeni przyjrzeli się też zbieranym od 1979 roku danym satelitarnym na temat zasięgu lodu pływającego i stwierdzili, że okresy bardziej intensywnych opadów związane są z mniejszym zasięgiem lodu pływającego, a mniej intensywne opady – z większym jego zasięgiem. Analizy te znajdują potwierdzenie w przeprowadzonych w przeszłości badaniach mikroorganizmów obecnych w rdzeniach. Po przeprowadzeniu analizy izotopów we wspomnianym na początku rdzeniu torfowym stwierdzono, że obecny zasięg lodu pływającego na Morzu Beringa jest wyjątkowo mały. To, co obserwujemy obecnie nie ma precedensu w ciągu ostatnich 5500lat. W tym czasie zasięg lodu pływającego na Morzu Beringa nigdy nie był tak mały jak obecnie, mówi współautor badań Matthew Wooller, dyrektor Alaska Stable Isotope Facility, gdzie były prowadzone analizy rdzenia. Jones dodaje, że analizy potwierdzają, iż zmniejszenie zasięgu lodu pływającego na Morzu Beringa nie jest związane wyłącznie z rosnącą temperaturą. Większe znaczenie mają tutaj – wywołane zmianami klimatu – zmiany cyrkulacji atmosferycznej i oceanicznej. Tutaj w grę wchodzi znacznie więcej czynników niż tylko rosnące temperatury. Obserwujemy zmiany wzorców cyrkulacji w atmosferze i oceanie, stwierdza Jones. Z artykułem High sensitivity of Bering Sea winter sea ice to winter insolation and carbon dioxide over the last 5500 years można zapoznać się na łamach Science Advances. « powrót do artykułu
  17. Przy okazji każdej kampanii wyborczej partie polityczne wydają ogromne sumy na reklamy w telewizji. Jednak nowe badania, przeprowadzone przez naukowców z Yale University oraz University of California, dowodzą, że reklamy takie przynoszą partiom politycznym niewiele korzyści, niezależnie od ich zawartości, kontekstu czy odbiorców. Wyniki badań zostały opublikowane z najnowszym numerze Science Advances. Ich autorzy, Alexander Coppock z Yale, Seth J. Hill z UCSD i Lynn Vavreck z UCLA, przeanalizowali, jaki wpływ miało 49 najbardziej rozpowszechnionych reklam telewizyjnych z amerykańskiej kampanii prezydenckiej z 2016 roku. Reklamy badano na reprezentatywnej próbce 34 000 osób, które poddano serii 59 randomizowanych eksperymentów. Okazało się, że – niezależnie od wielu czynników, w tym odbiorców, długości reklamy, zawartego przekazu i innych –  wpływ reklam na ludzi był bardzo słaby. Istnieje przekonanie, że naprawdę dobra reklama lub reklama skierowana w odpowiednim kontekście do konkretnej widowni, może wpłynąć na decyzje wyborców. Stwierdziliśmy jednak, że reklamy polityczne mają bardzo słaby wpływ na decyzje wyborców i pozostaje od słaby niezależnie od czynników branych pod uwagę, mówi profesor Coppock. Reklamy z przekazem pozytywnym wcale nie działają lepiej niż reklamy z przekazem negatywnym. Wyborcy republikanów, demokratów i innych partii reagują na reklamy podobnie. Reklamy wyświetlane w stanach, gdzie preferencje wyborców wahają się nie są bardziej efektywne niż wyświetlane w stanach o jednoznacznych preferencjach wyborczych. Naukowcy prowadzili swoje eksperymenty przez 29 tygodni. Za każdym razem badani byli losowo przydzielani do dwóch różnych grup. Jedna z nich oglądała reklamę polityczną, a druga reklamę firmy oferującej ubezpieczenia samochodów. Później obie grupy odpowiadały na krótką ankietę. Reklamy, jakie wyświetlano w danym tygodniu były dobierane w zależności od wydarzeń politycznych tygodnia i z uwzględnieniem reklam zamawianych w stacjach telewizyjnych. Badano reklamy atakujące oraz promujące Donalda Trumpa i Hillary Clinton oraz Teda Cruza i Berniego Sandersa. Analizowano wpływ reklam na wyborców, biorąc pod uwagę wiele różnych czynników, wśród nich samego kandydata, jego partię, jego sponsorów, przekaz reklamy, sympatie polityczne widzów, porę dnia, w której reklamę wyświetlano, stan, w którym ją pokazywano itp. itd. Wyniki badań były miażdżące. Okazało się, że średnio reklamy zmieniały postrzeganie kandydata na bardziej pozytywne o 0,05 punktu w 5-stopniowej skali. To wynik istotny statystycznie, gdyż badana próbka była duża. Jednak zwiększenie sympatii do kandydata nie przekładało się na chęć głosowania na niego. Badania wykazały bowiem, że średnio reklamy mogły zmienić preferencje wyborcze nieistotnej statystycznie grupy 0,007% wyborców. Naukowcy zauważają, że specjaliści od polityczne PR-u powinni zatem bardzo precyzyjnie dobierać grupę, do której kierują daną reklamę, gdyż wpływ reklam na poszczególne osoby jest różny. Podkreślają przy tym, że nie oznacza to, iż reklamy polityczne są zawsze nieefektywne. Coppock zauważa, że nie analizowano wpływu całej kampanii reklamowej na wyborców. Reklamy w telewizji zwiększają rozpoznawalność kandydata, co jest niezwykle istotne. Ponadto wywierają mały, ale mierzalny efekt, co może mieć znaczenie przy wyborach, gdzie kandydaci idą łeb w łeb. « powrót do artykułu
  18. NASA poinformowała, że satelita OGO-1 spłonął w atmosferze Ziemi po 56 latach przebywania na orbicie okołoziemskiej. Orbiting Geophysics Observatory 1 został wystrzelony we wrześniu 1964 roku. Był pierwszym z 5 satelitów badających pole magnetyczne Ziemi w ramach misji OGO. Był też ostatnim z nich, który wszedł w ziemską atmosferę. Misja satelity zakończyła się w 1971 roku i od tamtej pory krążył bez celu wokół naszej planety. W wyniku tarcia o górne warstwy atmosfery ważący 487 kilogramów satelita coraz bardziej spowalniał, w wyniku czego zmniejszał wysokość. W końcu 29 sierpnia o godzinie 22:44 czasu polskiego wszedł w atmosferę nad Oceanem Spokojnym i w niej spłonął, nie stanowiąc zagrożenia dla ludzi. NASA dość precyzyjnie wyliczyła miejsce i moment tego wydarzenia. OGO-1 wszedł w atmosferę o około 25 minut wcześniej, niż przewidywała NASA, w wyniku czego miejsce pojawienia się w atmosferze znajdowało się o około 160 kilometrów na południowy-wschód od Tahiti. Dzięki temu NASA mogła nie tylko śledzić satelitę za pomocą radarów, ale również zebrała relacje od mieszkańców Tahiti, którzy obserwowali płonący w atmosferze pojazd. Satelity OGO były wystrzeliwane w latach 1964–1969. Wszystkie spłonęły już w atmosferze naszej planety. « powrót do artykułu
  19. Naukowcy z Uniwersytetu Technologicznego w Delft wykazali, że możliwe jest niezależne manipulowanie dwoma rodzajami magnetyzmu w atomach. Magnetyzm w atomach powstaje w wyniku orbitalnego oraz obrotowego ruchu elektronów. W tym pierwszym przypadku mowa jest o ruchu elektronu wokół jądra. Ruch obrotowy zaś to ruch elektronu wokół własnej osi. Jako, że każdy z tych rodzajów ruchu może odbywać się zgodnie z ruchem wskazówek zegara lub w stronę przeciwną, zatem może reprezentować 0 lub 1. Teoretycznie więc w atomie możemy zapisać 2 bity danych. "W praktyce jednak jest to niezwykle trudne, gdyż jeśli zmienimy kierunek ruchu orbitalnego, niemal zawsze zmieni się kierunek ruchu obrotowego i vice versa", mówi główny autor najnowszych badań, Sander Otte. Holendrzy, we współpracy z Hiszpanami i Chilijczykami dowiedli, że można odwrócić kierunek ruchu orbitalnego elektronu bez zmiany jego ruchu obrotowego. Osiągnęli to dzięki wykorzystaniu efektu Einsteina-de Haasa. Zgodnie z nim odwrócenie kierunku ruchu orbitalnego można skompensować przez niemierzalnie mały obrót środowiska. W tym przypadku był to kawałek metalu, którego część stanowi atom. Naukowcy wykorzystali skaningowy mikroskop tunelowy, którego próbnik może manipulować pojedynczymi atomami. Zwykle atom ma kontakt z wieloma sąsiadującymi atomami, co zaburza jego magnetyzm. Otte i jego zespół odseparowali spin od ruchu orbitalnego atomu żelaza umieszczając go na pojedynczym niemagnetycznym atomie azotu. Dzięki temu mogli manipulować ruchem orbitalnym bez wpływania na spin elektronu. Możliwość przechowywania bitów w pojedynczym atomie zwiększyłaby tysiące razy pojemność obecnych układów pamięci. Do tego jeszcze bardzo długa droga. Otte mówi, że w tej chwili głównym osiągnięciem, z którego naukowcy się bardzo cieszą, jest możliwość kontrolowania pojedynczych atomów oraz elektronów krążących wokół nich. « powrót do artykułu
  20. Teorie mówią, że nie istnieją gwiazdowe czarne dziury o takiej masie. Ale, jak wiemy, natura zawsze znajdzie jakiś sposób, mówi Stan Woosley, astrofizyk z University of California, Santa Cruz. Uczony skomentował w ten sposób to, co zarejestrowały wykrywacze fal grawitacyjnych LIGO i Virgo. A przechwyciły one sygnał świadczący o niezwykle mało prawdopodobnej kolizji czarnych dziur o rzadko spotykanej masie. Eksperci,  którymi kontaktowali się dziennikarze poinformowali, że wśród 22 fal grawitacyjnych zarejestrowanych od kwietnia przez LIGO/Virgo znajduje się taki, który pochodzi od czarnej dziury o masie nawet 100 mas Słońca. Dzisiaj naukowcy potwierdzili, że zauważyli kolizję dwóch czarnych dziur o masach 65 i 85 mas Słońca, w wyniku której powstała czarna dziura o masie 150 mas Słońca. Krzysztof Bełczyński, astrofizyk z Uniwersytetu Warszawskiego, był tak pewien, iż zderzenie takich czarnych dziur jest mało prawdopodobne, że w 2017 roku w podczas spotkania w Aspen Center For Physics wraz z Danielem Holzem z University of Chicago zawarli zakład stwierdzając, iż żadna czarna dziura o takiej masie nie zostanie wykryta w pierwszych 100 sygnałach LIGO/Virgo. Do zakładu dołączył później też Woosley. Zakład przyjęło troje innych naukowców. Myślę, że przegramy ten zakład. Ku chwale nauki, mówi Bełczyński. W 1967 roku fizycy z Uniwersytetu Hebrajskiego w Jerozolimie odkryli, że jeśli umierająca gwiazda ma bardzo masywne jądro, to nie zapadnie się ono w czarną dziurę. Gwiazda taka zmieni się w supernową niestabilności kreacji par (pair-instability supernova). Do jej powstania dochodzi, gdy jądro gwiazdy staje się tak gorące, iż światło spontanicznie zamienia się w nim w pary elektron-pozyton. Dotychczas ciśnienie światła zapewniało stabilność jądra. Gdy zaczyna się ono zamieniać w materię ciśnienie to spada, jądro gwałtownie się kurczy, staje się coraz gorętsze, to z kolei przyspiesza produkcję par elektron-pozyton. Powstaje samonapędzający się mechanizm. W końcu temperatura rośnie do tego stopnia, że dochodzi do fuzji tlenu. W jego wyniku implozja zostanie zatrzymana, a rozpoczyna się proces odwrotny. Następuje eksplozja jądra. Jeśli jądro miało masę 65–130 mas Słońca, cała materia zostaje rozrzucona. Po gwieździe pozostaje mgławica. Jądro nie zapada się, nie powstaje czarna dziura. Jeśli natomiast jądro, w którym doszło do niestabilności kreacji par miało masę od 50 do 65 mas Słońca, dochodzi do serii eksplozji, które stopniowo wyrzucają materię dopóty, dopóki masa jądra nie spadnie poniżej limitu, w którym niestabilność kreacji par już nie zachodzi. Z tego wynika, że nie powinny istnieć gwiazdowe czarne dziury o masie pomiędzy 50 a 130 mas Słońca. To bardzo proste obliczenia, mówi Woosley, którego praca z 2002 roku na ten temat jest uważana za ostateczne wyjaśnienie problemu. Mogą za to istnieć, i istnieją, czarne dziury o masie większej niż 130 mas Słońca, gdyż implozja tak masywnego jądra nie może zostać zatrzymana, nawet w wyniku fuzji tlenu. Jądro zapada się do czarnej dziury. Jednak, jako że gwiazdy tracą masę przez całe swoje życie, gwiazda, która utworzyłaby jądro o masie ponad 130 mas Słońca musiałaby mieć co najmniej masę 300 mas Słońca. Tak masywne gwiazdy są niezwykle rzadkie. Dlatego też większość ekspertów uznaje, że LIGo/Virgo może wykryć kolizje czarnych dziur o masach nie przekraczających 50 mas Słońca. Znamy też supermasywne czarne dziury o masach miliony i miliardy raza większych od masy Słońca, jednak powstają one w inny sposób, a LIGO i Virgo nie są w stanie wykryć ich zderzeń. Dlatego tylko niewielu specjalistów uważało, że LIGO i Virgo zauważą kolizje czarnych dziur o masach ponad 50 mas Słońca. Stąd wyzwanie, jakie w formie zakładu rzucili im Bełczyński, Holz i Wooley. Zakład ten przyjęli Carl Rodriguez z MIT, Sourav Chatterjee z Tata Institute for Fundamental Research z Mombasy, do których dołączył później Fred Rasio z Northwestern University. Przegrani mają kupić każdemu z wygranych butelkę wina o wartości 100 USD. Rodriguez, Chatterjee i Rasio stwierdzili, że co prawda większość kolizji wykrywanych przez LIGO i Virgo prawdopodobnie ma swój początek w izolowanych układach podwójnych, ale niewielka część z nich może zachodzić w gęstych środowiskach takich jak gromady kuliste. Tam zaś, ich zdaniem, może zdarzyć się tak, że np. czarna dziura o masie 50 mas Słońca najpierw wchłonie czarną dziurę o masie 30 mas Słońca, a później znowu połączy się z jakąś czarną dziurą. LIGO/Virgo może zarejestrować to drugie zdarzenie, zatem zauważy zderzenie czarnych dziur, z których co najmniej jedna będzie miała masę pomiędzy 50 a 130 mas Słońca. Istnieje też jeszcze inna możliwość. Otóż kolizja taka może rozpocząć się również w izolowanym układzie podwójnym. Jeśli jedna z gwiazd układu utworzy czarną dziurę, a układ nadal będzie istniał, to czarna dziura może wchłaniać masę z towarzyszącej jej gwiazdy, rosnąc powyżej „zakazanego” limitu. Później, gdy druga z gwiazd utworzy czarną dziurę, może dojść do kolizji obu czarnych dziur i zarejestrowania tego wydarzenia na Ziemi. Krzysztof Bełczyński i jego koledzy przegrali więc zakład. Woosley wciąż uważa, że granica „zakazanej masy” istnieje. Jego zdaniem, wśród olbrzymiej liczby czarnych dziur musi istnieć – mimo nielicznych wyjątków – wyraźny spadek liczby czarnych dziur w zakresie masy od 50 do 130 mas Słońca. A te nieliczne istniejące wyjątki to wynik tego, że natura nie znosi próżni. « powrót do artykułu
  21. Dzikie ssaki najchętniej wykorzystują szerokie górne przejścia dla zwierząt. Dowiodły tego trzyletnie badania, przeprowadzone na piętnastu przejściach dla dużych zwierząt na odcinku autostrady A4 biegnącym przez Bory Dolnośląskie. Autorzy badania zwracają uwagę, że w Polsce dynamicznie rozwijana jest sieć dróg szybkiego ruchu. Autostrady i drogi ekspresowe są obligatoryjnie grodzone, co w połączeniu z intensywnym ruchem pojazdów stwarza ogromne bariery dla przemieszczania się dzikich zwierząt. Jedną z najczęściej stosowanych metod minimalizowania negatywnego wpływu dróg na faunę są różnego typu przejścia dla zwierząt. W Europie Środkowej wciąż jednak brakuje badań nad skutecznością takich rozwiązań - podkreślili w informacji dotyczącej badań przekazanej PAP. W Borach Dolnośląskich przeprowadzono trzyletni monitoring wykorzystania przejść dla zwierząt usytuowanych na oddanym do użytku w 2009 r. odcinku autostrady A4 między Zgorzelcem i Krzyżową. Badaniami objęto sześć górnych przejść o szerokości 30-45 m, w tym czterech o łagodnych (12 proc.) i dwóch o stromych (25-26,5 proc.) najściach; pięć poszerzanych mostów nad dużymi ciekami wodnymi o szerokości 33-114 m oraz cztery wąskie dolne przejścia o szerokości 15-19 m i wysokości około 3,5 m. Aktywność zwierząt na przejściach śledzono za pomocą pasów z piaskiem, na których zwierzęta pozostawiały tropy, a także fotopułapek. Wyniki badań ukazały się w czasopiśmie naukowym European Journal of Wildlife Research. Górne przejścia dla zwierząt były znacznie lepsze od przejść dolnych, zarówno pod względem składu gatunkowego, jak i liczby użytkujących je zwierząt. Podczas gdy na przejściach górnych dzikie ssaki stanowiły aż 75 proc. stwierdzeń, to na przejściach dolnych zaledwie 28 proc., a pozostałe należały do ludzi i zwierząt domowych. Zaobserwowaliśmy ogromne różnice w liczbie zwierząt na poszczególnych typach przejść – mówi autor artykułu, dr hab. Robert Mysłajek z Wydziału Biologii Uniwersytetu Warszawskiego. O ile na przejściach górnych notowaliśmy w każdym roku średnio ok. 1700 dzikich ssaków kopytnych, o tyle pod poszerzanymi mostami było ich ok. 620, a na wąskich przejściach dolnych raptem około 90. Co więcej, na przejściach dolnych wcale nie pojawiały się dziki, a jelenie tylko sporadycznie – dodaje badacz. Podobne różnice zaobserwowano w przypadku ssaków drapieżnych, m.in. wilków, które również znacznie częściej rejestrowano na przejściach górnych. Z kolei zwierzęta domowe i ludzie najliczniej pojawiali się na przejściach dolnych, średnio rocznie ok. 990 stwierdzeń ludzi, 470 psów i 110 kotów, podczas gdy na przejściach górnych wartości te wynosiły, odpowiednio, 650 dla ludzi, 130 dla psów i 20 dla kotów. Naukowcy wskazują na różnice w zachowaniu się dzikich zwierząt, ludzi i zwierząt domowych na przejściach. Dzikie ssaki były tam obecne głównie w nocy, podczas gdy ludzie i ich pupile w dzień. Dzięki temu dzikie zwierzęta unikały okresów najwyższej aktywności ludzi i spokojnie przechodziły na drugą stronę drogi. Jak podkreślają badacze, niezwykle interesujące było również porównanie przejść górnych z łagodnymi i stromymi najściami. Najwięcej dzikich zwierząt, a przy tym najmniej ludzi, rejestrowano na przejściach górnych ze stromymi najściami – relacjonuje autorka artykułu dr hab. Sabina Nowak, prezes Stowarzyszenia dla Natury Wilk. To bardzo ważna obserwacja. Wskazuje ona na możliwość budowy górnych przejść bez konieczności tworzenia długich najść, które zajmują ogromne powierzchnie wykraczające daleko poza pas drogi. Jest to szczególnie ważne w miejscach cennych przyrodniczo lub gdy zachodzi potrzeba ograniczenia nakładów finansowych – dodaje dr hab. Nowak. Naukowcy mają nadzieję, że doświadczenia zdobyte podczas monitoringu przejść dla zwierząt na autostradzie A4 w Borach Dolnośląskich będą wykorzystywane w trakcie projektowania kolejnych autostrad i dróg ekspresowych. « powrót do artykułu
  22. Wśród zagrożonych goryli górskich z Parku Narodowego Bwindi w ciągu 6 tygodni urodziło się 5 młodych. We wpisie zamieszczonym 1 września na Facebooku Uganda Wildlife Authority (UWA) napisała, że po urodzeniu dziecka przez 18-letnią samicę o imieniu Ruterana liczebność stada Rushegura wzrosła do 18 osobników. Biorąc pod uwagę statystyki, UWA obwieściła, że mamy do czynienia z prawdziwym gorylim baby boomem. Warto dodać, że zaledwie 3 dni wcześniej (28 sierpnia) poinformowano o dziecku urodzonym przez wiekową Kibande. W wywiadzie udzielonym BBC Uganda Wildlife Authority podkreśliła, że ten rok jest dla goryli wyjątkowy: od stycznia urodziło się 7 młodych, w porównaniu do 3 w całym zeszłym roku. Nie jest jasne, co doprowadziło do tej zmiany. « powrót do artykułu
  23. Infekcje nicieniami to poważny problem w uboższych krajach. Zarażają tam olbrzymią liczbę ludzi, powodując m.in. biegunki, upośledzając wzrost dzieci, a nawet zabijając. Najnowsze badania wskazują, że infekcje nicieniami były powszechnym zjawiskiem w średniowiecznej Europie, a z problemem tym poradzono sobie poprawiając stan higieny. Dwa najczęściej zarażające ludzi nicienie to włosogłówka i glista ludzka. Mogą one żyć przez kilkanaście miesięcy, w czasie których samica składa nawet od kilkunastu do 200 000 jaj dziennie. Jaja te wraz z kałem trafiają do otoczenia, zanieczyszczając glebę i wodę, przez co infekcja przenosi się dalej. Obecnie nicieniami zarażonych jest około 1,5 miliarda osób. Wiemy, że nicienie pasożytują na ludziach od tysięcy lat. Naukowcy znajdowali je w średniowiecznych kościach i kale. Nawet u osób z ówczesnych elit, w tym u Ryszarda III. Przed kilku laty na bieżąco relacjonowaliśmy fascynującą historię odnalezienia jego ciała i potwierdzenia tożsamości króla. Dotychczas jednak nie było wiadomo, jak bardzo pasożyty były rozpowszechnione w Europie. Pojawiały się głosy, że to, iż obecnie nie stanowią problemu na Starym Kontynencie jest spowodowane faktem, że nigdy nie było ich zbyt wiele. Teraz okazuje się, że to nieprawda. Zoolog Adrian Smith z Uniwersytetu Oksfordzkiego wraz z kolegami postanowił zbadać rozpowszechnienie nicieni w średniowieczu. Uczeni zebrali niemal 600 próbek ziemi z okolic miednicy szkieletów pochowanych pomiędzy VII a XVIII wiekiem na cmentarzach w Czechach, Niemczech i Wielkiej Brytanii. Jak wyjaśnia Smith, gdy ciało się rozkłada, jelita opadają na okolice miednicy. Jest to więc dobre miejsce do poszukiwania znajdujących się w jelitach jaj pasożytniczych nicieni. Analizy DNA pobranych próbek gleby wykazały, że na terenie Europy włosogłówką było zarażonych około 25% ludzi, a odsetek infekcji glistą ludzką sięgał 40%. Sytuacja była stabilna na przestrzeni badanego okresu. Nawet w XVIII wieku nicienie pasożytowały na tak wielkiej części europejskiej populacji. Co więcej, liczby te są zgodne z tym, co obecnie obserwujemy w Afryce Subsaharyjskiej, Ameryce Południowej czy Azji Wschodniej. Z danych medycznych wiemy, że do początku XX wieku zdecydowana większość populacji Europy była wolna od pasożytniczych nicieni (chociaż liczba infekcji gwałtownie wystrzeliła wśród żołnierzy I wojny światowej). To zaś wskazuje, że pasożytów pozbyto się dzięki poprawie warunków higienicznych, a nie np. dzięki nowoczesnym lekom. To zaś dowodzi, że wysiłki WHO i innych organizacji, które starają się poprawiać warunki życia wśród mieszkańców ubogich krajów, idą w dobrym kierunku. « powrót do artykułu
  24. Przez niemal 40 lat należące do University of Oxford Ashmolean Museum wstydliwie ukrywało w magazynie niewielki obraz pt. Portret brodatego mężczyzny. Portret o wymiarach kartki pocztowej został podarowany muzeum w 1951 roku i był wystawiany jako oryginalne dzieło Rembrandta. Jednak w 1981 roku grupa ekspertów orzekła, że to fałszywka. Od tamtej pory nikt nie chciał rozmawiać o tym fałszywym Rembrandcie, mówi kurator An Van Camp. Teraz obraz ponownie trafi na wystawę. Ashmolean Museum oświadczyło, że najnowsze badania wykazały, iż Portret brodatego mężczyzny niewątpliwie powstał w pracowni Rembrandta. Nie można wykluczyć, że jest on dziełem samego mistrza. Van Camp mówi, że od dawna podejrzewała, iż dzieło może być autentyczne. Gdy muzeum przygotowywało się do wystawy pt. Młody Rembrandt, o ekspertyzę poproszono Petera Kleina, dendrochronologa specjalizującego się w określaniu wieku drewnianych obiektów. Klein stwierdził, że dąb, na którym namalowano obraz, został ścięty w rejonie Bałtyku w latach 1618–1628. Okazało się też, że materiał z tego samego drzewa został użyty w dwóch innych dziełach: Andromedzie przykutej do skały (ok. 1630 r.) Rembrandta oraz Portrecie matki Rembrandta (ok. 1630) autorstwa Jana Lievensa, zapomnianego obecnie malarza, który w młodości był przyjacielem i bliskim współpracownikiem Rembrandta, uważanym przez współczesnych za równego Rembrandtowi. Obecnie zdobyte dowody wskazują, że Portret brodatego mężczyzny powstał w pracowni Rembrandta. Dopiero kolejne badania pozwolą odpowiedzieć na pytanie, czy namalował go sam Rembrandt. Rembrandt, podobnie jak wielu artystów w jego czasach, miał wielu uczniów, którzy studiowali i starali się naśladować jego styl. Niektórzy z nich z czasem odnieśli sukces. Jednak wpływ takich mistrzów jak Rembrandt był tak wielki, że specjaliści mają problemy z określeniem, które dzieła wyszły spod ręki mistrza, a które namalował uczeń lub naśladowca. Pod koniec lat 60. powołano do życia Rembrandt Research Project. Pracujący w jego ramach panel ekspertów określa autentyczność dzieł Rembrandta. Ich decyzje mają kolosalne konsekwencje, również finansowe, dla właścicieli dzieł. Jednak i eksperci się mylą. W 1979 stwierdzili oni, że Portret młodej kobiety znajdujący się w Allentown Art Museum w Pennsylvanii nie wyszedł spod ręki Rembrandta, ale jest dziełem kogoś z jego pracowni. Ostatnio jednak grupa konserwatorów, używając najnowocześniejszych technik, stwierdziła, że portret namalował sam Rembrandt. Podobnie było z Portretem brodatego mężczyzny. Dzieło w 1951 roku przekazał Ashmolean Museum handlarz dziełami sztuki Percy Moore Turner. Z tyłu obrazu znajdowała się naklejka z aukcji z 1777 roku, na której była informacja, że autorem dzieła jest Rembrandt. Jednak w 1981 roku eksperci z Rembrandt Research Project orzekli, że obraz namalował artysta spoza kręgu Rembrandta. Obraz trafił więc na kilkadziesiąt lat do magazynu. Peter Klein, który oceniał wiek drewna, zauważył, że głowa mężczyzny jest namalowana tak, jak robił to Rembrandt i takie właśnie portrety kolekcjonowali współcześni wielkiego malarza. Konserwator Jevon Thistlewood zauważa, że część tła została zamalowana nieznaną ręką, co odebrało obrazowi głębię i wrażenie ruchu. Gdy wystawa Młody Rembrandt zostanie w listopadzie zamknięta, konserwatorzy rozpoczną oczyszczanie i konserwację obrazu. Nie możemy się doczekać tego, co znajdziemy, mówi Thistlewood. « powrót do artykułu
  25. Amerykańscy fizycy ostrzegają, że w przyszłości komputery kwantowe będą musiały być chronione grubą warstwą ołowiu lub... przechowywane głęboko pod ziemią. Są bowiem niezwykle wrażliwe na zewnętrzne zakłócenia, w tym na promieniowanie jonizujące. Promieniowanie to może znacząco skracać czas koherencji kubitów (kwantowych bitów), a to z kolei niekorzystnie wpłynie na możliwość praktycznego wykorzystania technologii kwantowych. William Oliver i jego koledzy z Massachusetts Institute of Technology (MIT) oraz Pacific Northwest National Laboratory zmierzyli i modelowali wpływ promieniowania jonizującego na aluminiowe kubity umieszczone na krzemowym podłożu. Podczas swoich eksperymentów naukowcy wykorzystali dwa kubity, które poddano działaniu dobrze znanego źródła promieniowania jonizującego, cienkiego dysku wykonanego z miedzi-64. Naukowcy mierzyli tempo dekoherencji kubitów. Badali też, jak łatwo w wyniku oddziaływania promieniowania w kubitach pojawiają się kwazicząsteczki. Uzyskane w ten sposób informacje połączyli z danymi dotyczącymi promieniowania jonizującego w laboratorium MIT, pochodzącego zarówno z promieniowania kosmicznego jak i z naturalnych izotopów radioaktywnych. W tym przypadku były to głównie izotopy obecne w betonowych ścianach laboratorium. Okazało się, że w warunkach panujących w laboratorium górna granica czasu koherencji kubitów wynosi 3–4 milisekund. Po tym czasie następuje dekoherencja, zatem kubity stają się nieprzydatne do przeprowadzania obliczeń. Uczeni zweryfikowali uzyskane wyniki za pomocą dodatkowego niezależnego eksperymentu sprawdzając, jak można kubity chronić przed promieniowaniem jonizującym. W tym eksperymencie siedem kubitów – a raczej pojemnik z chłodziwem, w którym je przechowywano – zostało otoczonych 10-centymetrową warstwą ołowiu. Podnosząc i opuszczając osłonę byli w stanie zbadać wpływ promieniowania jonizującego oraz osłony na te same kubity. Potwierdzili, że limit czasu koherencji wynosi około 4 ms. Jednocześnie odkryli, że 10-centymetrowa osłona wydłuża ten czas o około 10%. Jednak biorąc pod uwagę fakt, że istnieją silniejsze od promieniowania jonizującego źródła dekoherencji kubitów, Oliver i jego zespół wyliczają, że 10-centymetrowa osłona wydłuża czas koherencji zaledwie o 0,2%. To niewiele, ale zdaniem naukowców stosowanie takich osłon będzie koniecznością. Zmniejszenie lub pozbycie się wpływu promieniowania jonizującego będzie krytycznym elementem praktycznego wykorzystania nadprzewodzących komputerów kwantowych, napisali na łamach Nature. Jedną z opcji, przynajmniej na początku rozwoju informatyki kwantowej, mogłoby być umieszczenie komputerów pod ziemią. To jednak wymaga dalszych badań. Oliver mówi, że najlepszym rozwiązaniem będzie stworzenie kubitów, które są mniej podatne na zakłócenia. « powrót do artykułu
×
×
  • Dodaj nową pozycję...