Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37642
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Umieszczając w gniazdach żółwi morskich wydrukowane w 3D wyposażone w nadajniki GPS-GSM jaja-wabiki, można prześledzić całą siatkę nielegalnego handlu. Zespół z Uniwersytetu Kent i Paso Pacifico opublikował wyniki swoich badań w piśmie Current Biology. Naukowcy sprawdzali, jak makiety jaj się sprawdzają i czy są bezpieczne dla zagrożonych żółwi. Nasze badania pokazały, że umieszczenie sztucznych jaj w gnieździe nie uszkadza rozwijających się zarodków [...]. Zademonstrowaliśmy [również], że można śledzić losy nielegalnie pozyskanych jaj od plaży po odbiorcę końcowego; pokazała to nasza najdłuższa trasa, która ujawniła cały łańcuch dostaw o długości 137 km - opowiada główna autorka badań, Helen Pheasey z University of Kent. Jaja-makiety (nazywane InvestEggatorami) zostały opracowane przez Paso Pacifico. Organizacja chciała się zająć nielegalnym handlem w Ameryce Środkowej; jaja zagrożonych żółwi są tu wybierane z gniazd i sprzedawane jako sezonowe przysmaki do barów i restauracji. Makiety zaprojektowała powiązana z Paso Pacifico specjalistka - Kim Williams-Guillen. Finansowanie pozyskano dzięki Wildlife Crime Tech Challenge. Drukowane w 3D makiety umieszczono w 101 gniazdach na 4 kostarykańskich plażach. Jedną czwartą fałszywych jaj nielegalnie wybrano. Dzięki temu naukowcy mogli prześledzić losy jaj z 2 lęgów żółwia zielonego (Chelonia mydas) i 3 lęgów żółwia oliwkowego (Lepidochelys olivacea). Okazało się, że większość skradzionych jaj nie opuszcza lokalnego terenu. Jedno z jaj dotarło w pobliże posesji mieszkaniowej i "zamilkło". Drugie przebyło 2 km do baru. Makieta, która pokonała najdłuższą drogę, dotarła 137 km w głąb lądu; 2 dni trwało przetransportowanie jaja z plaży do strefy załadunku supermarketu, później trafiło ono do posesji mieszkaniowej. Biolodzy nie sądzą, by zostało ono sprzedane w markecie. Przemytnik przekazał je tam raczej sprzedawcy. Niektóre makiety zostały zdemaskowane. Jedno z jaj straciło łączność w obszarze mieszkalnym w pobliżu Cariari; Cariari to miasto położone 43 km od plaży, gdzie rozpoczął się eksperyment. Po 11 dniach dostaliśmy zdjęcia rozmontowanego InvestEggatora. Ze zdjęciami przesłano informacje, gdzie kupiono makietę i ile jaj podlegało transakcji. To pokazuje, że poza danymi GPS i GSM można też liczyć na pewną współpracę z lokalnymi społecznościami. Pheasey podkreśla, że wstępne ustalenia wskazują, że większość jaj nie opuszcza okolicznych rejonów. Potwierdza to podejrzenia naukowców i lokalne doniesienia, że gros handlu odbywa się niedaleko plaż z gniazdami. Wiedza, że większość jaj pozostaje w okolicznych rejonach, pozwala nam zaplanować działania ochronne. Możemy się skupić na zwiększeniu świadomości w lokalnych społecznościach [...]. Pheasey dodaje, że z perspektywy egzekwowania prawa krytyczną kwestią jest zidentyfikowanie tych, którzy przemycają i sprzedają jaja. Naukowcy mają nadzieję, że makiety zostaną wykorzystane w innych projektach. Rzucą one nieco światła na różnice w handlu żółwimi jajami w poszczególnych krajach. Tymczasem zespół pracuje nad ulepszeniem technologii, chce też rozszerzyć jej zastosowanie na inne gatunki; Paso Pacifico i kostarykańscy uczeni chcieliby np. przystosować nadajnik do śledzenia dostaw rekinich płetw. Wspomina się również o monitorowaniu kradzieży jaj z gniazd papug. « powrót do artykułu
  2. Eksplozja w Bejrucie była jedną z najpotężniejszych nieatomowych eksplozji wywołanych przez człowieka, informują naukowcy z Sheffield University. Brytyjscy uczeni ocenili siłę wybuchu, który przed miesiącem miał miejsce w stolicy Libanu, na 500–1100 ton TNT. Naukowcy dokonali swojej oceny analizując materiały wideo przedstawiające sposób rozprzestrzeniania się fali uderzeniowej. Na tej podstawie uznali, że siła eksplozji mogła wynosić nawet 1/20 siły wybuchu bomby atomowej zrzuconej na Hiroszimę. Wyliczyli też, że w ciągu milisekund uwolniona została energia rzędu 1 GWh. To tyle ile w ciągu godziny generują 3 miliony paneli słonecznych lub 400 turbin wiatrowych. Dnia 4 sierpnia bieżącego roku Bejrutem wstrząsnął olbrzymi wybuch. Eksplodowało 2750 ton nieprawidłowo przechowywanego azotanu amonu. Zginęło około 200 osób, a ponad 6000 odniosło rany. Eksplozja zniszczyła znaczną część miasta. Naukowcy z Wielkiej Brytanii mają nadzieję, że ich badania pomogą w przyszłości reagować na takie wydarzenia, gdyż dostarczą niezbędnej wiedzy o stopniu uszkodzeń infrastruktury. Eksplozja w Bejrucie jest interesująca, gdyż jej siła znajduje się dokładnie pomiędzy siłą najpotężniejszej broni konwencjonalnej, a broni atomowej, mówi jeden z autorów badań, doktor Sam Rigby z Blast and Impact Engineering Research Group. Doktor Rigby przypomina, że najpotężniejsza broń konwencjonalna, jaką dysponują Stany Zjednoczone to GBU-43/B MOAB, której siła wybuchu odpowiada 11 tonom TNT. Wybuch w Bejrucie był zatem 10-krotnie potężniejszy niż wybuch najpotężniejszej broni konwencjonalnej i kilkunastokrotnie słabszy od wybuchu wczesnych bomb atomowych. Najpotężniejsza nieatomowa eksplozja wywołana przez człowieka miała miejsce w 1917 roku w kanadyjskim porcie Halifax, gdy doszło do zderzenia dwóch statków, z których jeden przewoził materiały wybuchowe. Siła wybuchu była równa eksplozji 3000 ton TNT.   « powrót do artykułu
  3. Królewska Szwedzka Akademia Nauk zdecydowała dzisiaj, że Nagrodę Nobla w dziedzinie fizyki za rok 2020 otrzymają: w połowie Roger Penrose za odkrycie, że formowanie się czarnych dziur potwierdza ogólną teorię względności. Drugą połowę otrzymują wspólnie Reinhard Genzel i Andrea Ghez za odkrycie supermasywnego kompaktowego obiektu w centrum naszej galaktyki. Roger Penrose to jeden z najwybitniejszych żyjących matematyków, fizyków i filozofów nauki. Uczony urodził się w 1931 roku w Wielkiej Brytanii. Tytuł doktora zdobył na Cambridge University. Obecnie jest emerytowanym profesorem matematyki na University of Oxford. Reinhard Genzel urodził się w 1952 roku w Niemczech. Tytuł doktora uzyskał na Uniwersytecie w Bonn. Obecnie jest dyrektorem Instytutu Fizyki Pozaziemskiej im. Maxa Plancka oraz profesorem Uniwersytetu Kalifornijskiego w Berkeley. Urodzona w 1965 roku w Nowym Jorku Andrea Ghez uzyskała tytuł dotorski na Caltechu (California Institute of Technology), a obecnie pracuje na Uniwersytecie Kalifornijskim w Los Angeles. Tegoroczna gala noblowska będzie miała inny charakter niż wcześniej. Nie wymagamy, by laureaci przybyli do Sztokholmu w grudniu bieżącego roku odebrać nagrody. Z powodu pandemii planujemy online'owe wykłady noblowskie i online'ową ceremonię przyznania nagród, oświadczył Göran Hansson, sekretarz generalny Akademii. Zapewnił jednocześnie, że przed końcem roku wszyscy laureaci otrzymają swoje nagrody i zostaną zaproszeni na galę w innym terminie.   « powrót do artykułu
  4. Jedną z przyczyn, dla której nie udało się dotychczas stworzyć maszyny o możliwościach obliczeniowych mózgu jest brak urządzenia, które działałoby jak neuron. Jednak dzień powstania sztucznego mózgu właśnie znacznie się przybliżył. Troje naukowców poinformowało na łamach Nature o stworzeniu pojedynczego urządzenia zachowującego się jak neuron. W reakcji na przyłożenie prądu stałego urządzenie reaguje podobnie jak neuron: pojawiają się w nim serie wyładowań, samopodtrzymujące się oscylacje i inne procesy, które możemy obserwować w mózgu. Urządzenie łączy w sobie funkcje opornika, kondensatora i memrystora Motta. Memrystory to urządzenia, które przechowują dane w postaci pamięci o oporze. Memrystory Motta mają dodatkową możliwość zapamiętania zmian w oporności powodowanych temperaturą. Dzieje się tak, gdyż materiały, z których zbudowany jest memrystor Motta są izolatorami lub przewodnikami w zależności od temperatury. Do zmian takich dochodzi z nanoskalowej warstwie ditlenku niobu. Po przyłożeniu napięcia NbO2 rozgrzewa się, zmieniając właściwości z izolujący w przewodzące. Po takiej zmianie prąd może przepłynąć przez urządzenia. Następnie urządzenie się chłodzi, a ditlenek niobu staje się ponownie izolatorem. W efekcie takich działań pojawia się wyładowanie podobne do tego, obserwowanego w neuronach. Przez pięć lat nad tym pracowaliśmy. W małym nanoskalowym kawałku materiału dzieje się bardzo wiele, mówi jeden z autorów badań, R. Stanley Williams z Texas A&M University. Drugi z autorów badań, Suhas Kumar z Hewlett Packard Laboratories, przypomina, że wynalazca memrystora, Leon Chua, przewidywał, iż w urządzeniu tym pomiędzy dwoma stabilnymi regionami znajduje się region chaotycznych zjawisk. Na krawędzi takiego regionu urządzenie może zaś wykazywać zachowania podobne do zachowań neuronów. Uzyskanie odpowiednich zjawisk nie jest jednak łatwe. Williams chwali Kumara za wysiłek, jaki włożył w to, by precyzyjnie dobrać parametry pracy urządzenia. Tego się nie odkrywa przypadkiem. Wszystkie parametry muszą być perfekcyjnie dobrane zanim zauważysz zjawiska, których poszukujesz. Gdy już jednak uda się tego dokonać okazuje się, że całość pracuje bardzo stabilnie i łatwo jest to powielać, stwierdza uczony. Naukowcy przetestowali swoje urządzenie budując z nich bramki logiczne NAND i NOR oraz niewielki analogowy obwód optymizujący pracę całości. Naukowcy przyznają, że potrzeba jeszcze wiele pracy, by całość zmienić w praktyczne urządzenie i skalować je tak, by mogły z nich powstać systemy zdolne do rzucenia wyzwania współczesnym komputerom. Kumar i Williams mają zamiar poszukać innych materiałów, nadających się do budowy sztucznego neuronu. Przemiany zachodzące w NbO2 mają bowiem miejsce w temperaturze 800 stopni Celsjusza. Można ją osiągnąć w warstwach o grubości liczonej w nanometrach. Jednak przeskalowanie całości na miliony takich neuronów i uzyskanie podobniej wydajności może być problemem. Stąd m.in. potrzeba znalezienia innego materiału. « powrót do artykułu
  5. Szwajcarscy naukowcy opracowali metodę, za pomocą której można z zegarmistrzowską precyzją dostarczać leki (np. psychiatryczne czy przeciwnowotworowe) do wybranych miejsc w mózgu. Pozwala to uniknąć skutków ubocznych i pozwolić, by lek działał dokładnie tam, gdzie jest potrzebny. Nowa metoda, stworzona przez zespół z Politechniki Federalnej w Zurychu, jest nieinwazyjna. Precyzyjne dostarczanie leku jest kontrolowane z zewnątrz, za pomocą ultradźwięków. Wyniki ekipy prof. Mehmeta Fatiha Yanika opublikowano na łamach pisma Nature Communications. By dostarczać leki z milimetrową precyzją, Szwajcarzy zastosowali stabilne liposomy z lekiem, które sprzężono z wypełnionymi gazem wrażliwymi na ultradźwięki mikrobąbelkami. W ten sposób uzyskano kontrolowane ultradźwiękami nośniki leków (ang. Ultrasound-Controlled drug carriers; UC-carriers). Do tego opracowano sekwencję agregacji-uwalniania (ang. Aggregation and Uncaging Focused Ultrasound Sequence, AU-FUS). Zogniskowane ultradźwięki są już wykorzystywane w onkologii, by niszczyć nowotwór w precyzyjnie zdefiniowanych miejscach. W szwajcarskiej metodzie pracuje się jednak z dużo niższym poziomem energii, by nie uszkodzić tkanek. Zawierające drobnocząsteczkowe związki nośniki-UC są wstrzykiwane. Mogą to być, na przykład, zatwierdzone do użytku leki neurologiczne bądź neuropsychiatryczne, które pozostaną w krwiobiegu, dopóki będą enkapsulowane. Następnie wykorzystuje się 2-etapowy proces. W pierwszym etapie stosuje się falę ultradźwiękową o niskiej energii, by nośniki leków zgromadziły się w pożądanym miejscu w mózgu. Zasadniczo wykorzystujemy pulsy ultradźwięków, by wokół wybranego miejsca stworzyć wirtualną klatkę [...]. Gdy krew krąży, przepłukuje nośniki leku przez cały mózg. Ten, który trafi do klatki, nie może się z niej jednak wydostać - wyjaśnia Yanik. W drugim etapie stosuje się wyższą energię ultradźwiękową, by wprawić nośniki w drgania. Siła ścinająca niszczy lipidową membranę, uwalniając lek. Koniec końców lek pokonuje nietkniętą barierę krew-mózg w wybranym regionie i dociera do swojego celu molekularnego. W ramach testów akademicy zademonstrowali skuteczność metody na szczurach. Za jej pomocą zablokowali pewną sieć neuronalną, łączącą 2 regiony mózgu. Walidowaliśmy naszą metodę, nieinwazyjnie modulując rozprzestrzenianie aktywności neuronalnej w dobrze zdefiniowanym mikroobwodzie korowym (w szlaku czuciowo-ruchowym wibryssów). Manipulowaliśmy tym obwodem, ogniskowo hamując korę czuciową wibryssów za pomocą [...] muscymolu, który jest selektywnym agonistą receptora GABA-A. Ponieważ nasza metoda agreguje leki w miejscu, gdzie powinny zadziałać, można obniżyć dawkę. W eksperymentach na szczurach ilość leku była, na przykład, 1300-krotnie niższa od typowej dawki. Inne grupy badawcze wykorzystywały już zogniskowane ultradźwięki do dostarczania leków do konkretnych obszarów mózgu. Ich metody nie obejmowały jednak pułapek i miejscowego koncentrowania leków. Zamiast tego bazowano na lokalnym niszczeniu komórek naczyń krwionośnych; miało to zwiększyć transport leku z naczyń do tkanki nerwowej. W naszej metodzie fizjologiczna bariera między krwiobiegiem a tkanką nerwową pozostaje nienaruszona. Obecnie naukowcy oceniają skuteczność nowej metody na zwierzęcych modelach choroby psychicznej czy zaburzeń neurologicznych. Badają ją także pod kątem nieoperowalnych guzów mózgu. « powrót do artykułu
  6. Osoby, które nieświadomie postrzegają w swoim otoczeniu złożone wzorce – a zatem mają zdolność do bezwarunkowego uczenia się wzorców (implicit pattern learning) – z większym prawdopodobieństwem są osobami silnie wierzącymi, że istnieje istota wyższa, która wzorce te stworzyła, informują neurolodzy z Georgetown University. Przeprowadzili oni pierwsze badania nad wpływem bezwarunkowego uczenia się na wierzenia religijne. Uczenie bezwarunkowe to zdobywanie wiedzy niezależnie od świadomych prób i w nieświadomości tego, czego się nauczyliśmy. Jest ono też zwane „milczącą wiedzą”. Naukowcy z Georgetown chcieli zbadać, czy bezwarunkowe uczenie się wzorców leży u podstaw wiary, a jeśli tak, to czy zjawisko to jest niezależne od kręgu kulturowego czy wyznawanej religii. Dlatego też przeprowadzili badania wśród dwóch grup religijnych: jednej w USA i drugiej w Afganistanie. Istnienie boga lub bogów, którzy interweniują w naszym świecie, by wprowadzić w nim porządek, jest kluczowym elementem wielu religii. Nasze badania nie dotyczą tego, czy Bóg istnieje. To badania mające na celu znalezienie odpowiedzi na pytanie jak i dlaczego nasze mózgi wierzą w bogów. Postawiliśmy hipotezę, że osoby, których mózgi są dobre w podświadomym postrzeganiu wzorców w otoczeniu, mogą przypisywać te wzorce działaniom siły wyższej, mówi jeden z głównych autorów badań, profesor Adam Green, dyrektor Georgetown Laboratory for Relational Cognition. Naukowcy zauważyli, że wiele interesujących procesów ma miejsce pomiędzy dzieciństwem a dorosłością. Ich badania sugerują, że jeśli dziecko nieświadomie dostrzega wzorce w otoczeniu, w miarę dorastania jego wiara z większym prawdopodobieństwem będzie coraz silniejsza. Z drugiej strony, jeśli takich wzorców nie dostrzega, to jego wiara prawdopodobnie będzie coraz mniejsza, nawet jeśli wychowuje się w religijnej rodzinie. Podczas badań naukowcy wykorzystali znany test sprawdzający zdolność do bezwarunkowego uczenia się wzorców. Uczestnikom testu pokazywano na ekranie sekwencje kropek, które ukazywały się i znikały. Zadaniem badanych było jak najszybsze naciśnięcie przycisku odpowiadającego położeniu kropki. Kropki pojawiały się i znikały szybko, ale niektórzy z uczestników – osoby o największej zdolności do bezwarunkowego uczenia się wzorców – zaczęli po pewnym czasie nieświadomie uczyć się wzorców pojawiania się kropek i naciskali odpowiedni przycisk zanim jeszcze kropka się pojawiła. Amerykańska grupa badanych składała się ze 199 osób, głównie chrześcijan, mieszkających w stolicy kraju. Grupa afgańska to mieszkańcy Kabulu. Składała się ona ze 149 muzułmanów. Najbardziej interesującym aspektem badań, zarówno dla mnie jak i dla moich afgańskich kolegów, było spostrzeżenie, że zarówno proces poznawczy jak i jego znaczenie dla religijności, były takie same w obu grupach, mówi współautor badań, Zachery Warren. Mózg, który ma większe predyspozycje do bezwarunkowego uczenia się wzorców może mieć też większe skłonności do wiary w boga, niezależnie od tego, w jakim miejscu na świecie i w jakim kontekście religijnym mieszka dana osoba, dodaje profesor Green. « powrót do artykułu
  7. Indonezyjskie Ministerstwo Środowiska i Leśnictwa poinformowało o narodzinach 2 krytycznie zagrożonych nosorożców jawajskich w Parku Narodowym Ujung Kulon (UKNP). Między marcem a sierpniem samiczkę (Helen) i samczyka (Luthera) z matkami utrwaliły fotopułapki. Zgodnie z najnowszymi danymi Ministerstwa, łączna liczba nosorożców jawajskich wynosi 74; doliczono się 40 samców i 34 samic. Pięćdziesiąt dziewięć to osobniki uznawane za młodociane-dorosłe. Dyrektor Konservasi Sumber Daya Alam dan Ekosistem podkreślił, że Park Narodowy Ujung Kulon pozostaje dobrym habitatem dla zagrożonych nosorożców. Świadczą o tym zarówno tego-, jak i zeszłoroczne narodziny (w 2019 r. przyszły tu na świat 4 nosorożce jawajskie). Park Narodowy Ujung Kulon zajmuje powierzchnię 1206 km2. Większa jego część leży na półwyspie, sięgając Oceanu Indyjskiego. W 1991 r. Park wpisano na Listę Światowego Dziedzictwa UNESCO. Jest on ostatnim obszarem występowania nosorożca jawajskiego. Dziesięć lat temu w UKNP było mniej niż 50 nosorożców jawajskich, ale dzięki wysiłkom specjalistów populacja Rhinoceros sondaicus stopniowo się powiększała (od 2012 r. rokrocznie przybywało co najmniej 1 młode). Wydaje się, że populacja się ustabilizowała, w dużej mierze dlatego, że zwierzęta są strzeżone przez Rhino Protection Units (RPUs). Od ponad 20 lat w Parku nie ma już ponoć kłusownictwa. Kamery rozmieszczone w UKNP pozwalają uchwycić ruchy nosorożców i pomagają śledzić narodziny.   « powrót do artykułu
  8. Znaczna część Amazonii może znajdować się w punkcie, w którym las deszczowy zaczyna zmieniać się w sawannę, wynika z badań opublikowanych na łamach Nature Communication. Lasy deszczowe są wrażliwe na długoterminowe zmiany ilości opadów. Jeśli poziom opadów spadnie poniżej określonego poziomu, las deszczowy może zacząć zamieniać się w sawannę. Na około 40% Amazonii poziom opadów jest obecnie taki, że tamtejszy ekosystem może być albo lasem deszczowym, albo sawanną, mówi główny autor najnowszych badań, Arie Staal z Instytutu Kopernika na Uniwersytecie w Utrechcie. To ważne odkrycie, gdyż poziom opadów w Amazonii zmniejszył się i wszystko wskazuje na to, że nadal będzie spadał. Staal i jego koledzy badali stabilność tropikalnych lasów deszczowych Ameryk, Azji, Afryki i Oceanii. Sprawdzali, jak ekosystemy takie reagują na zmiany wzorców opadów. Naukowcy badali odporność lasów deszczowych, próbując odpowiedzieć na dwa pytania. Pierwsze z nich brzmiało: Czy jeśli wszystkie lasy deszczowe tropików znikną, to czy będą w stanie się odrodzić? Pytanie drugie zaś, było jego odwrotnością: Co by się stało, gdyby lasy deszczowe porastały całą powierzchnię ziemskich tropików? Odpowiedź na takie dwa ekstremalne scenariusze może dać naukowcom wskazów, co do odporności i stabilności prawdziwych tropikalnych lasów deszczowych. Pomaga też zrozumieć, jak lasy reagują na zmiany wzorców opadów. Najpierw naukowcy uruchomili swój model z założeniem, że w tropikach Afryki, obu Ameryk, Azji i Australii nie występują żadne lasy. Sprawdzali, w jakim tempie lasy takie by się pojawiły, co pozwala na określenie minimalnej ilości lasu w każdym z regionów. Dynamika lasu deszczowego jest interesująca. Gdy las rośnie i rozprzestrzenia się, wpływa na opady. Lasy generują swój własny deszcz, gdyż liście wyparowują wodę, która później opada na ziemię. Im więcej deszczu, tym mniej pożarów i tym więcej lasów. W naszej symulacji widzimy tę dynamikę, mówi Staal. Drugie modelowanie wykonano z początkowym założeniem, że lasy deszczowe pokrywają całe tropiki. Okazało się, że jest to scenariusz bardzo niestabilny, gdyż w wielu miejscach nie występuje wystarczająco dużo opadów, by podtrzymać istnienie lasu deszczowego. W wielu miejscach las zniknął z powodu braku wilgoci. "Gdy powierzchnia lasu się kurczy, zmniejsza się ilość opadów, region staje się bardziej suchy, pojawia się więcej pożarów, więc dochodzi do kolejnej utraty lasu", dodaje uczony. W końcu naukowcy zajęli się modelowaniem dynamiki lasów tropikalnych w sytuacji, gdy do końca wieku utrzyma się bardzo wysoki poziom emisji gazów cieplarnianych, zgodny z jednym z modeli przyjętych przez IPCC. Okazało się, że w miarę wzrostu emisji amazoński las deszczowy będzie tracił swoją naturalną odporność, ekosystem stanie się niestabilny, prawdopodobnie zacznie wysychać, a las deszczowy zmieni się w sawannę. Taki los może czekać nawet najbardziej odporne fragmenty lasu deszczowego. Z analiz wynika, że w scenariuszu wysokiej emisji gazów cieplarnianych najmniejszy obszar, jaki jest potrzebny do podtrzymania istnienia lasu deszczowego Amazonii będzie o 66% mniejszy niż niezbędne minimum. Z kolei w basenie Kongo lasy deszczowe są ciągle zagrożone i nie odrodzą się, jeśli je utracimy, ale w scenariuszu wysokiej emisji zmiany w nich zachodzące mogą być mniej dramatyczne niż w przypadku Amazonii. Obszary, na których możliwe jest naturalne odrodzenie się lasów deszczowych są dość małe. Teraz rozumiemy, że lasy deszczowe na wszystkich kontynentach są bardzo wrażliwe na globalne zmiany i mogą szybko utracić zdolność do adaptacji. Gdy raz znikną, powrót do wcześniejszego stanu zajmie im całe dekady. Musimy też pamiętać, że w lasach deszczowych żyje większość światowych gatunków. Jeśli znikną lasy, gatunki te zostaną na zawsze utracone, stwierdzają autorzy badań. Najbardziej stabilne lasy deszczowe rosną w Indonezji i Malezji. Są on bardziej odporne, gdyż ilość opadów bardziej zależy tam od otaczającego lasy oceanu niż od samej pokrywy roślinnej. Autorzy badań podkreślają, że nie brali w nich pod uwagę takich czynników jak wycinka lasów na potrzeby rolnictwa czy pozyskiwania drewna. « powrót do artykułu
  9. Nawet 500 000 rekinów może zostać zabitych każdego roku, by wyprodukować... szczepionkę przeciwko COVID-19. Organizacje starające się chronić rekiny przed zagładą ostrzegają, że wiele z opracowywanych obecnie szczepionek na COVID-19 wykorzystuje skwalen, występujący m.in. w wątrobie rekina. Jeśli takie szczepionki się upowszechnią, może okazać się, że rekiny zostaną poddane jeszcze większej presji ze strony człowieka. Ekolodzy wyliczają, że 17 spośród niemal 200 opracowywanych szczepionek znajduje się obecnie w fazie testów klinicznych i preklinicznych Z nich 5 wykorzystuje skwalen. Na przykład do jednej dawki szczepionki MF59 używa się 9,75 miligramów skwalenu. Gdyby ta szczepionka się sprawdziła, to przy założeniu, że do skutecznego działania wymaga 2 dawek, będzie to oznaczało, iż trzeba zabić 500 000 rekinów rocznie, aby pozyskać wystarczającą ilość skwalenu na zapewnienie szczepionki wszystkim ludziom. Trzeba coś z tym zrobić już teraz, gdyż niewykluczone, że świat będzie potrzebował przez wiele lat szczepionki przeciwko COVID-19 oraz przeciwko wielu innym koronawirusom. Prawdziwe niebezpieczeństwo czai się w przyszłości. Uzależnienie się od tłuszczu z wątroby rekina by produkować szczepionkę jest czymś chorym. Dzikie zwierzęta nie są stabilnym źródłem takich surowców, a ich populacje nie wytrzymają rosnącej presji. Już w tej chwili rekiny są zagrożone przez to, co robią ludzie, mówi Stefanie Brendl, dyrektor organizacji Shark Allies. Już teraz dla samego tylko skwalenu zabija się około 3 000 000 rekinów rocznie. Tłuszcz ten jest wykorzystywany w dużej mierze w przemyśle kosmetycznym. Wiele gatunków rekinów znajduje się na krawędzi zagłady. Ludzie w sumie zabijają niemal 100 milionów rekinów rocznie. Większość z nich ginie w męczarniach, gdyż żywym zwierzętom odcina się płetwy. Inne są zabijane Młotowate, żarłacze białe oraz rekiny wielorybie to najczęściej zabijane gatunki dla skwalenu. Tłuszcz ten zapewnia zwierzętom pływalność. Dlatego też więcej występuje go u gatunków żyjących w głębszych partiach oceanów. Takie gatunki z kolei to gatunki większe, dłużej żyjące, ale i dłużej rosnące. Ich populacja trudniej się więc odradza. Jeśli ludzie będą zabijali dodatkowo setki tysięcy tych zwierząt rocznie, wiele gatunków czeka zagłada. Ekolodzy domagają się, by przemysł farmaceutyczny zaczął pozyskiwać skwalen z innych źródeł, takich jak oliwki, trzcina cukrowa, bakterie czy drożdże. Jednak, jak sami zauważają, produkcja skwalenu z takich źródeł jest o około 30% droższa i trwa dłużej niż zabicie rekina i pozyskanie skwalenu z jego wątroby. Przemysł odniesie olbrzymie zyski z produkcji szczepionki. Najwyższy więc czas, by zadać im pytanie, czy mają zamiar korzystać ze stabilnych źródeł surowców, mówi Brendl. « powrót do artykułu
  10. Jedna z największych na świecie organizacji charytatywnych finansujących badania naukowe – Howard Hughes Medical Institute (HHMI) – ogłosiła, że od początku 2022 roku wyniki wszystkich badań, w których sfinansowaniu odegra główną rolę, będą musiały zostać natychmiast udostępnione publicznie. Obecnie HHMI wymaga, by artykuły takie zostały upublicznione 12 miesięcy od publikacji. HHMI przyznaje, że gdy nowe zasady wejdą w życie, mogą odczuć je też naukowcy zatrudnieni przez tę instytucję, wśród których są najlepsi fachowcy z wielu dziedzin, publikujący z Nature, Cell czy Science. Instytut przeznacza olbrzymie kwoty na badania biomedyczne. W 2019 roku było to 763 miliony dolarów. Uważamy, że bardzo ważnym jest, by informacja szybko się rozprzestrzeniała, by można było weryfikować badania i budować nowe na ich podstawie, mówi prezydent Instytutu, biochemczka Erin O'Shea. Opóźnienia to poważny problem nauki. Nie ułatwiają one w przyspieszeniu odkryć, dodaje. Zasady ogłoszone przez HHMI są podobne do tych, jakie stosuje Coalition S, grupa, która w 2018 roku rozpoczęła kampanię na rzecz natychmiastowego otwartego dostępu do bazujących obecnie na subskrypcji pism naukowych. Członkami tej koalicji są głównie europejskie organizacje, w jej skład weszli też tacy giganci jak Wellcome Trust oraz Fundacja Billa i Melindy Gatesów. Teraz dołącza HHMI. O'Shea przyznaje, że decyzja HHMI to forma nacisku na najbardziej prestiżowe pisma naukowe. W 2019 roku autorzy z HHMI byli wymieniani w 13% publikacji w Cell, 5% w Nature i 7% w Science. Mimo tego wydawcy czołowych pism naukowych nie spieszą się ze zmianą polityki. Springer Nature zaprzeczył właśnie, jakoby miał całkowicie otworzyć dostęp do swoich publikacji od stycznia 2021 roku, kiedy to zasady opracowane przez Coaliton S wejdą w życie. Z kolei AAAS, wydawca Science, rozważa pewne zmiany. Obecnie AAAS pozwala autorom na publikowanie niemal ukończonych artykułów na swoich osobistych stronach lub na witrynach swoich instytucji naukowych. Jednak publikacja ostatecznej pełnej wersji ogólnodostępnego artykułu następuje w PubMed Central 6 miesięcy po jego opublikowaniu w Science. Członkowie Coalition S argumentują, że znalezienie artykułu naukowego na stronach autorów lub uniwersytetów może być trudne. Dlatego chcą, by artykuły takie były od razu udostępniane przez pisma naukowe. Mają też być objęte licencją CC-BY, która pozwala publikować je w innych miejscach, używać i przeszukiwać pod warunkiem umieszczenia informacji o autorach. W samym HHMI istnieje spory sprzeciw wobec planów wymuszenia pełnej otwartości na recenzowanych pismach naukowych. Pomimo tego, że od kilku lat trwają w nim dyskusje i opracowywany jest plan takich działań, to około 50% naukowców jest im przeciwnych. « powrót do artykułu
  11. W zeszklonym mózgu ofiary Wezuwiusza znaleziono doskonale zachowane neurony. Odkrycia dokonano badając ciało mężczyzny, które opisywaliśmy na początku bieżącego roku. Wówczas to informowaliśmy o pierwszym znanym przypadku zamiany mózgu w szkło, która zaszła w wyniku erupcji wulkanicznej. Teraz odkrywane są kolejne tajemnice niezwykłych ludzkich szczątków. Doktor Pier Paolo Petrone z Uniwersytetu Neapolitańskiego im. Fryderyka II poinformował właśnie na łamach PLOS One, że odkrył prawdopodobnie najlepiej zachowane pozostałości układu nerwowego w pochodzącym od człowieka materiale archeologicznym. Uczony wraz z zespołem badali zeszklony mózg z pomocą skanningowego mikroskopu elektronowego oraz innych narzędzi i zauważyli liczne wyjątkowo dobrze zachowane struktury, które wydają się neuronami i aksjonami z ludzkiego mózgu i rdzenia kręgowego. Dzięki precyzyjnym pomiarom tych struktur wiemy, że ich poszczególne wymiary odpowiadają aksonom, neuronom czy otoczce mielinowej. Dodatkowych dowodów na to, że mamy do czynienia z mózgiem i jego strukturami dostarczyło odkrycie protein, do ekspresji których dochodzi w wielu miejscach mózgu. Znaleziono tam m.in. proteiny KIF26B, WDR13, ATP6V1F, MED13L czy ATPazę. Już samo odkrycie zeszklonego mózgu było czymś niezwykłym. Ale znalezienie całego centralnego układu nerwowego złożonego z neuronów i aksjonów to coś niesamowitego, mówi Petrone. Naukowcom udało się zidentyfikować różne proteiny, dzięki czemu mogli określić, które części mózgu się zachowały. Analiza ciemnego szklistego materiału wykazała, że mamy tam do czynienia z proteinami obecnymi w korze mózgowej, jądrze podstawnym, śródmózgowiu, przysadce mózgowej, ciele migdałowatym, móżdżku, hipokampie, podwzgórzu i rdzeniu kręgowym, informują naukowcy. Do erupcji Wezuwiusza doszło w 79 roku naszej ery. Najprawdopodobniej, na co wskazują niedawne badania, miała ona miejsce 24 października. Erupcja zniszczyła miasta i osady w promieniu 20 kilometrów do wulkanu. Herculaneum, w której znaleziono ofiarę z zeszklonym mózgiem, zostało przykryte 20-metrową warstwą materiału naniesionego przez lawinę piroklastyczną. Temperatury znacznie przekraczały 500 stopni Celsjusza. Na pierwsze pozostałości Herculaneum natrafiono w 1710 roku. Pod koniec 1739 roku odkopano zwłoki pierwszej ofiary Wezuwiusza. W połowie lat 60. XX wieku zaczęto wykopaliska w Collegium Augustalium, budynku dedykowanym kultowi cesarza Augusta. Znaleziono tam zwłoki ok. 20-letniego mężczyzny, który leżał na drewnianym łóżku w niewielkim pomieszczeniu. Najprawdopodobniej był on strażnikiem Collegium. W właśnie w jego czaszce odkryto niedawno zeszklony mózg, który stał się przedmiotem fascynujących badań. « powrót do artykułu
  12. Unia Europejska kończy przygotowania do stworzenia „cyfrowego bliźniaka” Ziemi, za pomocą którego z niespotykaną dotychczas precyzją będzie można symulować atmosferę, oceany, lądy i kriosferę. Ma to pomóc zarówno w tworzeniu precyzyjnych prognoz pogody, jak i umożliwić przewidywanie wystąpienia susz, pożarów czy powodzi z wielodniowym, a może nawet wieloletnim wyprzedzeniem. Destination Earth, bo tak został nazwany projekt, będzie miał też za zadanie przewidywanie zmian społecznych powodowanych przez pogodę czy klimat. Ma również pozwolić na ocenę wpływ różnych polityk dotyczących walki ze zmianami klimatu. Destination Earth ma pracować z niespotykaną dotychczas rozdzielczością wynoszącą 1 km2. To wielokrotnie więcej niż obecnie wykorzystywane modele, dzięki czemu możliwe będzie uzyskanie znacznie bardziej dokładnych danych. Szczegóły projektu poznamy jeszcze w bieżącym miesiącu, natomiast sam projekt ma zostać uruchomiony w przyszłym roku i będzie działał na jednym z trzech superkomputerów, jakie UE umieści w Finlandii, Włoszech i Hiszpanii. Destination Earth powstała na bazie wcześniejszego Extreme Earth. Program ten, o wartości miliarda euro, był pilotowany przez European Centre for Medium-Range Weather Forecests (ECMWF). UE zlikwidowała ten program, jednak była zainteresowana kontynuowaniem samego pomysłu. Tym bardziej, że pojawiły się obawy, iż UE pozostanie w tyle w dziedzinie superkomputerów za USA, Chinami i Japonią, więc w ramach inicjatywy European High-Performance Computing Joint Undertaking przeznaczono 8 miliardów euro na prace nad eksaskalowym superkomputerem. Mają więc powstać maszyny zdolne do obsłużenia tak ambitnego projektu jak Destination Earth. Jednocześnie zaś Destination Earth jest dobrym uzasadnieniem dla budowy maszyn o tak olbrzymich mocach obliczeniowych. Typowe modele klimatyczne działają w rozdzielczości 50 lub 100 km2. Nawet jeden z czołowych modeli, używany przez ECMWF, charakteryzuje się rozdzielczością 9 km2. Wykorzystanie modelu o rozdzielczości 1 km2 pozwoli na bezpośrednie renderowanie zjawiska konwekcji, czyli pionowego transportu ciepła, które jest krytyczne dla formowania się chmur i burz. Dzięki temu można będzie przyjrzeć się rzeczywistym zjawiskom, a nie polegać na matematycznych przybliżeniach. Destination Earth ma być też tak dokładny, że pozwoli na modelowanie wirów oceanicznych, które są ważnym pasem transmisyjnym dla ciepła i węgla. W Japonii prowadzono już testy modeli klimatycznych o rozdzielczości 1 km2. Wykazały one, że bezpośrednie symulowane burz i wirów pozwala na opracowanie lepszych krótkoterminowych prognoz pogody, pozwala też poprawić przewidywania dotyczące klimatu w perspektywie miesięcy czy lat. Jest to tym bardziej ważne, że niedawne prace wykazały, iż modele klimatyczne nie są w stanie wyłapać zmian we wzorcach wiatrów, prawdopodobnie dlatego, że nie potrafią odtworzyć burz czy zawirowań. Modele o większej rozdzielczości będą mogły brać pod uwagę w czasie rzeczywistym informacje o zanieczyszczeniu powietrza, szacie roślinnej, pożarach lasów czy innych zjawiskach, o których wiadomo, że wpływają na pogodę i klimat. Jeśli jutro dojdzie do erupcji wulkanicznej, chcielibyśmy wiedzieć, jak wpłynie ona na opady w tropikach za kilka miesięcy, mówi Francisco Doblas-Reyes z Barcelona Supercomputing Center. Tak precyzyjny model byłby w stanie pokazać np. jak subsydiowanie paliw roślinnych wpływa na wycinkę lasów Amazonii czy też, jak zmiany klimatu wpłyną na ruch migracyjne ludności w poszczególnych krajach. Działanie na tak precyzyjnym modelu będzie wymagało olbrzymich mocy obliczeniowych oraz kolosalnych możliwości analizy danych. O tym, jak poważne to zadanie, niech świadczy następujący przykład. W ubiegłym roku przeprowadzono testy modelu o rozdzielczości 1 kilometra. Wykorzystano w tym celu najpotężniejszy superkomputer na świecie, Summit. Symulowano 4 miesiące działania modelu. Testujący otrzymali tak olbrzymią ilość danych, że wyodrębnienie z nich użytecznych informacji dla kilku symulowanych dni zajęło im... pół roku. Obecnie w tym tkwi najpoważniejszy problem związany z modelami pogodowymi i klimatycznymi w wysokiej rozdzielczości. Analiza uzyskanych danych zajmuje bardzo dużo czasu. Dlatego też jednym z najważniejszych elementu projektu Destination Earth będzie stworzenie modelu analitycznego, który dostarczy użytecznych danych w czasie rzeczywistym. Destination Earth będzie prawdopodobnie pracował w kilku trybach. Na co dzień będzie się prawdopodobnie zajmował przewidywaniem wpływu ekstremalnych zjawisk atmosferycznych na najbliższe tygodnie i miesiące. Co jakiś czas, być może raz na pół roku, zajmie się długoterminowymi, obejmującymi dekady, prognozami zmian klimatycznych. Nie tylko Europa planuje tworzenie precyzyjnych modeli klimatycznych przy użyciu eksaskalowych superkomputerów. Też zmierzamy w tym kierunku, ale jeszcze nie zaangażowaliśmy się to tak mocno, przyznaje Ruby Leung z Pacific Northwest National Laboratory, który jest głównym naukowcem w prowadzonym przez amerykański Departament Energii projekcie modelowania systemu ziemskiego. « powrót do artykułu
  13. Prowadząc badania na wybrzeżu Morza Rossa, ornitolog Steven Emslie dokonał niespodziewanego odkrycia. Na Przylądku Irízara (znajduje się on na południe od Lodowca Drygalskiego na Wybrzeżu Scotta) znalazł zarówno stare, jak i, wydawałoby się, świeże szczątki pingwinów Adeli, głównie piskląt. Świeże szczątki były jednak zastanawiające, ponieważ od czasów wczesnych eksploratorów nie odnotowano tu aktywnych kolonii pingwinów. Mimo że Emslie znalazł liczne rozrzucone kości piskląt, a także ślady guana, co sugerowało niedawne wykorzystanie miejsca, taki scenariusz był niemożliwy. W niektórych przypadkach znaleziono kompletne zwłoki piskląt z piórami (obecnie w stanie rozkładu, jak we współczesnej kolonii), w innych nietknięte mumie. Zespół naukowców zebrał część "powierzchniowych" szczątków do analizy i datowania radiowęglowego. Zabiegi te miały pomóc w ustaleniu, co tu się właściwie stało. Uczeni znaleźli na przylądku stare kamienie, którymi niegdyś były otoczone gniazda. Gdy pingwiny Adeli opuszczają jakieś stanowisko, kamienie zostają rozwleczone, ale wyróżniają się w krajobrazie, bo wszystkie mają zbliżoną wielkość. Prowadziliśmy wykopaliska 3 takich stert. By wydobyć zachowane tkanki pingwinich kości i piór, a także skorupki jaj i twarde części ofiar [...] z guana, używaliśmy podobnych technik jak archeolodzy. Gleba była bardzo sucha i pylista, tak jak na bardzo starych miejscach, gdzie miałem okazję pracować w okolicach Morza Rossa [...]. Ogólnie rzecz biorąc, próbkując, uzyskaliśmy mieszaninę szczątków starych i wyglądających na świeże, co wskazywało na liczne epizody zajmowania i porzucania przylądka przez pingwiny na przestrzeni tysięcy lat. Przez te wszystkie lata pracy w Antarktyce nigdy czegoś takiego nie widziałem. Analizy, których wyniki ukazały się w piśmie Geology, wskazują na co najmniej 3 okresy wykorzystywania przylądka przez rozmnażające się pingwiny Adeli. Ostatni zakończył się ok. 900 lat temu. Gdy pingwiny zniknęły przez narastającą pokrywę śniegową albo inne czynniki (Emslie wymienia np. małą epokę lodową), "świeże" szczątki na powierzchni zostały przykryte śniegiem i lodem i zachowały się nietknięte aż do epizodu topnienia. « powrót do artykułu
  14. Patogeny występujące w tkankach otaczających zęby przyczyniają się do rozwoju raka kolczystokomórkowego jamy ustnej i przełyku (ang. oral and pharyngeal squamous cell cancer carcinoma, OSCC). Jak się jednak okazuje, procesy mediowane przez te bakterie można zahamować za pomocą bakteriocyny zwanej nizyną. Rak kolczystokomórkowy regionu głowy i szyi (ang. head and neck squamous cell carcinoma, HNSCC) rozwija się z nabłonka płaskiego, wyściełającego powierzchnię dróg oddechowych i pokarmowych. Cechuje go wysoka śmiertelność. Do grupy nowotworów regionu głowy i szyi zaliczany jest m.in. rak kolczystokomórkowy jamy ustnej i przełyku (OSCC). Odsetek 5-letnich przeżyć chorych na OSCC jest niski i nie zmieniło się to od dziesięcioleci. Takie czynniki ryzyka, jak palenie tytoniu, picie alkoholu i zakażenie wirusem brodawczaka ludzkiego, nie pozwalają w pełni wyjaśnić występowania i agresywnej natury OSCC. W rozwoju i rozroście zmian nowotworowych oraz przerzutowaniu ważną rolę mogą odgrywać inne czynniki, np. patogeny jamy ustnej, ale kwestie te nie zostały dotąd dobrze zbadane. Zespół Yvonne Kapila z Uniwersytetu Kalifornijskiego w San Francisco testował, czy patogeny związane z chorobami przyzębia sprzyjają rozwojowi OSCC i czy leczenie nizyną może modulować te reakcje. Okazało się, że u myszy 3 bakterie związane z periodontopatiami (Porphyromonas gingivalis, Treponema denticola i Fusobacterium nucleatum) nasilały migrację oraz inwazję komórek OSCC, a także rozwój nowotworu. Dla odmiany bakterie komensalne jamy ustnej nie oddziaływały na migrację komórek OSCC. Jak podkreślają akademicy, powiązana z patogenami migracja komórek OSCC była mediowana przez aktywację integryny alfa V i kinazy ogniskowo-adhezyjnej (ang. focal adhesion kinase, FAK), gdyż trwałe zablokowanie ekspresji alfa V i FAK znosiło opisane zjawiska. Ponadto T. denticola indukowały ekspresję receptorów Toll-podobnych typu 2. i 4. (TLR2 i TLR4) oraz białka MyD88. Badania pokazały, że trwała supresja MyD88 znacząco hamowała aktywację FAK indukowaną przez T. denticola i znosiła patogenopochodną migrację. Łącznie dane te pokazują, że patogeny przyzębne przyczyniają się do wysoce agresywnego fenotypu choroby na drodze sprzężenia szlaków sygnałowych TLR/MyD88 oraz integryny/FAK. Można to odwrócić za pomocą terapii nizyną - bakteriocyną wykorzystywaną jako konserwant. Autorzy artykułu z pisma PLoS Pathogens podkreślają, że to pierwszy bezpośredni dowód na to, że bakteriocyna ogranicza rozwój nowotworu mediowany przez patogeny przyzębne. Uzyskane wyniki sugerują, że nizyna może mieć szeroki potencjał terapeutyczny (naukowcy wspominają w tym miejscu zarówno o wpływie antydrobnoustrojowym, jak i przeciwnowotworowym). « powrót do artykułu
  15. Grafenowe bolometry mogą całkowicie zmienić zasady gry na polu komputerów kwantowych, stwierdzają na łamach Nature fińscy naukowcy z Uniwersytetu Aalto i VTT Technical Research Centre of Finland. Stworzyli oni nowy detektor mierzący energię z niedostępnymi wcześniej dokładnością i szybkością. To może pomóc w rozwoju komputerów kwantowych i upowszechnieniu się tych maszyn poza laboratoria. Bolometr to urządzenie, które określa ilość promieniowania mierząc, jak bardzo zostało przez to promieniowanie ogrzane. Głównym autorem nowego niezwykle precyzyjnego bolometru jest profesor Mikko Möttönen, który pracował nad nim przez ostatnią dekadę. Współczesne komputery kwantowe działają dzięki pomiarom energii kubitów. Większość z nich mierzy napięcie elektryczne indukowane przez kubit. Dokonywanie takich pomiarów jest jest związane z występowaniem trzech problemów. Po pierwsze pomiary takie wymagają rozbudowanych obwodów wzmacniających napięcie, co może ograniczać możliwości skalowania systemów kwantowych. Po drugie obwody takie zużywają sporo energii. W końcu po trzecie, pomiary napięcia wprowadzają szum kwantowy, który z kolei generuje błędy w odczytach kubitów. Specjaliści zajmujący się komputerami kwantowymi od dawna mają nadzieję, że wszystkie trzy problemy można będzie rozwiązać dzięki bolometrom. A profesor Möttönen stworzył właśnie bolometr, który jest wystarczająco czuły i szybki, by sprostać takim zadaniom. Bolometry wchodzą do technologii kwantowych i być może ich pierwszym zadaniem będzie odczyt informacji z kubitów. Czułość i dokładność bolometrów właśnie osiągnęła poziom wymagany w takich zadaniach, mówi Möttönen. Przed rokiem zespół profesora Möttönena stworzył ze stopu złota i palladu bolometr, którego pomiary charakteryzował niezwykle niski poziom szumu. Jednak urządzenie pracowało zbyt wolno jak na potrzeby komputerów kwantowych. Najnowszy bolometr, którego osiągi pozwalają na zastosowanie go w komputerach kwantowych, został zbudowany z grafenu. Grafen charakteryzuje się bardzo niską pojemnością cieplną, co oznacza, że pozwala on na szybkie wykrywanie niewielkich zmian w poziomie energii. Dzięki temu nadaje się do pomiarów w systemach kwantowych. Grafenowy bolometr dokonuje pomiaru w czasie znacznie krótszym niż mikrosekunda, a więc szybkością pracy dorównuje obecnie używanym systemom pomiarowym. Jest jednak pozbawiony ich wad. Zmiana stopu złota i palladu na grafen spowodowała 100-krotne przyspieszenie pracy detektora przy zachowaniu niskiego poziomu szumów. Uważamy, że możemy jeszcze bardziej udoskonalić nasze urządzenie, mówi profesor Pertti Hakonen z Aalto. To bardzo ważne, gdyż pokazuje, że skoro bolometry dorównują systemom opartym na pomiarach napięcia prądu, to w przyszłości będą od nich bardziej wydaje. Możliwości obecnej technologii są ograniczone przez zasadę nieoznaczoności Heisenberga. Wynika z niej, że – przynajmniej teoretycznie – możliwe jest stworzenie bolometru p pozbawionego szumu kwantowego. Teoria nie pozwala zaś na stworzenie systemu pomiaru napięcia bez szumu kwantowego. Zatem wyższa teoretyczna dokładność, niższe zapotrzebowanie na energię oraz znacznie mniejsze rozmiary czynią z grafenowych bolometrów niezwykle obiecującą technologię, która pozwoli na wprowadzenie komputerów kwantowych pod strzechy. Ze szczegółami badań Finów można zapoznać się na łamach Nature.   « powrót do artykułu
  16. Od ubytków jaskiniowców po hollywoodzkie uśmiechy warte miliony... - fascynująca historia stomatologii Czy wiesz, że: - najstarszy odnotowany uraz stomatologiczny odkryto na pochodzących z dewonu skamieniałych szczątkach rybopodobnego stworzenia, a próchnica zbierała swoje żniwo już sto milionów lat temu? - Pierre Fauchard, nazywany ojcem stomatologii, na ból zęba zalecał między innymi płukanie jamy ustnej moczem? - z zębów wyrwanych tysiącom poległych w bitwie pod Waterloo zrobiono protezy dentystyczne? James Wynbrandt w bezbolesny sposób opowiada o krwawej historii stomatologii. Płynnie przechodzi od czasów najciemniejszej niewiedzy, błędnych przekonań, przesądów i barbarzyńskich zabiegów, bardziej przypominających sceny z horroru niż jakąkolwiek opiekę medyczną, do świadomego leczenia, które – nawet jeśli wzbudza strach – raczej nie zakończy się powolną i wyjątkowo bolesną śmiercią. I choć wizyty w gabinecie stomatologicznym nawet teraz nie należą może do najprzyjemniejszych, a wielu ludzi na samą myśl o dentyście oblewa się zimnym potem, współcześni pacjenci mogą być naprawdę wdzięczni losowi. Gdyby przyszło im leczyć uzębienie choćby w pierwszej połowie XX wieku, mogliby zostać potraktowani dawką promieniowania lub stracić kilka zdrowych zębów w imię poprawy ogólnego stanu zdrowia. Jeszcze trochę wcześniej dla ukojenia bólu upuszczono by im krew, przypieczono, przyprawiając o uciążliwe bąble i oparzenia, albo podano by im śmiertelną dawkę arszeniku. Możliwe nawet, że trafiliby na scenę, gdzie wyrwiząb, artysta bólu i prekursor profesji, ku powszechnej radości zgromadzonego tłumu zająłby się problemem. Ta opowieść raczej nie wyleczy nikogo z dentofobii, z pewnością jednak pomoże docenić wykształcenie dzisiejszych stomatologów, sterylność ich gabinetów i dostępność szerokiej gamy skutecznych środków przeciwbólowych. James Wynbrandt – ma na swoim koncie książki na temat zaburzeń genetycznych, muzyki popularnej i humoru politycznego, a także liczne teksty z zakresu aeronautyki. Obecnie mieszka w Nowym Jorku.
  17. Dzięki sile odśrodkowej i wykorzystaniu cieczy o różnych gęstościach można opracować samoorganizujące się fabryki chemiczne. Zaproponowany przez Polaków pomysł na wirujące reaktory jest nie tylko sprytny, ale i piękny. Badania trafiły na okładkę prestiżowego Nature. Polsko-koreański zespół pokazał, jak przeprowadzać całe serie skomplikowanych reakcji chemicznych naraz - nie uciekając się do skomplikowanych systemów urządzeń, a korzystając z... siły odśrodkowej. Pierwszymi autorami publikacji są dr Olgierd Cybulski (Uniwersytet UNIST w Korei Płd.) i dr Mirosław Dygas (UNIST i Instytut Chemii Organicznej PAN). Pokazujemy, jak przygotować samoorganizujące się fabryki chemiczne - opisuje w rozmowie z PAP autor korespondencyjny publikacji prof. Bartosz Grzybowski (UNIST i IChO PAN). I dodaje, że ma już pomysł, jak wykorzystać taki wirujący reaktor chemiczny choćby do... odzyskiwania litu z cieczy w bateriach. To, że ciecze o różnych gęstościach mogą tworzyć niemieszające się warstwy, można zaobserwować nawet podczas obiadu - wpatrując się w oka na rosole. Tłuszcz z zupy unosi się na wierzchu, ma bowiem mniejszą gęstość niż wodnista część zupy. W warunkach domowych można zrobić i bardziej złożone doświadczenie: do jednego naczynia powoli wlewa się po kolei wiele cieczy o różnych gęstościach. Zacząć można od najgęstszego miodu, przez syrop klonowy, płyn do naczyń, wodę, olej roślinny aż po najrzadszą naftę. Jeśli zrobi się to odpowiednio powoli, w tej (niejadalnej) tzw. kolumnie gęstości można zobaczyć oddzielone od siebie, niewymieszane różnokolorowe warstwy. Gdyby jednak teraz taką kolumną gęstości zacząć bardzo, bardzo szybko wirować - obracając naczynie wokół pionowej osi (tak jak na kole garncarskim, tylko że znacznie szybciej - np. 2,6 tys. obrotów na minutę), okaże się, że kolejne warstwy ułożą się w koncentryczne pierścienie. Najlżejsze ciecze będą miały mniejszą średnicę i będą ułożone najbliżej centrum tej wirówki, a najgęstsze ułożą się w duże pierścienie bliżej jej obrzeży. Wirowanie jest tu o tyle ważnym czynnikiem, że siła odśrodkowa zaczyna dominować nad napięciem powierzchniowym cieczy. Można więc uzyskać bardzo cieniutkie warstewki cieczy - nawet rzędu 0,15 mm, a może i jeszcze cieńsze - bez ryzyka, że się ze sobą wymieszają. Jeśli odpowiednio dobierze się gęstość cieczy, można - co wykazali naukowcy - uzyskać w wirówce nawet 20 wirujących wokół wspólnej osi kolorowych pierścieni. Wirująca kolumna gęstości to niezwykle estetyczny eksperyment fizyczny. Dodatkowo prof. Bartosz Grzybowski z zespołem pokazał, jak bardzo skorzystać mogą z niego chemicy. Wirujące ciecze o różnych gęstościach można bowiem przygotować tak, aby w każdej z nich znajdował się inny odczynnik potrzebny do reakcji chemicznej. Załóżmy, że do samego centrum wirówki wlewamy jakiś związek chemiczny. On się rozchodzi po wirówce, zaczynając swoją dyfuzję od kontaktu z najrzadszą, najbardziej wewnętrzną warstwą. Tam jednak dochodzi do reakcji chemicznej i powstaje jakiś nowy związek chemiczny. On również zaczyna dyfuzję i dociera do kolejnej, gęstszej warstwy, gdzie dochodzi do kolejnej reakcji chemicznej. Powstaje kolejny produkt. I tak dalej, aż z produktu wyjściowego dojdziemy do produktu finalnego. Dzięki wirującej kolumnie gęstości wiele reakcji chemicznych zachodzi więc samorzutnie jedna po drugiej. Nie trzeba serii doświadczeń, wielu naczynek, mieszalników ani rurek. Ponieważ pierścienie są bardzo cienkie, a powierzchnia ich kontaktu jest spora, to dyfuzja związków między kolejnymi z nich zachodzi w stosunkowo krótkim czasie (o wiele krótszym, niż gdyby kolumna się nie poruszała). Prof. Grzybowski zaznacza, że takie samoorganizujące się fabryki chemiczne mogą znaleźć zastosowanie przemysłowe - choćby do oddzielania składników z mieszanin. W publikacji w Nature badacze pokazali, jak w takim wirującym doświadczeniu odzyskiwać aminokwasy (składniki białek) z brzeczki fermentacyjnej. Podobnie można byłoby to wykonać w przypadku odzyskiwania litu z mieszaniny po bateriach. To byłby biznes. A przecież na to na razie nie ma dobrych metod - uważa chemik. Prof. Grzybowski osiągnął w ostatnich kilku dniach to, o czym większość polskich naukowców może tylko pomarzyć. Jego artykuł o wirujących reaktorach trafił teraz na okładkę Nature. A tydzień temu artykuł jego zespołu na zupełnie inny temat - o chemicznym "drzewie początków życia" - ukazał się w innym najbardziej prestiżowym czasopiśmie naukowym świata - Science (tym samym badacz ma już na koncie 13 publikacji w tych prestiżowych czasopismach). Naukowiec jednak daje do zrozumienia, że ma jeszcze coś w zanadrzu. Zapowiada, że wkrótce w którymś z tych ważnych czasopism ma się ukazać kolejny jego artykuł, na zupełnie inny temat. I ten będzie najważniejszy w mojej dotychczasowej karierze - uśmiecha się profesor. Badania opublikowane w Nature wykonane były w dużej części w Korei i częściowo w IChO PAN. , a oprócz prof. Grzybowskiego i dr. Cybulskiego i dr. Dygasa byli w nie zaangażowani także inni polscy naukowcy (Barbara Mikulak-Klucznik, dr Marta Siek i dr Tomasz Klucznik). « powrót do artykułu
  18. Naukowcy z Gladstone Institutes we współpracy z badaczami z Uniwersytetu Kalifornijskiego w San Francisco (UCSF) i Uniwersytetu Technicznego w Monachium (TUM) stworzyli mapę genetyczną, dzięki której są w stanie odróżnić regulatorowe limfocyty T od pozostałych limfocytów T. Odkrycie to pozwoli na stworzenie terapii, które pozwolą na wzmacnianie lub osłabianie działania regulatorowych limfocytów T. Odkrycie sieci powiązań genetycznych, które kontrolują biologię regulatorowych limfocytów T to pierwszy krok w kierunku znalezienia leków zmieniających funkcję tych komórek, co pomoże w terapii nowotworów i chorób autoimmunologicznych, mówi doktor Alex Marson, dyrektor Gladstone-UCSF Institute of Genomic Immunology. Ludzkie regulatorowe limfocyty T (Treg) są niezbędnym składnikiem homeostazy immunologicznej. [...] zidentyfikkowaliśmy czynniki transkrypcyjne, które regulują krytyczne proteiny Treg zarówno w warunkach bazowych, jak i prozapalnych, stwierdzają naukowcy. Dotychczasowe badania na myszach wskazują, że zwiększenie liczby regulatorowych limfocytów, T, a tym samym wytłumienie układu odpornościowego, pomaga zwalczać objawy chorób autoimmunologicznych. Z drugiej zaś strony, zablokowanie Treg, a tym samym zwiększenie aktywności układu odpornościowego, może pomagać w skuteczniejszej walce z nowotworami. Obecnie testowane są na ludziach terapie polegające na zwiększeniu liczby Treg. Polegają one na pobieraniu od pacjentów tych komórek, namnażaniu ich i ponownych wstrzykiwaniu. Dotychczas jednak w takich terapiach nie zmienia się samego działania komórek. Większość naszej wiedzy o Treg pochodzi z modeli mysich. Chcieliśmy zidentyfikować geny związane z działaniem Treg, by lepiej zrozumieć, jak wszystko jest ze sobą połączone i móc manipulować działaniem tych komórek. Gdy już rozumiemy funkcje każdego z genów możemy precyzyjnie edytować komórki i zwalczać choroby, wyjaśnia profesor Kathrin Schumann z Monachium. Podczas swoich najnowszych badań naukowcy selektywnie usuwali jeden z 40 czynników transkrypcyjnych, by zmienić działanie Treg. Wybrali te właśnie czynniki, gdyż wcześniejsze badania wskazywały, że mogą one odgrywać specyficzne funkcje w działaniu Treg w odróżnieniu od innych limfocytów T. Następnie skupili się na 10 czynnikach, które wywierały największy wpływ na funkcjonowanie regulatorowych limfocytów T. Za każdym razem przyglądali się tysiącom genów, by sprawdzić, jak zmieniło się ich działanie w wyniku manipulacji czynnikiem transkrypcyjnym. W ten sposób przebadali aż 54 424 indywidualne komórki Treg. Dzięki tak szczegółowej analizie byli w stanie stworzyć rozległą mapę powiązań genetycznych i czynników transkrypcyjnych, które wpływały na pracę Treg. Jednym z najbardziej zaskakujących odkryć było spostrzeżenie, że słabo poznany czynnik HIVEP2 bardzo silnie oddziałuje na funkcjonowanie Treg. Po przeprowadzeniu badań na myszach naukowcy zauważyli, że usunięcie genu HIVEP2 obniżyło zdolność Treg do zwalczania stanu zapalnego. To ważne odkrycie. Wcześniej tak naprawdę nigdy nie rozważano roli HIVEP2 w biologii Treg, mówi Sid Raju z MIT i Harvarda. Naukowcy mówią, że ich badania pokazują też, jak potężnymi narzędziami badawczymi obecnie dysponujemy. Teoretycznie możemy wziąć dowolną komórkę ludzkie organizmu, wybiórczo usuwać z niej pojedyncze geny i badać wpływ takich działań na funkcjonowanie tej komórki. To naprawdę otwiera drogę do traktowania ludzkich komórek jako eksperymentalnego systemu. « powrót do artykułu
  19. W ogrodzie Kunsthaust Dahlem w Berlinie przypadkiem odkryto jedno z najbardziej znanych dzieł Arno Brekera, jednego z ulubionych artystów Adolfa Hitlera. Marmurowa rzeźba zatytułowana Romanichel została znaleziona w towarzystwie innego dzieła, również przedstawiającą głowę rozmiarów większych niż naturalne. To dzieło nie zostało jeszcze zidentyfikowane. Stylem przypomina jednak Romanichela, więc specjaliści przypuszczają, że również wyszło spod dłuta Brekera. Obie rzeźby są lekko uszkodzone. Prawdopodobnie do uszkodzeń doszło przed ich zakopaniem w ogrodzie. Zakopać zaś mogli je amerykańscy żołnierze w 1945 roku. Rzeźby znaleziono podczas prac budowlanych przy muzeum. To był zupełny przypadek. Budujemy nowe chodniki. Zwykle nie wymaga to kopania głębiej niż na 50 centymetrów. Jednak tym razem postanowiliśmy wymienić przy okazji kanalizację i wtedy za budynkiem odkryliśmy rzeźby, mówi Dorothea Schöne, dyrektor Kunsthaud Dahlem. Romanichel, uznawana za zaginioną od wojny, przedstawia Sinti lub Romę, którego Breker spotkał w latach 20. w Paryżu i niejednokrotnie portretował. Jego głowa natychmiast mnie zafascynowała, wspominał artysta. Nie wiadomo, dlaczego powrócił do tematu i w 1940 roku wykonał znaną rzeźbę. Muzeum Kunsthaus Dahlem powstało w 2015 roku w były studio artysty. Breker, mianowany w 1937 roku „oficjalnym rzeźbiarzem państwa” wykorzystywał w latach 1939–1942. Miał za zadanie pracować w nim nad artystyczną przebudową stolicy III Rzeszy. Ściśle współpracował z Albertem Speerem, głównym architektem Hitlera. Panowie mieli zmienić Berlin w Germanię, miasto o monumentalnej architekturze, dorównujące wspaniałością światowym stolicom przeszłości, takim jak Babilon czy Rzym. W 1943 roku w wyniku alianckich nalotów Breker opuścił swoje studio. Po wojnie budynek przez rok był wykorzystywany przez amerykańską administrację wojskową. Dzieła Brekera, które wciąż znajdowały się w studio, zostały przeniesione. Prawdopodobnie wówczas żołnierze zakopali obie rzeźby. Romanischer i znaleziona wraz z nim rzeźba zostały wystawione w Kunsthaus Dahlem. Można je tam oglądać do 15 stycznia przyszłego roku. Arno Breker był wybitnym, znanym rzeźbiarzem tworzącym w stylu neoklasycznym. Styl ten podobał się władzom III Rzeszy, które przeciwstawiały taki rodzaj sztuki „sztuce zdegenerowanej”. Artysta stworzył dziesiątki rzeźb, z których niemal wszystkie przetrwały wojnę, ale ponad 90% z nich zostało zniszczonych po wojnie. Gdy po wojnie otrzymał propozycję wyrzeźbienia portretu Stalina, odmówił stwierdzając, że wystarczy mu jedna dyktatura. Artysta po wojnie nadal pracował, otrzymując wiele zleceń od znanych osób i instytucji. Wykonał portrety Anwara Sadata, Salvadora Dali, Jeana Cocteau czy Konrada Adenauera, jego prace były wystawiane w paryskim Centrum Pompidou. Zmarł w 1991 roku. « powrót do artykułu
  20. Very Large Telescope zauważył sześć galaktyk zgromadzonych wokół supermasywnej czarnej dziury z czasów, gdy wszechświat liczył sobie mniej niż miliard lat. Po raz pierwszy zauważono takie zgrupowanie z czasów tak nieodległych od Wielkiego Wybuchu. Odkrycie pomaga lepiej zrozumieć, w jaki sposób supermasywne czarne dziury mogą powstawać i ewoluować tak szybko. Głównym celem naszych badań było lepsze zrozumienie jednych z najbardziej niezwykłych obiektów astronomicznych – supermasywnych czarnych dziur istniejących już we wczesnym wszechświecie. Dotychczas nikt nie potrafi dobrze wyjaśnić ich istnienia, mówi główny autor badań, Marco Mignoli z Narodowego Instytutu Astrofizyki w Bolonii. Nowe obserwacje ujawniły istnienie galaktyk znajdujących się w okolicach supermasywnej czarnej dziury, a całość otoczona jest „pajęczą siecią” gazu rozciągającego się na obszarze 300-krotnie większym niż obszar Drogi Mlecznej. Olbrzymia ilość gazu zasila zarówno galaktyki, jak i czarną dziurę. Naukowcy szacują, że czarna dziura ma masę miliarda mas Słońca, a otaczająca całość gazowa struktura powstała, gdy wszechświat liczył sobie zaledwie 900 milionów lat. Obecnie uważa się, że pierwsze czarne dziury powstały z pierwszych gwiazd, które się zapadły. Musiały one błyskawicznie ewoluować, skoro po 900 milionach lat istnienia wszechświata osiągały masę miliarda Słońc. Astronomowie mają jednak problemy z wyjaśnieniem tej ewolucji. Takie czarne dziury musiałyby bowiem bardzo szybko wchłaniać olbrzymie ilości materii. Odkrycie galaktyk otaczających czarną dziurę i spowijającej wszystko sieci gazu może wyjaśniać tę błyskawiczną ewolucję. Powstaje jednak pytanie, w jaki sposób dochodzi do tworzenia się „pajęczej sieci” gazu. Astronomowie sądzą, że bierze w tym udział ciemna materia. To ona przyciąga gaz, który tworzy olbrzymie struktury, wystarczające, by wyewoluowały z nich zarówno galaktyki, jak i czarne dziury. Nasze badania wspierają hipotezę mówiącą, że najbardziej odległe masywne czarne dziury tworzą się i rosną w masywnym halo ciemnej materii. Dotychczas takich struktur nie wykrywaliśmy, gdyż ograniczały nas nasze możliwości obserwacyjne, wyjaśnia współautor badań Colin Norman z Uniwersytetu Johnsa Hopkinsa. Zaobserwowane teraz galaktyki są jednymi z najsłabiej świecących, jakie udało się zarejestrować.  Aby je zauważyć, konieczne były wielogodzinne obserwacje za pomocą jednych z najpotężniejszych teleskopów optycznych. Dzięki temu uczeni dowiedli też, że istnieje związek pomiędzy czterema galaktykami, a czarną dziurą Sądzimy, że obserwujemy wierzchołek góry lodowej. Że te galaktyki, które widzimy, są najjaśniejszymi, jakie się tam znajdują, przyznaje Barbara Balmaverde z Narodowego Instytutu Astrofizyki w Turynie. Pozostaje tylko mieć nadzieję, że jeszcze większe teleskopy optyczne, jak budowany właśnie Extremely Large Telescope, pozwolą dostrzec więcej szczegółów. « powrót do artykułu
  21. Fińskie studio projektowe Berry Creative stworzyło znaczki pocztowe Climate Change Stamps. Zastosowano w nich tusz reagujący na ciepło, dzięki czemu wizerunki ptaków czy chmur śniegowych zmieniają się w szkielety i chmury burzowe. Serię zamówiła Poczta Fińska. Ma to być sposób na zakomunikowanie negatywnych skutków wzrostu temperatur w Finlandii. Ptaka, ograniczoną imigrację i chmurę śniegową w postaci czarnego zarysu nadrukowano na gradientowym tle. Ponieważ wykorzystano tusz wrażliwy na temperaturę, pod wpływem ciepła palca symbole z czarnych stają się przezroczyste. Dzięki temu pokazują się wzory ukryte pod spodem. Chmury śnieżne stają się chmurami burzowymi. W ten sposób projektanci wskazują, że wzrost temperatur prowadzi do zaniku zimowych opadów śniegu. Imigracja zmienia się w masowe migracje; migranci klimatyczni muszą opuścić swoje domy i szukać schronienia gdzie indziej. Ptak staje się szkieletem, co ma reprezentować wymieranie fińskich gatunków. Ukryte obrazy pokazują, co nas czeka, jeśli nie zadziałamy szybko, by zapobiec zmianie klimatu. Jak podkreślają Finowie, by uzymysłowić ludziom, że sytuacja wymaga pilnych działań, znaczki mają ząbkowane, poszarpane brzegi, a tło jest gradientowe. Zależało mi na wykorzystaniu alarmujących obrazów. Zazwyczaj lubię nie tyle wskazywać problem, co skupiać się na alternatywie, sposobie pójścia naprzód, ale tym razem nie było na to miejsca. Wybrałem [...] 3 skutki zmiany klimatu w Finlandii: śnieg zmieniający się w deszcz, kryzys związany z uchodźcami klimatycznymi i utratę gatunków endemicznych - wyjaśnia dyrektor kreatywny Berry Creative Timo Berry. Włosko-hiszpański projektant Pablo Dorigo Sempere także postanowił przekazać mieszkańcom Wenecji wiadomość nt. środowiska za pomocą znaczków. Jego znaczki From Venice with Algae wykonano z papieru z glonów (papier Shiro Alga Carta został po raz pierwszy wyprodukowany w 1992 r. przez wenecką papiernię Favini). W tym celu Dorigo Sempere wyekstrahował glony zanieczyszczające Lagunę Wenecką. « powrót do artykułu
  22. Od dawna słyszymy teorię, że w przeszłości Ziemia była sucha, a wodę przyniosły z czasem bombardujące ją komety i asteroidy. Tymczasem badania opublikowane właśnie na łamach Science sugerują, że woda mogła istnieć na naszej planecie od zarania jej dziejów. Naukowcy z Centre de Recherches Pétrographiques et Géochimiques we Francji odkryli, że grupa kamiennych meteorytów o nazwie chondryty enstatytowe, zawiera na tyle dużo wodoru, by dostarczyć na Ziemię co najmniej trzykrotnie więcej wody niż jej zawartość w ziemskich oceanach. Chondryty enstatytowe mają skład taki, jak obiekty z wewnętrznych części Układu Słonecznego, zatem taki, z jakiego powstała Ziemia. Nasze odkrycie pokazuje, że materiał, z jakiego powstała Ziemia mógł w znacznym stopniu dostarczyć jej wodę. Materiały zawierające wodór były obecne w wewnętrznych częściach Układu Słonecznego w czasie, gdy formowały się planety skaliste. Nawet jeśli temperatura była wówczas zbyt wysoka, by woda występowała w stanie ciekłym, mówi główny autor badań, Laurette Piani. Najnowsze odkrycie to spore zaskoczenie, gdyż zawsze sądzono, że materiał, z którego powstała Ziemia, był suchy. Pochodził bowiem z wewnętrznych obszarów formującego się Układu Słonecznego, gdzie temperatury nie pozwalały na kondensację wody. Chondryty enstatytowe pokazują, że woda nie musiała dotrzeć na naszą planetę z krańców Układu. Są rzadkie, stanowią jedynie 2% meteorytów znajdowanych na Ziemi. Jednak ich podobny do Ziemi skład izotopowy wskazuje, że jest z takiego właśnie materiału powstała planeta. Mają bowiem podobne izotopy tlenu, tytanu, wapnia, wodoru i azotu co Ziemia. Jeśli chondryty enstatynowe tworzyły Ziemię – z ich skład izotopowy na to wskazuje – to oznacza, że miały one w sobie tyle wody, by wyjaśnić jej pochodzenie na naszej planecie. To niesamowite, ekscytuje się współautor badań, Lionel Vacher. Badania wykazały też, że znaczna część azotu obecnego w ziemskiej atmosferze może pochodzi z chondrytów enstatynowych. Mamy do dyspozycji niewiele chondrytów estatynowych, które nie zostały zmienione przez asteroidę, której były częścią, ani przez Ziemię. Bardzo ostrożnie dobraliśmy chondryty do naszych badań i zastosowaliśmy specjalne techniki analityczne, by upewnić się, że to, co znajdziemy, nie pochodzi z Ziemi, mówi uczony. Badania wody w meteorytach zostały przeprowadzone za pomocą spektrometrii mas i spektrometrii mas jonów wtórnych. Założono, że chondryty enstatynowe uformowały się blisko Słońca. Były więc powszechnie uznawane za suche i prawdopodobnie z tego powodu nie przeprowadzono ich dokładnych badań pod kątem obecności wodoru, mówi Piani. « powrót do artykułu
  23. Niektórzy ludzie bardzo ciężko przechodzą zarażenie SARS-CoV-2 i wymagają hospitalizacji, podczas gdy inni wykazują jedynie łagodne objawy lub nie wykazują ich wcale. Na przebieg choroby wpływa wiele czynników, a wśród nich, jak się okazuje, są też czynniki genetyczne. A konkretnie geny, które odziedziczyliśmy po neandertalczykach. Jak dowiadujemy się z najnowszego numeru Nature, badania prowadzone na Okinawa Institute of Science and Technology Graduate University (OIST) wykazały, że osoby posiadające pewne warianty genetyczne w jednym z regionów na chromosomie 3, są narażone na większe ryzyko ciężkiego przebiegu COVID-19. Okazuje się, że u ludzi tych region ten jest niemal identyczny z odpowiadającym mu regionem DNA neandertalczyka, który przed 50 000 lat żył na południu Europy. Dalsze badania wykazały, że Homo sapiens, krzyżując się z neandertalczykiem, odziedziczył ten wariant przed około 60 000 lat. To niesamowite, że genetyczne dziedzictwo neandertalczyków może mieć tak tragiczne konsekwencje podczas obecnej pandemii, mówi profesor Svante Pääbo, który kieruje Human Evolutionary Genomics Unit w OIST. W ramach projektu COVID-19 Host Genetics Initiative naukowcy przyjrzeli się DNA ponad 3000 osób, w tym ludziom, którzy byli hospitalizowani z powodu COVID-19, jak i osobom, które zaraziły się, ale nie wymagały hospitalizacji. W chromosomie 3 zidentyfikowano region, którego budowa decydowała o tym, czy po zarażeniu SARS-CoV-2 osoba chora będzie wymagała hospitalizacji. Region ten jest bardzo długi, składa się z 49 400 par bazowych. Występujące w nim zmiany związane z większą podatnością na poważny przebieg choroby są ściśle ze sobą powiązane. Jeśli u kogoś występuje jeden wariant genu decydującego o większej podatności, to najprawdopodobniej będzie miał wszystkie 13. Jako że już wcześniej wiadomo było, że tego typu zmiany odziedziczyliśmy po neandertalczykach lub denisowianach, profesor Pääbo i współpracujący z nim profesor Hugo Zeberg z Instytutu Antropologii Ewolucyjnej im. Maxa Plancka, postanowili sprawdzić, czy tak jest i w tym przypadku. Okazało się, że neandertalczyk z południa Europy posiadał niemal identyczne zmiany w genomie, natomiast dwóch neandertalczyków z południa Syberii i denisowianin zmian takich nie mieli. Po tym odkryciu naukowcy postanowili jeszcze sprawdzić, skąd u H. sapiens takie warianty. Czy odziedziczyliśmy je po wspólnym przodku z neandertalczykiem, czy też trafiły one do naszego genomu w wyniku krzyżowania się z Homo neanderthalensis. W pierwszym przypadku wariant powinien być obecny w naszym genomie od około 550 000 lat, w drugim może nawet zaledwie od 50 000 lat. Po badaniach profesorowie Pääbo i Zeberg doszli do wniosku, że warianty takie trafiły do naszego genomu przed około 60 000 laty. Jak informuje profesor Zeberg, osoby ze zmianami genetycznymi odziedziczonymi po neandertalczykach są narażone na 3-krotnie większe ryzyko, że będą wymagały podłączenia do respiratora. Wspomniane warianty genetyczne są najbardziej rozpowszechnione w Azji Południowej. Praktycznie nie występują w Azji Wschodniej, ani w Afryce. « powrót do artykułu
  24. Archeolodzy prowadzący wykopaliska na terenie XIII/XIV-w. gospodarstwa cystersów w Beamore (Drogheda) w Irlandii odkryli m.in. średniowieczny odświeżacz powietrza. Najmniejsza społeczność cysterska to 12 mnichów, lecz patrząc na skalę tutejszych budynków, [wnioskujemy, że] Beaubec było pokaźniejsze. Mieszkało tu 30-50 mnichów. [Skądinąd] wiemy, że każdy mnich dostawał za dzień swojej pracy jeden bochenek chleba. Jeśli więc weźmiemy pod uwagę wielkość pieca i to, ile bochenków się w nim zmieści, na tej podstawie [również] można szacować, ilu mnichów tu mieszkało - wyjaśnia Geraldine Stout. Wykopaliska zakończyły się na początku sierpnia. Geraldine Stout, która interesuje się cystersami, pracowała już na podobnym stanowisku w Bective w Meath. Jak podkreśla, cystersi byli wielkimi wynalazcami i rolnikami. W drugiej turze wykopalisk w Beamore znaleziono m.in. średniowieczny klucz, kości krów, owiec, kotów i psów, a także pozostałości różnych płodów rolnych (fasoli, owsa czy pszenicy). Beaubec było gospodarstwem klasztornym prowadzonym przez cystersów, którzy przybyli z macierzystego klasztoru De Bello Becco w Normandii. Mnisi uprawiali tu ziemię, a plony eksportowali do Normandii. Choć wykopaliska koncentrowały się na irlandzkim stanowisku, Matthew i Geraldine Stoutowie odwiedzili także stanowisko w Normandii. Przeprowadzili intensywne badania dot. zależności między nimi. Z zeszłego roku wiemy, że w 1201 r. społeczność mnichów przybyła z Normandii, by założyć farmę. Ponieważ cystersi wypracowali wzorzec farmy, bez względu na to, gdzie się w Europie pojawiali, wszystkie farmy były takie same. Wiemy, że pierwszą rzeczą, jaką zrobili po przybyciu na miejsce w XIII w., było podłączenie do najbliższej rzeki i utworzenie fosy. Robiono to z myślą o całej społeczności; chodziło o mielenie ziarna itp., ale także o podłączenie latryn. Tegoroczne wykopaliska dostarczyły kolejnych dowodów na uprawę mieszaną, praktykowaną przez francuskich cystersów w XIII-XIV w. Ich żywy inwentarz stanowiły owce, kozy, bydło, świnie i drób. Uprawiano groch, fasolę, owies, pszenicę i żyto. Cystersi mieli również sady i hodowali [...] śliwki, tarninę i czarny bez. Importowali m.in. figi. [...]. Archeolodzy dodają, że pozostałości średniowiecznej maselnicy to doskonały dowód na samowystarczalność mnichów. Prowadząc wykopaliska w zeszłym roku, odkryliśmy budynek mieszkalny, gdzie żyła społeczność ok. 50 mnichów [...]. Teraz znaleźliśmy obszar, gdzie mogły się odbywać różne niebezpieczne czynności, takie jak pieczenie, suszenie kukurydzy i prace związane z obróbką metalu. Archeolodzy natrafili na piwnicę, która była zapewne wykorzystywana jako latryna, a w niej odkryli naczynie, które pełniło funkcję średniowiecznego odświeżacza powietrza. W głównym budynku mieszkalnym znajdowała się imponująca centralna latryna [...]. Na zewnątrz [...] znaleźliśmy dowody na istnienie systemu wodnego. Zaspokajał on potrzeby mieszkańców związane z toaletami, myciem i przygotowywaniem jedzenia. « powrót do artykułu
  25. Poczta elektroniczna nie jest już tylko sposobem na komunikację pomiędzy osobami, które znajdują się daleko od siebie. Używa się jej również do łatwego przekazywania informacji i plików pomiędzy pracownikami wykonującymi swoje obowiązki w tym samym biurze. Odbieramy i wysyłamy coraz więcej wiadomości, dlatego tak ważne jest, żebyśmy posiadali odpowiednią aplikację do ich obsługi. Jaką wybrać? Poczta e-mail kluczowym narzędziem Badania wykazują, że poczta elektroniczna jest obecnie najpopularniejszą usługą stosowaną w firmach do komunikacji, a w kolejnych latach ma dalej zyskiwać na znaczeniu. Okazuje się, że pracownicy, którzy obsługują firmową pocztę e-mail, poświęcają na to zadanie średnio ponad 3 godziny dziennie. Natomiast analiza przeprowadzona przez firmę The Radicati Group wykazała, że każdy użytkownik sieci w 2018 roku odbierał i wysyłał dziennie średnio 122 wiadomości. Biorąc pod uwagę ilość SPAM-u, jaką dostajemy na swoje skrzynki e-mail, można stwierdzić, że liczba ta wcale nie jest duża. Poczta firmowa korzysta jednak najczęściej z zaawansowanych filtrów antyspamowych, które ograniczają ilość niechcianych wiadomości do minimum. Poza tym, przedsiębiorstwa nie używają darmowych adresów e-mail, na które otrzymuje się dziesiątki wiadomości reklamowych dziennie. Firmy mają własne domeny, korzystają z usług hostingowych i z reguły posiadają zaawansowane rozwiązania do obsługi poczty. Jest to niezbędne m.in. ze względu na kwestie związane z ochroną. W badaniu przeprowadzonym przez przedsiębiorstwo Barracuda 94 proc. respondentów przyznało, iż uznaje pocztę e-mail za jeden z najwrażliwszych punktów w zabezpieczeniach ich organizacji. Groźne są m.in. ataki phishingowe. To, czy firmowa poczta nie będzie zagrożona, zależy m.in. od tego, na jakie narzędzia postawi firma w zakresie obsługi wiadomości. Warto brać pod uwagę następujące rozwiązania: •   Microsoft Exchange Online – niemal każdy użytkownik poczty e-mail miał kiedyś do czynienia z produktami marki Microsoft, a wymieniona usługa została stworzona specjalnie z myślą o firmach. Jej atutem są m.in. filtry antyspamowe, do 100 GB powierzchni na wiadomości, ochrona przed złośliwym oprogramowaniem i dostęp na urządzeniach mobilnych. Do tego dochodzi możliwość wspólnej pracy, tj. korzystania z jednej skrzynki przez wielu użytkowników, współdzielonego kalendarza czy grupowych konwersacji. Decydując się na tę skrzynkę, możesz używać adresów we własnej domenie, a na pocztę logować się za pomocą przeglądarki. •   Gmail – kolejne bardzo popularne rozwiązanie, które ma na świecie ponad 1 mld użytkowników, a przynajmniej tak twierdzi Google. Usługa ta jest również dostępna w wersji dla firm. Według jej właścicieli blokuje ona aż 99,9 proc. phishingu i złośliwego oprogramowania. Aplikacja Gmail automatycznie tworzy kopie zapasowe twoich danych. Narzędzie możesz powiązać z adresem e‑mail we własnej domenie. Pocztę dla firm od Google masz prawo testować przez 14 dni za darmo. •   Tutanota – to zdecydowanie mniej znana, ale również godna uwagi usługa. Poczta jest bezpieczna, a to m.in. dzięki szyfrowaniu end-to-end i 2FA. Twoje wiadomości nie mogą być przez nikogo odczytane. Z serwisu możesz korzystać zarówno na urządzeniach mobilnych, jak i na komputerze. Firma stale pracuje nad zabezpieczeniami, żeby ograniczyć do minimum ilość SPAM-u otrzymywanego przez użytkowników. To ciekawa oferta, którą warto rozważyć. •   Zoho – alternatywą dla powyższych rozwiązań jest Zoho, które jednak cieszy się zdecydowanie mniejszą popularnością niż wymienione powyżej usługi. W sieci można znaleźć informacje, że liczba użytkowników tego rozwiązania przekracza 1 mln. Zapewnia ono szyfrowanie wiadomości, a jego skuteczność w zatrzymywaniu SPAM-u, według twórców, przekracza 99,9 proc. Wybierając tę usługę, możesz korzystać z adresów we własnej domenie i korzystać z poczty przez przeglądarkę. Panel administracyjny tego narzędzia wygląda podobnie jak w innych rozwiązaniach o tym samym zastosowaniu. Wszystkie wymienione webowe programy pocztowe mają swoje plusy i minusy. Warto przetestować przynajmniej dwa z nich, zanim zdecydujesz się na dane rozwiązanie. « powrót do artykułu
×
×
  • Dodaj nową pozycję...