Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36962
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Praca zespołu teoretyków z Narodowego Centrum Badań Jądrowych i Uniwersytetu Zielonogórskiego wskazuje, że niektóre stany izomeryczne pierwiastków superciężkich mogą mieć czasy życia mierzone w sekundach, a więc dziesiątki tysięcy razy dłuższe niż czasy życia ich bardzo niestabilnych stanów podstawowych. Jeśli takie egzotyczne stany jądrowe zostaną wytworzone eksperymentalnie, będą wystarczająco stabilne, by badać ich własności chemiczne. Tablica Mendelejewa zawiera obecnie 118 pierwiastków, ale tylko 80 z nich ma izotopy stabilne. Jądra izotopów niestabilnych wcześniej czy później ulegają rozpadowi. W niektórych przypadkach czas połowicznego rozpadu jest bardzo długi, liczony w milionach lat, w innych czas ten wynosi mniej niż milionowe części sekundy. Nietrwałe są wszystkie izotopy pierwiastków najcięższych. Czasy życia krótsze niż sekunda nie pozwalają przy obecnym stanie techniki ustalić własności chemicznych pierwiastka, w szczególności grupy układu okresowego, do której należy. Jądra atomowe są układami złożonymi z protonów i neutronów, które oddziałują między sobą w sposób, który obecnie potrafimy opisać jedynie w przybliżeniu. W najcięższych jądrach łączna liczba nukleonów - protonów i neutronów - sięga 300. W świecie makroskopowym, znanym z codziennego doświadczenia, układy złożone mogą ulegać zaburzeniom, np. zaczynają drgać lub obracać się, pozostając nadal związane. W świecie układów złożonych tworzących jądra atomowe, którym rządzą prawa fizyki kwantowej, także mogą wystąpić zaburzenia, a odpowiadają im przejścia układów do stanów wzbudzonych. Różnica – i w gruncie rzeczy istota świata w skali kwantowej – polega na tym, że energie i inne parametry kwantowych stanów wzbudzonych, nie mogą w wyniku zaburzenia zmienić się dowolnie. Dopuszczalne zmiany są ściśle porcjowane czyli skwantowane. Jądro w stanie wzbudzonym ma energię większą od energii stanu podstawowego i na ogół szybko, w czasie rzędu jednej bilionowej części sekundy, powraca do niego, oddając energię wzbudzenia w postaci emisji kwantów gamma. Jednak w niektórych jądrach zdarzają się takie stany wzbudzone, które trwają przez czas wyraźnie dłuższy – nazywa się je izomerami. Jednym z przejawów ich wewnętrznego wzbudzenia może być zmiana spinu, czyli kwantowego odpowiednika momentu pędu, mierzącego jak „szybko wirują składniki układu”. Jądra w stanie izomerycznym tworzą atomy o tych samych własnościach chemicznych co jądra w stanie podstawowym. W 2001 roku odkryto w ośrodku GSI w Niemczech izomer izotopu pierwiastka darmsztadt o liczbie masowej 270. Okazało się, że rozpada się on poprzez emisję cząstki alfa, tak jak większość pierwiastków superciężkich, ale jego czas życia jest ok. 60 razy dłuższy niż czas życia tego samego izotopu w stanie podstawowym. Izomery żyjące dłużej niż stan podstawowy znane były w przypadku lżejszych jąder. Jednak rozpad izomeru darmsztadtu poprzez emisję cząstki alfa oznaczał, że typowy rozpad elektromagnetyczny (gamma) jest dla tego jądra mniej prawdopodobny. Pojawiło się naturalne pytanie, czy istnieją też inne izomery pierwiastków superciężkich, których czasy życia są wydłużone w stosunku do czasów życia ich stanów podstawowych. Zespół polskich fizyków podjął próbę oceny efektów odpowiedzialnych za wzbronienie rozpadu alfa. Naukowcy, przeprowadzając obliczenia i oszacowania, poszukiwali takich jąder superciężkich, dla których rozpad alfa byłby najbardziej wzbroniony. Można oczekiwać, że jądra takie są najlepszymi kandydatami na długożyciowe izomery. Czysto eksperymentalne określenie struktury stanu wzbudzonego jest w zasadzie niemożliwe – wyjaśnia prof. Michał Kowal, kierownik Zakładu Fizyki Teoretycznej NCBJ. Podejrzewano dotychczas, że za obserwowaną stabilność izomeru darmsztadt-270m odpowiedzialne jest wzbudzenie pary neutronowej. Z naszych rachunków wynika, że o stabilności decydują raczej wzbudzenia protonowe. Stany wzbudzone, z którymi mamy tu do czynienia, można wyobrażać sobie jako układy, w których część nukleonów – na przykład dwa protony, dwa neutrony lub obie te pary jednocześnie – nie znajduje się w swym podstawowym położeniu, lecz krąży wokół rdzenia jądra w tę samą stronę. W niektórych jądrach taki stan wzbudzony może mieć całkowity spin o wartości sięgającej 19 lub 20 stałych Plancka. Dominującym kanałem rozpadu rozważanych jąder jest rozpad alfa, czyli emisja jądra helu zbudowanego z dwóch protonów i dwóch neutronów. Rozpad alfa jąder ze stanów izomerycznych może zachodzić do stanu podstawowego lub do któregoś ze stanów wzbudzonych jądra potomnego (końcowego). Nikt dziś nie umie obliczyć dokładnie czasu życia izomeru ze względu na rozpad alfa – dodaje prof. Kowal. Wiadomo jednak, że wzbronienie rozpadu alfa związane jest z co najmniej trzema przyczynami: różnicą struktury lub spinu stanów początkowego i końcowego oraz różnicą energii tych stanów. Rozpad alfa do jądra potomnego w stanie podstawowym wymaga zmiany spinu jądra o dwadzieścia jednostek stałej Plancka. To bardzo dużo! Bariera centryfugalna związana z taką zmianą jest ogromna i praktycznie całkowicie blokuje ten rozpad. Ponadto, ze względu na zupełnie odmienną strukturę stanów początkowego i końcowego, rozpad jest dodatkowo silnie wzbraniany. Te dwa efekty powodują, że rozpad do stanu podstawowego jądra potomnego będzie niesłychanie mało prawdopodobny. Z kolei rozpad do jądra potomnego w stanie wzbudzonym o podobnym spinie co pierwotne jądro izomeryczne, zachodzi z dużym prawdopodobieństwem jedynie wtedy, gdy stan ten ma odpowiednio niską energię wzbudzenia w porównaniu do energii wzbudzenia jądra emitującego. W przypadku niektórych rozważanych przez nas jąder tak nie jest i dlatego podejrzewamy, że dla tych stanów początkowych wystąpi silne stłumienie rozpadu alfa, a w konsekwencji stan izomeryczny będzie miał długi czas życia. Praca polskich fizyków ukazała się w czasopiśmie Physical Review C i została zaprezentowana na cyklu tegorocznych letnich konferencji fizyki jądrowej. Analizowaliśmy egzotyczne stany w najcięższych jądrach o parzystych liczbach protonów i neutronów – opowiada prof. Janusz Skalski (NCBJ). Opisaliśmy mechanizm wzbronienia i podaliśmy kandydatów na długo żyjące stany jądrowe. Przeprowadzone przez nas obliczenia i oszacowania wskazują, że długożyciowe stany izomeryczne o strukturze jednoczesnego wzbudzenia dwóch par – protonowej i neutronowej, powinny występować w czterech izotopach darmsztadtu. Nie spodziewamy się wystąpienia takich izomerycznych długo żyjących konfiguracji w izotopach pierwiastków o liczbach atomowych Z=106, 108 i 112. „Przewidywane przez nas wzbronienia rozpadu alfa stanów dwuprotonowych są duże dla właściwie wszystkich jąder darmsztadtu” – uzupełnia dr Piotr Jachimowicz (Uniwersytet Zielonogórski). Oszacowane w pracy czasy życia tych izomerów to setki, a nawet tysiące milisekund czyli o trzy do pięciu rzędów wielkości więcej niż czasy życia ich stanów podstawowych. Przedstawiony wynik to jak na razie tylko przewidywania teoretyczne. Naukowcy liczą jednak na to, że w niedługim czasie uda się ich przewidywanie sprawdzić eksperymentalnie. Jest całkiem prawdopodobne, że podobne stany były już wytworzone w prowadzonych w przeszłości eksperymentach, ale nikt ich nie zauważył, bo nastawiano się w tych pomiarach na czasy życia znacznie krótsze – wyjaśnia prof. Kowal. Obecnie nie powinno być większych problemów z wykonaniem odpowiednich pomiarów. Kilka laboratoriów na świecie dysponuje odpowiednimi możliwościami. Być może takie doświadczenia będzie można za kilka lat przeprowadzić także w Warszawie, jeśli zostanie zrealizowany projekt zakupienia nowego cyklotronu dla Środowiskowego Laboratorium Ciężkich Jonów na Uniwersytecie Warszawskim. Jeśli nasze przewidywania co do stabilności izomerów zostaną potwierdzone, to otworzą się zupełnie nowe możliwości dla badań chemii pierwiastków superciężkich. « powrót do artykułu
  2. Naukowcy z Uniwersytetu w Toledo (Ohio) odkryli, że zwiększając dostawy kwasu 3-hydroksymasłowego, można z powodzeniem regulować nadciśnienie, nie zmniejszając spożycia sodu i nie zwiększając dawki ruchu. Nasz zespół odkrył, że duże spożycie soli obniża poziom krążącego kwasu 3-hydroksymasłowego. Kiedy sprawiamy, że kwas ponownie pojawia się w obiegu, ciśnienie także wraca do normy. [Tym samym] zyskujemy możliwość kontrolowania nadciśnienia wrażliwego na sól bez ćwiczeń - wyjaśnia prof. Bina Joe. Kwas 3-hydroksymasłowy jest ciałem ketonowym produkowanym w wątrobie (z acetooctanu powstałego z acetylo-CoA). Wcześniej nie badano go pod kątem metod kontrolowania nadciśnienia, ale naukowcy z Uniwersytetu w Toledo zauważyli szereg interesujących powiązań między tym, jak organizm go wytwarza a czynnikami środowiskowymi obniżającymi bądź podwyższającymi ciśnienie. Przeglądając literaturę przedmiotu, zauważyliśmy, że poziom kwasu 3-hydroksymasłowego rośnie przy ćwiczeniach albo ograniczaniu liczby kalorii. Oba zabiegi obniżają też ciśnienie. Kluczowym elementem naszych ustaleń jest to, że [...] stężenie kwasu 3-hydroksymasłowego obniża się ze spożyciem soli. Mamy więc nowy mechanizm, za pośrednictwem którego sól wiąże się ze wzrostem ciśnienia - tłumaczy doktorant Saroj Chakraborty. Podczas eksperymentów Chakraborty i Joe podawali szczurom laboratoryjnym 1,3-butanodiol. Gdy związek ten dociera do wątroby, enzymy przekształcają go w kwas 3-hydroksymasłowy. On z kolei trafia do nerek, gdzie zmniejsza stan zapalny, który często występuje w nadciśnieniu. Koniec końców dochodzi do znaczącego spadku ciśnienia. Naprawiając nerki, [kwas] pośrednio przyczynia się do obniżenia ciśnienia. Możliwe, że wpływa też na wiele innych organów. Badamy serce, naczynia krwionośne, mózg i inne układy narządów - opowiada Joe. W najbliższej przyszłości naukowcy z laboratorium Joe chcą porównać poziom kwasu 3-hydroksymasłowego u pacjentów z nadciśnieniem i osób zdrowych. Dalsze badania mają też pokazać, jak dużo potrzeba 1,3-butanodiolu, by modulować ciśnienie i czy zabieg może prowadzić do uszkodzeń innych narządów. Istnieją pacjenci, którzy z różnych powodów nie mogą ćwiczyć. Być może to będzie uzasadniona alternatywa dla tej grupy chorych - podsumowuje Chakraborty. « powrót do artykułu
  3. Przez dziesięciolecia astrobiologia nie była traktowana zbyt poważnie. Krytykowano ją, jak dziedzinę mającą więcej wspólnego z filozofią niż nauką ścisłą. Jednak teraz wszystko się zmienia. Znamy tysiące planet pozasłonecznych i wiemy, że do pojawienia się życia wcale nie są wymagane cieplarniane warunki. Powszechnie zaakceptowano, że życie może też istnieć poza Ziemią, poza Układem Słonecznym w warunkach, jakie do niedawna uważano za uniemożliwiające pojawienie się i przetrwanie organizmów żywych. O tym, jak bardzo zmieniło się postrzeganie astrobiologii niech świadczy fakt, że raport, zamówiony przez Kongres USA i opracowany przez Narodową Akademię Nauk (NAS), wzywa NASA do uczynienia z poszukiwania życia pozaziemskiego jeden z głównych celów przyszłych badań naukowych. Raport pojawił się w bardzo ważnym momencie. Naukowcy zajmujący się astronomią i naukami pokrewnymi przygotowują się właśnie do stworzenia planów na przyszłą dekadę. Plany takie to rodzaj listy najbardziej pożądanych projektów badawczych, które mają odpowiadać na najważniejsze pytania we wspomnianych dziedzinach nauki. Plany te są analizowane przez Kongres i amerykańskie agencje badawcze, jak NASA, i na ich podstawie opracowywane są strategie na kolejne lata. Z drugiej zaś strony autorzy planów korzystają z takich dokumentów, jak wspomniany powyżej raport. A skoro tak ważny raport przyznaje astrobiologii priorytet, to można się spodziewać, że zostanie to uwzględnione i w 3. dziesięcioleciu XXI wieku NASA położy duży nacisk na poszukiwanie życia pozaziemskiego. Co więcej, ostatnio powstał jeszcze jeden dokument, którego autorzy podkreślają znaczenie astrobiologii. Autorzy Exoplanet Science Strategy zachęcają NASA do zbudowania teleskopu wyspecjalizowanego w badaniu pozasłonecznych planet podobnych do Ziemi. NASA zresztą już planuje tego typu urządzenie, a o zostanie flagową misją NASA lat 30. konkurują ze sobą dwa projekty – Large Ultraviolet/Optical/Infrared (LUVOIR) oraz Habitable Exoplanet Observatory (HabEx). Będą one badały światło docierające do nas z innych planet i poszukiwały w nim sygnałów, świadczących o istnieniu życia. W przeszłości planowano już podobne misje. Jedną z nich był pomysł na zbudowanie przez NASA Terrestrial Planet Finder, teleskopu, który miał szukać planet pozaziemskich i badać ich atmosferę. Jednak pomysły takie szybko upadały. Astrobiolodzy nie mieli bowiem zbyt silnych argumentów, uzasadniających wydatkowanie olbrzymich środków. Jeszcze przed 10 laty mieliśmy niewiele informacji na temat liczby planet znajdujących się poza Układem Słonecznym, więc szacowanie szans realizacji celów badawczych takich projektów było praktycznie niemożliwe. Teraz sytuacja uległa zmianie. Potwierdziliśmy istnienie tysięcy planet, a znalezienie pozaziemskiego życia byłoby jedną z największych sensacji naukowych w dziejach. Należy też pamiętać, że środowisko naukowe musi konkurować o ograniczone rządowe pieniądze. Dotychczas astrobiologia nie miała zbyt wielu argumentów i przegrywała z innymi dziedzinami nauki. Teraz argumentów przybyło i okazało się, że w wielu miejscach jak najbardziej zasadna jest współpraca. Te same instrumenty mogą być bowiem przydatne do badania planet pozasłonecznych pod różnym kątem, nie tylko do poszukiwania na nich życia. Obecnie NASA bez szczególnej zachęty z zewnątrz zwiększa zainteresowanie poszukiwaniem życia pozaziemskiego. Dość wspomnieć, że w bieżącym roku agencja poprosiła świat nauki o przedstawienie jej pomysłów na badania pozwalające na znalezienie dowodów na istnienie żywych organizmów poza Ziemią. To pierwsze takie działanie NASA od 1976 roku, kiedy to w ramach misji Viking poszukiwano życia na Marsie. NASA rozszerza też współpracę z innymi instytucjami. W ubiegłym miesiącu była, okok SETI Institute, gospodarzem konferencji, podczas której omawiano „technosygnatury”, potencjalne sygnały świadczące o istnieniu inteligentnego życia. Wydaje się, że astrobiologia awansowała z pozycji czegoś dziwnego i pobocznego na pozycję tej dziedziny nauki, która pozwoli NASA uzasadnić, po co prowadzi badania kosmosu i dlaczego opinia publiczna powinna się tym interesować, mówi Ariel Anbar, geochemik z Arizona State University. « powrót do artykułu
  4. Przez setki lat sądzono, że erupcja Wezuwiusza i zniszczenie Pompejów miały miejsce 24 sierpnia 79 roku. Odnaleziona właśnie inskrypcja sugeruje, że nastąpiło to dwa miesiące później. Włoski minister kultury mówi o wyjątkowym odkryciu. Ustalenie dany wybuchu wulkanu wydawało się banalnie proste. Dysponujemy bowiem relacją naocznego świadka, Pliniusza Młodszego, pisarza i prawnika, który w liście do historyka Tacyta opisywał te wydarzenia i śmierć swojego słynnego dziadka, Pliniusza Starszego. W liście Pliniusz wymienia datę, 24 sierpnia. Teraz jednak w Pompejach odkryto napis węglem, wykonany prawdopodobnie przez robotnika odnawiającego dom. Mowa jest tam o 16. dniu przed kalendami listopadowymi, czyli o 17 października. Jako, że węgiel jest nietrwałym materiałem, można z całą stanowczością stwierdzić, że napis taki nie mógłby przetrwać długo. Zachował się tylko dlatego, że wkrótce został przykryty materiałem z wybuchu wulkanu. Powstał on więc 17 października 79 roku, a zatem miasto jeszcze wówczas istniało. Napis ten to dowód, że do wybuchu Wezuwiusza doszło później, niż sądzimy. Najprawdopodobniej 24 października. Od dawna zresztą pojawiały się spekulacje, że Wezuwiusz wybuchł później niż w sierpniu, gdyż w ruinach Pompejów odkryto jesienne owoce oraz piecyki do ogrzewania. Powstaje zatem pytanie, czy Pliniusz Młodszy się pomylił? List do Tacyta pisał on 20 lat po zniszczeniu Pompejów. Do czasów dzisiejszych nie przetrwała żadna wczesna kopia. Tekst krążył w postaci odpisów i tłumaczeń wykonywanych w kolejnych wiekach. W różnych kopiach znajdowały się różne daty wybuchu wulkanu, a ich rozpiętość rozciągała się od sierpnia po listopad. Powszechnie przyjęto, że erupcja Wezuwiusza nastąpiła 24 sierpnia. Najwyraźniej zatem zawiodła krytyka tekstu, a badań nie ułatwiał fakt, że pomiędzy zagładą Pompejów a czasami współczesnymi używano różnych kalendarzy. « powrót do artykułu
  5. Wenecja, Piza, Rodos i dziesiątki innych miejsc wpisanych na listę Światowego Dziedzictwa Kultury jest zagrożonych przez podnoszący się poziom oceanów. Jak wynika z najnowszego raportu, opublikowanego na łamach Nature Communications, zniszczenie grozi 47 z 49 najważniejszym zabytkowym miejscom u wybrzeży Morza Śródziemnego. Najbardziej zagrożone są Wenecja, Bazylika Matki Bożej Wniebowziętej w Akwilei oraz Ferrara i delta Po. Te miejsca Światowego Dziedzictwa Kultury są położone na wybrzeżu północnego Adriatyku, gdzie mamy do czynienia z ekstremalnymi wzrostami poziomu wody w czasie silnych burz, na co nakłada się wzrost poziomu oceanów, stwierdzili autorzy raportu. W 2013 roku panel klimatyczny ONZ przewidywać, że do końca wieku poziom oceanów może wzrosnąć o 76 centymetrów. Najnowsze badania wskazują jednak, że były to zbyt ostrożne szacunki. We wrześniu 2019 roku IPCC (Intergovernmentla Panel on Climate Change) ma opublikować najnowszy raport i wówczas poznamy najświeższe szacunki. Nawet jeśli przyjmiemy najbardziej optymistyczny scenariusz redukcji emisji gazów cieplarnianych, to poziom oceanów będzie rósł jeszcze w XXII wieku. Miejscami, które są najbardziej narażone na erozję są Tyr w Libanie, Tarraco w Hiszpanii i Efez w Turcji. Naukowcy pracujący pod kierunkiem Leny Reimann z Uniwersytetu w Kilonii przeanalizowali cztery różne scenariusze zmian klimatycznych, od takiego, w którym globalne ocieplenie uda się powstrzymać na poziomie dwóch stopni Celsjusza powyżej średniej sprzed rewolucji przemysłowej, po taki, w którym ludzkość nie ogranicza emisji i do końca wieku średnia temperatura wzrasta o 3–4 stopni Celsjusza. Wzrost poziomu morza może stać się większym zagrożeniem dla miejsc Światowego Dziedzictwa Kultury niż sztormy tak silne, że mówimy, iż zdarzają się raz na 100 lat. Zresztą takie sztormy, jakie w przeszłości na Morzu Śródziemnym rzeczywiście miały miejsce raz na sto lat mogą zdarzać się znacznie częściej. Jeszcze przed rokiem 2100 może być ich po kilka rocznie, stwierdzają autorzy badań. « powrót do artykułu
  6. Obecnie na Ziemi trwa szóste masowe wymieranie, tym razem powodowane przez ludzi. Naukowcy z Uniwersytetu w Aarhus wyliczyli, że tempo zanikania gatunków jest tak duże, że ewolucja nie dotrzymuje mu kroku. Jeśli nie powstrzymamy tego procesu, to w ciągu najbliższych 50 lat wyginie tyle gatunków ssaków, że ewolucja będzie potrzebowała, i to w najbardziej optymistycznym scenariuszu, 3–5 milionów lat, by osiągnąć obecny poziom bioróżnorodności. W ciągu ostatnich 450 milionów lat doszło do 5 epizodów masowego wymierania gatunków. Po każdym z nich bioróżnorodność się powoli odradzała. Szóste wymieranie, które ma obecnie miejsce, różni się od innych tym, że zostało spowodowane przez człowieka. Naukowcy z Uniwersytetów w Aarhus i Göteborgu wyliczyli, że po obecnym wymieraniu ewolucja będzie potrzebowała 3–5 milionów lat by powrócić do obecnego poziomu różnorodności wśród ssaków i 5–7 milionów lat, by powrócić do stanu sprzed pojawienia się człowieka współczesnego. Na potrzeby swojej pracy naukowcy wykorzystali bazę danych gatunków ssaków, która uwzględnia nie tylko ssaki obecnie żyjące, ale również wszystkie gatunki ssaków, jakie wyginęły od czasu pojawienia się Homo sapiens. Oczywiście nie wszystkie gatunki miały takie samo znaczenie. Niektóre z nich były na tyle odmienne od innych zwierząt, że wymarcie danego gatunku oznaczało zagładę całej gałęzi ewolucyjnej. W ten sposób utracie ulegał nie tylko gatunek, ale jego unikatowe funkcje ekologiczne, które ewoluowały przez miliony lat. Wielkie ssaki, megafauna, takie jak tygrys szablozębny były wysoce odmienne od innych. Jako, że miały niewielu bliskich krewnych, ich wyginięcie wiązało się ze zniknięciem całej gałęzi z drzewa ewolucyjnego. Z drugiej strony mamy setki gatunków ryjówkowatych, więc wyginięcie kilku z nich jest do zniesienia, mówi paleontolog Matt Davis. Ocena zagrożenia wiszącego nad poszczególnymi gatunkami jest trudna. Nosorożec czarny z dużym prawdopodobieństwem wyginie w ciągu najbliższych 50 lat. Słoń azjatycki ma mniej niż 33% szansy na przetrwanie poza rokiem 2100. Naukowcy przeprowadzili tego typu szacunki i wykorzystali zaawansowane modele obliczeniowe do symulacji szans na przeżycie gatunków ssaków, biorąc pod uwagę ich pokrewieństwo czy rozmiary ciała. Wykonali takie obliczenia dla istniejących i wymarłych gatunków oraz oszacowali, ile ewolucji zajmie przywracanie bioróżnorodności. Przyjęli przy tym najbardziej optymistyczny scenariusz, w którym założyli, że ludzie zaprzestają niszczenia habitatów i zabijania zwierząt, a tempo wymierania spada do najniższego znanego z przeszłości. Nawet w tym najbardziej optymistycznym scenariuszu pojawienie się tylu gatunków, ile możemy stracić w ciągu najbliższych 50 lat zajmie co najmniej 3 miliony lat, a pojawienie się tylu gatunków, ile wyginęło od ostatniej epoki lodowej potrwa co najmniej 5 milionów lat. Kiedyś ludzie żyli w świecie gigantów, gigantycznych bobrów, pancerników i jeleni. Obecnie żyjemy w świecie, w którym szybko ubywa dużych ssaków. Kilka pozostałych gigantów, jak słonie i nosorożce, może szybko wyginąć, dodaje profesor Jens-Christian Svenning. « powrót do artykułu
  7. Obraz Kompania Fransa Banninga Cocqa i Willema van Ruytenburgha (in. Straż nocna) Rembrandta, który znajduje się w zbiorach Rijksmuseum w Amsterdamie, przejdzie publiczną konserwację. Publiczną, bo na czas prac stanie na widoku w supernowoczesnej szklanej komorze. Cały, zapewne wieloletni, projekt będzie też można śledzić w Internecie. Nim konserwacja zacznie się w lipcu przyszłego roku, Straż nocna będzie gwiazdą wystawy upamiętniającej 350-lecie śmierci Rembrandta. Obraz jest portretem grupowym. Ma 4 m wysokości i 4,5 m szerokości. Waży aż 337 kg. Nocna straż to jeden z najsłynniejszych obrazów na świecie. Należy do nas wszystkich - podkreśla dyrektor Rijksmuseum Taco Dibbits. Z tego powodu holenderskie muzeum narodowe zdecydowało się udostępnić proces konserwacji wszystkim zainteresowanym. Obraz Kompania Fransa Banninga Cocqa i Willema van Ruytenburgha zaczął być nazywany Strażą nocną dopiero później, ze względu na ciemniejący z upływem lat werniks. Podczas wcześniejszych konserwacji obraz próbowano nieco rozjaśnić. Przedstawiciele Rijksmuseum tłumaczą, że dzięki najnowocześniejszej technologii będzie można zrozumieć, co się dzieje z obrazem (np. czemu uwieczniony na nim pies bieleje). Obraz wiele przeszedł - w XX w. został aż 3-krotnie zaatakowany. W 1911 r. pewien mężczyzna dźgnął go nożem. Szkody były na szczęście niewielkie i szybko je zlikwidowano. Podobny akt wandalizmu zdarzył się w 1975 r. W tym przypadku szkody były jednak znaczne. Żmudna naprawa potrwała parę lat. Ostatni atak przypuszczono w 1990 r. Wtedy napastnik potraktował dzieło sprejem. Ten zniszczył jednak tylko werniks.   « powrót do artykułu
  8. Działające od niedawna Laboratorium Cyberbezpieczeństwa Narodowego Centrum Badań Jądrowych odnotowało pierwszy sukces: naukowcy wykryli niebezpieczną lukę w oprogramowaniu firmowym jednego z powszechnie używanych sterowników logicznych PLC wykorzystywanym m.in. w instalacjach nuklearnych. Producent naprawił już błąd, zalecając niezbędne poprawki wszystkim użytkownikom. W ramach udziału Narodowego Centrum Badań Jądrowych w programie „Enhancing Computer Security Incident Analysis at Nuclear Facilities” prowadzonego przez Międzynarodową Agencją Energii Atomowej, w Świerku powstaje specjalistyczne laboratorium CyberLAB. Laboratorium to testuje pod kątem cyberbezpieczeństwa programowalne sterowniki logiczne (PLC), a w przyszłości będzie badało również inne elementy przemysłowych systemów sterowania. Mimo, że laboratorium dopiero powstaje, może się już pochwalić znacznym sukcesem. Zespół CyberLAB odnalazł lukę w oprogramowaniu firmowym sterownika PLC Siemens S7–1500. Sterownik ten jest powszechnie wykorzystywany między innymi w instalacjach nuklearnych. Odnaleziona luka (podatność) pozwala na przeprowadzenie ataku odmowy dostępu prowadzącego do utraty łączności ze sterownikiem. W przypadku, gdy sterownik kontroluje procesy krytyczne, taki atak może mieć katastrofalne skutki. Dodatkowo, w przypadku tego błędu, utrata łączności może zostać przywrócona tylko po ręcznym restarcie sterownika. Badanie układu, który standardowo komunikuje się z innymi urządzeniami przemysłowymi za pomocą łączy sieciowych, polega na wysyłaniu do niego ogromnej ilości zmodyfikowanych komunikatów wejściowych – wyjaśnia mgr inż. Marcin Dudek (NCBJ). Wysyłane komunikaty generowane są komputerowo, zgodnie ze składnią protokołu komunikacyjnego testowanego urządzenia – w tym wypadku był to protokół Profinet. Sprawdzamy, czy pewne komunikaty lub ich sekwencje nie prowadzą do zachowań nieoczekiwanych. Procedura ta nazywa się fuzzing lub fuzz testing. W przypadku sterownika S7–1500 okazało się, że są takie sekwencje wysyłanych do niego komunikatów, które powodują awarię komponentu odpowiedzialnego za komunikację sieciową, w rezultacie odcinając możliwość łączności z nim. Udało nam się dość precyzyjnie zidentyfikować zagrożenie, a nasze obserwacje przekazaliśmy inżynierom Siemensa. Podatność została zgłoszona do producenta w ramach opracowanej przez CyberLAB procedury, zgodnej z dobrą praktyką odpowiedzialnego ujawniania błędów (ang. Responsible Disclosure). Zespół NCBJ dostarczył pełną dokumentację błędu i skrypt „Proof of Concept” pozwalający na proste powtórzenie błędu w laboratorium producenta. Podatności został nadany numer CVE-2018-13805, a jej szczegóły zostały opublikowane na stronie firmy Siemens pod adresem https://cert-portal.siemens.com/productcert/pdf/ssa-347726.pdf. Przed opublikowaniem wszyscy dotychczasowi użytkownicy dostali informacje o sposobach usunięcia luki. Producent docenił pracę zespołu CyberLABu. Osoby, które przyczyniły się do odnalezienia błędu zostały wymienione na „ścianie podziękowań” (ang. Hall of Thanks) firmy https://www.siemens.com/global/en/home/products/services/cert/hall-of-thanks.html. Są to pracownicy NCBJ: Marcin Dudek, Jacek Gajewski, Kinga Staszkiewicz, Jakub Suchorab i Joanna Walkiewicz. Kwestie cyberbezpieczeństwa są jednym z priorytetów NCBJ i stanowią przedmiot badań prowadzonych w ośrodku. Poza budową wcześniej wspomnianego laboratorium, Instytut uczestniczy m.in. w projekcie Narodowa Platforma Cyberbezpieczeństwa, (NPC; realizowany wspólnie z Naukową Akademicką Siecią Komputerową – NASK, Politechniką Warszawską i Instytutem Łączności). Zespół CyberLAB złożył w 2018 r. trzy kolejne wnioski projektowe do programów H2020 i RPO. Liczymy, że realizacja przynajmniej części z nich pozwoli na znaczną rozbudowę istniejącego laboratorium oraz zwiększenie liczby zatrudnionych specjalistów. Tematyka cyberbezpieczeństwa jest też przedmiotem współpracy zespołów CyberLAB i Parku Naukowo-Technologicznego „Świerk” z Wyższą Szkołą Gospodarki Euroregionalnej i z Centrum Naukowo-Badawczym Ochrony Przeciwpożarowej z Józefowa. Instytucje wspólnie organizują doroczną ogólnopolską konferencję naukową na temat bezpieczeństwa. Jej tegoroczna XI edycja jest zatytułowana „Technologie informatyczne w tworzeniu kultury cyberprzestrzeni – elementu bezpieczeństwa cyfrowego”. Odbędzie się ona 25 października w NCBJ w Świerku. « powrót do artykułu
  9. Oficjalnie powołano do życia Globalną Komisję ds. Adaptacji (Global Commission on Adaptation), w skład której weszli m.in. Bill Gates czy Ban Ki-moon, były sekretarz generalny ONZ. Zdaniem członków Komisji, skutki globalnego ocieplenia są odczuwane znacznie wcześniej i znacznie mocniej, niż przypuszczano. Aby zmniejszyć ubóstwo na świecie i podtrzymać wzrost gospodarczy społeczeństwa muszą robić znacznie więcej i znacznie szybciej, by przystosować się do nowej rzeczywistości, stwierdzają członkowie organizacji. Na jej czele stoi 28 komisarzy, w tym wspomniani wcześniej Gates i Ki-Moon. Dostosowanie się to nie tylko to, co należy zrobić. To mądra strategia. Musimy szybciej ją wdrażać. Koszty adaptacji będą mniejsze niż koszty działania jak do tej pory. A korzyści z niej osiągnięte, znacznie większe, mówi były sekretarz generalny. Kristalina Georgieva, dyrektor zarządzająca Banku Światowego, która również jest jednym z komisarzy, stwierdza, że w obecnych czasach wszyscy, od rządów i firm po rolników decydujących co zasiać i osoby indywidualne, zastanawiające się, gdzie kupić dom, powinni brać ryzyka związane z globalnym ociepleniem. To nie musi oznaczać ponoszenia większych kosztów. Po prostu trzeba to ryzyko uwzględniać, mówi Georgieva. Jako przykład podaje niektórych rolników z Bangladeszu, którzy w ostatnich latach przerzucili się z hodowli kur na hodowlę kaczek. W czasie powodzi kury toną, ale kaczki przeżyją kataklizm. Bangladesz to również dobry przykład adaptacji. Dzięi systemowi wczesnego ostrzegania oraz zbudowaniu schronów udało się znacząco zmniejszyć liczbę ofiar cyklonów. W 1970 roku podczas jednego cyklonu zginęło 500 000 osób. W roku 2007 równie silny cyklon zabił mniej niż 5000 osób. Odpowiednie działania adaptacyjne są szczególnie ważne, by pomóc najuboższym. Analitycy ostrzegają, że z powodu zmian klimatycznych do roku 2030 aż 100 milionów osób może ponownie znaleźć się w skrajnej biedzie, z której niedawno udało im się wydobyć. Potrzeba zaadaptowania się nie oznacza, oczywiście, że powinniśmy zrezygnować z działań mających na celu zmniejszanie negatywnego wpływu człowieka na klimat. Obie rzeczy – adaptację i zmniejszanie emisji gazów cieplarnianych – należy prowadzić równolegle. Jesteśmy ostatnim pokoleniem ludzi, które ma szansę na zapobieżenie dramatycznym zmianom klimatu. Jesteśmy też pierwszym pokoleniem, które musi zmagać się z konsekwencjami tego zjawiska. To prowadzi do oczywistej konkluzji: musimy jednocześnie się adaptować i zapobiegać zmianom klimatycznym, mówi Georgieva. Wciąż istnieje szansa, by do końca wieku zatrzymać globalne ocieplenie na poziomie 1,5–2 stopni Celsjusza powyżej temperatur sprzed epoki przemysłowej. Jeśli nic nie zrobimy, do roku 2100 średnie globalne temperatury mogą wzrosnąć o 3 stopnie Celsjusza. Adaptacja, pomimo że daje nadzieję, może oznaczać też dokonywanie trudnych wyborów. Niewykluczone, że ludzie będą musieli opuścić niżej położone tereny nadmorskie. Niektóre tereny, jak na przykład Manhattan, zostaną zabezpieczone za pomocą murów i innej infrastruktury. Ale czy znajdą się miliardy dolarów by chronić, dajmy na to, Howard Beach, ubogą dzielnice robotniczą w Queens? Wątpię. Z większości takich miejsc trzeba będzie się wyprowadzić. A decyzje zostaną podjęte w oparciu o rachunek ekonomiczny. Prawda jest taka, że adaptacja to luksus, na który stać będzie nielicznych, mówi Jeff Goodell, autor książki The Waters Will Come. « powrót do artykułu
  10. O ile mieszkańcy Pompejów zginęli po wybuchu Wezuwiusza w 79 r. w wyniku urazów i uduszenia gęstym popiołem, o tyle obywatele Herkulaneum zmarli wskutek odparowania płynów ustrojowych i tkanek miękkich pod wpływem wysokiej temperatury spływu piroklastycznego. Naukowcy badali szkielety ludzi, którzy szukali schronienia w 12 hangarach na łodzie w pobliżu brzegu. Na wielu kościach znajdowały się czerwone i czarne resztki mineralne. Można je było znaleźć także w popiele wypełniającym jamę czaszki oraz w warstwie, która otaczała szkielety. Spektrometria mas sprzężona z plazmą wzbudzaną indukcyjnie i mikrospektroskopia Ramana pozwoliły w nich wykryć duże ilości żelaza i tlenków żelaza. Mogły one powstać w wyniku termicznego rozkładu żelaza z hemu. Autorzy publikacji z pisma PLoS ONE podkreślają, że by uniknąć problemów tafonomicznych, próbkowano tylko inkrustacje z kości i warstw popiołu, które nie wchodziły w bezpośredni kontakt z metalowymi artefaktami, np. monetami, kolczykami itp. (wcześniejsze badania sugerowały bowiem, że złożone z cząstek żelaza czerwone i czarne ślady występują, gdy kości ulegają spaleniu w pobliżu monet i innych metalowych obiektów). Akademicy ze Szpitala Uniwersytetu Neapolitańskiego im. Fryderyka II znaleźli też dowody na rozsadzenie czaszek, prawdopodobnie przez parujące tkanki mózgu. « powrót do artykułu
  11. Wirtualna rzeczywistość może zmieniać odczuwanie smaku. Kiedy jemy, postrzegamy nie tylko smak i aromat pokarmów. Docierają do nas informacje czuciowe z otoczenia - z naszych oczu, uszu - a nawet wspomnienia dot. otoczenia - wyjaśnia prof. Robin Dando z Uniwersytetu Cornella. Podczas eksperymentu ok. 50 osobom noszącym hełm do rzeczywistości wirtualnej dano 3 identyczne próbki sera z niebieską pleśnią. Dzięki goglom ochotnicy mogli kosztować sera w standardowej kabinie sensorycznej, na ławce w parku albo w uniwersyteckiej oborze (oglądali panoramiczne wideo 360 stopni). Badani nie mieli świadomości, że próbki są identyczne i w oborze oceniali smak jako znacząco bardziej ostry. Gdy w kontrolnej części eksperymentu ochotnicy oceniali słoność 3 próbek, nie wykryto między nimi istotnych statystycznie różnic. « powrót do artykułu
  12. Eksperci informują, że w ciągu ostatnich dekady amerykańskie władze wydały ponad 700 ostrzeżeń dotyczących suplementów diety, które zawierały niezatwierdzone i potencjalnie szkodliwe składniki. W aż 98% przypadków składniki te nie były wymienione na opakowaniu suplementu, stwierdziła US Food and Drugs Agency. Specjaliści, którzy przeanalizowali działania FDA dotyczące suplementów diety stwierdzili, że w latach 2007–2016 aż 46% ostrzeżeń wydanych przez tę agendę dotyczyło suplementów, które miały poprawiać sprawność seksualną, a 41% – takich, które miały powodować spadek wagi. Niemal wszystkie pozostałe podejrzane suplementy to środki, których zażycie miało wspomagać rozbudowę muskulatury. Z analiz wynika też, że w ostatnich latach rośnie problem podejrzanych suplementów. Aż 57% wydanych ostrzeżeń dotyczył ostatnich 5 z 10 przebadanych lat. W ciągu ostatniej dekady, odkąd tylko zajmuję się tym tematem, obserwuję szybki wzrost liczby suplementów zawierających leki, mówi doktor Pieter Cohen, profesor z Harvard Medical School. Jeszcze w 2009 roku mniej niż 150 obecnych na rynku suplementów zawierało leki. Obecnie takich suplementów jest ponad 1000, zauważa uczony. Cohen to autor przedmowy do wspomnianych badań, które zostały opublikowane w JAMA Network Open. Na czele grupy badawczej stał Madhur Kumar z Wydziału Żywności Leków Kalifornijskiego Departamentu Zdrowia Publicznego. Zespół Kumara zauważa, że ponad połowa dorosłych Amerykanów przyjmuje suplementy, a rynek tych środków jest wart 35 miliardów dolarów. FDA (Agencja ds. Żywności i Leków), która zajmuje się suplementami, uznaje je za żywność, a nie za lekarstwa. To bardzo istotne rozróżnienie. O ile bowiem leki podlegają ścisłemu nadzorowi, to już suplementy nie. Zanim nowy lek trafi na rynek jego producent musi wykazać, że jest on bezpieczny i działa tak, jak jego producent obiecuje. Suplementy nie podlegają takim warunkom. Nie ma obowiązku wykazywania ich bezpieczeństwa i efektywności. Prawo przewiduje, że sami producenci powinni zadbać o to, by suplementy były bezpieczne i odpowiednio oznaczone. Nie muszą przedstawiać FDA żadnych dowodów. Eksperci zauważają, że tego typu rozwiązanie prawne oznacza, iż co prawda FDA ma prawo do wycofania z rynku każdego suplementu, który okazał się niebezpieczny, ale dzieje się to po fakcie. To zaś oznacza, że istnieje ryzyko, iż w końcu na rynek trafi suplement, który spowoduje poważne problemy zdrowotne u dużej liczby osób. Już wcześniej publikowano badania, których autorzy szacowali, że w USA z powodu zażywania suplementów każdego roku na ostry dyżur trafia 23 000 osób, a 2000 zostają hospitalizowane. Aż 20% ostrzeżeń wydanych w ciągu dekady przez FDA dotyczyło suplementów zawierających co najmniej jeden niezatwierdzony składnik. Najczęściej ostrzeżenia dotyczyły środków zawierających sildenafil (Viagra). Z kolei odnośnie suplementów na odchudzanie aż 85% ostrzeżeń dotyczyło zawartości sibutraminy. Środek ten został wycofany z rynku w 2010 roku, gdyż okazało się, że powoduje on ryzyko ze strony układu krążenia. Jeśli zaś chodzi o ostrzeżenia co do suplementów na rozrost mięśni, to najczęściej ostrzegano przez takimi zawierającymi sterydy i im podobne składniki. Jeśli twój lekarz nie zaleca ci suplementów, to ich nie bierz. Swoim pacjentom, którzy koniecznie chcą przyjmować suplementy, radzę, by wybierali takie, które zawierają jeden składnik oraz by unikali suplementów, które obiecują poprawę stanu fizycznego, jak np. takich na rozbudowę mięśni czy polepszenie działania układu odporności, mówi Cohen. « powrót do artykułu
  13. Trening wytrzymałościowy korzystnie zmienia mikrobiom jelitowy. Po 6 tygodniach takich ćwiczeń zmniejsza się liczebność bakterii, które potencjalnie odpowiadają za stan zapalny (Proteobacteria), zwiększa się zaś liczebność bakterii związanych ze wzmożonym metabolizmem (Akkermansia). Jak podkreśla Satu Pekkala z Uniwersytetu w Jyväskylä, choć nie zaobserwowano znaczącego spadku wagi uczestników badania, stwierdzono inne korzystne efekty. Odkryliśmy, że w reakcji na ćwiczenia obniżył się poziom fosfolipidów i lipoproteiny bardzo małej gęstości (VLDL). To zmiany dobre dla zdrowia kardiometabolicznego, bo transportująca lipidy z wątroby do tkanek obwodowych VLDL zostaje w osoczu przekształcona w zły cholesterol LDL [...]. Trening wytrzymałościowy zmniejszył także aktywność naczyniowej cząsteczki adhezyjnej-1 (ang. vascular adhesion protein-1, VAP-1), prozapalnej cytokiny, która odgrywa istotną rolę w przyleganiu i przenikaniu leukocytów przez śródbłonek naczyń. Nie zaobserwowano jednak zmian w wartościach białka C-reaktywnego (CRP). Na razie nie wiadomo, jaki mechanizm leży u podłoża tych zjawisk. Trwają badania, które mają pokazać, czy prozdrowotne efekty ćwiczeń są pośredniczone przez bakterie z rodzaju Akkermansia. Warto przypomnieć, że niektóre wcześniejsze badania przekrojowe pokazały, że Akkermansia są u osób aktywnych fizycznie liczniejsze niż u ludzi nieaktywnych. Ostatnio Akkermansia były obiektem intensywnych analiz. Niektórzy specjaliści uważają, że mogą one zapobiegać cukrzycy i otyłości. Finowie badali nie tylko skład mikrobiomu, ale i ekspresję jego genów. Liczebność genów funkcjonalnych nie uległa większej zmianie. Można się było tego spodziewać, bo w czasie treningu nie modyfikowano diety. Gdyby okres treningowy był dłuższy, zapewne widoczne byłyby większe efekty. Program treningowy dla kobiet z nadwagą ukończyło 17 osób, które przed interwencją prowadziły siedzący tryb życia. W ciągu 6 tygodni brały one udział w 3 sesjach treningowych tygodniowo. Intensywność ćwiczeń na ergometrze rowerowym kontrolowano za pomocą pulsu. W czasie studium nie zmieniano innych czynników związanych z trybem życia. « powrót do artykułu
  14. Google przygotowuje się do uruchomienia pierwszego w USA przedsiębiorstwa taksówkowego z autonomicznymi samochodami. Analitycy przewidują, że do roku 2030 rynek tego typu usług będzie warty 2,3 biliona dolarów, a Waymo, firma Google'a, będzie miała w nim 60-procentowe udziały. Przez ostatni rok prowadzony był program pilotażowy Waymo, który objął 400 gospodarstw domowych w Chandler w Arizonie. Obecnie w samochodach Waymo siedzi kierowca, który ma reagować w sytuacjach tego wymagających. W niedługiej przyszłości autonomiczne samochody Waymo mają być nadzorowane z centrum operacyjnego. Kierowca zniknie z pojazdu, a każdy z zatrudnionych w centrum operatorów będzie miał do pod opieką kilkanaście samochodów. Obecnie w USA jeździ około 305 000 taksówek i samochodów świadczących podobne usługi. Waymo zamówiło już 82 000 pojazdów. W 2019 roku Waymo ma zacząć świadczyć usługi w Arizonie i Kalifornii. Serwisowaniem pojazdów zajmie się firma Avis, która ma pod opieką 400 000 pojazdów w całych Stanach Zjednoczonych. Warto w tym miejscu przyjrzeć się finansom Ubera. W ciągu ostatnich trzech miesięcy przychody tej firmy sięgnęły 2,8 miliarda dolarów, ale firma zanotowała stratę w wysokości 890 milionów. Gdyby nie musiała płacić kierowcom, odniosłaby zysk. Google posiada wystarczająco pieniędzy, by zakupić kilkadziesiąt czy kilkaset tysięcy samochodów i wejść na rynek usług przewozowych. Plany Google'a są jak najbardzej realne. Już w 2024 autonomiczne samochodu mogą przewieźć w USA ponad 50% pasażerów. Pozbycie się kierowców obniży koszty podróży, a w przyszłości elektryczne autonomiczne samochody i ich eksploatacja mogą być nawet 10-krotnie tańsze niż obecne samochody spalinowe. W ten sposób każdy Amerykanin może zaoszczędzić na kosztach podróży 5–10 tysięcy dolarów rocznie. Niższe koszty transportu to jego łatwiejsza dostępność, powinno to pozytywnie wpłynąć na gospodarkę. Jeśli zaś przyjmiemy, że początkowo autonomiczne samochody będą 4-krotnie bardziej bezpieczne, to amerykańska gospodarka zaoszczędzi 600 z 870 miliardów USD, które obecnie kosztują wypadki drogowe. « powrót do artykułu
  15. Astronomowie ze szwedzkiego Uniwersytetu w Lund znaleźli możliwe wytłumaczenie tajemniczego zjawiska, odkrytego w ubiegłym roku w pobliżu centrum naszej galaktyki. Wówczas zauważono, że w pobliżu centralnej czarnej dziury, Sagittariusa A*, znajdują się duże ilości skandu. Szwedzi twierdzą, że to iluzja optyczna. W ubiegłym roku pojawiła się praca naukowa, której naukowcy donosili, że w czerwonych olbrzymach, oddalonych od czarnej dziury nie więcej niż o 3 lata świetlne, znajduje się duża ilość trzech różnych pierwiastków. Teraz naukowcy z Uniwersytetu w Lund we współpracy z kolegami z Uniwersytetu Kalifornijskiego z Los Angeles, twierdzą, że zauważone widmo spektroskopowe skandu, wanadu i itru, to złudzenie optyczne. Te czerwone olbrzymy zużyły większość swojego wodoru i ich temperatura jest o połowę niższa niż temperatura Słońca, mówi główny autor badań, doktorant Brian Thorsbro. Wedle najnowszych badań, niska temperatura gwiazd przyczyniła się do powstania iluzji optycznej. Elektrony wspomnianych pierwiastków zachowują się inaczej w niższych temperaturach niż w wyższych. Podczas badania widma spektroskopowego może to wprowadzać w błąd. Do takich wniosków doszli astronomowie i fizycy atomowi. Thorsbro i jego zespół wykorzystali podczas swoich badań m.in. Teleskopy Kecka na Hawajach. Wykonali szczegółowe mapowanie centralnych obszarów Galaktyki, skupiając się na znajdujących się tam gwiazdach i badając, jakie pierwiastki zawierają. To światowej klasy badania w tym sensie, że wykonaliśmy szczegółowe mapowanie składu gwiazd wielkiej centralnej gromady otaczającej czarną dziurę, wyjaśnia Nnils Ryde z Uniwersytetu w Lund. Na podstawie badań w bliskiej podczerwieni, z wykorzystaniem technologii, która jest dostępna dopiero od niedawna, uczeni doszli do wniosku, że wcześniejsze doniesienia to nie naukowa sensacja, a złudzenie optyczne. « powrót do artykułu
  16. Szkielet 10-letniego dziecka pochowanego w czasach rzymskich w Lugnano wskazuje, że grzebiące je osoby postarały się, by nie powstało ono z grobu. Dziecko zmarło prawdopodobnie na malarię, a jego współcześni obawiali się, by po śmierci nie zarażało innych. Pochówek, znaleziony przez naukowców z University of Arizona i Stanford University, charakteryzuje się kamieniem wetkniętym w usta zmarłego. Kamień miał powstrzymać chorobę oraz ciało przed zmartwychwstaniem. Nigdy wcześniej czegoś takiego nie widziałem, mówi David Sotern, który prowadzi wykopaliska od 1987 roku. Lokalnie chłopiec nazywany był „wampirem z Lugnano”. Odkrycia dokonano na La Necropoli dei Bambini, Cmentarzu Dzieci, który pochodzi z połowy piątego wieku. Pochowano na nim ofiary epidemii malarii. Cmentarz założono na miejscu opuszczonej willi, która została zbudowana pod koniec I wieku przed Chrystusem. Dotychczas sądzono, że na cmentarzu chowano niemowlęta, noworodki i płody. Nie znaleziono tam bowiem nikogo starszego niż 3-letnia dziewczynka. Znalezienie jednak zwłok 10-letniego dziecka wskazuje, że cmentarz był wykorzystywany także w celu pochówków starszych dzieci. Wciąż są tam obszary, których nie badaliśmy. Nie wiemy, czy nie znajdziemy więcej starszych dzieci, mówi bioarcheolog Jordan Wilson. Biorąc pod uwagę wiek dziecka i nietypowy pochówek, z kamieniem w ustach, widzimy, że mamy tutaj do czynienia z anomalią na i tak już niezwykłym cmentarzu. To pokazuje, jak wyjątkowy jest to cmentarz, mówi dyrektor wykopalisk David Pickel. Ma on nadzieję, że cmentarz powie nam więcej o epidemii malarii, która uderzyła w Umbrię przed 1500 lat. Już wcześniejsze wykopaliska na La Necropoli dei Bambini odsłoniły wiele tajemnic. Archeolodzy znaleźli m.in. kości dzieci, obok których złożono kości ropuch, szpony kruków i brązowe kociołki wypełnione popiołem i pozostałościami po szczeniakach złożonych w ofierze. Wszystkie te przedmioty są kojarzone z magią i czarami. Ponadto do rąk i nóg pochowanej 3-letniej dziewczynki przywiązano kamienie. W różnych kulturach praktyka taka miała powstrzymać zmarłego przed powstaniem z grobu. Wiemy, że Rzymianie mocno wierzyli w magię i wykorzystywali ją do powstrzymania zmarłych przed zmartwychwstaniem, mówi Soren. Jeszcze przed odkrycie ciała z kamieniem w ustach archeolodzy spodziewali się czegoś niezwykłego. Grób był bowiem przykryty dwoma dużymi dachówkami. Uczeni sądzili, że w jednym grobowcu złożono dwoje dzieci. Tymczasem okazało się, że jest tam pochowane jedno dziecko, ale za to dużo starsze od wszystkich innych. To pierwszy pochówek z tego cmentarza, w którym znajdujemy kamień w ustach zmarłej osoby. Podobne pochówki są znane z innych miejsc. Na przykład w Wenecji znaleziono pochowaną w XVI-wieku kobietę, której w usta wetknięto cegłę. W 2017 roku w Anglii odkopano grób mężczyzny, który został złożony twarzą w dół, jego język usunięto i zastąpiono kamieniem. Tego typu pochówki są kojarzone z pochówkami wampirów. To bardzo niezwykły sposób traktowania ciała. Widać go w różnych formach w różnych kulturach, szczególnie w świecie rzymskim. To wskazuje, że żywi obawiali się, iż zmarły powróci i będzie rozprzestrzeniał wśród nich chorobę. To bardzo ludzkie postępowanie. Żywimy niezwykle złożone uczucia względem zmarłych i zastanawiamy się, czy śmierć to naprawdę koniec, mówi Wilson. Pochówki mówią nam bardzo dużo o sposobie myślenia z przeszłości. My, bioarcheolodzy, mówimy, że zmarli sami siebie nie chowają. Ze sposobu traktowania zmarłych możemy wywnioskować bardzo wiele na temat sposobu myślenia i wierzeń ludzi, którzy ich chowali. « powrót do artykułu
  17. Za pomocą prostych teoretycznych modeli można budować układy działające ściśle według reguł klasycznej fizyki, a mimo to wiernie odtwarzające przewidywania mechaniki kwantowej dla pojedynczych cząstek – nawet te najbardziej paradoksalne! Co zatem jest prawdziwą oznaką kwantowości? Świat kwantów jest pełen paradoksów niepojętych dla ludzkiej intuicji i niewytłumaczalnych dla klasycznej fizyki. Tezę tę można usłyszeć niemal zawsze, gdy mowa o mechanice kwantowej. Oto kilka przykładów zjawisk powszechne uznawanych za typowo kwantowe: pojedynczy elektron generujący prążki interferencyjne za dwiema szczelinami, jakby przechodził przez obie jednocześnie; cząstki przebywające w tym samym czasie w wielu różnych stanach, by w chwili obserwacji "magicznie" pojawić się w jednym wybranym; pomiary bez oddziaływania; wymazywanie przeszłości za pomocą kwantowej gumki czy wreszcie nielokalność, sprawiająca wrażenie, jakby splątane cząstki natychmiastowo oddziaływały na dowolnie duży dystans. Tylko czy wszystkie te zjawiska koniecznie muszą być czysto kwantowe? We właśnie opublikowanym artykule dr hab. Paweł Błasiak z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie pokazał, jak z "cegiełek" klasycznej fizyki konstruować szeroko pojęte optyczne układy interferometryczne, wiernie odtwarzające najdziwniejsze przewidywania mechaniki kwantowej w odniesieniu do pojedynczych cząstek. Zaprezentowany model pomaga lepiej zrozumieć, dlaczego mechanika kwantowa jest potrzebna oraz co naprawdę nowego mówi o otaczającej nas rzeczywistości. Jeśli bowiem jakiś efekt kwantowy ma proste klasyczne wytłumaczenie, nie należy upatrywać w nim specjalnej tajemnicy. Publikacja jasno wskazuje granicę, poza którą teoria kwantów jest już niezbędna: prawdziwa kwantowa "magia" zaczyna się dopiero dla wielu cząstek. Kontrowersji wokół mechaniki kwantowej jest naprawdę sporo. Są one tak silne, że nawet dziś, gdy teoria ta liczy sobie już niemal sto lat, większość fizyków woli ją po prostu używać, unikając niewygodnych pytań o interpretację - mówi dr Paweł Błasiak i dodaje: Nasze problemy wynikają tu z faktu, że... byliśmy zbyt zdeterminowani. Wcześniej najpierw obserwowaliśmy pewne zjawiska i żeby je tłumaczyć, budowaliśmy aparat matematyczny na bazie dobrze ugruntowanych fizycznych intuicji. W przypadku mechaniki kwantowej zdarzyła się rzecz odwrotna: z zaledwie paru poszlak eksperymentalnych odgadliśmy wysoce abstrakcyjny, matematyczny formalizm, świetnie opisujący wyniki pomiarów w laboratorium, ale najmniejszego pojęcia nie mamy, czym jest kryjąca się za nim fizyczna rzeczywistość. Richard Feynman, znakomity fizyk amerykański, był głęboko przekonany, że zjawiskiem absolutnie niemożliwym do wyjaśnienia przez fizykę klasyczną jest kwantowa interferencja, odpowiedzialna między innymi za prążki widoczne za dwiema szczelinami, przez które przechodzi pojedynczy obiekt kwantowy. Erwin Schrödinger, współtwórca mechaniki kwantowej, miał innego faworyta: splątanie kwantowe, mogące na odległość wiązać cechy dwóch i więcej cząstek kwantowych. Spore grono fizyków do dziś się zastanawia, do jakiego stopnia te nieintuicyjne zjawiska mechaniki kwantowej są jedynie wynikiem naszych ograniczeń poznawczych, czyli sposobów, w jaki badamy świat. To nie przyroda, lecz nasz brak pełnej wiedzy o układzie miałby powodować, że obserwowane w nim zjawiska nabierałyby cech niewytłumaczalnej egzotyki. Tego typu podejście to próba spojrzenia na mechanikę kwantową jako teorię z dobrze określoną ontologią, prowadząca ku odpowiedzi na pytanie, co tak naprawdę odróżnia teorię kwantów od teorii klasycznych. W artykule na łamach czasopisma Physical Review A zademonstrowano zasady budowy modeli dowolnie skomplikowanych układów optycznych, skonstruowanych z elementów pracujących wedle zasad klasycznej fizyki, dodatkowo uwzględniając istnienie pewnych lokalnych zmiennych ukrytych, do których eksperymentator ma jedynie pośredni dostęp. Dr Błasiak wykazał, że dla pojedynczych cząstek przedstawiony model wiernie odtwarza wszystkie zjawiska powszechnie uznawane za ewidentną oznakę kwantowości, w tym kolaps funkcji falowej, interferencję kwantową czy kontekstualność. Co więcej, klasyczne analogie tych zjawisk okazują się całkiem proste. Model ten nie może jednak odtworzyć charakterystycznych cech splątania kwantowego, którego zaistnienie wymaga co najmniej dwóch cząstek kwantowych. Zdaje się to wskazywać, że splątanie oraz związana z nią nielokalność mogą być bardziej fundamentalną własnością świata kwantów niż kwantowa interferencja. Tego typu podejście pozwala unikać fatalnej praktyki polegającej na wymijających odpowiedziach i machaniu rękami w dyskusjach o podstawach oraz interpretacji mechaniki kwantowej. Mamy narzędzia, aby takie pytania formułować i precyzyjnie rozstrzygać. Skonstruowany model ma na celu pokazać, że modele ontologiczne z ograniczonym dostępem do informacji mają przynajmniej potencjalną możliwość wyjaśnienia większości egzotycznych zjawisk kwantowych w ramach szeroko pojętej fizyki klasycznej. Prawdziwą kwantową tajemnicą pozostawałoby jedynie kwantowe splątanie - wyjaśnia dr Błasiak. Splątanie kwantowe trafia zatem w samo sedno mechaniki kwantowej, wskazując na to "coś", co wymusza odejście od klasycznie rozumianej rzeczywistości i przesuwa granicę tajemniczości w kierunku zjawisk wielocząstkowych. Okazuje się bowiem, że efekty kwantowe dla pojedynczych cząstek mogą być z powodzeniem odtwarzane w ramach klasycznych (tzn. lokalnych) modeli ontologicznych z ograniczonym dostępem do informacji. Gdyby więc pominąć zjawiska wielocząstkowe, moglibyśmy w zasadzie obejść się bez mechaniki kwantowej i jej "upiornej" nielokalności. Opisany lokalny model, odtwarzający kwantowe zjawiska dla pojedynczej cząstki, bardzo wyraźnie definiuje granicę, poza którą stwierdzenia dotyczące nielokalności tracą swoją zasadność. Zatem Feynman czy Schrödinger? Wydaje się, że to jednak Schrödinger trafił w samo serce mechaniki kwantowej. Ale cichym zwycięzcą może być... Albert Einstein, który nigdy nie był zadowolony z powszechnie obowiązującej interpretacji mechaniki kwantowej. Bez jego uporczywych pytań nie mielibyśmy dziś ani twierdzenia Bella, ani kwantowej informacji. Dlatego właśnie badania w dziedzinie podstaw mechaniki kwantowej są tak fascynujące. Rozciągają się one od wciąż powracającego pytania o naturę naszej rzeczywistości, po istotę prawdziwej kwantowości, której zawdzięczamy przewagę technologii kwantowych nad ich klasycznymi odpowiednikami - podsumowuje z uśmiechem dr Błasiak. « powrót do artykułu
  18. Samce goryli, które opiekują się młodymi, odnoszą znacznie większy sukces reprodukcyjny. Ich nagrodą jest... jeszcze więcej młodych. Najnowsze badania przeprowadzone wśród dzikich goryli w Rwandzie wykazały, że te samce, które pomagają w opiece nad młodymi i spędzają z nimi czas – i chodzi tutaj zarówno o ich własne młode jak i o młode innych samców – mają około pięciokrotnie więcej potomstwa niż samce, które młodymi się nie zajmują. Wyniki badań zaskoczyły naukowców. Dotychczas uważano bowiem, że u naczelnych opiekowanie się młodymi przez samce nie jest zbyt mądrą strategią. W stadach naczelnych bowiem istnieje duża konkurencja o samice, więc zajmowanie się młodymi w czasie, gdy można by było starać się o względy samicy, wydawało się stratą czasu i energii. Taka zdroworozsądkowa strategia – przeznaczania czasu i energii na konkurowanie o samice – sprawdza się wśród tych samców, które dominują nad małymi haremami samic. Jednak okazuje się, że w skład 40% stad goryli wchodzi więcej niż 1 samiec. Czasem jest ich nawet pięciu. Muszą więc oni stosować różne strategie, by zdobyć zainteresowanie samicy. I okazuje się, że bardzo dobrą strategią jest dbanie o młode. Naukowcy badający goryle przeanalizowali genomy 23 samców i 109 młodych, ponadto każdego z samców obserwowali przez 10–38 godzin. Uzyskane przez nich wyniki sugerują, że im więcej czasu samiec spędza z młodymi, tym większy sukces reprodukcyjny odnosi. Niewykluczone, że to, co właśnie zaobserwowano, miało znaczenie dla ewolucji człowieka. Jesteśmy jedynym gatunkiem małp, w którym samce chętnie i z własnej woli angażują się w opiekę nad potomstwem. « powrót do artykułu
  19. W małym domostwie w Pompejach odkryto doskonale zachowaną kapliczkę (lararium). Malowidła, którymi ozdobiono ściany, przedstawiają m.in. sceny ogrodowe z delikatnymi ptakami i drzewami, a także bóstwa. Na jednej ze ścian widnieje mężczyzna z głową psa. Archeolodzy uważają, że to romanizowana wersja Anubisa, czyli egipskiego boga o głowie szakala. To wspaniałe i enigmatyczne pomieszczenie musi być teraz całościowo zbadane - podkreśla prof. Massimo Osanna, archeolog, który od paru lat sprawuje nadzór nad pozostałościami zniszczonego w 79 r. przez Wezuwiusz miasta i który kiedyś prowadził tam wykopaliska. Choć kapliczki jeszcze w pełni nie odsłonięto, już teraz można powiedzieć, że scena ogrodowa reprezentuje malarstwo iluzjonistyczne. Pewnego rodzaju kapliczka znajdowała się w każdym domu, jednak tylko najbogatsi mogli sobie pozwolić na wspaniale zdobione lararium, zlokalizowane w specjalnym pomieszczeniu z wyniesionym zbiornikiem - opowiada prof. Ingrid Rowland z University of Notre Dame. Pod niszą znaleziono przenośny ołtarz z resztkami palonych ofiar. Ponieważ tuż przy nim na ścianie widnieją jaja - rzymski symbol płodności - Osanna uważa, że ofiary mogły być składane z pokarmów kojarzonych właśnie z płodnością, np. z fig, orzechów oraz, oczywiście, samych jaj. « powrót do artykułu
  20. Limfocyty T, które w przebiegu stwardnienia rozsianego (SR) atakują osłonkę mielinową aksonów, reagują na syntazę GDP-L-fukozy (ang. GDP-L-fucose synthase). Jest to enzym wytwarzany przez komórki ludzkiego organizmu i bakterie, które często wchodzą w skład mikrobiomu jelitowego chorych z SR. Sądzimy, że komórki odpornościowe są aktywowane w jelicie i później migrują do mózgu, gdzie natrafiwszy na ludzki wariant docelowego antygenu, powodują kaskadę zapalną - wyjaśnia Mireia Sospedra z Uniwersytetu w Zurychu. W przypadku genetycznie zdefiniowanej podgrupy pacjentów, która została zbadana przez autorów publikacji z pisma Science Translational Medicine, wyniki pokazują, że mikrobiom może odgrywać o wiele większą rolę w patogenezie stwardnienia rozsianego niż dotąd zakładano. Sospedra ma nadzieję, że rezultaty, do których doszedł jej zespół, zostaną wkrótce przełożone na terapię. W najbliższej przyszłości Szwajcarka zamierza przetestować immunoaktywne składniki syntazy GDP-L-fukozy. Nasze podejście obiera na cel patologiczne autoreaktywne komórki. Różni się więc od innych dostępnych obecnie terapii, które oddziałują na cały układ odpornościowy. Metody te faktycznie prowadzą do zastopowania postępów choroby, ale osłabiają też układ immunologiczny, co może prowadzić co poważnych efektów ubocznych. Jak tłumaczy zespół Sospedry, w ramach wspomnianej "oszczędzającej" metody od osób biorących udział w testach klinicznych pobiera się krew, a później w laboratorium do powierzchni czerwonych krwinek przyczepia się fragmenty immunoaktywnych białek. Gdy krew jest ponownie wprowadzana do krwiobiegu, fragmenty te pomagają w reedukacji układu odpornościowego i sprawiają, że jest on w stanie tolerować tkanki własnego mózgu. « powrót do artykułu
  21. Ujęcie seryjnego mordercy nazwanego przez prasę Golden State Killer pokazało, jak przydatnymi narzędziami w rękach policji mogą być ogólnodostępne bazy danych genealogicznych, w których obywatele dobrowolnie pozostawiają próbki DNA. Teraz analizy przeprowadzone przez naukowców wykazały, że już za kilka lat – przynajmniej w USA – przed śledczymi nie ukryje się nikt, kto pozostawił na miejscu przestępstwa swój ślad genetyczny. Jeśli jesteś biały, mieszkasz w USA i twój daleki krewny korzysta z serwisów genealogicznych, to istnieje olbrzymie prawdopodobieństwo, że policja zidentyfikuje cię dzięki kodowi genetycznemu. Badania przeprowadzone właśnie przez naukowców z Columbia University wykazały, że wykorzystując próbkę DNA daleko spokrewnionej osoby i z grubsza szacując wiek poszukiwanego przestępcy, policja już teraz jest w stanie zawęzić krąg podejrzanych do mniej niż 20 osób. A wszystko to dzięki bazie danych zawierających kod genetyczny zaledwie 1,3 miliona osób. Wykorzystanie takiej metody pozwala w tej chwili na identyfikację około 60% białych Amerykanów, nawet jeśli oni sami nigdy nie udostępnili swojego DNA. Za kilka lat będzie tak można zidentyfikować każdego, mówi Yaniv Erlich, genetyk c Columbia Univeristy. Naukowcy postanowili bliżej przyjrzeć się tej metodzie po tym, jak policja wykorzystała ją do złapania seryjnego mordercy, który działał w latach 70. i 80. DNA pozostawione przez niego na miejscach zbrodni zostało porównane z bazą danych GEDmatch. To bezpłatny serwis, zawierający dane o mniej niż milionie osób, do którego każdy może przesłać próbkę, a firmy takie jak 23andMe przeanalizują DNA i określą krąg spokrewnionych osób, które również przesłały próbki. W całej tej sprawie najbardziej niezwykły jest fakt, że schwytany morderca był bardzo daleko spokrewniony z osobami, których DNA znajdowało się w bazie. Na tyle daleko, że najprawdopodobniej się nie znali. Otóż Golden State Killer i osoby, których DNA było w przeszukanej bazie mieli tych samych prapradziadków. Pradziadkowie byli inni, dziadkowie byli inni, rodzice też byli inni. Do tych informacji wystarczyło dodać szacowany wiek mordercy i miejsca popełnienia przestępstw, by znacząco zawęzić krąg poszukiwanych. Naukowcy szybko zaczęli zastanawiać się, jak wiele osób o nieznanym DNA można zidentyfikować za pomocą takich serwisów. W tym celu Erlich i jego zespół przyjrzeli się bazie MyHeritage, która zawiera 1,28 miliona profili DNA. Analiza wykazała, że jeśli mieszkasz w USA, a twoi przodkowie pochodzą z Europy, to istnieje 60% szans, że osoba, z którą masz wspólnych prapradziadków lub jesteście bliżej spokrewnieni, dostarczyła swój profil genetyczny do MyHeritage. Dla osoby, której przodkowie pochodzą z Afryki Subsaharyjskiej odsetek ten spada do 40%. Erlich postanowił też sprawdzić, jaka jest szansa, że w takiej sytuacji policja zidentyfikuje cię podobnie, jak Golden State Killera. Okazało się, że dodając do informacji genetycznej takie dane jak szacunkowa ocena wieku i prawdopodobna lokalizacja geograficzna można zmniejszyć początkową pulę 850 osób do zaledwie 17 podejrzanych. GEDmatch, dzięki której policja znalazła mordercę, zawiera DNA około 0,5% dorosłej populacji USA. Gdy odsetek ten wzrośnie do 2% dzięki tej bazie będzie można zidentyfikować ponad 90% osób mających europejskie korzenie. To zaskakujące, jak niewielka musi być ta baza, mówi genetyk Noah Rosenberg z Uniwersytetu Stanforda. Co więcej, połączenie baz policyjnych z ogólnodostępnymi może dać jeszcze lepsze wyniki. Jak donosi najnowszy numer Cell, analizy wykazały, że ponad 30% osób, których profil DNA znauduje się w policyjnej bazie danych, można skojarzyć z ich krewnymi z komercyjnych baz danych. Jakby jeszcze tego było mało, dodatkowe łączne analizy danych zawartych w obu typach baz pozwalają ujawnić szczegóły wyglądu podejrzanego lub jego krewnych, jak kolor oczu czy przebyte choroby. Z tymi bazami można zrobić więcej, niż się powszechnie uważa,  mówi Rosenberg. Uczeni zwracają uwagę, że takie analizy, które są pocieszające z punktu widzenia pracy policji, mogą jednak stanowić zagrożenie dla prywatności. Rozwiązaniem może być np. przesyłanie serwisom genealogicznym swoich danych DNA w formie zaszyfrowanej. Wówczas policja mogłaby z nich korzystać tylko we współpracy z danym serwisem, a zatem za zgodą sądu. Erlich uważa też, że USA powinny zmienić prawo dotyczące prywatności osób zgłaszających się na ochotnika do badań naukowych. Teoretycznie osoby takie powinny być trudne do zidentyfikowana. jednak Erlich wykorzystał bazę GEDmatach do zidentyfikowania anonimowej kobiety, która dostarczyła swoją próbkę naukowcom. Jej dane zostały zanonimizowane przez instytucję badawczą, jednak kobieta korzystała też z serwisów genealogicznych, a tam dane nie są anonimowe. Zatem ktoś, kto działa w złej wierze i ma dostęp do próbek w instytucjach naukowych, może pokusić się o identyfikację osób biorących udział w badaniach. Być może rozwiązaniem byłoby przyjęcie przez Kongres przepisów ograniczających policji możliwość korzystania z danych genealogicznych. Użycie takich baz byłoby uzasadnione w przypadkach poważnych przestępstw jak morderstwo, ale już nie w drobnych sprawach. « powrót do artykułu
  22. Mniej niż tydzień po tym, jak doszło do awaryjnego przejścia Teleskopu Hubble'a w tryb bezpieczny, to samo spotkało kolejny z kosmicznych teleskopów NASA – Chandra X-ray Observatory. Amerykańska agencja poinformowała, że Chandra, prawdopodobnie z powodów problemów z żyroskopem, wprowadził się w tryb bezpieczny. Kilka dni wcześniej również problemy z żyroskopem spowodowały włączenie trybu bezpiecznego w Teleskopie Hubble'a. Oba kosmiczne teleskopy to niezwykle ważne, zasłużone narzędzia naukowe. Oba są też mocno leciwe i służą już wielokrotnie dłużej, niż planowano. Hubble liczy sobie 28 lat, a Chandra – 19. Obecnie kontrolerzy lotu pracują nad przywróceniem ich do normalnej pracy. Gdy awarii uległ podstawowy żyroskop Hubble'a, włączono żyroskop zapasowy. Jednak okazało się, że nie pracuje on jak należy. Co prawda prawidłowo śledzi on ruchy teleskopu, ale informuje, że urządzenie obraca się o rząd wielkości szybciej, niż ma to miejsce w rzeczywistości. Jest to o tyle problemem, że gdy Hubble jest precyzyjnie wycelowany w jakiś obiekt, żyroskop pracuje w bardziej czułym trybie, niż podczas zmiany położenia Hubble'a. Jako, że źle przekazuje on informacje o obrotach teleskopu, to w tym bardziej czułym trybie nie jest w stanie wyłapać minimalnych ruchów teleskopu, które powinien w tym czasie badać. Jeśli operatorom Hubble'a uda się naprawić problem z żyroskopami, to urządzenie powróci do pracy w standardowym trybie, w którym korzysta z 3 żyroskopów. Jeśli się nie uda, Hubble będzie korzystał z 1 żyroskopu, co, jak zapewnia NASA, pozwoli mu na przekazywanie doskonałej jakości obrazów przez kolejne lata. W 2009 roku, podczas ostatniej misji serwisowej na Hubble'a, astronauci zamontowali tam 6 żyroskopów. Od tamtej pory zawiodły trzy z nich. Przewidywano, że po tej misji Hubble będzie pracował jeszcze przez 5 lat. Minęło już 9 lat, a NASA obiecuje, że znany teleskop posłuży jeszcze przez wiele lat. Jeśli zaś chodzi o Chandra X-ray Observatory, to jeszcze nie wiadomo, co się stało, ale prawdopodobnie mamy do czynienia z awarią żyroskopu. Analizy wykazały, że przejście w tryb bezpieczny odbyło się bez problemów, panele słoneczne skierowane są w stronę Słońca, więc teleskop ma zapewnioną energię, a jego lustra są odsunięte od Słońca. Chandra został zaprojektowany tak, by pracować przez 5 lat. Także i on, jak zapewnia NASA, ma przed sobą jeszcze wiele lat pracy,. « powrót do artykułu
  23. Dla przeciętnego człowieka nauka zwykła wydawać się nieomylna. Naukowcy byli bohaterami, bezinteresownie dążącymi do zdobywania wiedzy dla wspólnego dobra. Jednak niedawno seria naukowych skandali, oszustw i porażek skłoniła nas do kwestionowania prymatu nauki. Awantury takie jak Climategate lub debaty na temat bezpieczeństwa szczepionki MMR podkopały nasze zaufanie do nauki. W tej prowokacyjnej książce Harry Collins dąży do odkupienia wartości naukowej ekspertyzy i przypomina o szczególnym statusie nauki. Pomimo pewnego chaosu obecnego w codziennej działalności nauki, podkreśla on jej moralną i epistemologiczną wyższość nad rzekomymi alternatywami, odrzucając wątpliwą "domyślną" wiedzę eksponowaną przez wielu spoza środowiska naukowego. Jak twierdzi, to nauka powinna służyć zwykłym obywatelom za przykład, jak należy myśleć i działać – a nie na odwrót. O autorze: Harry Collins jest profesorem socjologii i dyrektorem Centrum Studiów Wiedzy, Ekspertyz i Nauk (Centre for the Study of Knowledge, Expertise and Science) na Uniwersytecie w Cardiff. Jest członkiem British Academy. Napisał wcześniej 17 książek, w tym znaną za granicą serię "Golem" o nauce. Harry Collins obecnie kontynuuje swoje badania dotyczące natury wiedzy naukowej, analizy wiedzy specjalistycznej oraz socjologii wykrycia fal grawitacyjnych. Rekomendacja Praca ta podejmuje kwestię kluczową dla funkcjonowania współczesnych państw demokratycznych, a przy tym niemal całkowicie pominiętą przez autorów polskich – sprawę miejsca ekspertów naukowych w życiu publicznym. Autor, prof. Collins – jeden z kluczowych przedstawicieli nurtu studiów nad nauką i technologią (STS),  odnosi się w swojej książce do szeregu współczesnych kontrowersji, m.in. dotyczących zjawiska zmiany klimatu oraz zasadności tez ruchu antyszczepionkowego. Opisuje tu fundamentalne zagadnienia: streszcza debatę między zwolennikami i przeciwnikami ograniczenia wpływu laików na procesy naukowe i polityczne, podaje argumenty za i przeciwko uznaniu kompetencji decyzyjnej szeregowych wyborców. […] Prace Collinsa są nad wyraz oryginalne i popularne, stanowiąc istotny element debaty akademickiej na Zachodzie. Każda z tych poświęconych problemowi ekspertyzy była cytowana niemal dwa tysiące razy. Książki Collinsa były przekładane na dziesiątki języków, ale nigdy na polski. […] Praca ta, mimo doniosłej tematyki, ma charakter popularyzatorski. Collins podejmuje w niej kwestie fundamentalne, ale czyni to w sposób nad wyraz barwny. Podaje on dziesiątki przykładów uzasadniających jego tezy, przez co książka jest wyjątkowo przyjemna w lekturze. Jej potencjalnymi odbiorcami mogą być w związku z tym zarówno akademicy, jak i czytelnicy niezwiązani z uniwersytetem. […] Zagadnienia poruszane w tej pracy zyskują szczególne znaczenie w kontekście omawianego szeroko za Zachodzie, a bez wątpienia niedługo także w Polsce, zagadnienia post-prawdy i jej miejsca w polityce demokratycznej. Problem populizmu politycznego i spadku autorytetu ekspertów stanowią samo sedno rozważań Collinsa. dr Janusz Grygieńć Instytut Filozofii Uniwersytet Mikołaja Kopernika w Toruniu
  24. Naukowcy ze szwajcarskiego laboratorium materiałoznawstwa Empa (Eidgenössische Materialprüfungs- und Forschungsanstalt) pracują nad tkaninami uwalniającymi leki, np. do leczenia ran. Inteligentne włókna mają same rozpoznawać, że zachodzi taka potrzeba i dozować substancje czynne z dużą precyzją i dokładnością. Włókna do projektu Self Care Materials są wytwarzane z biodegradowalnych polimerów. Zastosowanie włókien determinuje, jaki proces produkcyjny jest najlepszy - wyjaśnia René Rossi. Delikatne membrany z dużą powierzchnią powstają dzięki elektroprzędzeniu. Gdy zaś potrzebne są solidne, wytrzymałe włókna, np. na odzież ochronną, lepiej jest się uciec do rozciągania stopionych składników. W każdym przypadku powstają nowe włókna, które składają się z wielu warstw i komponentów. Właściwości tych nowych materiałów są teraz badane z zastosowaniem substancji testowych. W produkcie we włóknach integrowane są np. antybiotyki i środki przeciwbólowe. By upewnić się, że substancje czynne są uwalnianie w razie potrzeby i w precyzyjnych dawkach, Szwajcarzy zastosowali polimery ulegające degradacji tylko w pewnych warunkach. W reakcji na bodziec z organizmu włókna powinny uwolnić leki do środowiska w wyliczonym tempie rozkładu. Takim bodźcem może być zmienione pH rany, które wskazuje na wymagające leczenia uszkodzenie tkanki. Na tej zasadzie plastry czy ubrania wspierają diagnostykę i terapię różnych chorób. Naukowcy dodają, że bodźcem do uruchomienia pewnych procesów mogą być nie tylko chemiczne sygnały z ciała, ale i sygnały pochodzące z zewnątrz, np. ucisk czy światło. Wg Rossiego, znacznie ułatwiłoby to pracę lekarzom i pielęgniarkom, o komforcie życia pacjentów nie wspominając. Szwajcarzy wspominają też o zastosowaniu inteligentnych włókien w prewencji. Skoro mogą one uwalniać różne substancje, możliwa jest też penetracja w odwrotnym kierunku. Na tej zasadzie włókna byłyby czujnikami, które np. mierzą poziom cukru we krwi. « powrót do artykułu
  25. Przed trzema laty informowaliśmy, że naukowcy odkryli, iż nowa z 1670 roku wcale nie była nową, a powstała w wyniku znacznie rzadszego wydarzenia – zderzenia dwóch gwiazd. Wielu słynnych XVII-wiecznych astronomów, w tym Heweliusz i Cassini, udokumentowało pojawienie się w 1670 roku nowej gwiazdy. Heweliusz opisał ją jako nova sub capite Cygni (now pod głową Łabędzia), dzisiaj znamy ją jako CK Vulpeculae. Od czasu odkrycia, że nie mamy do czynienia z nową, naukowcy chcieli dowiedzieć się, jakie dwie gwiazdy się zderzyły. Teraz międzynarodowy zespół naukowców z Polski (Uniwersytet Warmińsko-Mazurski), USA, Wielkiej Brytanii i RPA znalazł dowody, że doszło do kolizji białego i brązowego karła. Uczeni wykorzystali Atacama Large Millimeter/submillimeter Array (ALMA) do zbadania pozostałości po zderzeniu. CK Vulpelculae była w przeszłości uważana za najstarszą ze 'starych nowych'. Jednak po obserwacjach, jakie przez lata wykonałem za pomocą teleskopów naziemnych i kosmicznych, pozwoliły mi stwierdzić, że to nie nowa. Wszystko wiedzieli, czym ona nie jest, ale nikt nie wiedział, czym jest. Wydawało się, że najlepszym wyjaśnieniem będzie połączenie się dwóch gwiazd. Za pomocą ALMA przeprowadziliśmy obserwacje jej pozostałości. Ich kształt, obecność litu i obfitość pewnych izotopów pozwoliły nam złożyć wszystko razem: brązowy karzeł został 'przemielony' i zrzucony na powierzchnię białego karła, co skutkowało erupcją widoczną na Ziemi w 1670 roku i pozostałościami, jakie obserwujemy obecnie, mówi profesor Nye Evans z Keele University. Pozostały materiał zawiera lit, który normalnie ulega zniszczeniu we wnętrzach gwiazd. Obecność litu oraz nietypowy stosunek izotopów węgla, azotu i tlenu wskazują, że niewielka ilość tych pierwiastków, w formie brązowego karła, uderzyła w powierzchnię białego karła, powodując eksplozję termonuklearną, którą widzieli zarówno mnich Anthelme z zakonu kartuzów, jak i astronom Heweliusz, dodaje doktor Stewart Eyres z Uniwersytetu Południowej Walii. Naukowcy dodają, że niezwykle rzadko udaje się zaobserwować zderzenie gwiazd, a zderzenie brązowego i białego karła jest czymś nowym dla nauki. Biały karzeł był około 10-krotnie bardziej masywny od brązowego karła. Więc to brązowy karzeł opadł na powierzchnię białego i musiał zostać rozerwany przez siły pływowe białego karła. Gdy doszło do zderzenia, wyrzucony został koktajl molekuł i niezwykłych izotopów. « powrót do artykułu
×
×
  • Dodaj nową pozycję...