Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37663
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    249

Zawartość dodana przez KopalniaWiedzy.pl

  1. Archeolodzy opisali świetnie zachowane przybory - haczyki na ryby i harpuny - rybaków, którzy żyli w okolicy dzisiejszego Jortveit na południu Norwegii w neolicie. Ponieważ wykonano tu prace melioracyjne, artefakty znalezione w latach 30. XX w. i ostatnio nie są, niestety, zachowane równie dobrze... Historia zaczyna się od rolników, który na początku lat 30. XX w. postanowili osuszyć mokradła w pobliżu farmy w Jortveit, tak by można było zacząć uprawiać nową ziemię. Podczas kopania rowów na głębokości ok. 170 cm ich oczom ukazały się "dziwne" rzeczy: kości orki (fragment żuchwy) oraz tuńczyka (6 kręgów), a także duży haczyk na ryby i harpuny. Ostatecznie narzędzia trafiły do Muzeum Historii Kulturowej w Oslo, gdzie zostały poddane badaniom. Kośćmi zajęli się z kolei geolodzy z Muzeum Historii Naturalnej. W późniejszych latach w rowach i na suchym lądzie na pobliskich farmach pojawiały się kolejne artefakty. Zgodnie z dokumentacją, w latach 30. żaden z badaczy nie zadał sobie pytania: czemu narzędzia i kości znajdowały się w tym samym miejscu, czy istniał między nimi jakiś związek? Dziewięćdziesiąt lat później Svein Vatsvåg Nielsen, doktorant z Muzeum Historii Kulturowej Uniwersytetu w Oslo, połączył ze sobą wszystkie elementy układanki. W 2017 r. chciałem zbadać do mojego doktoratu pewne artefakty z magazynu. Szczególnie interesujące były narzędzia z farmy w Jortveit. Nielsen przejrzał dane i wiedział, że narzędzia znaleziono w tym samym miejscu, co kości ryb i waleni. Zaczął się więc zastanawiać, czy kości i narzędzia mogą pochodzić z tego samego czasu. Być może łącznie powiedziałyby coś więcej o znalezisku. Doktorant skontaktował się z Muzeum Historii Naturalnej Uniwersytetu w Oslo. Muzeum zgodziło się na datowanie kości, nie było jednak do końca wiadomo, gdzie się obecnie znajdują. Ostatecznie udało się je zlokalizować. Naukowcy badali żuchwę orki, jeden z kręgów tuńczyka, dwa harpuny i jeden spalony kij (był on zapewne pochodnią). Okazało się, że datują się one na 3700–2500 cal. BCE. Kręgi tuńczyka wskazują na wiek powyżej 13 lat. Szacowana długość ogonowa ryby wynosi ok. 160 cm, a waga ok. 150 kg, a wg współczesnych standardów rybackich, jest to duży tuńczyk. Ocena wieku i rozmiarów orki na podstawie fragmentu żuchwy jest problematyczna, ale zachowany rząd zębów sugeruje, że waleń miał circa 5-9 m długości, a jego maksymalna waga wynosiła ok. 4000 kg. Ślady nacięć sugerują, że kość celowo rozłupano, na przykład w celu wydobycia szpiku. Choć wiadomo, że ludzie znajdowali na tutejszych mokradłach kości i miało to miejsce zarówno przed, jak i po odkryciu z 1931 r., nikt nie przeprowadził na stanowisku dodatkowych wykopalisk. Nielsen zaczął się więc zastanawiać, czy nadal znajdują się tam jakieś artefakty. Zasugerowałem kolegom, że wykopaliska można by przeprowadzić w ramach obowiązkowych prac terenowych dla studentów Uniwersytetu w Oslo. Latem 2018 r. plan ten udało się wcielić w życie. Archeolodzy przebili się przez warstwę ziemi uprawnej i twardą glinę. Początkowo znaleźli tylko grot. Głębiej glina stała się wilgotna i lepka. Potwierdzały się więc podejrzenia, że to dawne dno morskie. Gdy po pokonaniu metra nadal nie było nic widać, prawie się poddaliśmy. Wtedy jednak, na głębokości ok. 125-130 cm, coś się pojawiło: niespalone kości ryb i waleni, palone drewniane (brzozowe) kije czy kamienne artefakty. Datowanie wskazało na ten sam okres, jak w przypadku znaleziska z 1931 r. Podczas 3 sezonów wykopalisk Nielsen dokonał wielu ważnych odkryć. Artykuł na ten temat ukazał się w Journal of Wetland Archaeology. Znaleziono groty, haczyki na ryby i harpuny, ale przede wszystkim kości. Niektóre pochodzą np. z dorsza atlantyckiego (Gadus morhua), ale głównym ich źródłem są tuńczyki (Thunnus thynnus). Jak podkreśla Nielsen, łącznie kości i narzędzia wskazują na pewien scenariusz. Prawdopodobnie ludzie z pobliskiej osady łowili w lagunie (w oparciu o wcześniejsze badania poziomu mórz w przyległych rejonach można przypuszczać, że późniejsze mokradła w Jortveit stały się osłoniętą laguną ok. 3900/3800 cal. BCE). Od czasu do czasu tuńczyk podążył do laguny za ławicą śledzi lub makreli. Wtedy tutejsi mieszkańcy próbowali polować na niego z łodzi. Kości pozostały na dnie, bo ludzie sprawiali ryby przed powrotem na brzeg. Mogą to również być szczątki ryb, które uciekły, ale poniosły śmierć w wyniku odniesionych ran. To nieprawdopodobne, by tyle tuńczyków znalazło się tam przez przypadek - zaznacza Nielsen. Gdyby do śmierci ryb w lagunie doprowadziło jakieś zjawisko naturalne, byłyby tu kości wielu różnych gatunków, a nie prawie samych tuńczyków. Harpuny znalezione na mokradłach w bardzo dużym stopniu przypominają harpuny, w przypadku których archeolodzy wiedzą, że wykorzystywano je wyłącznie do chwytania dużych ryb bądź małych waleni. Byłby to niesamowity przypadek, gdyby rzadkie harpuny i kości ryb nagromadziły się tu losowo. Choć jak żartuje Nielsen, nie znaleziono ryby z haczykiem w pysku, archeolog jest przekonany, że odkrycia z Jortveit zapewniają cenny wgląd w codzienne życie we wczesnym-środkowym neolicie skandynawskim. Zazwyczaj wiemy tylko, co ludzi robili na lądzie, w pobliżu miejsca, gdzie żyli. Typowo prowadzimy wykopaliska setek metrów kwadratowych wokół domostw. Gdy tylko ludzie opuszczali swoje domy, [...] dla nas znikali we mgle. To, co znaleźliśmy [w Jortveit], pokazuje nam jednak, co robili w swoich łodziach. Skoro istnieją dowody na aktywność, która utrzymywała się w tym miejscu ponad 1000 lat, w tym czasie do wody mogło trafić wiele rzeczy, nawet całe łodzie. Jak napisał Nielsen w przesłanym nam mailu, by dokładniej określić chronologię, konieczne są dalsze wykopaliska. Trzeba się jednak spieszyć, bo osuszenie terenu w ubiegłym wieku pogorszyło warunki. Obiekty znalezione w latach 30. są zachowane o wiele lepiej niż te odkryte niedawno. « powrót do artykułu
  2. Woda w zbiornikach w Tikal, jednym z najpotężniejszych i najważniejszych miast Majów, była tak zanieczyszczona rtęcią i sinicami, że nie nadawała się do picia. Do takich wniosków doszli naukowcy z University of Cincinnati, którzy stwierdzili toksyczny poziom zanieczyszczeń w czterech głównych zbiornikach wody w Tikal. Przekształcenie się centralnych zbiorników w Tikal z miejsc podtrzymujących życie w miejsca powodujące choroby, mogło w sferze i praktycznej i symbolicznej wspomóc decyzję o opuszczeniu tego wspaniałego miasta, stwierdzili autorzy badań. Analiza geochemiczna przeprowadzona w dwóch zbiornikach najbliżej miejskiego pałacu i centralnej świątyni wykazała obecność toksycznego poziomu rtęci. Z badan wynika, że rtęć ta pochodziła z pigmentu, którym Majowie dekorowali budynki, naczynia gliniane i inne przedmioty. Podczas deszczów rtęć z pigmentów była wymywana i przed lata gromadziła się w osadach na dnie zbiorników. Naukowcy z UC analizowali osady datowane aż do IX wieku naszej ery, kiedy Tikal było jeszcze kwitnącym miastem u szczytu potęgi. Przyczyny, dla których Majowie nagle porzucili swoje miasto stanowią od ponad 100 lat zagadkę. Tym bardziej, że jeszcze w ubiegłym roku podczas innych badań naukowcy z tej samej uczelni stwierdzili, że ziemie wokół Tikal były w IX wieku wyjątkowo żyzne, a swoją jakość zawdzięczały erupcjom wulkanicznym. Na potrzeby najnowszych badań naukowcy przeanalizowali osady z 10 zbiorników na terenie Tikal. W czterech z nich znaleziono ślady DNA. Osady ze zbiorników najbliżej pałacu i świątyni znaleziono ślady cyjanobakterii. Picie wody z tych zbiorników groziło zatruciem, nawet jeśli woda została przegotowana, mówi profesor David Lentz. Odkryliśmy dwa typy cyjanobakterii, które wytwarzają toksyczne związki chemiczne. Zła wiadomość jest taka, że są one odporne na gotowanie. To zaś powodowało, że woda w tych zbiornikach była toksyczna, stwierdza uczony. Dodaje, że jest mało prawdopodobne, by Majowie używali tej wody. Musiała ona wyglądać obrzydliwie i smakować obrzydliwie. Musiały występować na niej wielkie zakwity. Nikt nie chciałby pić tej wody, dodaje profesor Kenneth Tankersley. W innych zbiornikach, położonych dalej od centrum, również stwierdzono obecność toksycznych, chociaż niższych, poziomów rtęci. Do opuszczenia Tikal przyczynił się prawdopodobnie cały szereg czynników społecznych, ekonomicznych i politycznych. A kwestie środowiskowe również odegrały tutaj swoją rolę. Część roku była deszczowa i wilgotna. Jednak przez większą jego część jest sucho, brakuje opadów. Mieszkańcy Tikal mieli więc problem z wodą, mów Lentz. Umieszczone w centralnym punkcie miasta wielkie zbiorniki na wodę odgrywały ważną rolę. To musiał być wspaniały widok, gdy jaskrawo pomalowane budynki odbijały się na powierzchni zbiorników. Władcy Majów nadali sobie, wśród innych rzeczy, przywilej kontrolowania źródeł wody. Mieli specjalny związek z bogami deszczu. Zbiorniki były ważnym symbolem, mówi profesor Nicholas Dunning. Dlatego też te najważniejsze umieszczono w pobliżu pałacu i centralnej świątyni. Naukowcy połączyli rtęć, która zatruła wodę, z działalnością ludzi. Majowie uwielbiali cynober, minerał, z którego pozyskiwano czerwony barwnik. Problem w tym, że składa się on z siarczku rtęci. Dla mieszkańców Tikal źródłem cynobru była pobliska wulkaniczna Formacja Wszystkich Świętych. Naukowcy wykluczyli, by rtęć przedostała się do zbiorników z podłoża i skał, wykluczyli też popiół wulkaniczny. Jedynym jej źródłem mógł być więc barwnik. To oznacza, że rtęć ma pochodzenie antropogeniczne, mówi Tankersley. « powrót do artykułu
  3. Światowa Organizacja Zdrowia ogłosiła koniec epidemii wirusa Ebola, która od 2018 roku trwała na północnym-wschodzie (głównie prowincje Północne Kivu oraz Ituri) Demokratycznej Republiki Kongo. Zakończenie epidemii ogłoszono 42 dni po zanotowaniu ostatniego przypadku. Jesteśmy niezwykle dumni z faktu, że zwyciężyliśmy z epidemią, która trwała tak długo i przyniosła tak wielkie szkody, powiedział Jean-Jacques Muyembe Tamfum, współodkrywca Eboli i dyrektor Narodowego Instytutu Badań Biomedycznych z Kinszasie. Od ogłoszenia w sierpniu 2018 roku stanu epidemii na Ebolę zachorowało we wspomnianym regionie kongo 3470 osób, z czego 66% zmarło. Tym samym była to druga najgroźniejsza epidemia Eboli. Najgorszą była ta z Afryki Zachodniej z lat 2014–2016, kiedy zmarło ponad 11 000 osób. Co jednak ważne, zakończona właśnie epidemią była pierwszą, podczas której na szeroką skalę zastosowano szczepionkę przeciwko Eboli. Lek autorstwa firmy Merck, który po raz pierwszy przetestowano w czasie epidemii w Afryce Zachodniej, został podany ponad 300 000 osób. Jak mówi Muyembe, ponad 80% tych, którzy otrzymali szczepionkę, nie zaraziło się, a ci, którzy mimo otrzymania szczepionki zachorowali na Ebolę, przechodzili chorobę łagodniej. Badania kliniczne prowadzone w czasie epidemii wykazały też, że dwa leki wykorzystujące przeciwciała – mAB114 oraz REGN-EB3 – znacząco zmniejszają śmiertelność u osób hospitalizowanych z powodu Eboli. Leki te podano wszystkim pacjentom, którzy trafili do szpitali. Niestety, leki i strategie wypracowane podczas zakończonej właśnie epidemii już okazują się przydatne. Od 1 czerwca trwa bowiem epidemia po przeciwnej stronie kraju, na północnym-zachodzie, w prowincji Equateur.. Dotychczas zarejestrowano tam 18 chorych. Eksperci obawiają się, że sytuacja w Equateur będzie się pogarszała. Brakuje tam dróg, trudno więc dotrzeć do chorych. Ponadto tamtejsza ludność jest bardzo uboga i niezwykle mobilna. Ludzie często przemieszczają się do stolicy prowincji, milionowego miasta Mbandaka oraz do miast Republiki Kongo oraz Republiki Środkowoafrykańskiej. Istnieje więc niebezpieczeństwo zawleczenia tam choroby. « powrót do artykułu
  4. Jak wyliczyli fizycy jądrowi z japońskiego instytutu RIKEN, dodanie hiperonu Ξ (Ksi) do jądra helu zawierającego trzy nukleony, prowadzi do powstania czasowo stabilnego jądra. Obliczenia takie są bardzo ważne dla fizyków eksperymentalnych, którzy dzięki nim mogą prowadzić eksperymenty, które dostarczą nam nowej wiedzy o fizyce jądrowej czy budowie gwiazd neutronowych. Jądro atomowe zawiera nukleony – czyli protony i neutrony – z których każdy składa się z trzech kwarków. Istnieje sześć rodzajów kwarków: górny, dolny, dziwny, powabny, niski oraz wysoki. Jednak protony i neutrony składają się wyłącznie z kwarków górnych i dolnych. Fizycy jądrowi od dawna interesują się hiperjądrami. To jądra atomowe, w których co najmniej jeden nukleon został zastąpiony przez hiperon. Hiperony są, podobnie jak nukleony, barionami. Jednak w przeciwieństwie do nukleonów zawierają co najmniej jeden kwark dziwny. Mają one masę większa od nukleonów. Typowy czas życia hiperjądra wynosi 10-10 sekundy, a pierwsze hiperjądra zaobserwowali w 1952 roku Marian Danysz i Jerzy Pniewski z Uniwersytetu Warszawskiego. Hiperjądra dają cenny wgląd w budowę jądra. Standardowe jądra są definiowane przez liczbę protonów i neutronów. I to wszystko. Są dwuwymiarowe. Hiperony, dzięki kwarkom dziwnym, dają nam dodatkowy wymiar. To zaś pozwala nam lepiej przyjrzeć się jądru i siłom, które powodują, że jest ono stabilne, mówi Takumi Doi z RIKEN. Dotychczas większość badań skupia się na hiperjądrach z hiperonami Λ i z Σ− zawierającymi 1 kwark dziwny. Jednak możliwe są też jądra z hiperonami Ξ, które zawierają dwa kwarki dziwne. Dotychczas uzyskano 1 takie jądro. Zawiera ono hiperon Ξ i 14 nukleonów. Doi i jego koledzy wyliczają, zemogą istnieć też lżejsze hiperjądra zawierające hiperon Ξ. Z ich obliczeń wynika, że jądro zawierające do 3 nukleonów i 1 hiperon Ξ byłoby na tyle stabilne, że można by przeprowadzić różnego typu eksperymenty. To jednocześnie, jak wynika z obliczeń, najlżejsze możliwe jądro z hiperonem Ξ. Wyliczenia takie nie tylko przydadzą się fizykom eksperymentalnym, ale mogą nam sporo powiedzieć od gwiazdach neutronowych. W ich wnętrzu panują tak ekstremalne warunki, że mogą tam istnieć hiperjądra z hiperonami Ξ. Szczegóły badań zostały opisane na łamach Physical Review Letters. « powrót do artykułu
  5. Fińskie, norweskie i szwedzkie służby poinformowały o wykryciu nieco zwiększonego poziomu radioaktywności w atmosferze. Zdaniem holenderskich urzędników źródło skażenia może znajdować się w północnej Rosji i może być nim paliwo z elektrowni jądrowej. Rosyjska agencja TASS cytuje tymczasem rzecznika Rosenergoatomu, który twierdzi, że ani w położonej koło St. Petersburga elektrowni Leningrad, ani w elektrowni Kola koło Murmańska nie doszło do wycieku. Skażenie jest niewielkie i nie zagraża zdrowiu ludzi. Ani Szwedzi, ani Finowie, ani Norwedzy nie wskazują na możliwe źródło. Oświadczenie o możliwym źródle w Rosji wydał holenderski Narodowy Instytut Zdrowia Publicznego i Środowiska Naturalnego. Radionuklidy są sztucznego pochodzenia to znaczy wykonane przez człowieka. Ich skład może wskazywać uszkodzenie elementu paliwowego w elektrowni atomowej, czytamy w oświadczeniu. Podkreślono w nim, że ze względu na zbyt małą ilość danych, nie można określić dokładnej lokalizacji źródła skażenia. Obie elektrownie pracują normalnie. Nie przekazano nam sygnałów o problemach. Nie zostaliśmy powiadomieni o żadnym wypadku związanym z uwolnieniem się materiału radioaktywnego, zapewnia cytowany przez TASS anonimowy rzecznik Rosenergoatomu. Przypomnijmy, że do podobnego skażenia doszło przed dwoma laty. Także wówczas Rosjanie zaprzeczali. « powrót do artykułu
  6. Podczas konferencji Large Hadron Collider Physics 2020 eksperymenty ATLAS i CMS przedstawiły najnowsze wyniki dotyczące rzadkich sposobów rozpadu bozonu Higgsa produkowanego na Wielkim Zderzaczu Hadronów w CERN. Nowe kanały obejmują rozpady Higgsa na bozon Z, współodpowiedzialny za słabe oddziaływania jądrowe, oraz inną cząstkę, jak również rozpady na cząstki „niewidzialne”. Te pierwsze, w razie rozbieżności z przewidywaniami Modelu Standardowego, mogą świadczyć o zjawiskach wykraczających poza znaną nam fizykę (tzw. nowa fizyka), podczas gdy niewidzialne rozpady cząstki Higgsa rzuciłyby nowe światło na naturę cząstek tzw. ciemnej materii kosmicznej. Przedstawione analizy oparte są o całość danych zebranych w latach 2015-2018, czyli około miliarda milionów zderzeń proton-proton. Eksperyment ATLAS zmierzył częstość rozpadu Higgsa na Z i foton (γ) na 2.0+1.0−0.9 częstości przewidzianej w Modelu Standardowym, tym samym zbliżając się do czułości umożliwiającej obserwację ewentualnych odstępstw od przewidywań modelu. Eksperyment CMS poszukiwał o wiele rzadszych rozpadów na Z i mezon ρ lub φ i stwierdził, że w nie więcej niż 1.9% przypadków może nastąpić rozpad na Zρ, a nie więcej niż w 0.6% przypadków na Zφ. Obserwacja tego typu rozpadów przy obecnie zebranej ilości danych świadczyłaby o zjawiskach związanych z istnieniem nowej fizyki. Niektóre hipotezy dotyczące nowej fizyki przewidują, że bozon Higgsa może rozpadać się na dwie tzw. słabo oddziałujące masywne cząstki (ang.: WIMP), odpowiedzialne za ciemna materię kosmiczną, a niewidoczne dla aparatury eksperymentalnej. Zespół eksperymentu ATLAS wykluczył, aby prawdopodobieństwo takiego procesu przekraczało 13%. Analogiczne wykluczenie rozpadu bozonu Higgsa na parę tzw. ciemnych fotonów przedstawiła współpraca CMS. Polskie grupy z IFJ, AGH i UJ w Krakowie współtworzą zespól eksperymentu ATLAS, a grupy eksperymentalne z UW i NCBJ w Warszawie uczestniczą w eksperymencie CMS. « powrót do artykułu
  7. Psy ciągnące sanie od wieków pomagają ludziom przetrwać na północy. Mimo, że odgrywają tan ważną rolę, niewiele wiemy o ich pochodzeniu i ewolucji. Cieszyły się dotychczas znacznie mniejszym zainteresowaniem naukowców, niż inne rasy. Znalezione na Syberii artefakty, takie jak kościane rzeźby i narzędzia podobne do używanych obecnie przez Eskimosów do mocowania uprzęży psów sugerują, że już w górnym paleolicie psy pomagały człowiekowi. Na syberyjskiej wyspie Żochowa znaleziono szczątki psa oraz dowody, że było to zwierzę pociągowe wykorzystywane przez kulturę Sumnagin przed 9 tysiącami lat. Tomas Marques-Bonet, Anders J. Hansen i M. Thomas P. Gilbert wraz z międzynarodowym zespołem naukowym przeprowadzili szczegółowe badania genetyczne psów pociągowych. Przeanalizowali DNA psa z wyspy Żochowa (wiek szczątków określono na 9524 lata), syberyjskiego wilka z plejstocenu (wiek to 33 019 lat) oraz 10 współczesnych psów pociągowych używanych przez Inuitów. Do badań wybrano psy, które przez hodowców były uznawane za wzorcowe dla rasy. Próbki pobrano w 5 różnych lokalizacjach geograficznych, od dwóch osobników w każdej z nich. Dzięki temu naukowcy zyskali pewność, że mają pełną reprezentację arktycznych psów pociągowych. Wszystkie wspomniane genomy porównano ze 114 genomami innych psowatych. Analizy wykazały, że wilk z plejstocenu był najbardziej podobny do współczesnych wilków, a pies z wyspy Żochowa wykazywał największe podobieństwo do współczesnych psów pociągowych (psa grenlandzkiego, husky'ego i malamuta) oraz rodzimych psów Ameryki, które wyginęły po przybyciu Europejczyków. Naukowcy chcieli zbadać przepływ genów oraz odnaleźć wspólnego przodka psa z wyspy Żochowa oraz współczesnych psów i wilków. Stwierdzili, że nie doszło do żadnego znacznego przepływu genów pomiędzy żadną z ras psów pociągowych (w tym psa z wyspy Żochowa), a współczesnymi wilkami z amerykańskiej Arktyki. Oznacza to, że w ciągu ostatnich 9500 lat geny wilków nie miały wpływu na pulę genetyczną psów pociągowych. To zaskakujące, gdyż wiemy, że już po udomowieniu innych ras psów dochodziło do ich mieszania się z wilkami. Również dowody etnograficzne wskazują, że krzyżowanie się wilków z psami pociągowymi było mało prawdopodobne. To zaś wskazuje, że mieszkańcy Arktyki prowadzili staranną selekcję i wybierali czyste rasy, a nie hybrydy. Jednocześnie naukowcy zauważyli, że istnieje przepływ genów pomiędzy psami pociągowymi a niektórym rasami współczesnych psów. Niepochodzące z Grenlandii psy pociągowe wykazują ślady mieszania się z innymi rasami. Najmniej takich domieszek jest u psów grenlandzkich. Możemy się domyślać, że psy na Grenlandii były trzymane w izolacji od innych ras psów, a ich genom ma więcej wspólnego z krewniakami psa z wyspy Żochowa niż z innymi rasami. Dodatkowym elementem potwierdzającym to spostrzeżenie jest rozmiar populacji tych psów. Badania wykazały, że historycznie był on stabilny. Sytuacja zmieniła się około 850 lat temu, gdy populacja zmniejszyła się. Wydarzenie to zbiega się w czasie z kolonizacją Grenlandii przez Inuitów i wskazuje, że od tamtego czasu izolacja populacji była jeszcze większa. Analiza genomu psów pociągowych pod kątem przystosowania się do warunków arktycznych wykazała, że różnią się one od innych ras psów. Żyjące w Arktyce psy pociągowe są lepiej przystosowane do diety zawierającej duże ilości tłuszczu, gdy tymczasem inne rasy psów są przystosowane do trawienia dużych ilości skrobi. Pod tym względem psy pociągowe są bardziej podobne do wilków. Istnieje jednak różnica genetyczna pomiędzy współczesnymi psami pociągowymi, a psem z wyspy Żochowa, dotycząca zdolności do tolerancji diety wysokotłuszczowej. Obecność tej różnicy wskazuje, że pojawiła się ona już po oddzielenia psów współczesnych i psa z wyspy Żochowa od ich wspólnego przodka. Co interesujące, adaptacje takie są analogiczne do adaptacji widocznych u ludzi, co wskazuje na wspólną ewolucję psów pociągowych i ludzi wspólnie podbijających Arktykę. Dowody z wyspy Żochowa, takie jak genom psa oraz narzędzia z obsydianu pochodzącego z miejsc odległych o 1500 kilometrów wskazują, że już przed 9500 lat istniały psy pociągowe, które odgrywały kolosalną rolę w ekspansji człowieka na tamte tereny. « powrót do artykułu
  8. W zeszłym tygodniu na Florida Keys wypuszczono do Atlantyku rzadką hybrydę żółwia zielonego i szylkretowego. Do karapaksu zwierzęcia - samicy o imieniu Maisy - przymocowano nadajnik GPS, który pozwoli na śledzenie trasy migracji i jej wyników w Tour de Turtles. Tour de Turtles to doroczny projekt edukacyjny, organizowany przez Sea Turtle Conservancy (STC). Przedsięwzięcie ma zwiększyć społeczną świadomość związaną z żółwiami morskimi i czynnikami zagrażającymi ich przeżyciu. Na witrynie STC można się zapoznać z aktualizowanymi biogramami konkurentów żółwiego wyścigu. W tym roku startują dwie ligi: żółwi morskich (Cheloniidae) i skórzastych (Dermochelyidae). Wyścig tej drugiej rozpoczął się już 16 czerwca. Jak wyjaśnia Dan Evans, Maisy jest pierwszym osobnikiem z 9, które mają być wypuszczone z Florydy do końca lipca. Właściwy monitoring i "wyścig" zaczną się 1 sierpnia i zakończą 31 października. Maisy została uratowana niemal rok temu w okolicach wyspy Summerland Key (Lower Keys). W Sea Turtle Hospital, szpital jest zresztą sponsorem jej udziału w wyścigu, była leczona z powodu fibropapilomatozy, czyli włókniakobrodawczakowatości. W ramach leczenia przeprowadzono liczne operacje usunięcia zmian skórnych, a także wdrożono antybiotykoterapię i zdrową dietę. Maisy jest pierwszą hybrydą, jaką kiedykolwiek monitorowaliśmy. Jest krzyżówką żółwia zielonego i szylkretowego, dlatego interesująco będzie zobaczyć, czy uda się do habitatu wykorzystywanego przez żółwie zielone, czy szylkretowe - podkreśla Evans. Jak dotąd Maisy pokonała 81 km. Jej średnia prędkość od wypuszczenia wynosi 0,48 km/h. W każdej z lig wygra osobnik, który w zadanym czasie przepłynie najdłuższy dystans.   « powrót do artykułu
  9. Eksperci wygenerowali i zmierzyli splątanie kwantowe na pokładzie satelity CubeSat. To kluczowy krok w kierunku globalnej kwantowej sieci komunikacyjnej. W przyszłości nasz system może być częścią globalnego kwantowego systemu przesyłania sygnałów kwantowych do odbiorników na Ziemi lub na pokładzie innych urządzeń znajdujących się w przestrzeni kosmicznej, mówi główny autor badań, Aitor Villar z Centrum Technologii Kwantowych Narodowego Uniwersytetu Singapuru. Villar dodaje, że sygnały te mogą być używane do dowolnego rodzaju komunikacji kwantowej, od kwantowej dystrybucji klucza na potrzeby superbezpiecznej komunikacji, po kwantową teleportację, gdzie informacja jest przesyłana poprzez replikację na odległość stanu systemu kwantowego. Villar i współpracująca z nim grupa międzynaodowych specjalistów opisali na łamach magazynu Optica, jak stworzone przez nich miniaturowe urządzenie, w którym dokonywane jest splątanie kwantowe, pracuje na pokładzie miniaturowych satelitów CubeSat. Urządzenia te to nanosatelity o wymiarach około 10x10x10 centymetrów. Są niewielkie i lekkie, a więc ani ich budowa, ani wniesienie na orbitę nie wiążą się z tak gigantycznymi kosztami jak w przypadku pełnowymiarowych satelitów. Wykorzystanie splątania kwantowego daje nadzieję na sueprbezpieczną komunikację. Problem jednak w tym, że – przynajmniej obecnie – nie jest możliwe stworzenie globalnej sieci kwantowej komunikacji opartej na światłowodach. Dochodzi w nich bowiem do dużych strat sygnału. Problem mogłyby rozwiązać kwantowe wzmacniacze, ale... takie jeszcze nie istnieją. O związanych z tym problemach wspominaliśmy w tekście Polak pomógł w osiągnięciu rekordowych 1120 km dla zabezpieczonej splątaniem kwantowym QKD. Problemy te mogłaby rozwiązać flota miniaturowych satelitów, wyposażonych w odpowiednie urządzenie. I właśnie tym zajęli się naukowcy z grupy Villara. W pierwszym etapie swoich badań musieli udowodnić, że miniaturowe źródło fotonów wykorzystywane do osiągnięcia splątania jest w stanie przetrwać start rakiety z satelitą na pokładzie, a następnie będzie bez zakłóceń pracowało w przestrzeni kosmicznej. Najpierw przez długi czas prowadzili prace nad opowiednim urządzeniem. Na każdym kolejnym etapie musieli pamiętać o niewielkich rozmiarach oraz kosztach CubeSat. W końcu powstało niewielkie, wytrzymałe urządzenie zbudowane z ogólnodostępnych podzespołów. Składa się ono z niebieskiej diody laserowej, której światło skierowane jest na nieliniowe kryształy, dzięki czemu powstają pary splątanych fotonów. Później urządzenie poddano wibracjom oraz zmianom temperatury, spodziewanym podczas startu rakiety oraz pracy w przestrzeni kosmicznej. Testom poddano też same kryształy. Wykazały one, że kryształy zachowują swoje pozycje pomimo wielokrotnych wahań temperatur pomiędzy -10 a +40 stopni Celsjusza. W końcu nowy instrument został umieszczony w CubeSat o nazwie SpooQy-1 i wysłany na Międzynarodową Stację Kosmiczną. Dnia 17 czerwca wypuszczono go z MSK i trafił na orbitę. Przeprowadzone właśnie eksperymenty wykazały, że generuje on pary fotonów w temperaturach od 16 do 21,5 stopni Celsjusza. Eksperyment ten pokazuje, że ta zminiaturyzowana technologia generuje splątanie pobierając przy tym niewiele energii. To bardzo ważny krok w kierunku budowy sieci tanich satelitów tworzących globalną sieć komunikacji kwantowej, mówi Villar. Obecnie naukowcy współpracują z brytyjską firmą RALSpace. Ich celem jest stworzenie nanosatelity podobnego do SpooQy-1, który będzie w stanie wysłać parę splątanych fotonów z orbity do naziemnego odbiornika. Test takiego systemu zaplanowano na 2022 rok. « powrót do artykułu
  10. Światowa Organizacja Meteorologiczna poinformowała o 2 nowych światowych rekordach: długości i czasu trwania tzw. megabłyskawic (ang. lightning megaflash events). Błyskawica, która rozświetliła niebo nad Argentyną 4 marca 2019 r., trwała aż 16,73 s, a więc ponad 2-krotnie dłużej niż poprzednia rekordzistka. Odległość pozioma wyznaczona dla drugiej, odnotowanej 31 października 2018 r. nad południową Brazylią, wynosiła, bagatela, 709±8 km - to odpowiednik odległości np. od Londynu do granic Szwajcarii w pobliżu Bazylei. Ustalenia opublikowano w Geophysical Research Letters. To niesamowite rekordy [...]. Ekstrema środowiskowe to żywy przykład tego, do czego zdolna jest natura, a także pokaz postępów naukowych umożliwiających takie pomiary. Niewykluczone, że istnieją jeszcze większe ekstrema i że będziemy w stanie je obserwować w miarę postępów technologii detekcji - podkreśla prof. Randall Cerveny. Do tej pory rekordy należały do błyskawicy z Oklahomy, która 20 czerwca 2007 r. rozciągała się w poziomie na odległość ponad 321 km i do błyskawicy, która utrzymywała się bez przerwy 7,74 s (miało to miejsce 30 sierpnia 2012 r. nad regionem francuskim Prowansja-Alpy-Lazurowe Wybrzeże). Wcześniej posługiwano się systemem LMA (od ang. Lightning Mapping Array), a obecnie wykorzystano dane z Geostationary Lightning Mappers (GLM) z satelitów. Megabłyskawicami nazywa się błyskawice ponad 100-km (są one zjawiskami mezoskalowymi). « powrót do artykułu
  11. Obecnie wstępną diagnozę nowotworów mózgu wykonuje się na podstawie badań obrazowych, jednak diagnoza szczegółowa, określająca np. konkretny rodzaj nowotworu, wymaga wykonania biopsji. Możliwość nieinwazyjnego zdiagnozowania nowotworu, oznaczałaby olbrzymi postęp w walce z nowotworami mózgu. Grupa naukowców Farshad Nassiri, Ankur Chakravarthy i ich koledzy z University of Toronto, we współpracy z amerykańskimi kolegami, informują na łamach Nature Medicine o opracowaniu wysoce czułego testu z krwi, który pozwala dokładnie diagnozować i klasyfikować różne typy guzów mózgu. Test opiera się na najnowszych odkryciach naukowych, dzięki którym wiemy, że profile metylacji DNA w plazmie są wysoce specyficzne dla różnych guzów i pozwalają na odróżnienie od siebie guzów pochodzących od tych samych linii komórkowych. Gdybyśmy dysponowali lepszą i bardziej wiarygodną metodą diagnozowania i klasyfikowania podtypów guzów, moglibyśmy zmienić sposób opieki nad pacjentem, mówi doktor Gelareh Zadeh, szefowa chirurgii onkologicznej w Cancer Care Ontario. To zaś miałoby olbrzymi wpływ na planowanie i przebieg leczenia. Jeden z autorów, doktor Danel De Carvalho, specjalizuje się w badaniu wzorców metylacji DNA. Kierowane przez niego laboratorium już wcześniej opracowało metodę badania wzorców metylacji za pomocą płynnej biopsji. Teraz, na potrzeby najnowszych badań, naukowcy porównali dane ze szczegółowych analiz tkanek nowotworów mózgu 221 pacjentów, z badaniem swobodnie krążącego DNA nowotworowego (ctDNA) obecnego w osoczu tych osób. Dzięki temu byli w stanie połączyć konkretne podtypy guzów mózgu z ctDNA krążącym we krwi. Następnie na tej podstawie opracowali algorytm, który klasyfikuje nowotwory mózgu wyłącznie na podstawie ctDNA. Jak zauważa doktor Zadeh, wcześniej nie było możliwe diagnozowanie nowotworów mózgu na podstawie badań krwi ze względu na istnienie bariery mózg-krew. Jednak nasz test jak tak czuły,że wykrywa we krwi nawet minimalne sygnały świadczące o istnieniu nowotworu. Mamy teraz nową nieinwazyjną metodę, która pozwala na wykrywanie i klasyfikowanie guzów mózgu. « powrót do artykułu
  12. Jak się powszechnie uważa świnki morskie, jedne z najczęściej spotykanych zwierząt domowych na świecie, zostały po raz pierwszy udomowione w Peru. Były ważnym źródłem pożywienia, wykorzystywano je w ceremoniach religijnych, transportowano je i handlowano nimi w całej Ameryce Południowej. Po tysiącach lat, około roku 500, przewieziono je na Karaiby. Profesor Lisa Matisoo-Smith z nowozelandzkiego University of Otago od lat bada DNA roślin i zwierząt w regionie Pacyfiku, wykorzystując te dane do identyfikowania przewożących je ludzkich populacji i rekonstrukcji dróg ich przemieszczania się. Tym razem uczona postanowiła zbadać, skąd świnki morskie trafiły na Karaiby. Jako, że znacznie wcześniej zwierzęta te były przedmiotem handlu, można się było spodziewać, że przywieziono je z blisko położonej Kolumbii. Naukowcy wykorzystali szczątki świnek morskich z Karaibów, Peru, Kolumbii, Boliwii, Europy i Ameryki Północnej. I tu czekała ich pierwsza niespodzianka. Okazało się, że na Karaiby świnki morskie trafiły nie z Kolumbii, a prawdopodobnie z Peru. Jednak jeszcze większym zaskoczeniem było stwierdzenie, że szczątki świnek morskich z kolumbijskich Andów reprezentują najprawdopodobniej zupełnie inny gatunek. To zaś sugeruje, że do udomowienia świnki morskiej doszło niezależnie w Peru oraz w Kolumbii. Badania genetyczne oraz archeologiczne ujawniły też zmiany roli świnki morskiej w czasie. Były i wciąż są ważnym źródłem pokarmu w Ameryce Południowej oraz w kulturach stamtąd się wywodzących. Ludzie zabierali je ze sobą, wprowadzali na wyspy, na których nie występowały, wymieniali je na inne dobra, mówi Matisoo-Smith. Świnki morskie trafiły do Europy pod koniec XVI lub na początku XVII wieku. Zostały tam przywiezione przez Hiszpanów. Do Ameryki Północnej zawieziono je na początku XIX wieku w ramach handlu egzotycznymi zwierzętami. Już w XVIII wieku były używane w badaniach medycznych, gdyż pod wieloma względami są podobne do ludzi, wyjaśnia uczona. Obecnie wszystkie świnki morskie, zarówno te, które są domowymi pupilami, te sprzedawane na mięso w Ameryce Południowej czy Portoryko, jak i te używane w badaniach medycznych, pochodzą od udomowionej świnki morskiej z Peru, dodaje. Dlaczego jednak w jednych kulturach są domowymi pupilami, a w innych są zjadane? Prawdopodobnie ma to związek z tym, co dana kultura pozwala traktować jak żywność. Profesor Matisoo-Smith mówi, że zidentyfikowanie szczątków świnki morskiej z Karaibów pozwala nam lepiej zrozumieć szlaki handlowe i ruch ludności w tym regionie w ciągu ostatniego 1000 lat. Dzięki nim, lepiej rozumiemy interakcje społeczne pomiędzy trzema kontynentami. Mamy też lepszy pogląd na zróżnicowanie genetyczne gatunku i jego relacje z ludźmi. « powrót do artykułu
  13. Podczas nadzorczych prac archeologicznych na budowie odcinka drogi ekspresowej S19 Podgórze-Kamień odkryto 115 grobów szkieletowych. Jamy grobowe znajdowały się na terenie Gór Kościelnych, pasma wzniesień w Jeżowem. Jamy grobowe są zorientowane na osi wschód-zachód, z głowami skierowanymi w kierunku zachodnim. Ok. 70-80% wszystkich pochówków stanowią pochówki dzieci. Specjaliści podejrzewają, że wiąże się to z faktem, iż w tym miejscu została wydzielona przestrzeń cmentarza, gdzie chowano najmłodszych mieszkańców Jeżowego. Odkryte groby są ubogo wyposażone. W kilku pochówkach stwierdzono jednak występowanie monet w ustach zmarłego. Były to tzw. boratynki i półtoraki, czyli monety bite za Zygmunta III Wazy. Ma to oczywisty związek z wierzeniami staropolskimi, jest to tzw. obol zmarłych lub obol Charona, który stanowił formę zapłaty za usługi dla duszy w zaświatach. « powrót do artykułu
  14. Dzięki wykryciu neutrin pochodzących z jądra Słońca fizycy byli w stanie potwierdzić ostatni brakujący element opisu fuzji zachodzącej wewnątrz naszej gwiazdy. Potwierdzili tym samym obowiązujący od dziesięcioleci model teoretyczny przewidujący, że część energii słonecznej pochodzi z łańcucha reakcji, w którym udział mają atomy węgla i azotu. W procesie tym cztery protony łączą się w jądro helu. Dochodzi do uwolnienia dwóch neutrin, innych cząstek subatomowych i olbrzymich ilości energii. Ten cykl węglowo-azotowo-tlenowy (CNO) nie odgrywa większej roli w Słońcu, gdzie dzięki niemu powstaje mniej niż 1% energii. Uważa się jednak, że gdy gwiazda się starzeje, zużywa wodór i staje się czerwonym olbrzymem, wówczas rola cyklu CNO znacząco rośnie. O odkryciu poinformowali naukowcy pracujący przy włoskim eksperymencie Borexino. To wspaniałe, że udało się potwierdzić jedno z podstawowych założeń teorii dotyczącej gwiazd, mówi Marc Pinsonnealut z Ohio State University. Borexino już wcześniej jako pierwszy wykrył neutrina pochodzące z trzech różnych etapów reakcji zachodzącej w Słońcu, która odpowiada za produkcję większości energii naszej gwiazdy. Dzięki obecnemu odkryciu Borexino w pełni opisał dwa procesy zasilające Słońce, mówi rzecznik eksperymentu Gioacchino Branucci z Uniwersytetu w Mediolanie. Kończymy wielkim bum!, dodał Marco Pallavicini z Uniwersytetu w Genui. Może to być bowiem ostatnie odkrycie Borexino, któremu grozi zamknięcie z powodu ryzyka dla źródła wody pitnej. Odkrycie neutrin pochodzących z cyklu węglowo-azotowo-tlenowego nie tylko potwierdza teoretyczne modele procesów zachodzących w Słońcu, ale rzuca też światło na strukturę jego jądra, szczególnie zaś na koncentrację w nim metali. Tutaj trzeba podkreślić, że astrofizycy pod pojęciem „metal” rozumieją wszelkie pierwiastki o masie większej od wodoru i helu. Liczba neutrin zarejestrowanych przez Borexino wydaje się zgodna ze standardowym modelem przewidującym, że metaliczność jądra jest podobna do metaliczności powierzchni. To ważne spostrzeżenie, gdyż w ostatnim czasie pojawiało się coraz więcej badań kwestionujących taki model. Badania te sugerowały, że metaliczność jądra jest niższa niż powierzchni. A jako, że to skład pierwiastków decyduje o tempie przepływu energii z jądra, badania te sugerowały jednocześnie, że jądro jest nieco chłodniejsze niż sądzono. Jako, że proces, w którym powstają neutrina jest niezwykle wrażliwy na temperaturę, dane zarejestrowane przez Borexino wskazują raczej na starsze wartości temperatury, nie na te sugerowane przez nowe badania. « powrót do artykułu
  15. Międzynarodowy zespół naukowców opracował funkcjonalizowane peptydami nanocząstki złota, które pozwalają ograniczyć śmierć neuronów będącą wynikiem zbyt dużego pobudzenia (hiperekscytacji). Autorzy badań podkreślają, że nadmierna stymulacja komórek nerwowych przez kwas glutaminowy (glutaminian, GLU) może doprowadzić do ich uszkodzenia i śmierci. Zjawisko to, zwane ekscytotoksycznością, występuje w wielu chorobach neurozapalnych i neurodegeracyjnych, m.in. alzheimerze. Nadmierna stymulacja receptorów glutaminergicznych może wywołać niekontrolowany napływ jonów Ca2+ do wnętrza komórki. W warunkach fizjologicznych jony wapnia pełnią rolę ważnego przekaźnika (wyzwalają szereg procesów). Jeśli ich napływ jest jednak nadmierny, dochodzi do wspomnianej hiperekscytacji neuronu, a konsekwencją ekscytotoksyczności jest w bardzo wielu przypadkach programowana śmierć komórki, czyli apoptoza. Wysokie stężenie wapnia w neuronie po stymulacji receptorów glutaminianergicznych uruchamia kolejne procesy prowadzące do jego zniszczenia: 1) aktywację enzymów zależnych od jonów wapnia (m.in. kinaz białkowych, proteaz czy endonukleaz), 2) aktywację syntazy tlenku azotu, 3) dysfunkcję mitochondriów oraz 4) generowanie wolnych rodników. Nadmierna aktywacja neuronu prowadzi do zwiększonego zapotrzebowania energetycznego przy ograniczonych możliwościach jej produkcji. Deficyt energetyczny skutkuje uszkodzeniem mitochondriów i śmiercią neuronów. Funkcjonalizowane peptydami nanocząstki złota zaprojektowano i przygotowano w IIT-Istituto Italiano di Tecnologia w Lecce. Pozwalają one na wybiórcze hamowanie ekstrasynaptycznych (pozasynaptycznych) receptorów glutaminergicznych. Jak tłumaczą naukowcy, wielkość nanocząstek skutkuje blokowaniem wyłącznie receptorów zlokalizowanych pozasynaptycznie. Dzięki temu zachowana zostaje prawidłowa neurotransmisja, a jednocześnie można uniknąć nadmiernej aktywacji prowadzącej do śmierci neuronów. Mechanizm molekularny leżący u podłoża neuroochronnego działania nanocząstek określono podczas prac eksperymentalnych prowadzonych przez Pierluigiego Valente z Uniwersytetu w Genui oraz grupę Fabia Benfenatiego z Centro NSYN-IIT w Genui. Wyniki badań będzie można wykorzystać podczas rozwijania metod terapii chorób neurologicznych przebiegających z nadmiernym uwalnianiem GLU. Możliwość blokowania receptorów pozasynaptycznych, które przede wszystkim odpowiadają za śmierć komórek, bez oddziaływania na transmisję synaptyczną pozwala myśleć o pozbawionej skutków ubocznych terapii celowanej. « powrót do artykułu
  16. W marcu przedstawiciele firmy Honeywell zapowiadali, że w ciągu trzech miesięcy zaprezentują najpotężniejszy komputer kwantowy na świecie. Słowa dotrzymali. Firma poinfomrmowała właśnie, że jej system uzyskał największą wartość „kwantowej objętości”. Miara Quantum Volume (QV) została opracowana przez IBM-a. Trzeba jednak podkreślić, że nie jest powszechnie akceptowaną skalą pomiaru wydajności komputerów kwantowych. Nie jest też jasne, jak ma się ona do „kwantowej supremacji” ogłoszonej przez Google'a w ubiegłym roku. Przypomnijmy, że Google ogłosił ją twierdząc, że jego komputer wykonał w ciągu 200 sekund obliczenia, na które klasyczny superkomputer potrzebowałby 10 000 lat, zatem nie wykona ich w rozsądnym czasie. Przedstawiciele IBM-a poinformowali, że to naciągane stwierdzenia, gdyż klasyczny superkomputer poradziłby sobie z nimi w 2,5 doby. QV ma być obiektywnym, niezależnym od użytego sprzętu czy rozwiązań technologicznych, sposobem pomiary wydajności komputera kwantowego. Bierze on pod uwagę liczbę kubitów, błędy pomiarowe czy wydajność komputera. Honeywell informuje, że wartość QV jego 6-kubitowego systemu wynosi 64. Zdecydowanie pokonał więc najpotężniejszy z komputerów oceniany tym systemem, IBM-owską 53-kubitową maszynę Raleigh, która osiągnęła QV=32. Mimo, że QV nie jest powszechnie akceptowaną miarą, to Honeywell uważa, że jest najlepszą z dostępnych. Bierze ona pod uwagę nie tylko liczbę dostępnych kubitów, mówi Tony Uttlej, prezes działu Quantum Solutions w Honeywell. Jak wyjaśnia, sama liczba kubitów niewiele mówi o możliwościach komputera kwantowego, gdyż w prawdziwych obliczeniach niekoniecznie odnosi się korzyści z większej liczby kubitów. Maszyna Honeywella wykorzystuje jony iterbu uwięzione w pułapce elektromagnetycznej. Kubit jest reprezentowany przez spin jonów. Całość chłodzona jest ciekłym helem do temperatur niewiele wyższych od zera absolutnego. Lasery manipulują kubitami, przeprowadzając obliczenia. Główną zaletą tego systemu i tym, co dało mu przewagę w QV jest długotrwałe – trwające kilka sekund – utrzymanie stanu kwantowego kubitów. Tak długi czas koherencji pozwala na wykonanie niezbędnych pomiarów stanu kubitów. Honeywell twierdzi zatem, że posiada najpotężniejszy komputer kwantowy na świecie. Firma ma zamiar udostępniać go komercyjnie. Inne przedsiębiorstwa będą mogły dzięki temu wykonywać złożone obliczenia. Uttley mówi, że godzina korzystania z komputera zostanie wyceniona na około 10 000 USD. Firma nie zdradza ilu ma w tej chwili klientów. Poinformowała jednak, że jednym z nich jest bank JPMorgan Chase, którego eksperci wykorzystują maszynę Honeywella do budowania modelu wykrywania oszustw bankowych. Firmy, które nie zatrudniają własnych specjalistów ds. obliczeń kwantowych mogą zaś korzystać z maszyny za pośrednictwem firm Zapata Computing i Cambridge Quantum Computing. « powrót do artykułu
  17. Największa od 50 lat chmura saharyjskiego pyłu przebyła Atlantyk, pojawiła się nad Karaibami i zmierza w kierunku USA. W regionie, w którym obecnie się znajduje, wydano ostrzeżenie o niebezpiecznym poziomie zanieczyszczeń powietrza. Eksperci radzą mieszkańcom wysp, by nie wychodzili z domu. To największa taka chmura od 50 lat. Na wielu wyspach na zewnątrz panują niebezpieczne dla zdrowia warunki, mówi Pablo Mendez Lazaro z University of Puerto Rico, który współpracuje z NASA nad systemem wczesnego ostrzegania przed chmurami pyłu. „Godzilla”, bo tak nazwano chmurę, najbardziej zagraża osobom z problemami oddechowymi. Eksperci szczególnie martwią się o chorych na COVID-19. Jednak nawet zdrowi ludzie mogą ucierpieć, gdyż wysokie stężenie pyłów w powietrzu utrzymuje się przez wiele dni. Najgorsze warunki wraz z ograniczeniem widoczności panują obecnie pomiędzy Antiguą a Trynidadem i Tobago. Mogą się one utrzymać jeszcze do dzisiejszego wieczora. Meteorolodzy przewidują, że na terytorium USA najcięższe warunki pojawią się w poniedziałek i wtorek nad południowo-wschodnim wybrzeżem. Jak informuje NOAA (U.S. National Oceanic and Atmospheric Administration) masa ekstremalnie suchego i zapylonego powietrza – zwana Saharan Air Layer (SAL) – formuje się i przemieszcza przez Atlantyk co 3-5 dni pomiędzy późną wiosną a wczesną jesienią. Jej szczyt przypada na koniec czerwca do połowy sierpnia. SAL może mieć grubość do 3 kilometrów. „Godzilla” uformowała się 13 czerwca. Pył znad Sahary odgrywa ważną rolę po drugiej stronie Atlantyku. To on tworzy plaże Karaibów i nawozi glebę Amazonii. Wpływa też niekorzystnie na jakość powietrza. SAL tłumi też burze tropikalne. « powrót do artykułu
  18. Naukowcy z Lawrence Berkeley National Laboratory (LBNL) odkryli nowy izotop mendelewu (Md). 244Mendlew to 17. i najlżejszy znany izotop tego sztucznie otrzymanego pierwiastka. Mendelew został po raz pierwszy uzyskany w 1955 roku właśnie w Berkeley Lab. To jeden z 16 pierwiastków, który odkryli lub pomogli odkryć naukowcy z LBNL. Md-244 uzyskano w uruchomionym przed 3 laty 88-calowym cyklotronie. To rodzaj akceleratora, który został w 1930 roku opracowany przez Ernesta O. Lawrence'a, od którego nazwiska pochodzi nazwa laboratorium. Uczeni z Berkeley Lab odkryli 12 z 17 izotopów mendelewu. W sumie laboratorium ma na swoim koncie odkrycie 640 izotopów, czyli około 20% ze wszystkich – 3308 – znanych izotopów. Żadna inna instytucja naukowa nie może pochwalić się takim osiągnięciem. 244Md to pierwszy izotop odkryty w LBNL od 2010 roku. Odkrycie nowego izotopu mendelewu nie było proste, gdyż wszystkie sąsiadujące z nim izotopy mają bardzo podobny sposób rozpadu, mówi Jennifer Pore, która stała na czele zespołu badawczego. W ramach badań jej zespół dokonał szczegółowych pomiarów właściwości 10 atomów 244Md. Wyniki ich pracy ukazały się na łamach Physical Review Letters. Każdy z izotopów ma unikatową kombinację protonów i neutronów. Gdy odkrywamy nowy izotop wiemy, że taka kombinacja nigdy wcześniej nie była obserwowana. Badania izotopów prowadzą nas do lepszego zrozumienia natury materii, wyjaśnia Pore. Naukowcy zdobyli dowody, że 244Md może rozpadać się na dwa różne sposoby, co prowadzi do różnego okresu półżycia wynoszącego 0,4 oraz 6 sekund. Badając mendelew naukowcy dokonali też dodatkowego odkrycia. Jako pierwsi zdobyli dowody na rozpad alfa berkelu-236, który zmienia się w ameryk-232. Kluczowym elementem, dzięki któremu odkryto 244Md był wspomniany już 88-inch Cyclotron, którego centralny element stanowi FIONA (For the Identification Of Nuclide A). Michael Thoennessen z Michigan State University, który zarządza listą izotopów zauważa, że w ostatnich latach nowe izotopy są odkrywane rzadziej niż wcześniej. Nowe izotopy odkrywane są cyklicznie, a odkrycia zależą od pojawiania się nowych akceleratorów i postępach w rozwoju sprzętu do prowadzenia eksperymentów. Naukowiec mówi, że to takie urządzenia jak FIONA czy FRIB (Facility for Rare Isotope Beams) budowany właśnie na Michigan State University, mają unikatowe właściwości i olbrzymi potencjał dokonania nowych odkryć. Zespół Pore, chcąc upewnić się, że FIONA pracuje bez zarzutu, najpierw przeprowadził w cyklotronie szczegółowe analizy rozpadu innych izotopów mendelewu, w tym 247Md, 246Md i 245Md. Uzyskane wyniki były zgodne z tym, co o izotopach tych wiedziano wcześniej. Gdy już zyskaliśmy pewność, że instrument dobrze wyznaczył właściwości tych izotopów, przystąpiliśmy do eksperymentów mających na celu okrycie nieznanego dotychczas izotopu 244Md, mówi Pore. Nowy izotop mendelewu uzyskano kierując wiązkę zawierającą argon-40 na cienką folię z bizmutu-209. Uczeni mieli nadzieję, że dojdzie do bezpośredniego zderzenia i połączenia obu izotopów, w wyniku czego powstanie 244Md, a oni zdążą zbadać jego właściwości, zanim ulegnie on rozpadowi. Eksperyment zakończył się sukcesem dzięki temu, że w skład cyklotronu, obok FIONA, wchodzi też Berkeley Gas-Filled Separator. Urządzenie to oddziela poszukiwane atomy od reszty, umożliwiając szybkie zbadanie ich właściwości. Teraz, gdy FIONA sprawdziła się w roli wykrywacza nowych izotopów, Pore już planuje prace nad odkryciem innych nieznanych jeszcze izotopów. « powrót do artykułu
  19. Kobiety i mężczyźni różnią się między sobą pod względem przebiegu rozwoju, fizjologii czy przebiegu chorób. Różnice pomiędzy płciami manifestują się w wielu chorobach, w tym w nowotworach, zaburzeniach neurologicznych, chorobach układu krążenia czy autoimmunologicznych. Różnice te, które wpływają zarówno na częstotliwość występowania, przebieg jak i reakcję na leczenie różnych chorób znacząco utrudniają zarówno zapobieganie chorobom jak i sam proces leczenia. Słabo bowiem rozumiemy czynniki i mechanizmy biologiczne wpływające na różnice między płciami. Wiemy, że przynajmniej częściowo ma na to wpływ genetyka, że różnice biorą się działań chromosomów X i Y czy hormonów płciowych. Niewielkie różnice w ekspresji genów mogą przekładać się na spore zmiany. Wiadomo np. że pomiędzy płciami występują różnice w dostępności chromatyny, a to może objawiać się w różnym poziomie ekspresji genów. Naukowcy już wcześniej wykazali, że istnieją międzypłciowe różnice w pracy sieci regulacji genowych w przebiegu przewlekłej obturacyjnej choroby płuc czy raka jelita grubego. Tym razem postanowili systematycznie zbadać molekularne podstawy różnic pomiędzy płciami w różnych rodzajach tkanek. Na potrzeby badań przeanalizowali informacje o ekspresji 30 243 genów, w tym 1074 kodowanych przez chromosomy płciowe. W badaniach uwzględniono tylko te tkanki, które uzyskano zarówno od kobiet, jak i mężczyzn, w liczbie po ponad 30 próbek dla każdej z płci. W ten sposób od 548 osób (360 mężczyzn i 188 kobiet) uzyskano 8279 próbek reprezentujących 29 typów tkanek. Badania wykazały, że najwięcej genów o różnej ekspresji pomiędzy płciami występuje w tkance piersi, podskórnej tkance tłuszczowej, mięśniach szkieletowych, tkance skóry oraz tkance tarczycy. Najmniejsze zaś pod tym względem różnice zauważono w tkance układu pokarmowego, z wyjątkiem błony śluzowej przełyku. W piersiach różnice ekspresji występowały w 4181 genach (w tym w 4009 autosomalnych, czyli nie płciowych), drugą pod względem różnic tkanką była tłuszczowa podskórna, gdzie różnice pomiędzy płciami stwierdzono w ekspresji 482 genów (431 autosomalnych). W innych tkankach różnice były mniejsze. Ogólnie rzecz biorąc we wszystkich badanych 29 tkankach mediana liczby genów o różnej ekspresji wynosiła 64 (28 autosomalnych), czyli różnice dotyczyły 0,2% analizowanych genów (0,1% autosomalnych). Jak stwierdzają autorzy badań w podsumowaniu swojej pracy różnice pomiędzy płciami to jedne z najsłabiej poznanych aspektów chorób. Historycznie rzecz ujmując, płeć nie była odpowiednio brana pod uwagę. Wiele eksperymentów wykonywano tylko na mężczyznach, z analiz wykluczano chromosomy płciowe, a protokoły mapowania genów nie brały pod uwagę różnic płciowych. [...] Uzyskane przez nas wyniki wskazują, że proces regulacji genów, taki jak zmienność epigenetyczna, może być tym czynnikiem napędzającym różnice pomiędzy płciami o odniesieniu do zdrowia i chorób. Podkreślają przy tym, że różnice w regulacji genów pomiędzy płciami występują w każdej tkance, co wskazuje, że jest to proces systemowy, a nie izolowane zjawisko. « powrót do artykułu
  20. Zespół prof. Roberta P. Doyle'a z Uniwersytetu w Syracuse rozwija nowy lek na cukrzycę typu 2. Obniża on poziom glukozy we krwi, nie wywołując przy tym skutków ubocznych typowych dla agonistów receptora GLP-1 (GLP-1R): mdłości, wymiotów czy utraty wagi. W trzustce GLP-1 pełni rolę hormonu inkretynowego; stymuluje indukowane posiłkiem uwalnianie insuliny z komórek beta. Ekipa Doyle'a posłużyła się biokoniugacją. Za pomocą techniki nazwanej korynacją połączono cząsteczkę eksendyny 4 (Ex-4)- dobrze poznanego syntetycznego agonisty receptora GLP-1 - i dicyjanokobinamidu (Cbi). Cbi-Ex4 testowano na ryjówce domowej (Suncus murinus). Podczas testów tolerancji glukozy potwierdzono działanie hypoglikemizujące. Stwierdzono też znaczące zmniejszenie wymiotów, w porównaniu do Ex4. Nie odnotowano spadku wagi. Wydaje się więc, że Cbi-Ex4 to idealny lek dla osób wymagających glukoregulacji bez oddziaływania na wskaźnik masy ciała. Co istotne, lek może przynieść korzyści diabetykom, którzy cierpią równocześnie na mukowiscydozę, przewlekłą obturacyjną chorobę płuc (POChP), sarkopenię czy nowotwory. Naukowcy planują kolejne etapy testów klinicznych. Wyniki badań opisano na łamach Cell Reports. « powrót do artykułu
  21. Niezwykły sygnał, zauważony w falach grawitacyjnych, rzuca nowe światło na „lukę masy” pomiędzy gwiazdami neutronowymi, a czarnymi dziurami. Naukowcy od kilkudziesięciu lat nie wiedzą, czy i co znajduje się pomiędzy tymi obiektami. Teraz mają dowód, że coś tam jest. Gdy najbardziej masywne gwiazdy kończą życie, zapadają się pod wpływem własnej grawitacji i powstaje czarna dziura. Gdy jednak umierająca gwiazda jest mniej masywna, wybucha jako supernowa i pozostaje po niej gęste jądro – gwiazda neutronowa. Od dziesięcioleci wiemy, że najbardziej masywne gwiazdy neutronowe mają masę nie większą niż 2,5 masy Słońca, a najmniej masywne czarne dziury charakteryzują się masą około 5 mas Słońca. Powstaje więc pytanie, co jest pomiędzy tymi masami. W ubiegłym roku informowaliśmy, że wykrywacz fal grawitacyjnych LIGO, zarejestrował wszystko, czego od niego oczekiwano: zderzenie dwóch czarnych dziur, zderzenie dwóch gwiazd neutronowych oraz wchłonięcie gwiazdy neutronowej przez czarną dziurę. I właśnie to ostatnie wydarzenie, do którego doszło około 800 milionów lat temu, może rzucić nieco światła na „lukę masy”. Jak bowiem czytamy na łamach najnowszego numeru The Astrophysical Journal Letters, zarejestrowany sygnał, oznaczony jako GW190814, pochodził z połączenia czarnej dziury o masie 23 mas Słońca (22,2–24,3 M☉) z obiektem o masie 2,6 mas Słońca (2,50–2,67 M⊙). W wyniku tego procesu powstały fale grawitacyjne, które 800 milionów lat później zarejestrowaliśmy na Ziemi. Różnica mas pomiędzy obiektami, wynosząca aż 9:1 jest największą różnicą zaobserwowaną dotychczas podczas badania fal grawitacyjnych. Jednak najbardziej interesująca jest masa lżejszego z obiektów. W tym wypadku nie wiemy, czy lżejszy obiekt to gwiazda neutronowa czy czarna dziura. To wciąż tajemnica. Zbadanie, w jaki sposób powstają takie układy może zmienić nasze rozumienie ewolucji gwiazd, mówi doktor Christopher Berry z Institute for Gravitational Research University of Glasgow, którego naukowcy odegrali kluczową rolę w analizie danych. Od dziesięcioleci czekamy na rozwiązanie tej zagadki. Nie wiemy, czy ten obiekt to najbardziej masywna gwiazda neutronowa czy najmniej masywna czarna dziura. Tak czy inaczej jest to rekordowy obiekt, mówi profesor Vicky Kalogera z Northwestern University, a profesor Patrick Brady, rzecznik prasowy eksperymentu LIGO, dodaje: to zmieni sposób postrzegania czarnych dziur i gwiazd neutronowych. Może się okazać, że „luka masy” nie istnieje, a wynika ona tylko z naszych ograniczonych możliwości obserwacyjnych. Potrzebujemy więcej czasu i kolejnych obserwacji, by to rozstrzygnąć. Naukowcy mają nadzieję, że kolejna rozbudowa możliwości obserwatorium LIGO, z obecnego Advanced LIGO do Advanced LIGO Plus, pozwoli na przeprowadzenie większej liczby bardziej szczegółowych obserwacji. « powrót do artykułu
  22. Naukowcy z Uniwersytetu Johnsa Hopkinsa opisali przypadek mężczyzny RFS z rzadką chorobą degeneracyjną mózgu, która doprowadziła do rozległej atrofii kory i jąder podstawy. Oprócz typowych objawów w postaci zaburzeń pamięciowych i skurczów mięśni, występowała u niego niemożność postrzegania (upośledzona świadomość wzrokowa) cyfr od 2 do 9 oraz bodźców umieszczonych w ich pobliżu. Co jednak ciekawe, mózg pacjenta wykazywał normalną reakcję neurofizjologiczną na słowa czy twarze nakładające się na cyfry. To zaś oznacza, że przetwarzanie wzrokowe może zachodzić bez pojawiania się świadomości wzrokowej bodźca. Autorzy publikacji z pisma Proceedings of the National Academy of Sciences (PNAS) podkreślają, że gdy RFS prezentowano cyfrę, widział tylko plątaninę linii (porównywał ją do spaghetti) i nie miał pojęcia, na co spogląda. Poza tym jego widzenie nie odbiegało od normy; potrafił, na przykład, zidentyfikować litery i inne symbole. Zagadką dla zespołu pozostawało to, że aby tak wybiórczy deficyt był możliwy, mózg pacjenta musiałby najpierw identyfikować cyfry; wtedy problem mógłby wystąpić dla cyfr od 2 do 9 i dla niczego innego. Kiedy RFS patrzy na cyfrę, jego mózg musi "widzieć", że to cyfra, nim mężczyzna nie będzie mógł jej zobaczyć - to prawdziwy paradoks. Podczas naszych eksperymentów próbowaliśmy zbadać, jakie procesy zachodzą poza jego świadomością - podkreśla Michael McCloskey. Akademicy stwierdzili, że RFS nie jest także w stanie widzieć niczego umieszczonego w pobliżu lub na cyfrze. Gdy pokazano mu dużą trójkę z narysowanymi na niej skrzypcami, nie był w stanie dostrzec instrumentu. Gdy skrzypce znajdowały się w dostatecznej odległości od cyfry, widział je normalnie. By ocenić aktywność mózgu podczas prezentacji krytycznego bodźca, zespół pod kierownictwem Teresy Schubert (byłej studentki Uniwersytetu Johnsa Hopkinsa, obecnie pracującej na Uniwersytecie Harvarda) i Davida Rothleina (byłego studenta UJH, obecnie pracownika VA Boston Healthcare System) prowadził eksperymenty z wykorzystaniem EEG. Zapis sygnału EEG prowadzono w czasie, gdy RFS patrzył na cyfrę z nałożoną na nią twarzą. Zapis pokazał, że mózg wykrywał obecność twarzy, mimo że pacjent był tego kompletnie nieświadomy. W rzeczywistości reakcja mózgu była taka sama, jak wtedy, gdy prezentowano mu twarz, którą bez problemu postrzegał. Wyniki pokazują, że mózg RFS przeprowadza złożone przetwarzanie pod nieobecność świadomości. Mózg pacjenta wykrywał twarze w cyfrach, mimo że sam pacjent tego nie wiedział - opowiada Rothlein. W drugim eksperymencie wykorzystano nałożone na cyfry słowa. Sytuacja się powtórzyła. Choć RFS był całkowicie nieświadomy występowania wyrazów, jego mózg nie tylko wykrywał obecność słowa, ale i identyfikował, jakie to słowo [...]. Zwykle zakłada się, że świadomość wzrokowa idzie w parze z poziomem aktywności nerwowej, ale wyniki Amerykanów sugerują, że do świadomości konieczne jest dodatkowe przetwarzanie (proces ten jest zaburzony u RFS). Jeśli dodatkowy proces nie zachodzi, do zaistnienia świadomości nie wystarczy złożone przetwarzanie konieczne do wykrywania oraz identyfikowania twarzy, słów i innych bodźców wzrokowych. Kluczem do naszego badania jest zrozumienie czegoś, co stanowi paradoks: jakim sposobem RFS postrzega cyfry - i tylko cyfry - jako spaghetti? W końcu jeśli mózg rozpoznaje cyfry, by je potem zaburzyć, powinien [też] być w stanie je rozpoznać? Odkryliśmy jednak, że mózg wykrywający cyfrę, twarz czy słowo nie wystarczy, byśmy naprawdę je widzieli. Naukowcy ujawniają, że RFS był w przeszłości inżynierem geologiem. W chwili rozpoczęcia studium miał 60 lat. Objawy zaczął dostrzegać pod koniec 2010 r., gdy pojawiły się epizody bólu głowy, zaburzenia widzenia i zapominanie. Do sierpnia 2011 r. mężczyzna nie był już w stanie rozpoznać, nazwać czy skopiować cyfr od 2 do 9, bez względu na to, jak je zaprezentowano (np. jako 6, 466 czy A6). Sytuacja jest dla RFS dość frustrująca... To bardzo odporny i mądry człowiek, który [...] całkiem dobrze przystosował się do swojego problemu. Niektórzy specjaliści nie traktowali go na początku poważnie, dlatego ma nadzieję, że nasze badanie pokaże ludziom, że nawet bardzo niezwykłe deficyty mają naukowe wyjaśnienie - podsumowuje Schubert. « powrót do artykułu
  23. Wczoraj, 24 czerwca, Chiny wystrzeliły ostatniego satelitę konstelacji Beidou. Tym samym Państwo Środka mogło ogłosić, że trwająca od 20 lat budowa systemu nawigacji satelitarnej Beidou zakończyła się sukcesem. Satelita został wyniesiony na pokładzie rakiety Długi Marsz 3B. Jej start miał odbyć się przed tygodniem, jednak z powodu problemów technicznych został przełożony. O tym, jak ważne jest do wydarzenie dla Chin niech świadczy fakt, że zwykle Pekin z ogłoszeniem sukcesu czeka, aż satelita znajdzie się na wyznaczonej orbicie. Tym razem chińskie media z wyprzedzeniem informowały o starcie rakiety, a całe wydarzenie mogliśmy śledzić na żywo. To wyraźne odstępstwo od tradycyjnego sposobu relacjonowania, gdy ogłaszany jest sukces, a państwowa telewizja CCTV dopiero po tym, jak wszystko poszło zgodnie z planem, udostępnia relację ze startu. Chiny zaczęły tworzyć swój własny system nawigacji satelitarnej w latach 90. ubiegłego wieku. Pierwszego satelitę wystrzelono w październiku 2000 roku, a od roku 2009 trwa unowocześnianie systemu. Najnowsza jego wersja składa się z 30 urządzeń BDS-3 (Beidou Navigation Satellite). Jak informuje chiński Global Times, wyposażono je w większą przepustowość, zwiększając ich możliwości komunikacyjne oraz bardziej dokładne zegary atomowe. Co prawda system BDS rozpoczął pracę w 2018 roku, jednak dopiero ostatni satelita zapewnia dostęp do Beidou na całym świecie. Beidou nie jest jedynym konkurentem amerykańskiego GPS. Rosjanie mają system Glonass-M, którego głównym zadaniem jest obsługa sił zbrojnych Federacji Rosyjskiej, europejski Galileo działa od 2016 roku, a jego ostatnie satelity mają zostać wystrzelone w bieżącym roku. Tymczasem Amerykanie są właśnie w trakcie udoskonalania GPS z wersji II do III. Proces ten ma zakończyć się w 2023 roku.   « powrót do artykułu
  24. Kolekcjoner z Walencji zapłacił renowatorowi mebli i luster ok. 1200 euro za oczyszczenie kopii malowidła Murilla. Ku jego zaskoczeniu, twarz Marii na zwróconym przez "fachowca" obrazie przedstawiającym niepokalane poczęcie była zniekształcona i w dużym stopniu przypominała zniszczony jakiś czas temu XIX-wieczny fresk Ecce Homo z Sanktuarium Miłosierdzia Bożego w Borja koło Saragossy. Nie wiadomo, jaka jest wartość dzieła. Nie ujawniono również tożsamości kolekcjonera. Gdy zleceniodawca zażądał wyjaśnień, renowator mebli zobowiązał się, że naprawi zniszczenia. Efekt jego działań trudno, niestety, nazwać naprawą. Hiszpańskie media doniosły, że kolekcjoner postanowił wreszcie zatrudnić profesjonalistę. Nie da się jednak powiedzieć, czy przy tylu zniszczeniach uda mu się coś wskórać. W tym miejscu warto przypomnieć inne tego typu zdarzenia, do których doszło w ostatnich latach w Hiszpanii. W 2012 r. ofiarą konserwatora-amatora padł wspomniany fresk Ecce Homo, zaś w 2018 r. na prośbę proboszcza lokalny nauczyciel zajął się XVI-w. rzeźbą przedstawiającą świętego Jerzego na koniu (zabytek znajduje się w kościele Sam Miguel de Estella w miejscowości Estella w Nawarze). W opublikowanym oświadczeniu Asociación Profesional de Conservadores Restauradores de España (ACRE) nazwało incydent aktem wandalizmu. Brak uregulowań prawnych [...] pozwala ludziom bez przygotowania [zawodowego] ingerować w nasze dziedzictwo kulturowe. María Borja podkreśla, że słyszymy tylko o części takich przypadków, gdy od czasu do czasu sprawę nagłaśniają media i serwisy społecznościowe. Wg mnie, tego człowieka czy, szerzej rzecz ujmując, tych ludzi nie powinno się nazywać renowatorami. To oszuści, którzy niszczą - powiedział w wywiadzie udzielonym Guardianowi prof. Fernando Carrera, były szef ACRE. Carrera uważa, że w pewnym sensie odnawianie dzieł sztuki bez koniecznych umiejętności można by porównać do przeprowadzania operacji przez ludzi niebędących chirurgami czy projektowania/konstruowania budynków bez uprawnień architekta. Sektor powinien podlegać uregulowaniom prawnym, bo stawką jest dziedzictwo kulturowe Hiszpanii. Musimy inwestować w swoje dziedzictwo. Nim zaczniemy rozmawiać o pieniądzach, najpierw powinniśmy się upewnić, że ludzie, którzy wykonują tego typu prace, przeszli odpowiednie szkolenie. Na razie amatorzy odnawiania na własną rękę mogą się czuć praktycznie bezkarni (grożą im wyłącznie kary administracyjne), a czasem nawet liczyć na społeczne wsparcie. Tak było np. w przypadku Cecilii Giménez (staruszki od fresku Ecce Homo), która w sierpniu 2013 r. świętowała otwarcie własnej wystawy obrazów, głównie pejzaży. « powrót do artykułu
  25. Na Uniwersytecie w Glasgow po raz pierwszy eksperymentalnie potwierdzono teorię dotyczącą pozyskiwania energii z czarnych dziur. W 1969 roku wybitny fizyk Roger Penrose stwierdził, że można wygenerować energię opuszczając obiekt do ergosfery czarnej dziury. Ergosfera to zewnętrzna część horyzontu zdarzeń. Znajdujący się tam obiekt musiałby poruszać się szybciej od prędkości światła, by utrzymać się w miejscu. Penrose przewidywał, że w tym niezwykłym miejscu w przestrzeni obiekt nabyłby ujemną energię. Zrzucając tam obiekt i dzieląc go na dwie części tak, że jedna z nich wpadnie do czarnej dziury, a druga zostanie odzyskana, spowodujemy odrzut, który będzie mierzony wielkością utraconej energii negatywnej, a to oznacza, że odzyskana część przedmiotu zyska energię pobraną z obrotu czarnej dziury. Jak przewidywał Penrose, trudności inżynieryjne związane z przeprowadzeniem tego procesu są tak wielkie, że mogłaby tego dokonać jedynie bardzo zaawansowana obca cywilizacja. Dwa lata później znany radziecki fizyk Jakow Zeldowicz uznał, że teorię tę można przetestować w prostszy, dostępny na Ziemi sposób. Stwierdził, że „skręcone” fale światła uderzające o powierzchnię obracającego się z odpowiednią prędkością cylindra zostaną odbite i przejmą od cylindra dodatkową energię. Jednak przeprowadzenie takiego eksperymentu było, i ciągle jest, niemożliwe ze względów inżynieryjnych. Zeldowicz obliczał bowiem, że cylinder musiałby poruszać się z prędkością co najmniej miliarda obrotów na sekundę. Teraz naukowcy z Wydziału Fizyki i Astronomii University of Glasgow opracowali sposób na sprawdzenie teorii Penrose'a. Wykorzystali przy tym zmodyfikowany pomysł Zeldowicza i zamiast "skręconych" fal światła użyli dźwięku, źródła o znacznie niższej częstotliwości, i łatwiejszego do użycia w laboratorium. Na łamach Nature Physics Brytyjczycy opisali, jak wykorzystali zestaw głośników do uzyskania fal dźwiękowych, skręconych na podobieństwo fal świetlnych w pomyśle Zeldowicza. Dźwięk został skierowany w stronę obracającego się piankowego dysku, który go absorbował. Za dyskiem umieszczono zestaw mikrofonów, które rejestrowały dźwięk przechodzący przez dysk, którego prędkość obrotowa była stopniowo zwiększana. Naukowcy stwierdzili, że jeśli teoria Penrose'a jest prawdziwa, to powinni odnotować znaczącą zmianę w częstotliwości i amplitudzie dźwięku przechodzącego przez dysk. Zmiana taka powinna zajść w wyniku efektu Dopplera. Z liniową wersją efektu Dopplera wszyscy się zetknęli słysząc syrenę karetki pogotowia, której ton wydaje się rosnąć w miarę zbliżania się pojazdu i obniżać, gdy się on oddala. Jest to spowodowane faktem, że gdy pojazd się zbliża, fale dźwiękowe docierają do nas coraz częściej, a gdy się oddala, słyszymy je coraz rzadziej. Obrotowy efekt Dopplera działa podobnie, jednak jest on ograniczony do okrągłej przestrzeni. Skręcone fale dźwiękowe zmieniają ton gdy są mierzone z punktu widzenia obracającej się powierzchni. Gdy powierzchnia ta obraca się odpowiednio szybko z częstotliwością dźwięku dzieje się coś dziwnego – przechodzi z częstotliwości dodatniej do ujemnej, a czyniąc to pobiera nieco energii z obrotu powierzchni, wyjaśnia doktorantka Marion Cromb, główna autorka artykułu. W miarę jak rosła prędkość obrotowa obracającego się dysku, ton dźwięku stawał się coraz niższy, aż w końcu nie było go słychać. Później znowu zaczął rosnąć, aż do momentu, gdy miał tę samą wysokość co wcześniej, ale był głośniejszy. Jego amplituda była o nawet 30% większa niż amplituda dźwięku wydobywającego się z głośników. To co usłyszeliśmy podczas naszych eksperymentów było niesamowite. Najpierw, w wyniku działania efektu Dopplera częstotliwość fal dźwiękowych zmniejszała się w miarę zwiększania prędkości obrotowej dysku i spadła do zera. Później znowu pojawił się dźwięk. Stało się tak, gdyż doszło do zmiany częstotliwości fal z dodatniej na ujemną. Te fale o ujemnej częstotliwości były w stanie pozyskać część energii z obracającego się dysku i stały się głośniejsze. Zaszło zjawisko, które Zeldowicz przewidział w 1971 roku, dodaje Cromb. Współautor badań, profesor Daniele Faccio, stwierdza: jesteśmy niesamowicie podekscytowani faktem, że mogliśmy eksperymentalnie potwierdzić jedną z najdziwniejszych hipotez fizycznych pół wieku po jej ogłoszeniu. I że mogliśmy potwierdzić teorię dotyczącą kosmosu w naszym laboratorium w zachodniej Szkocji. Sądzimy, że otwiera to drogę do kolejnych badań. W przyszłości chcielibyśmy badać ten efekt za pomocą różnych źródeł fal elektromagnetycznych. « powrót do artykułu
×
×
  • Dodaj nową pozycję...