Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Podczas konferencji Large Hadron Collider Physics 2020 eksperymenty ATLAS i CMS przedstawiły najnowsze wyniki dotyczące rzadkich sposobów rozpadu bozonu Higgsa produkowanego na Wielkim Zderzaczu Hadronów w CERN. Nowe kanały obejmują rozpady Higgsa na bozon Z, współodpowiedzialny za słabe oddziaływania jądrowe, oraz inną cząstkę, jak również rozpady na cząstki „niewidzialne”. Te pierwsze, w razie rozbieżności z przewidywaniami Modelu Standardowego, mogą świadczyć o zjawiskach wykraczających poza znaną nam fizykę (tzw. nowa fizyka), podczas gdy niewidzialne rozpady cząstki Higgsa rzuciłyby nowe światło na naturę cząstek tzw. ciemnej materii kosmicznej. Przedstawione analizy oparte są o całość danych zebranych w latach 2015-2018, czyli około miliarda milionów zderzeń proton-proton. Eksperyment ATLAS zmierzył częstość rozpadu Higgsa na Z i foton (γ) na 2.0+1.0−0.9 częstości przewidzianej w Modelu Standardowym, tym samym zbliżając się do czułości umożliwiającej obserwację ewentualnych odstępstw od przewidywań modelu. Eksperyment CMS poszukiwał o wiele rzadszych rozpadów na Z i mezon ρ lub φ i stwierdził, że w nie więcej niż 1.9% przypadków może nastąpić rozpad na Zρ, a nie więcej niż w 0.6% przypadków na Zφ. Obserwacja tego typu rozpadów przy obecnie zebranej ilości danych świadczyłaby o zjawiskach związanych z istnieniem nowej fizyki. Niektóre hipotezy dotyczące nowej fizyki przewidują, że bozon Higgsa może rozpadać się na dwie tzw. słabo oddziałujące masywne cząstki (ang.: WIMP), odpowiedzialne za ciemna materię kosmiczną, a niewidoczne dla aparatury eksperymentalnej. Zespół eksperymentu ATLAS wykluczył, aby prawdopodobieństwo takiego procesu przekraczało 13%. Analogiczne wykluczenie rozpadu bozonu Higgsa na parę tzw. ciemnych fotonów przedstawiła współpraca CMS. Polskie grupy z IFJ, AGH i UJ w Krakowie współtworzą zespól eksperymentu ATLAS, a grupy eksperymentalne z UW i NCBJ w Warszawie uczestniczą w eksperymencie CMS. « powrót do artykułu
  2. Psy ciągnące sanie od wieków pomagają ludziom przetrwać na północy. Mimo, że odgrywają tan ważną rolę, niewiele wiemy o ich pochodzeniu i ewolucji. Cieszyły się dotychczas znacznie mniejszym zainteresowaniem naukowców, niż inne rasy. Znalezione na Syberii artefakty, takie jak kościane rzeźby i narzędzia podobne do używanych obecnie przez Eskimosów do mocowania uprzęży psów sugerują, że już w górnym paleolicie psy pomagały człowiekowi. Na syberyjskiej wyspie Żochowa znaleziono szczątki psa oraz dowody, że było to zwierzę pociągowe wykorzystywane przez kulturę Sumnagin przed 9 tysiącami lat. Tomas Marques-Bonet, Anders J. Hansen i M. Thomas P. Gilbert wraz z międzynarodowym zespołem naukowym przeprowadzili szczegółowe badania genetyczne psów pociągowych. Przeanalizowali DNA psa z wyspy Żochowa (wiek szczątków określono na 9524 lata), syberyjskiego wilka z plejstocenu (wiek to 33 019 lat) oraz 10 współczesnych psów pociągowych używanych przez Inuitów. Do badań wybrano psy, które przez hodowców były uznawane za wzorcowe dla rasy. Próbki pobrano w 5 różnych lokalizacjach geograficznych, od dwóch osobników w każdej z nich. Dzięki temu naukowcy zyskali pewność, że mają pełną reprezentację arktycznych psów pociągowych. Wszystkie wspomniane genomy porównano ze 114 genomami innych psowatych. Analizy wykazały, że wilk z plejstocenu był najbardziej podobny do współczesnych wilków, a pies z wyspy Żochowa wykazywał największe podobieństwo do współczesnych psów pociągowych (psa grenlandzkiego, husky'ego i malamuta) oraz rodzimych psów Ameryki, które wyginęły po przybyciu Europejczyków. Naukowcy chcieli zbadać przepływ genów oraz odnaleźć wspólnego przodka psa z wyspy Żochowa oraz współczesnych psów i wilków. Stwierdzili, że nie doszło do żadnego znacznego przepływu genów pomiędzy żadną z ras psów pociągowych (w tym psa z wyspy Żochowa), a współczesnymi wilkami z amerykańskiej Arktyki. Oznacza to, że w ciągu ostatnich 9500 lat geny wilków nie miały wpływu na pulę genetyczną psów pociągowych. To zaskakujące, gdyż wiemy, że już po udomowieniu innych ras psów dochodziło do ich mieszania się z wilkami. Również dowody etnograficzne wskazują, że krzyżowanie się wilków z psami pociągowymi było mało prawdopodobne. To zaś wskazuje, że mieszkańcy Arktyki prowadzili staranną selekcję i wybierali czyste rasy, a nie hybrydy. Jednocześnie naukowcy zauważyli, że istnieje przepływ genów pomiędzy psami pociągowymi a niektórym rasami współczesnych psów. Niepochodzące z Grenlandii psy pociągowe wykazują ślady mieszania się z innymi rasami. Najmniej takich domieszek jest u psów grenlandzkich. Możemy się domyślać, że psy na Grenlandii były trzymane w izolacji od innych ras psów, a ich genom ma więcej wspólnego z krewniakami psa z wyspy Żochowa niż z innymi rasami. Dodatkowym elementem potwierdzającym to spostrzeżenie jest rozmiar populacji tych psów. Badania wykazały, że historycznie był on stabilny. Sytuacja zmieniła się około 850 lat temu, gdy populacja zmniejszyła się. Wydarzenie to zbiega się w czasie z kolonizacją Grenlandii przez Inuitów i wskazuje, że od tamtego czasu izolacja populacji była jeszcze większa. Analiza genomu psów pociągowych pod kątem przystosowania się do warunków arktycznych wykazała, że różnią się one od innych ras psów. Żyjące w Arktyce psy pociągowe są lepiej przystosowane do diety zawierającej duże ilości tłuszczu, gdy tymczasem inne rasy psów są przystosowane do trawienia dużych ilości skrobi. Pod tym względem psy pociągowe są bardziej podobne do wilków. Istnieje jednak różnica genetyczna pomiędzy współczesnymi psami pociągowymi, a psem z wyspy Żochowa, dotycząca zdolności do tolerancji diety wysokotłuszczowej. Obecność tej różnicy wskazuje, że pojawiła się ona już po oddzielenia psów współczesnych i psa z wyspy Żochowa od ich wspólnego przodka. Co interesujące, adaptacje takie są analogiczne do adaptacji widocznych u ludzi, co wskazuje na wspólną ewolucję psów pociągowych i ludzi wspólnie podbijających Arktykę. Dowody z wyspy Żochowa, takie jak genom psa oraz narzędzia z obsydianu pochodzącego z miejsc odległych o 1500 kilometrów wskazują, że już przed 9500 lat istniały psy pociągowe, które odgrywały kolosalną rolę w ekspansji człowieka na tamte tereny. « powrót do artykułu
  3. W zeszłym tygodniu na Florida Keys wypuszczono do Atlantyku rzadką hybrydę żółwia zielonego i szylkretowego. Do karapaksu zwierzęcia - samicy o imieniu Maisy - przymocowano nadajnik GPS, który pozwoli na śledzenie trasy migracji i jej wyników w Tour de Turtles. Tour de Turtles to doroczny projekt edukacyjny, organizowany przez Sea Turtle Conservancy (STC). Przedsięwzięcie ma zwiększyć społeczną świadomość związaną z żółwiami morskimi i czynnikami zagrażającymi ich przeżyciu. Na witrynie STC można się zapoznać z aktualizowanymi biogramami konkurentów żółwiego wyścigu. W tym roku startują dwie ligi: żółwi morskich (Cheloniidae) i skórzastych (Dermochelyidae). Wyścig tej drugiej rozpoczął się już 16 czerwca. Jak wyjaśnia Dan Evans, Maisy jest pierwszym osobnikiem z 9, które mają być wypuszczone z Florydy do końca lipca. Właściwy monitoring i "wyścig" zaczną się 1 sierpnia i zakończą 31 października. Maisy została uratowana niemal rok temu w okolicach wyspy Summerland Key (Lower Keys). W Sea Turtle Hospital, szpital jest zresztą sponsorem jej udziału w wyścigu, była leczona z powodu fibropapilomatozy, czyli włókniakobrodawczakowatości. W ramach leczenia przeprowadzono liczne operacje usunięcia zmian skórnych, a także wdrożono antybiotykoterapię i zdrową dietę. Maisy jest pierwszą hybrydą, jaką kiedykolwiek monitorowaliśmy. Jest krzyżówką żółwia zielonego i szylkretowego, dlatego interesująco będzie zobaczyć, czy uda się do habitatu wykorzystywanego przez żółwie zielone, czy szylkretowe - podkreśla Evans. Jak dotąd Maisy pokonała 81 km. Jej średnia prędkość od wypuszczenia wynosi 0,48 km/h. W każdej z lig wygra osobnik, który w zadanym czasie przepłynie najdłuższy dystans.   « powrót do artykułu
  4. Eksperci wygenerowali i zmierzyli splątanie kwantowe na pokładzie satelity CubeSat. To kluczowy krok w kierunku globalnej kwantowej sieci komunikacyjnej. W przyszłości nasz system może być częścią globalnego kwantowego systemu przesyłania sygnałów kwantowych do odbiorników na Ziemi lub na pokładzie innych urządzeń znajdujących się w przestrzeni kosmicznej, mówi główny autor badań, Aitor Villar z Centrum Technologii Kwantowych Narodowego Uniwersytetu Singapuru. Villar dodaje, że sygnały te mogą być używane do dowolnego rodzaju komunikacji kwantowej, od kwantowej dystrybucji klucza na potrzeby superbezpiecznej komunikacji, po kwantową teleportację, gdzie informacja jest przesyłana poprzez replikację na odległość stanu systemu kwantowego. Villar i współpracująca z nim grupa międzynaodowych specjalistów opisali na łamach magazynu Optica, jak stworzone przez nich miniaturowe urządzenie, w którym dokonywane jest splątanie kwantowe, pracuje na pokładzie miniaturowych satelitów CubeSat. Urządzenia te to nanosatelity o wymiarach około 10x10x10 centymetrów. Są niewielkie i lekkie, a więc ani ich budowa, ani wniesienie na orbitę nie wiążą się z tak gigantycznymi kosztami jak w przypadku pełnowymiarowych satelitów. Wykorzystanie splątania kwantowego daje nadzieję na sueprbezpieczną komunikację. Problem jednak w tym, że – przynajmniej obecnie – nie jest możliwe stworzenie globalnej sieci kwantowej komunikacji opartej na światłowodach. Dochodzi w nich bowiem do dużych strat sygnału. Problem mogłyby rozwiązać kwantowe wzmacniacze, ale... takie jeszcze nie istnieją. O związanych z tym problemach wspominaliśmy w tekście Polak pomógł w osiągnięciu rekordowych 1120 km dla zabezpieczonej splątaniem kwantowym QKD. Problemy te mogłaby rozwiązać flota miniaturowych satelitów, wyposażonych w odpowiednie urządzenie. I właśnie tym zajęli się naukowcy z grupy Villara. W pierwszym etapie swoich badań musieli udowodnić, że miniaturowe źródło fotonów wykorzystywane do osiągnięcia splątania jest w stanie przetrwać start rakiety z satelitą na pokładzie, a następnie będzie bez zakłóceń pracowało w przestrzeni kosmicznej. Najpierw przez długi czas prowadzili prace nad opowiednim urządzeniem. Na każdym kolejnym etapie musieli pamiętać o niewielkich rozmiarach oraz kosztach CubeSat. W końcu powstało niewielkie, wytrzymałe urządzenie zbudowane z ogólnodostępnych podzespołów. Składa się ono z niebieskiej diody laserowej, której światło skierowane jest na nieliniowe kryształy, dzięki czemu powstają pary splątanych fotonów. Później urządzenie poddano wibracjom oraz zmianom temperatury, spodziewanym podczas startu rakiety oraz pracy w przestrzeni kosmicznej. Testom poddano też same kryształy. Wykazały one, że kryształy zachowują swoje pozycje pomimo wielokrotnych wahań temperatur pomiędzy -10 a +40 stopni Celsjusza. W końcu nowy instrument został umieszczony w CubeSat o nazwie SpooQy-1 i wysłany na Międzynarodową Stację Kosmiczną. Dnia 17 czerwca wypuszczono go z MSK i trafił na orbitę. Przeprowadzone właśnie eksperymenty wykazały, że generuje on pary fotonów w temperaturach od 16 do 21,5 stopni Celsjusza. Eksperyment ten pokazuje, że ta zminiaturyzowana technologia generuje splątanie pobierając przy tym niewiele energii. To bardzo ważny krok w kierunku budowy sieci tanich satelitów tworzących globalną sieć komunikacji kwantowej, mówi Villar. Obecnie naukowcy współpracują z brytyjską firmą RALSpace. Ich celem jest stworzenie nanosatelity podobnego do SpooQy-1, który będzie w stanie wysłać parę splątanych fotonów z orbity do naziemnego odbiornika. Test takiego systemu zaplanowano na 2022 rok. « powrót do artykułu
  5. Światowa Organizacja Meteorologiczna poinformowała o 2 nowych światowych rekordach: długości i czasu trwania tzw. megabłyskawic (ang. lightning megaflash events). Błyskawica, która rozświetliła niebo nad Argentyną 4 marca 2019 r., trwała aż 16,73 s, a więc ponad 2-krotnie dłużej niż poprzednia rekordzistka. Odległość pozioma wyznaczona dla drugiej, odnotowanej 31 października 2018 r. nad południową Brazylią, wynosiła, bagatela, 709±8 km - to odpowiednik odległości np. od Londynu do granic Szwajcarii w pobliżu Bazylei. Ustalenia opublikowano w Geophysical Research Letters. To niesamowite rekordy [...]. Ekstrema środowiskowe to żywy przykład tego, do czego zdolna jest natura, a także pokaz postępów naukowych umożliwiających takie pomiary. Niewykluczone, że istnieją jeszcze większe ekstrema i że będziemy w stanie je obserwować w miarę postępów technologii detekcji - podkreśla prof. Randall Cerveny. Do tej pory rekordy należały do błyskawicy z Oklahomy, która 20 czerwca 2007 r. rozciągała się w poziomie na odległość ponad 321 km i do błyskawicy, która utrzymywała się bez przerwy 7,74 s (miało to miejsce 30 sierpnia 2012 r. nad regionem francuskim Prowansja-Alpy-Lazurowe Wybrzeże). Wcześniej posługiwano się systemem LMA (od ang. Lightning Mapping Array), a obecnie wykorzystano dane z Geostationary Lightning Mappers (GLM) z satelitów. Megabłyskawicami nazywa się błyskawice ponad 100-km (są one zjawiskami mezoskalowymi). « powrót do artykułu
  6. Obecnie wstępną diagnozę nowotworów mózgu wykonuje się na podstawie badań obrazowych, jednak diagnoza szczegółowa, określająca np. konkretny rodzaj nowotworu, wymaga wykonania biopsji. Możliwość nieinwazyjnego zdiagnozowania nowotworu, oznaczałaby olbrzymi postęp w walce z nowotworami mózgu. Grupa naukowców Farshad Nassiri, Ankur Chakravarthy i ich koledzy z University of Toronto, we współpracy z amerykańskimi kolegami, informują na łamach Nature Medicine o opracowaniu wysoce czułego testu z krwi, który pozwala dokładnie diagnozować i klasyfikować różne typy guzów mózgu. Test opiera się na najnowszych odkryciach naukowych, dzięki którym wiemy, że profile metylacji DNA w plazmie są wysoce specyficzne dla różnych guzów i pozwalają na odróżnienie od siebie guzów pochodzących od tych samych linii komórkowych. Gdybyśmy dysponowali lepszą i bardziej wiarygodną metodą diagnozowania i klasyfikowania podtypów guzów, moglibyśmy zmienić sposób opieki nad pacjentem, mówi doktor Gelareh Zadeh, szefowa chirurgii onkologicznej w Cancer Care Ontario. To zaś miałoby olbrzymi wpływ na planowanie i przebieg leczenia. Jeden z autorów, doktor Danel De Carvalho, specjalizuje się w badaniu wzorców metylacji DNA. Kierowane przez niego laboratorium już wcześniej opracowało metodę badania wzorców metylacji za pomocą płynnej biopsji. Teraz, na potrzeby najnowszych badań, naukowcy porównali dane ze szczegółowych analiz tkanek nowotworów mózgu 221 pacjentów, z badaniem swobodnie krążącego DNA nowotworowego (ctDNA) obecnego w osoczu tych osób. Dzięki temu byli w stanie połączyć konkretne podtypy guzów mózgu z ctDNA krążącym we krwi. Następnie na tej podstawie opracowali algorytm, który klasyfikuje nowotwory mózgu wyłącznie na podstawie ctDNA. Jak zauważa doktor Zadeh, wcześniej nie było możliwe diagnozowanie nowotworów mózgu na podstawie badań krwi ze względu na istnienie bariery mózg-krew. Jednak nasz test jak tak czuły,że wykrywa we krwi nawet minimalne sygnały świadczące o istnieniu nowotworu. Mamy teraz nową nieinwazyjną metodę, która pozwala na wykrywanie i klasyfikowanie guzów mózgu. « powrót do artykułu
  7. Jak się powszechnie uważa świnki morskie, jedne z najczęściej spotykanych zwierząt domowych na świecie, zostały po raz pierwszy udomowione w Peru. Były ważnym źródłem pożywienia, wykorzystywano je w ceremoniach religijnych, transportowano je i handlowano nimi w całej Ameryce Południowej. Po tysiącach lat, około roku 500, przewieziono je na Karaiby. Profesor Lisa Matisoo-Smith z nowozelandzkiego University of Otago od lat bada DNA roślin i zwierząt w regionie Pacyfiku, wykorzystując te dane do identyfikowania przewożących je ludzkich populacji i rekonstrukcji dróg ich przemieszczania się. Tym razem uczona postanowiła zbadać, skąd świnki morskie trafiły na Karaiby. Jako, że znacznie wcześniej zwierzęta te były przedmiotem handlu, można się było spodziewać, że przywieziono je z blisko położonej Kolumbii. Naukowcy wykorzystali szczątki świnek morskich z Karaibów, Peru, Kolumbii, Boliwii, Europy i Ameryki Północnej. I tu czekała ich pierwsza niespodzianka. Okazało się, że na Karaiby świnki morskie trafiły nie z Kolumbii, a prawdopodobnie z Peru. Jednak jeszcze większym zaskoczeniem było stwierdzenie, że szczątki świnek morskich z kolumbijskich Andów reprezentują najprawdopodobniej zupełnie inny gatunek. To zaś sugeruje, że do udomowienia świnki morskiej doszło niezależnie w Peru oraz w Kolumbii. Badania genetyczne oraz archeologiczne ujawniły też zmiany roli świnki morskiej w czasie. Były i wciąż są ważnym źródłem pokarmu w Ameryce Południowej oraz w kulturach stamtąd się wywodzących. Ludzie zabierali je ze sobą, wprowadzali na wyspy, na których nie występowały, wymieniali je na inne dobra, mówi Matisoo-Smith. Świnki morskie trafiły do Europy pod koniec XVI lub na początku XVII wieku. Zostały tam przywiezione przez Hiszpanów. Do Ameryki Północnej zawieziono je na początku XIX wieku w ramach handlu egzotycznymi zwierzętami. Już w XVIII wieku były używane w badaniach medycznych, gdyż pod wieloma względami są podobne do ludzi, wyjaśnia uczona. Obecnie wszystkie świnki morskie, zarówno te, które są domowymi pupilami, te sprzedawane na mięso w Ameryce Południowej czy Portoryko, jak i te używane w badaniach medycznych, pochodzą od udomowionej świnki morskiej z Peru, dodaje. Dlaczego jednak w jednych kulturach są domowymi pupilami, a w innych są zjadane? Prawdopodobnie ma to związek z tym, co dana kultura pozwala traktować jak żywność. Profesor Matisoo-Smith mówi, że zidentyfikowanie szczątków świnki morskiej z Karaibów pozwala nam lepiej zrozumieć szlaki handlowe i ruch ludności w tym regionie w ciągu ostatniego 1000 lat. Dzięki nim, lepiej rozumiemy interakcje społeczne pomiędzy trzema kontynentami. Mamy też lepszy pogląd na zróżnicowanie genetyczne gatunku i jego relacje z ludźmi. « powrót do artykułu
  8. Podczas nadzorczych prac archeologicznych na budowie odcinka drogi ekspresowej S19 Podgórze-Kamień odkryto 115 grobów szkieletowych. Jamy grobowe znajdowały się na terenie Gór Kościelnych, pasma wzniesień w Jeżowem. Jamy grobowe są zorientowane na osi wschód-zachód, z głowami skierowanymi w kierunku zachodnim. Ok. 70-80% wszystkich pochówków stanowią pochówki dzieci. Specjaliści podejrzewają, że wiąże się to z faktem, iż w tym miejscu została wydzielona przestrzeń cmentarza, gdzie chowano najmłodszych mieszkańców Jeżowego. Odkryte groby są ubogo wyposażone. W kilku pochówkach stwierdzono jednak występowanie monet w ustach zmarłego. Były to tzw. boratynki i półtoraki, czyli monety bite za Zygmunta III Wazy. Ma to oczywisty związek z wierzeniami staropolskimi, jest to tzw. obol zmarłych lub obol Charona, który stanowił formę zapłaty za usługi dla duszy w zaświatach. « powrót do artykułu
  9. Dzięki wykryciu neutrin pochodzących z jądra Słońca fizycy byli w stanie potwierdzić ostatni brakujący element opisu fuzji zachodzącej wewnątrz naszej gwiazdy. Potwierdzili tym samym obowiązujący od dziesięcioleci model teoretyczny przewidujący, że część energii słonecznej pochodzi z łańcucha reakcji, w którym udział mają atomy węgla i azotu. W procesie tym cztery protony łączą się w jądro helu. Dochodzi do uwolnienia dwóch neutrin, innych cząstek subatomowych i olbrzymich ilości energii. Ten cykl węglowo-azotowo-tlenowy (CNO) nie odgrywa większej roli w Słońcu, gdzie dzięki niemu powstaje mniej niż 1% energii. Uważa się jednak, że gdy gwiazda się starzeje, zużywa wodór i staje się czerwonym olbrzymem, wówczas rola cyklu CNO znacząco rośnie. O odkryciu poinformowali naukowcy pracujący przy włoskim eksperymencie Borexino. To wspaniałe, że udało się potwierdzić jedno z podstawowych założeń teorii dotyczącej gwiazd, mówi Marc Pinsonnealut z Ohio State University. Borexino już wcześniej jako pierwszy wykrył neutrina pochodzące z trzech różnych etapów reakcji zachodzącej w Słońcu, która odpowiada za produkcję większości energii naszej gwiazdy. Dzięki obecnemu odkryciu Borexino w pełni opisał dwa procesy zasilające Słońce, mówi rzecznik eksperymentu Gioacchino Branucci z Uniwersytetu w Mediolanie. Kończymy wielkim bum!, dodał Marco Pallavicini z Uniwersytetu w Genui. Może to być bowiem ostatnie odkrycie Borexino, któremu grozi zamknięcie z powodu ryzyka dla źródła wody pitnej. Odkrycie neutrin pochodzących z cyklu węglowo-azotowo-tlenowego nie tylko potwierdza teoretyczne modele procesów zachodzących w Słońcu, ale rzuca też światło na strukturę jego jądra, szczególnie zaś na koncentrację w nim metali. Tutaj trzeba podkreślić, że astrofizycy pod pojęciem „metal” rozumieją wszelkie pierwiastki o masie większej od wodoru i helu. Liczba neutrin zarejestrowanych przez Borexino wydaje się zgodna ze standardowym modelem przewidującym, że metaliczność jądra jest podobna do metaliczności powierzchni. To ważne spostrzeżenie, gdyż w ostatnim czasie pojawiało się coraz więcej badań kwestionujących taki model. Badania te sugerowały, że metaliczność jądra jest niższa niż powierzchni. A jako, że to skład pierwiastków decyduje o tempie przepływu energii z jądra, badania te sugerowały jednocześnie, że jądro jest nieco chłodniejsze niż sądzono. Jako, że proces, w którym powstają neutrina jest niezwykle wrażliwy na temperaturę, dane zarejestrowane przez Borexino wskazują raczej na starsze wartości temperatury, nie na te sugerowane przez nowe badania. « powrót do artykułu
  10. Międzynarodowy zespół naukowców opracował funkcjonalizowane peptydami nanocząstki złota, które pozwalają ograniczyć śmierć neuronów będącą wynikiem zbyt dużego pobudzenia (hiperekscytacji). Autorzy badań podkreślają, że nadmierna stymulacja komórek nerwowych przez kwas glutaminowy (glutaminian, GLU) może doprowadzić do ich uszkodzenia i śmierci. Zjawisko to, zwane ekscytotoksycznością, występuje w wielu chorobach neurozapalnych i neurodegeracyjnych, m.in. alzheimerze. Nadmierna stymulacja receptorów glutaminergicznych może wywołać niekontrolowany napływ jonów Ca2+ do wnętrza komórki. W warunkach fizjologicznych jony wapnia pełnią rolę ważnego przekaźnika (wyzwalają szereg procesów). Jeśli ich napływ jest jednak nadmierny, dochodzi do wspomnianej hiperekscytacji neuronu, a konsekwencją ekscytotoksyczności jest w bardzo wielu przypadkach programowana śmierć komórki, czyli apoptoza. Wysokie stężenie wapnia w neuronie po stymulacji receptorów glutaminianergicznych uruchamia kolejne procesy prowadzące do jego zniszczenia: 1) aktywację enzymów zależnych od jonów wapnia (m.in. kinaz białkowych, proteaz czy endonukleaz), 2) aktywację syntazy tlenku azotu, 3) dysfunkcję mitochondriów oraz 4) generowanie wolnych rodników. Nadmierna aktywacja neuronu prowadzi do zwiększonego zapotrzebowania energetycznego przy ograniczonych możliwościach jej produkcji. Deficyt energetyczny skutkuje uszkodzeniem mitochondriów i śmiercią neuronów. Funkcjonalizowane peptydami nanocząstki złota zaprojektowano i przygotowano w IIT-Istituto Italiano di Tecnologia w Lecce. Pozwalają one na wybiórcze hamowanie ekstrasynaptycznych (pozasynaptycznych) receptorów glutaminergicznych. Jak tłumaczą naukowcy, wielkość nanocząstek skutkuje blokowaniem wyłącznie receptorów zlokalizowanych pozasynaptycznie. Dzięki temu zachowana zostaje prawidłowa neurotransmisja, a jednocześnie można uniknąć nadmiernej aktywacji prowadzącej do śmierci neuronów. Mechanizm molekularny leżący u podłoża neuroochronnego działania nanocząstek określono podczas prac eksperymentalnych prowadzonych przez Pierluigiego Valente z Uniwersytetu w Genui oraz grupę Fabia Benfenatiego z Centro NSYN-IIT w Genui. Wyniki badań będzie można wykorzystać podczas rozwijania metod terapii chorób neurologicznych przebiegających z nadmiernym uwalnianiem GLU. Możliwość blokowania receptorów pozasynaptycznych, które przede wszystkim odpowiadają za śmierć komórek, bez oddziaływania na transmisję synaptyczną pozwala myśleć o pozbawionej skutków ubocznych terapii celowanej. « powrót do artykułu
  11. W marcu przedstawiciele firmy Honeywell zapowiadali, że w ciągu trzech miesięcy zaprezentują najpotężniejszy komputer kwantowy na świecie. Słowa dotrzymali. Firma poinfomrmowała właśnie, że jej system uzyskał największą wartość „kwantowej objętości”. Miara Quantum Volume (QV) została opracowana przez IBM-a. Trzeba jednak podkreślić, że nie jest powszechnie akceptowaną skalą pomiaru wydajności komputerów kwantowych. Nie jest też jasne, jak ma się ona do „kwantowej supremacji” ogłoszonej przez Google'a w ubiegłym roku. Przypomnijmy, że Google ogłosił ją twierdząc, że jego komputer wykonał w ciągu 200 sekund obliczenia, na które klasyczny superkomputer potrzebowałby 10 000 lat, zatem nie wykona ich w rozsądnym czasie. Przedstawiciele IBM-a poinformowali, że to naciągane stwierdzenia, gdyż klasyczny superkomputer poradziłby sobie z nimi w 2,5 doby. QV ma być obiektywnym, niezależnym od użytego sprzętu czy rozwiązań technologicznych, sposobem pomiary wydajności komputera kwantowego. Bierze on pod uwagę liczbę kubitów, błędy pomiarowe czy wydajność komputera. Honeywell informuje, że wartość QV jego 6-kubitowego systemu wynosi 64. Zdecydowanie pokonał więc najpotężniejszy z komputerów oceniany tym systemem, IBM-owską 53-kubitową maszynę Raleigh, która osiągnęła QV=32. Mimo, że QV nie jest powszechnie akceptowaną miarą, to Honeywell uważa, że jest najlepszą z dostępnych. Bierze ona pod uwagę nie tylko liczbę dostępnych kubitów, mówi Tony Uttlej, prezes działu Quantum Solutions w Honeywell. Jak wyjaśnia, sama liczba kubitów niewiele mówi o możliwościach komputera kwantowego, gdyż w prawdziwych obliczeniach niekoniecznie odnosi się korzyści z większej liczby kubitów. Maszyna Honeywella wykorzystuje jony iterbu uwięzione w pułapce elektromagnetycznej. Kubit jest reprezentowany przez spin jonów. Całość chłodzona jest ciekłym helem do temperatur niewiele wyższych od zera absolutnego. Lasery manipulują kubitami, przeprowadzając obliczenia. Główną zaletą tego systemu i tym, co dało mu przewagę w QV jest długotrwałe – trwające kilka sekund – utrzymanie stanu kwantowego kubitów. Tak długi czas koherencji pozwala na wykonanie niezbędnych pomiarów stanu kubitów. Honeywell twierdzi zatem, że posiada najpotężniejszy komputer kwantowy na świecie. Firma ma zamiar udostępniać go komercyjnie. Inne przedsiębiorstwa będą mogły dzięki temu wykonywać złożone obliczenia. Uttley mówi, że godzina korzystania z komputera zostanie wyceniona na około 10 000 USD. Firma nie zdradza ilu ma w tej chwili klientów. Poinformowała jednak, że jednym z nich jest bank JPMorgan Chase, którego eksperci wykorzystują maszynę Honeywella do budowania modelu wykrywania oszustw bankowych. Firmy, które nie zatrudniają własnych specjalistów ds. obliczeń kwantowych mogą zaś korzystać z maszyny za pośrednictwem firm Zapata Computing i Cambridge Quantum Computing. « powrót do artykułu
  12. Największa od 50 lat chmura saharyjskiego pyłu przebyła Atlantyk, pojawiła się nad Karaibami i zmierza w kierunku USA. W regionie, w którym obecnie się znajduje, wydano ostrzeżenie o niebezpiecznym poziomie zanieczyszczeń powietrza. Eksperci radzą mieszkańcom wysp, by nie wychodzili z domu. To największa taka chmura od 50 lat. Na wielu wyspach na zewnątrz panują niebezpieczne dla zdrowia warunki, mówi Pablo Mendez Lazaro z University of Puerto Rico, który współpracuje z NASA nad systemem wczesnego ostrzegania przed chmurami pyłu. „Godzilla”, bo tak nazwano chmurę, najbardziej zagraża osobom z problemami oddechowymi. Eksperci szczególnie martwią się o chorych na COVID-19. Jednak nawet zdrowi ludzie mogą ucierpieć, gdyż wysokie stężenie pyłów w powietrzu utrzymuje się przez wiele dni. Najgorsze warunki wraz z ograniczeniem widoczności panują obecnie pomiędzy Antiguą a Trynidadem i Tobago. Mogą się one utrzymać jeszcze do dzisiejszego wieczora. Meteorolodzy przewidują, że na terytorium USA najcięższe warunki pojawią się w poniedziałek i wtorek nad południowo-wschodnim wybrzeżem. Jak informuje NOAA (U.S. National Oceanic and Atmospheric Administration) masa ekstremalnie suchego i zapylonego powietrza – zwana Saharan Air Layer (SAL) – formuje się i przemieszcza przez Atlantyk co 3-5 dni pomiędzy późną wiosną a wczesną jesienią. Jej szczyt przypada na koniec czerwca do połowy sierpnia. SAL może mieć grubość do 3 kilometrów. „Godzilla” uformowała się 13 czerwca. Pył znad Sahary odgrywa ważną rolę po drugiej stronie Atlantyku. To on tworzy plaże Karaibów i nawozi glebę Amazonii. Wpływa też niekorzystnie na jakość powietrza. SAL tłumi też burze tropikalne. « powrót do artykułu
  13. Naukowcy z Lawrence Berkeley National Laboratory (LBNL) odkryli nowy izotop mendelewu (Md). 244Mendlew to 17. i najlżejszy znany izotop tego sztucznie otrzymanego pierwiastka. Mendelew został po raz pierwszy uzyskany w 1955 roku właśnie w Berkeley Lab. To jeden z 16 pierwiastków, który odkryli lub pomogli odkryć naukowcy z LBNL. Md-244 uzyskano w uruchomionym przed 3 laty 88-calowym cyklotronie. To rodzaj akceleratora, który został w 1930 roku opracowany przez Ernesta O. Lawrence'a, od którego nazwiska pochodzi nazwa laboratorium. Uczeni z Berkeley Lab odkryli 12 z 17 izotopów mendelewu. W sumie laboratorium ma na swoim koncie odkrycie 640 izotopów, czyli około 20% ze wszystkich – 3308 – znanych izotopów. Żadna inna instytucja naukowa nie może pochwalić się takim osiągnięciem. 244Md to pierwszy izotop odkryty w LBNL od 2010 roku. Odkrycie nowego izotopu mendelewu nie było proste, gdyż wszystkie sąsiadujące z nim izotopy mają bardzo podobny sposób rozpadu, mówi Jennifer Pore, która stała na czele zespołu badawczego. W ramach badań jej zespół dokonał szczegółowych pomiarów właściwości 10 atomów 244Md. Wyniki ich pracy ukazały się na łamach Physical Review Letters. Każdy z izotopów ma unikatową kombinację protonów i neutronów. Gdy odkrywamy nowy izotop wiemy, że taka kombinacja nigdy wcześniej nie była obserwowana. Badania izotopów prowadzą nas do lepszego zrozumienia natury materii, wyjaśnia Pore. Naukowcy zdobyli dowody, że 244Md może rozpadać się na dwa różne sposoby, co prowadzi do różnego okresu półżycia wynoszącego 0,4 oraz 6 sekund. Badając mendelew naukowcy dokonali też dodatkowego odkrycia. Jako pierwsi zdobyli dowody na rozpad alfa berkelu-236, który zmienia się w ameryk-232. Kluczowym elementem, dzięki któremu odkryto 244Md był wspomniany już 88-inch Cyclotron, którego centralny element stanowi FIONA (For the Identification Of Nuclide A). Michael Thoennessen z Michigan State University, który zarządza listą izotopów zauważa, że w ostatnich latach nowe izotopy są odkrywane rzadziej niż wcześniej. Nowe izotopy odkrywane są cyklicznie, a odkrycia zależą od pojawiania się nowych akceleratorów i postępach w rozwoju sprzętu do prowadzenia eksperymentów. Naukowiec mówi, że to takie urządzenia jak FIONA czy FRIB (Facility for Rare Isotope Beams) budowany właśnie na Michigan State University, mają unikatowe właściwości i olbrzymi potencjał dokonania nowych odkryć. Zespół Pore, chcąc upewnić się, że FIONA pracuje bez zarzutu, najpierw przeprowadził w cyklotronie szczegółowe analizy rozpadu innych izotopów mendelewu, w tym 247Md, 246Md i 245Md. Uzyskane wyniki były zgodne z tym, co o izotopach tych wiedziano wcześniej. Gdy już zyskaliśmy pewność, że instrument dobrze wyznaczył właściwości tych izotopów, przystąpiliśmy do eksperymentów mających na celu okrycie nieznanego dotychczas izotopu 244Md, mówi Pore. Nowy izotop mendelewu uzyskano kierując wiązkę zawierającą argon-40 na cienką folię z bizmutu-209. Uczeni mieli nadzieję, że dojdzie do bezpośredniego zderzenia i połączenia obu izotopów, w wyniku czego powstanie 244Md, a oni zdążą zbadać jego właściwości, zanim ulegnie on rozpadowi. Eksperyment zakończył się sukcesem dzięki temu, że w skład cyklotronu, obok FIONA, wchodzi też Berkeley Gas-Filled Separator. Urządzenie to oddziela poszukiwane atomy od reszty, umożliwiając szybkie zbadanie ich właściwości. Teraz, gdy FIONA sprawdziła się w roli wykrywacza nowych izotopów, Pore już planuje prace nad odkryciem innych nieznanych jeszcze izotopów. « powrót do artykułu
  14. Kobiety i mężczyźni różnią się między sobą pod względem przebiegu rozwoju, fizjologii czy przebiegu chorób. Różnice pomiędzy płciami manifestują się w wielu chorobach, w tym w nowotworach, zaburzeniach neurologicznych, chorobach układu krążenia czy autoimmunologicznych. Różnice te, które wpływają zarówno na częstotliwość występowania, przebieg jak i reakcję na leczenie różnych chorób znacząco utrudniają zarówno zapobieganie chorobom jak i sam proces leczenia. Słabo bowiem rozumiemy czynniki i mechanizmy biologiczne wpływające na różnice między płciami. Wiemy, że przynajmniej częściowo ma na to wpływ genetyka, że różnice biorą się działań chromosomów X i Y czy hormonów płciowych. Niewielkie różnice w ekspresji genów mogą przekładać się na spore zmiany. Wiadomo np. że pomiędzy płciami występują różnice w dostępności chromatyny, a to może objawiać się w różnym poziomie ekspresji genów. Naukowcy już wcześniej wykazali, że istnieją międzypłciowe różnice w pracy sieci regulacji genowych w przebiegu przewlekłej obturacyjnej choroby płuc czy raka jelita grubego. Tym razem postanowili systematycznie zbadać molekularne podstawy różnic pomiędzy płciami w różnych rodzajach tkanek. Na potrzeby badań przeanalizowali informacje o ekspresji 30 243 genów, w tym 1074 kodowanych przez chromosomy płciowe. W badaniach uwzględniono tylko te tkanki, które uzyskano zarówno od kobiet, jak i mężczyzn, w liczbie po ponad 30 próbek dla każdej z płci. W ten sposób od 548 osób (360 mężczyzn i 188 kobiet) uzyskano 8279 próbek reprezentujących 29 typów tkanek. Badania wykazały, że najwięcej genów o różnej ekspresji pomiędzy płciami występuje w tkance piersi, podskórnej tkance tłuszczowej, mięśniach szkieletowych, tkance skóry oraz tkance tarczycy. Najmniejsze zaś pod tym względem różnice zauważono w tkance układu pokarmowego, z wyjątkiem błony śluzowej przełyku. W piersiach różnice ekspresji występowały w 4181 genach (w tym w 4009 autosomalnych, czyli nie płciowych), drugą pod względem różnic tkanką była tłuszczowa podskórna, gdzie różnice pomiędzy płciami stwierdzono w ekspresji 482 genów (431 autosomalnych). W innych tkankach różnice były mniejsze. Ogólnie rzecz biorąc we wszystkich badanych 29 tkankach mediana liczby genów o różnej ekspresji wynosiła 64 (28 autosomalnych), czyli różnice dotyczyły 0,2% analizowanych genów (0,1% autosomalnych). Jak stwierdzają autorzy badań w podsumowaniu swojej pracy różnice pomiędzy płciami to jedne z najsłabiej poznanych aspektów chorób. Historycznie rzecz ujmując, płeć nie była odpowiednio brana pod uwagę. Wiele eksperymentów wykonywano tylko na mężczyznach, z analiz wykluczano chromosomy płciowe, a protokoły mapowania genów nie brały pod uwagę różnic płciowych. [...] Uzyskane przez nas wyniki wskazują, że proces regulacji genów, taki jak zmienność epigenetyczna, może być tym czynnikiem napędzającym różnice pomiędzy płciami o odniesieniu do zdrowia i chorób. Podkreślają przy tym, że różnice w regulacji genów pomiędzy płciami występują w każdej tkance, co wskazuje, że jest to proces systemowy, a nie izolowane zjawisko. « powrót do artykułu
  15. Zespół prof. Roberta P. Doyle'a z Uniwersytetu w Syracuse rozwija nowy lek na cukrzycę typu 2. Obniża on poziom glukozy we krwi, nie wywołując przy tym skutków ubocznych typowych dla agonistów receptora GLP-1 (GLP-1R): mdłości, wymiotów czy utraty wagi. W trzustce GLP-1 pełni rolę hormonu inkretynowego; stymuluje indukowane posiłkiem uwalnianie insuliny z komórek beta. Ekipa Doyle'a posłużyła się biokoniugacją. Za pomocą techniki nazwanej korynacją połączono cząsteczkę eksendyny 4 (Ex-4)- dobrze poznanego syntetycznego agonisty receptora GLP-1 - i dicyjanokobinamidu (Cbi). Cbi-Ex4 testowano na ryjówce domowej (Suncus murinus). Podczas testów tolerancji glukozy potwierdzono działanie hypoglikemizujące. Stwierdzono też znaczące zmniejszenie wymiotów, w porównaniu do Ex4. Nie odnotowano spadku wagi. Wydaje się więc, że Cbi-Ex4 to idealny lek dla osób wymagających glukoregulacji bez oddziaływania na wskaźnik masy ciała. Co istotne, lek może przynieść korzyści diabetykom, którzy cierpią równocześnie na mukowiscydozę, przewlekłą obturacyjną chorobę płuc (POChP), sarkopenię czy nowotwory. Naukowcy planują kolejne etapy testów klinicznych. Wyniki badań opisano na łamach Cell Reports. « powrót do artykułu
  16. Niezwykły sygnał, zauważony w falach grawitacyjnych, rzuca nowe światło na „lukę masy” pomiędzy gwiazdami neutronowymi, a czarnymi dziurami. Naukowcy od kilkudziesięciu lat nie wiedzą, czy i co znajduje się pomiędzy tymi obiektami. Teraz mają dowód, że coś tam jest. Gdy najbardziej masywne gwiazdy kończą życie, zapadają się pod wpływem własnej grawitacji i powstaje czarna dziura. Gdy jednak umierająca gwiazda jest mniej masywna, wybucha jako supernowa i pozostaje po niej gęste jądro – gwiazda neutronowa. Od dziesięcioleci wiemy, że najbardziej masywne gwiazdy neutronowe mają masę nie większą niż 2,5 masy Słońca, a najmniej masywne czarne dziury charakteryzują się masą około 5 mas Słońca. Powstaje więc pytanie, co jest pomiędzy tymi masami. W ubiegłym roku informowaliśmy, że wykrywacz fal grawitacyjnych LIGO, zarejestrował wszystko, czego od niego oczekiwano: zderzenie dwóch czarnych dziur, zderzenie dwóch gwiazd neutronowych oraz wchłonięcie gwiazdy neutronowej przez czarną dziurę. I właśnie to ostatnie wydarzenie, do którego doszło około 800 milionów lat temu, może rzucić nieco światła na „lukę masy”. Jak bowiem czytamy na łamach najnowszego numeru The Astrophysical Journal Letters, zarejestrowany sygnał, oznaczony jako GW190814, pochodził z połączenia czarnej dziury o masie 23 mas Słońca (22,2–24,3 M☉) z obiektem o masie 2,6 mas Słońca (2,50–2,67 M⊙). W wyniku tego procesu powstały fale grawitacyjne, które 800 milionów lat później zarejestrowaliśmy na Ziemi. Różnica mas pomiędzy obiektami, wynosząca aż 9:1 jest największą różnicą zaobserwowaną dotychczas podczas badania fal grawitacyjnych. Jednak najbardziej interesująca jest masa lżejszego z obiektów. W tym wypadku nie wiemy, czy lżejszy obiekt to gwiazda neutronowa czy czarna dziura. To wciąż tajemnica. Zbadanie, w jaki sposób powstają takie układy może zmienić nasze rozumienie ewolucji gwiazd, mówi doktor Christopher Berry z Institute for Gravitational Research University of Glasgow, którego naukowcy odegrali kluczową rolę w analizie danych. Od dziesięcioleci czekamy na rozwiązanie tej zagadki. Nie wiemy, czy ten obiekt to najbardziej masywna gwiazda neutronowa czy najmniej masywna czarna dziura. Tak czy inaczej jest to rekordowy obiekt, mówi profesor Vicky Kalogera z Northwestern University, a profesor Patrick Brady, rzecznik prasowy eksperymentu LIGO, dodaje: to zmieni sposób postrzegania czarnych dziur i gwiazd neutronowych. Może się okazać, że „luka masy” nie istnieje, a wynika ona tylko z naszych ograniczonych możliwości obserwacyjnych. Potrzebujemy więcej czasu i kolejnych obserwacji, by to rozstrzygnąć. Naukowcy mają nadzieję, że kolejna rozbudowa możliwości obserwatorium LIGO, z obecnego Advanced LIGO do Advanced LIGO Plus, pozwoli na przeprowadzenie większej liczby bardziej szczegółowych obserwacji. « powrót do artykułu
  17. Naukowcy z Uniwersytetu Johnsa Hopkinsa opisali przypadek mężczyzny RFS z rzadką chorobą degeneracyjną mózgu, która doprowadziła do rozległej atrofii kory i jąder podstawy. Oprócz typowych objawów w postaci zaburzeń pamięciowych i skurczów mięśni, występowała u niego niemożność postrzegania (upośledzona świadomość wzrokowa) cyfr od 2 do 9 oraz bodźców umieszczonych w ich pobliżu. Co jednak ciekawe, mózg pacjenta wykazywał normalną reakcję neurofizjologiczną na słowa czy twarze nakładające się na cyfry. To zaś oznacza, że przetwarzanie wzrokowe może zachodzić bez pojawiania się świadomości wzrokowej bodźca. Autorzy publikacji z pisma Proceedings of the National Academy of Sciences (PNAS) podkreślają, że gdy RFS prezentowano cyfrę, widział tylko plątaninę linii (porównywał ją do spaghetti) i nie miał pojęcia, na co spogląda. Poza tym jego widzenie nie odbiegało od normy; potrafił, na przykład, zidentyfikować litery i inne symbole. Zagadką dla zespołu pozostawało to, że aby tak wybiórczy deficyt był możliwy, mózg pacjenta musiałby najpierw identyfikować cyfry; wtedy problem mógłby wystąpić dla cyfr od 2 do 9 i dla niczego innego. Kiedy RFS patrzy na cyfrę, jego mózg musi "widzieć", że to cyfra, nim mężczyzna nie będzie mógł jej zobaczyć - to prawdziwy paradoks. Podczas naszych eksperymentów próbowaliśmy zbadać, jakie procesy zachodzą poza jego świadomością - podkreśla Michael McCloskey. Akademicy stwierdzili, że RFS nie jest także w stanie widzieć niczego umieszczonego w pobliżu lub na cyfrze. Gdy pokazano mu dużą trójkę z narysowanymi na niej skrzypcami, nie był w stanie dostrzec instrumentu. Gdy skrzypce znajdowały się w dostatecznej odległości od cyfry, widział je normalnie. By ocenić aktywność mózgu podczas prezentacji krytycznego bodźca, zespół pod kierownictwem Teresy Schubert (byłej studentki Uniwersytetu Johnsa Hopkinsa, obecnie pracującej na Uniwersytecie Harvarda) i Davida Rothleina (byłego studenta UJH, obecnie pracownika VA Boston Healthcare System) prowadził eksperymenty z wykorzystaniem EEG. Zapis sygnału EEG prowadzono w czasie, gdy RFS patrzył na cyfrę z nałożoną na nią twarzą. Zapis pokazał, że mózg wykrywał obecność twarzy, mimo że pacjent był tego kompletnie nieświadomy. W rzeczywistości reakcja mózgu była taka sama, jak wtedy, gdy prezentowano mu twarz, którą bez problemu postrzegał. Wyniki pokazują, że mózg RFS przeprowadza złożone przetwarzanie pod nieobecność świadomości. Mózg pacjenta wykrywał twarze w cyfrach, mimo że sam pacjent tego nie wiedział - opowiada Rothlein. W drugim eksperymencie wykorzystano nałożone na cyfry słowa. Sytuacja się powtórzyła. Choć RFS był całkowicie nieświadomy występowania wyrazów, jego mózg nie tylko wykrywał obecność słowa, ale i identyfikował, jakie to słowo [...]. Zwykle zakłada się, że świadomość wzrokowa idzie w parze z poziomem aktywności nerwowej, ale wyniki Amerykanów sugerują, że do świadomości konieczne jest dodatkowe przetwarzanie (proces ten jest zaburzony u RFS). Jeśli dodatkowy proces nie zachodzi, do zaistnienia świadomości nie wystarczy złożone przetwarzanie konieczne do wykrywania oraz identyfikowania twarzy, słów i innych bodźców wzrokowych. Kluczem do naszego badania jest zrozumienie czegoś, co stanowi paradoks: jakim sposobem RFS postrzega cyfry - i tylko cyfry - jako spaghetti? W końcu jeśli mózg rozpoznaje cyfry, by je potem zaburzyć, powinien [też] być w stanie je rozpoznać? Odkryliśmy jednak, że mózg wykrywający cyfrę, twarz czy słowo nie wystarczy, byśmy naprawdę je widzieli. Naukowcy ujawniają, że RFS był w przeszłości inżynierem geologiem. W chwili rozpoczęcia studium miał 60 lat. Objawy zaczął dostrzegać pod koniec 2010 r., gdy pojawiły się epizody bólu głowy, zaburzenia widzenia i zapominanie. Do sierpnia 2011 r. mężczyzna nie był już w stanie rozpoznać, nazwać czy skopiować cyfr od 2 do 9, bez względu na to, jak je zaprezentowano (np. jako 6, 466 czy A6). Sytuacja jest dla RFS dość frustrująca... To bardzo odporny i mądry człowiek, który [...] całkiem dobrze przystosował się do swojego problemu. Niektórzy specjaliści nie traktowali go na początku poważnie, dlatego ma nadzieję, że nasze badanie pokaże ludziom, że nawet bardzo niezwykłe deficyty mają naukowe wyjaśnienie - podsumowuje Schubert. « powrót do artykułu
  18. Wczoraj, 24 czerwca, Chiny wystrzeliły ostatniego satelitę konstelacji Beidou. Tym samym Państwo Środka mogło ogłosić, że trwająca od 20 lat budowa systemu nawigacji satelitarnej Beidou zakończyła się sukcesem. Satelita został wyniesiony na pokładzie rakiety Długi Marsz 3B. Jej start miał odbyć się przed tygodniem, jednak z powodu problemów technicznych został przełożony. O tym, jak ważne jest do wydarzenie dla Chin niech świadczy fakt, że zwykle Pekin z ogłoszeniem sukcesu czeka, aż satelita znajdzie się na wyznaczonej orbicie. Tym razem chińskie media z wyprzedzeniem informowały o starcie rakiety, a całe wydarzenie mogliśmy śledzić na żywo. To wyraźne odstępstwo od tradycyjnego sposobu relacjonowania, gdy ogłaszany jest sukces, a państwowa telewizja CCTV dopiero po tym, jak wszystko poszło zgodnie z planem, udostępnia relację ze startu. Chiny zaczęły tworzyć swój własny system nawigacji satelitarnej w latach 90. ubiegłego wieku. Pierwszego satelitę wystrzelono w październiku 2000 roku, a od roku 2009 trwa unowocześnianie systemu. Najnowsza jego wersja składa się z 30 urządzeń BDS-3 (Beidou Navigation Satellite). Jak informuje chiński Global Times, wyposażono je w większą przepustowość, zwiększając ich możliwości komunikacyjne oraz bardziej dokładne zegary atomowe. Co prawda system BDS rozpoczął pracę w 2018 roku, jednak dopiero ostatni satelita zapewnia dostęp do Beidou na całym świecie. Beidou nie jest jedynym konkurentem amerykańskiego GPS. Rosjanie mają system Glonass-M, którego głównym zadaniem jest obsługa sił zbrojnych Federacji Rosyjskiej, europejski Galileo działa od 2016 roku, a jego ostatnie satelity mają zostać wystrzelone w bieżącym roku. Tymczasem Amerykanie są właśnie w trakcie udoskonalania GPS z wersji II do III. Proces ten ma zakończyć się w 2023 roku.   « powrót do artykułu
  19. Kolekcjoner z Walencji zapłacił renowatorowi mebli i luster ok. 1200 euro za oczyszczenie kopii malowidła Murilla. Ku jego zaskoczeniu, twarz Marii na zwróconym przez "fachowca" obrazie przedstawiającym niepokalane poczęcie była zniekształcona i w dużym stopniu przypominała zniszczony jakiś czas temu XIX-wieczny fresk Ecce Homo z Sanktuarium Miłosierdzia Bożego w Borja koło Saragossy. Nie wiadomo, jaka jest wartość dzieła. Nie ujawniono również tożsamości kolekcjonera. Gdy zleceniodawca zażądał wyjaśnień, renowator mebli zobowiązał się, że naprawi zniszczenia. Efekt jego działań trudno, niestety, nazwać naprawą. Hiszpańskie media doniosły, że kolekcjoner postanowił wreszcie zatrudnić profesjonalistę. Nie da się jednak powiedzieć, czy przy tylu zniszczeniach uda mu się coś wskórać. W tym miejscu warto przypomnieć inne tego typu zdarzenia, do których doszło w ostatnich latach w Hiszpanii. W 2012 r. ofiarą konserwatora-amatora padł wspomniany fresk Ecce Homo, zaś w 2018 r. na prośbę proboszcza lokalny nauczyciel zajął się XVI-w. rzeźbą przedstawiającą świętego Jerzego na koniu (zabytek znajduje się w kościele Sam Miguel de Estella w miejscowości Estella w Nawarze). W opublikowanym oświadczeniu Asociación Profesional de Conservadores Restauradores de España (ACRE) nazwało incydent aktem wandalizmu. Brak uregulowań prawnych [...] pozwala ludziom bez przygotowania [zawodowego] ingerować w nasze dziedzictwo kulturowe. María Borja podkreśla, że słyszymy tylko o części takich przypadków, gdy od czasu do czasu sprawę nagłaśniają media i serwisy społecznościowe. Wg mnie, tego człowieka czy, szerzej rzecz ujmując, tych ludzi nie powinno się nazywać renowatorami. To oszuści, którzy niszczą - powiedział w wywiadzie udzielonym Guardianowi prof. Fernando Carrera, były szef ACRE. Carrera uważa, że w pewnym sensie odnawianie dzieł sztuki bez koniecznych umiejętności można by porównać do przeprowadzania operacji przez ludzi niebędących chirurgami czy projektowania/konstruowania budynków bez uprawnień architekta. Sektor powinien podlegać uregulowaniom prawnym, bo stawką jest dziedzictwo kulturowe Hiszpanii. Musimy inwestować w swoje dziedzictwo. Nim zaczniemy rozmawiać o pieniądzach, najpierw powinniśmy się upewnić, że ludzie, którzy wykonują tego typu prace, przeszli odpowiednie szkolenie. Na razie amatorzy odnawiania na własną rękę mogą się czuć praktycznie bezkarni (grożą im wyłącznie kary administracyjne), a czasem nawet liczyć na społeczne wsparcie. Tak było np. w przypadku Cecilii Giménez (staruszki od fresku Ecce Homo), która w sierpniu 2013 r. świętowała otwarcie własnej wystawy obrazów, głównie pejzaży. « powrót do artykułu
  20. Na Uniwersytecie w Glasgow po raz pierwszy eksperymentalnie potwierdzono teorię dotyczącą pozyskiwania energii z czarnych dziur. W 1969 roku wybitny fizyk Roger Penrose stwierdził, że można wygenerować energię opuszczając obiekt do ergosfery czarnej dziury. Ergosfera to zewnętrzna część horyzontu zdarzeń. Znajdujący się tam obiekt musiałby poruszać się szybciej od prędkości światła, by utrzymać się w miejscu. Penrose przewidywał, że w tym niezwykłym miejscu w przestrzeni obiekt nabyłby ujemną energię. Zrzucając tam obiekt i dzieląc go na dwie części tak, że jedna z nich wpadnie do czarnej dziury, a druga zostanie odzyskana, spowodujemy odrzut, który będzie mierzony wielkością utraconej energii negatywnej, a to oznacza, że odzyskana część przedmiotu zyska energię pobraną z obrotu czarnej dziury. Jak przewidywał Penrose, trudności inżynieryjne związane z przeprowadzeniem tego procesu są tak wielkie, że mogłaby tego dokonać jedynie bardzo zaawansowana obca cywilizacja. Dwa lata później znany radziecki fizyk Jakow Zeldowicz uznał, że teorię tę można przetestować w prostszy, dostępny na Ziemi sposób. Stwierdził, że „skręcone” fale światła uderzające o powierzchnię obracającego się z odpowiednią prędkością cylindra zostaną odbite i przejmą od cylindra dodatkową energię. Jednak przeprowadzenie takiego eksperymentu było, i ciągle jest, niemożliwe ze względów inżynieryjnych. Zeldowicz obliczał bowiem, że cylinder musiałby poruszać się z prędkością co najmniej miliarda obrotów na sekundę. Teraz naukowcy z Wydziału Fizyki i Astronomii University of Glasgow opracowali sposób na sprawdzenie teorii Penrose'a. Wykorzystali przy tym zmodyfikowany pomysł Zeldowicza i zamiast "skręconych" fal światła użyli dźwięku, źródła o znacznie niższej częstotliwości, i łatwiejszego do użycia w laboratorium. Na łamach Nature Physics Brytyjczycy opisali, jak wykorzystali zestaw głośników do uzyskania fal dźwiękowych, skręconych na podobieństwo fal świetlnych w pomyśle Zeldowicza. Dźwięk został skierowany w stronę obracającego się piankowego dysku, który go absorbował. Za dyskiem umieszczono zestaw mikrofonów, które rejestrowały dźwięk przechodzący przez dysk, którego prędkość obrotowa była stopniowo zwiększana. Naukowcy stwierdzili, że jeśli teoria Penrose'a jest prawdziwa, to powinni odnotować znaczącą zmianę w częstotliwości i amplitudzie dźwięku przechodzącego przez dysk. Zmiana taka powinna zajść w wyniku efektu Dopplera. Z liniową wersją efektu Dopplera wszyscy się zetknęli słysząc syrenę karetki pogotowia, której ton wydaje się rosnąć w miarę zbliżania się pojazdu i obniżać, gdy się on oddala. Jest to spowodowane faktem, że gdy pojazd się zbliża, fale dźwiękowe docierają do nas coraz częściej, a gdy się oddala, słyszymy je coraz rzadziej. Obrotowy efekt Dopplera działa podobnie, jednak jest on ograniczony do okrągłej przestrzeni. Skręcone fale dźwiękowe zmieniają ton gdy są mierzone z punktu widzenia obracającej się powierzchni. Gdy powierzchnia ta obraca się odpowiednio szybko z częstotliwością dźwięku dzieje się coś dziwnego – przechodzi z częstotliwości dodatniej do ujemnej, a czyniąc to pobiera nieco energii z obrotu powierzchni, wyjaśnia doktorantka Marion Cromb, główna autorka artykułu. W miarę jak rosła prędkość obrotowa obracającego się dysku, ton dźwięku stawał się coraz niższy, aż w końcu nie było go słychać. Później znowu zaczął rosnąć, aż do momentu, gdy miał tę samą wysokość co wcześniej, ale był głośniejszy. Jego amplituda była o nawet 30% większa niż amplituda dźwięku wydobywającego się z głośników. To co usłyszeliśmy podczas naszych eksperymentów było niesamowite. Najpierw, w wyniku działania efektu Dopplera częstotliwość fal dźwiękowych zmniejszała się w miarę zwiększania prędkości obrotowej dysku i spadła do zera. Później znowu pojawił się dźwięk. Stało się tak, gdyż doszło do zmiany częstotliwości fal z dodatniej na ujemną. Te fale o ujemnej częstotliwości były w stanie pozyskać część energii z obracającego się dysku i stały się głośniejsze. Zaszło zjawisko, które Zeldowicz przewidział w 1971 roku, dodaje Cromb. Współautor badań, profesor Daniele Faccio, stwierdza: jesteśmy niesamowicie podekscytowani faktem, że mogliśmy eksperymentalnie potwierdzić jedną z najdziwniejszych hipotez fizycznych pół wieku po jej ogłoszeniu. I że mogliśmy potwierdzić teorię dotyczącą kosmosu w naszym laboratorium w zachodniej Szkocji. Sądzimy, że otwiera to drogę do kolejnych badań. W przyszłości chcielibyśmy badać ten efekt za pomocą różnych źródeł fal elektromagnetycznych. « powrót do artykułu
  21. Przez kilka najbliższych miesięcy zwiedzający Ogród Botaniczny w Atlancie będą mogli obserwować testy SlothBota. Powolny, wydajny energetycznie robot może się ukrywać pośród drzew, by monitorować zwierzęta, rośliny i środowisko poniżej. SlothBot powstał w Georgia Institute of Technology (Georgia Tech). Inżynierowie wzorowali go na niskoenergetycznym trybie życia leniwców. SlothBot pokazuje, że bycie wolnym może się idealnie nadawać do pewnych zastosowań. Zasilany panelami słonecznymi SlothBot, który wykorzystuje innowacyjną technologię zarządzania poborem mocy, porusza się po kablu rozpiętym między drzewami. Monitoruje temperaturę, pogodę, poziom dwutlenku węgla itp. Powolność to podstawa projektu SlothBota. Nie jest to bynajmniej normą we współczesnej robotyce, ale bycie wolnym i superwydajnym energetycznie pozwala SlothBotowi utrzymywać się w środowisku i obserwować rzeczy, których świadkami moglibyśmy być wyłącznie w wyniku stałej wielomiesięcznej czy nawet wieloletniej obecności - wyjaśnia prof. Magnus Egerstedt. Robot jest zaprogramowany, by poruszać się tylko wtedy, gdy jest to konieczne. Lokalizuje światło słoneczne, kiedy akumulatory potrzebują doładowania. W Ogrodzie Botanicznym w Atlancie SlothBot porusza się po jednym kablu, ale w realnych zastosowaniach środowiskowych będzie docelowo w stanie przemieszczać się z kabla na kabel, by objąć monitoringiem większy obszar. Wspierany przez Narodową Fundację Nauki (National Science Foundation) i Office of Naval Research SlothBot może pomóc naukowcom w lepszym zrozumieniu abiotycznych czynników wpływających na krytyczne ekosystemy. SlothBot może zdalnie wykonywać część naszej pracy i pomagać nam ustalić, co się z dzieje z zapylaczami lub jak wyglądają interakcje między roślinami i zwierzętami. Przyda się także do badania zjawisk, które inaczej trudno zaobserwować. Egerstedt wpadł na pomysł SlothBota po wizycie w kostarykańskiej winnicy. Zobaczył tam leniwca dwupalczastego, który przemieszczał się po kablach. Amerykanie podkreślają, że wartość powolności zademonstrowało parę innych systemów robotycznych. Prędkość nie była [na przykład] kluczowa dla łazików marsjańskich, ale podczas leniwej eksploracji tej planety zdobyły one sporo informacji. Naukowcy z Georgia Tech dodają, że SlothBot może także znaleźć zastosowanie w rolnictwie precyzyjnym. Kamera i czujniki robota zawieszonego na kablu nad uprawą pozwolą bowiem np. na wczesne wykrycie chorób. Po zakończeniu testów w Ogrodzie Botanicznym w Atlancie specjaliści planują przenieść się do Ameryki Południowej. Wspominają o monitoringu zapylania storczyków czy obserwacji życia zagrożonych płazów. Fascynująco jest myśleć o robotach stających się częścią ekosystemu. Choć nie budujemy żywej repliki leniwca, wierzymy, że nasz robot może się zintegrować ze środowiskiem [...]. Robot z Ogrodu Botanicznego w Atlancie to druga wersja systemu zaprezentowanego w maju zeszłego roku na Międzynarodowej Konferencji Robotyki i Automatyki. Jak wyjaśniają Amerykanie, tamten robot był o wiele mniejszym prototypem laboratoryjnym.   « powrót do artykułu
  22. Opracowany właśnie test z moczu w ciągu 5 minut ocenia jakoś diety. Test to wynik współpracy naukowców z Imperial College London (ICL), Northwestern University, University of Illinois oraz Murdoch University. Uczeni stworzyli go na podstawie badań 46 różnych metabolitów w moczu 1848 mieszkańców USA. O swojej pracy poinformowali w dwóch artykułach, opublikowanych na łamach Nature. W pierwszym z nich opisują same badania nad związkiem diety i metabolitów w moczu. Metabolity są uważane za obiektywne wskaźniki jakości diety. Powstają one w wyniku przetwarzania różnych pokarmów przez organizm. Jak zauważył jeden z autorów badań, doktor Joram Posma z ICL, dieta to klucz do ludzkiego zdrowia i choroby. Jednak bardzo trudno jest dokładnie ją określić, gdyż ludzie mają trudności z przypomnieniem sobie tego, czego i ile zjedli. Gdy prosimy ich, by śledzili swoją dietę za pomocą aplikacji czy notatek, często otrzymujemy niedokładne dane. Nasze badania pokazują, że opracowana przez nas technologia daje dogłębne informacje na temat jakości diety poszczególnych osób. Co więcej, pozwala ona określić, czy spożywana przez nich dieta jest dla nich odpowiednia, mówi uczony. Teraz brytyjsko-amerykańsko-australijski zespół naukowy zbadał związek pomiędzy 46 metabolitami w moczu a spożyciem różnych pokarmów. Dzięki temu powiązano występowanie metabolitów np. ze spożyciem alkoholu, owoców, czerwonego czy białego mięsa. Niektóre metabolity są też powiązane ze stanem zdrowia. Na przykład obecność mrówczanów i sodu (wskaźnika spożycia soli), wiąże się z otyłością i nadciśnieniem. Dzięki precyzyjnym pomiarom diety i badaniom moczu wydalonego w ciągu dwóch 24-godzinnych okresów, byliśmy w stanie określić związek pomiędzy spożywanymi pokarmami, a obecnością metabolitów w moczu. To pomoże zrozumieć, w jaki sposób dieta wpływa na stan zdrowia. Prawidłowa zdrowa dieta charakteryzuje się innym wzorcem występowania metabolitów, niż dieta powiązana z negatywnym wpływem na zdrowie, mówi profesor Paul Elliott. W drugim artykule naukowcy z Imperial College London informują, jak we współpracy z kolegami z Newcastle University, Aberystwyth University oraz Murdoch University opracowali test, na podstawie swoich wcześniejszych badań. Test ten, w ciągu 5 minut dostarcza zindywidualizowaną informację na temat diety osoby badanej. Co więcej, na jego podstawie można dokładnie określić, na ile dana dieta służy konkretnej osobie. Oceny dokonywano przyznając punkty w skali zwanej DMS (Dietary Metabotype Score). W eksperymentach wzięło udział 19 osób, a każda z nich miała przypisaną jedną z 4 diet. Diety były oparte na rekomendacjach Światowej Organizacji Zdrowia, a ich rozpiętość wahała się od bardzo zdrowej, którą ułożono przestrzegając wszystkich zaleceń WHO, po niezdrową, gdzie przestrzegano jedynie 25% zaleceń. Testy wykazały, że nawet osoby, które spożywały identyczną dietę otrzymywały różną liczbę punktów w skali DMS. Stwierdzono też, że im większa liczba punktów DMS, tym dieta bardziej odpowiednia dla danej osoby. Wyższy wynik DMS był bowiem powiązany z niższym poziomem cukru we krwi oraz lepszymi wynikami badania moczu. Naukowcy już planują kolejne eksperymenty. Chcą sprawdzić, czy ich test pozwoli na określenie ryzyka wystąpienia różnych schodzeń, takich jak otyłość, cukrzyca czy nadciśnienie. Współautor badań, profesor Gary Frost mówi, że uzyskane wyniki każą zapytać o konieczność ponownego przyjrzenia się zaleceniom żywieniowym. Z kolei, zdaniem profesora Johna Mathersa, badania wykazały, że różni ludzie metabolizują te same pokarmy w wysoce zindywidualizowany sposób. Ma to znacznie dla naszego zrozumienia chorób powodowanych nieprawidłową dietą oraz pokazuje konieczność bardziej indywidualnego podejścia do zaleceń dietetycznych. « powrót do artykułu
  23. By uświetnić otwarcie wyremontowanego muzeum, dr Giulia Boetto, badaczka z Camille Jullian Centre (CNRS/Aix-Marseille Université), koordynowała rekonstrukcję 3D trzech drewnianych łodzi, znalezionych ok. 60 lat temu podczas wykopalisk w porcie rzymskim Portus (Portus Augustis Ostiensis). Łodzie - rybacką, małą żaglówkę i lichtugę - wykorzystywano między II a wczesnym V w. n.e. Gdy łodzie porzucono, z biegiem lat przykryła je warstwa osadów. Warunki beztlenowe sprawiły, że zachowały się aż do naszych czasów i mogły trafić do muzeum. Za pomocą najnowocześniejszych technik sporządzono cyfrową dokumentację drewnianych szczątków. By uzyskać modele 3D, Boetto nawiązała współpracę z marsylskim start-upem Ipso Facto. Pierre Poveda pomógł zaś odtworzyć brakujące elementy (wykorzystał do tego porównania archeologiczne i dokumentację obrazową). Do końca roku rekonstrukcje będzie można podziwiać w Museo delle Navi w Parku Archeologicznym Starożytnej Ostii. Wystawa pozwoli poznać techniki konstruowania starożytnych łodzi, a także wirtualnie nawigować po starożytnym kompleksie portowym. « powrót do artykułu
  24. Potwierdziły się plotki mówiące o zamiarach porzucenia przez Apple'a architektury x86 i całkowitym przejściu na architekturę ARM. Wczoraj, podczas WWDC 2020, firma oficjalnie ogłosiła rozpoczęcie dwuletniego okresu przechodzenia na ARM. Koncern z Cupertino zaoferuje odpowiednie SDK producentom oprogramowania, a pierwszy komputer z procesorem ARM ma trafić do sprzedaży jeszcze przed końcem bieżącego roku. Dyrektor wykonawczy Apple'a, Tim Cook, poinformował, że firma wciąż będzie oferowała nowe modele komputerów z procesorami Intela, jednak w ciągu dwóch lat każdy nowy model będzie też sprzedawany w wersji z procesorem ARM. Ponadto wszystkie przyszłe systemy operacyjne, od edycji MacOS 11 Big Sur będą wspierały architekturę ARM i x86. Koncern poinformował też, że już całe jego oprogramowanie, włącznie z takimi programami jak Final Cut czy Logic Pro, ma swoje wersje dla ARM. Firma współpracuje też z Microsoftem i Adobe nad przygotowaniem odpowiednich wersji programów tych firm na komputery Mac z układami ARM. Trwają też prace nad emulatorem Rosetta 2, który pozwoli na uruchamianie programów dla x86 na komputerach z ARM. Pierwsze wersje demonstracyjne takiego oprogramowania jak Maya czy Shadow of the Tomb Raider, wyglądają bardzo obiecująco. Apple będzie samodzielnie przygotowywało swoje procesory ARM. Koncern informuje, że powodem podjęcia takiej decyzji była chęć zwiększenia wydajności w przeliczeniu na wat energii. Warto tutaj zauważyć, że samodzielny rozwój i produkcja procesorów pozwolą Apple'owi jeszcze bardziej zmniejszyć zależność od zewnętrznych dostawców i w jeszcze większym stopniu kontrolować sprzedawane przez siebie sprzęt i oprogramowanie. « powrót do artykułu
  25. Przed trzema dniami w syberyjskim Wierchojańsku temperatura powietrza sięgnęła 38 stopni Celsjusza. To najwyższa temperatura, jaką kiedykolwiek zanotowano na Syberii. W mieście regularne pomiary prowadzone są od 1885 roku. Wierchojańsk do niewielkie miasteczko znajdujące się 4800 kilometrów na wschód od Moskwy. Mieszka w nim około 1300 osób, a miejscowość znana jest z ekstremalnych temperatur. Zwykle jest tam bardzo zimno. W zimie średnie temperatury wynoszą -49 stopni Celsjusza. Poprzedni rekord dodatniej temperatury wyniósł tam 37,2 stopnia Celsjusza. Jednak właśnie został on pobity. W ostatnią sobotą kilka stacji zanotowało tam 38 stopni. Dzień później temperatura wyniosła 35,2 stopnia, co wskazuje, że rekord nie był przypadkiem. Tegoroczny maj był bardzo zimny w Polsce, jednak rekordowo ciepły na Syberii. Średni temperatury były tam o 10 stopni Celsjusza wyższe, niż średnia wieloletnia z lat 1979–2019. To zaś spowodowało liczne pożary. Syberia od lat jest jednym z najszybciej ocieplających się regionów świata. Roztapianie się tamtejszego gruntu grozi uwolnieniem do atmosfery olbrzymich ilości metanu, co dodatkowo przyspieszy ocieplenie, oraz licznymi katastrofami, gdyż cała syberyjska infrastruktura była budowana na twardym zamarzniętym gruncie, który obecnie staje się coraz mniej stabilny. Niedawno doszło do wycieku 20 000 ton paliwa z jednego ze zbiorników. Jako przyczynę, obok zaniedbań, wskazuje się właśnie rozmiękczenie gruntu. « powrót do artykułu
×
×
  • Dodaj nową pozycję...