-
Liczba zawartości
37337 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
238
Zawartość dodana przez KopalniaWiedzy.pl
-
Punktem wyjścia dla szacowania poziomu antropogenicznego ocieplenia jest zwykle rok 1850, kiedy na wystarczająco dużą skalę prowadzono wiarygodne pomiary temperatury. Jednak w roku 1850 rewolucja przemysłowa trwała od dawna, więc przyjmując ten rok jako podstawę dla pomiarów, trudno jest mówić o wpływie człowieka na temperatury na Ziemi od czasów preindustrialnych. Andrew Jarvis z Lancaster University i Piers Forster z University of Leeds, wykorzystali rdzenie lodowe z Antarktyki do opracowania nowej osi referencyjnej temperatur w czasach przedprzemysłowych. Uczeni przeanalizowali bąbelki powietrza zamknięte w rdzeniach lodowych i w ten sposób określili stężenie dwutlenku węgla w latach 13–1700. Następnie, zakładając liniową zależność pomiędzy koncentracją CO2 a temperaturami, obliczyli średnie temperatury panujące na Ziemi. Z pracy opublikowanej na łamach Nature Geoscience dowiadujemy się, że od okresu przed 1700 roku do roku 2023 ludzie podnieśli średnią temperaturę na planecie o 1,49 (±0,11) stopnia Celsjusza. Dodatkową zaletą wykorzystanej metody jest niezależna weryfikacja obecnych szacunków. Z badań Jarvisa i Forstera wynika, że od roku 1850 wzrost temperatury wyniósł 1,31 stopnia Celsjusza. Dokładnie zgadza się to z dotychczasowymi ustaleniami, ale badania z rdzeni lodowych są obarczone mniejszym marginesem błędu. Niektórzy eksperci uważają, że nowa metoda, chociaż sprawdza się teraz, może nie być przydatna w przyszłości. Nie wiemy bowiem, czy w nadchodzących dekadach liniowa zależność pomiędzy stężeniem dwutlenku węgla a temperaturą się utrzyma. Ich metoda bazuje na korelacji stężenia CO2 z antropogenicznym ociepleniem klimatu. Ta widoczna w przeszłości silna korelacja może być czystym przypadkiem i, w zależności od tego jak będą się układały proporcje CO2 i innych czynników w przyszłości, może się ona nie utrzymać, stwierdza Joeri Rogelj z Imperial College London. Richard Betts z Met Office chwali nową metodę, zauważa, że może dostarczać ona lepszych danych na temat przeszłości, ale nie widzi potrzeby zmiany punktu odniesienia dla badań nad ociepleniem klimatu. « powrót do artykułu
-
- globalne ocieplenie
- temperatura
-
(i 1 więcej)
Oznaczone tagami:
-
W 1980 roku doszło do największej erupcji wulkanicznej w historii USA i jednej z najpotężniejszych erupcji wulkanicznych XX wieku, wybuchu wulkanu Mount St. Helens. Wybuch zabił życie w promieniu wielu kilometrów. Niecałe trzy lata później naukowcy przeprowadzili wyjątkowy, trwający zaledwie jeden dzień, eksperyment nad odrodzeniem życia w regionie. Wypuścili gofferniki krecie (Thomomys talpoides), gryzonie z rodzaju gofferowatych. Dzisiaj, ponad 40 lat później, pozytywne skutki eksperymentu wciąż są widoczne. Gofferowate prowadzą podziemny tryb życia. Kopiąc nory napowietrzają i mieszają ziemię. Na powierzchnię ziemi wychodzą nocą, poszukując pożywienia. Rolnicy uważają je za szkodniki. Gdy materiał, który został wyrzucony przez wulkan, wystygł, naukowcy wysunęli hipotezę, że gryzonie, przekopując się przez ziemię, mogą doprowadzić do przemieszczenia bakterii i grzybów na powierzchnię, pomagając w ten sposób w odtworzeniu życia, wspomagają wzrost roślin i powrót zwierząt. Dwa lata po eksplozji postanowili tę hipotezę przetestować. Nie spodziewali się jednak, że wyniki eksperymentu będą widoczne do dzisiaj. W latach 80. po prostu testowaliśmy krótkoterminowy wpływ gofferowatych na pozbawiony życia krajobraz. Kto mógł przewidzieć, że wystarczy wypuścić te zwierzęta na 1 dzień, a skutki tego będą widoczne do dzisiaj, 40 lat później, mówi mikrobiolog Michael Allen z Uniwersytetu Kalifornijskiego w Riverside. Wtedy, w 1983 roku Allen i James McMahon z Utah State University, polecieli śmigłowcem nad obszary zniszczone przez erupcję. Zauważyli tam kilka rachitycznych roślinek, które wyrosły z nasion upuszczonych przez ptaki, ale z powodu braku składników odżywczych w glebie nie rozwijały się zbyt dobrze. Allen i McMahon wypuścili w 2 ściśle wyznaczonych miejscach kilka gofferników krecich. Po 1 dniu zwierzęta zabrano z powrotem. Już sześć lat później w miejscach gdzie wypuszczono zwierzęta, naukowcy naliczyli 40 000 roślin. Miejsca sąsiednie, do których zwierzęta nie dotarły, nadal były niemal pozbawione życia. Gryzonie, mieszając ziemię, wydobyły na powierzchnię grzyby mykoryzowe. Z wyjątkiem nielicznych gatunków korzenie nie są wystarczająco wydajne, by zapewnić roślinie potrzebne składniki odżywcze i wodę. Grzyby transportują te składniki do roślin, a w zamian otrzymują węgiel, którego potrzebują do własnego wzrostu, mówi Allen. Rola grzybów mykoryzowych jest szczególnie ważna w środowiskach ubogich w składniki odżywcze. Wystarczył jeden dzień, by gryzonie przygotowały środowisko potrzebne do wzrostu roślin. Drugim z ważnych aspektów badań jest pokazanie, jak ważne są grzyby dla ponownego wzrostu roślin po katastrofach naturalnych. Na jednym ze zboczy wulkanu rósł stary las iglasty. Popioły wulkaniczne pokryły drzewa, doprowadziły do przegrzania i opadnięcia igieł. Naukowcy obawiali się, że utrata igieł doprowadzi do zagłady lasu. Tak się jednak nie stało. Drzewa miały bowiem bogate kolonie grzybów mykoryzowych. Te bardzo szybko wykorzystały składniki odżywcze z opadniętych igieł i dostarczyły je do drzew. Drzewa odrodziły się niemal natychmiast. Nie zginęły, jak wszyscy się obawiali, mówi współautorka najnowszych badań, mikrobiolog Emma Aronson. Co więcej, jeszcze przed erupcją, po drugiej strony wulkanu, wycięto wiele hektarów lasu. Drzewa zostały stamtąd zabrane, więc nie było igieł, które zasiliłyby glebę składnikami odżywczymi. Do dzisiaj mało co tam rośnie. To naprawdę szokujące porównanie, gdy widzi się stary las, którego gleba została zasilona przez igły i martwy obszar zniszczony przez człowieka, dodaje Aronson. Badania pokazują, jak wielka jest odporność natury na katastrofy naturalne i jak może się ona. Nie możemy ignorować sieci współzależności w naturze. Szczególnie tych elementów, których nie widzimy, jak grzyby i mikroorganizmy, stwierdzają badacze. Z pracą Microbial community structure in recovering forests of Mount St. Helens można zapoznać się na łamach Frontiers in Microbiomes. « powrót do artykułu
-
- Mount St. Helens
- wulkan
-
(i 4 więcej)
Oznaczone tagami:
-
W grudniu 2020 roku miała miejsce spektakularna katastrofa. Zawalił się jeden z najbardziej znanych instrumentów naukowych na świecie, radioteleskop w Arecibo. W raporcie opublikowanym właśnie przez amerykańskie Narodowe Akademie Nauk czytamy, że główną przyczyną katastrofy było – wywołane potężnym promieniowaniem elektromagnetycznym – zmęczenie cynku w mocowaniach lin nośnych, które utrzymywały 900-tonową platformę odbiornika na wysokości 120 metrów nad czaszą radioteleskopu. Już wcześniejsze raporty wspominały o deformacji cynku, ale jako możliwe przyczyny katastrofy wskazywano też błędy konstrukcyjne czy uszkodzenia przez huragan Maria, który przeszedł w 2017 roku. Inspekcja wykonana po przejściu huraganu znalazła dowody na ślizganie się lin nośnych, jednak – jak dowiadujemy się z obecnego raportu – nie odnotowano wówczas wzorców zużycia i większości nie wyjaśniono. Ponadto na zdjęciach z roku 2019 widoczne jest poważne zużycie uchwytów lin, miejsc w których były one mocowane. Mimo to nie przeprowadzono żadnych badań. Zaskoczyło to autorów raportu. Ich zdaniem niepokojący jest fakt, że inżynierowie wynajęci do badania stanu lin pomiędzy przejściem huraganu Maria a zawaleniem się teleskopu nie wszczęli alarmu z powodu zauważonego zużycia elementów nośnych. Główną przyczyną katastrofy była deformacja cynkowych uchwytów lin. W wyniku olbrzymich naprężeń i pod wpływem temperatury doszło do ich deformacji oraz pękania drutów w linach, co osłabiało miejsca mocowania lin. Za główną zaś przyczynę deformacji uznano generowane przez teleskop promieniowanie elektromagnetyczne. Zdaniem badaczy, potężne nadajniki teleskopu indukowały w linach i miejscach mocowania prąd elektryczny, który wywoływał długoterminową elektroplastyczność cynku, co znacząco przyspieszało naturalne zmęczenia materiału. Twórcy raportu dodają, że – o ile im wiadomo – mamy tu do czynienia z pierwszym w historii udokumentowanym przypadkiem awarii wywołanej pełzaniem cynku. Dlatego też w raporcie zaproponowano, by Narodowa Fundacja Nauki, do której należy Arecibo, przekazała pozostałe liny i ich uchwyty społeczności naukowej, w celu dalszych badań zjawiska zmęczenia cynku pod wpływem silnego promieniowania elektromagnetycznego. « powrót do artykułu
- 4 odpowiedzi
-
- promieniowanie elektromagnetyczne
- Arecibo
-
(i 2 więcej)
Oznaczone tagami:
-
Z europejskich stanowisk archeologicznych znamy przykłady manipulacji szczątkami zmarłych. Widzimy powtórne pochówki, zmiany ułożenia szkieletów czy wykorzystywanie poszczególnych kości. Z dwóch szkockich stanowisk z epoki brązu – Cladh Hallan i Cnip Headland – znamy też przykłady złożenia szkieletów z kości różnych osób. Naukowcy z Belgii, USA, Niemiec, Hiszpanii i Włoch donoszą o pochówku, gdzie szkielet – któremu nadano pozory pochodzenia od jednej osoby – został złożony z kości ludzi, żyjących w różnych tysiącleciach. W latach 70. ubiegłego wieku w Pommerœul w Belgii znaleziono cmentarz zawierający 76 pochówków ciałopalnych i jeden pochówek szkieletowy (Grób 26). Istnienie cmentarza związane było z tamtejszym gallo-rzymskim miastem. Na podstawie cech charakterystycznych osady, pochówki ciałopalne datowano na II-III wiek. Szkielet znajdował się w niższej warstwie. Mimo że był on ułożony w pozycji nietypowej dla rzymskich pochówków, ze zgiętymi nogami na prawym boku, przez obecność kościanej szpilki do włosów w pobliżu czaszki uznano, że i tutaj mamy do czynienia z pochówkiem gallo-rzymskim. Niedawne datowanie radiowęglowe ujawniło, że pochówki ciałopalne rzeczywiście pochodzą z okresu rzymskiego, ale datowanie szkieletu wskazywało na późny neolit. Takie datowanie zgadza się natomiast z ułożeniem zwłok. W ten sposób w regionie tym grzebano ludzi w późnym neolicie i wczesnej epoce brązu. Szczegółowe badania szkieletu wykazały jednak, że został on złożony z kości co najmniej 5 dorosłych i 2 osób sprzed osiągnięcia dorosłości. Naukowcy poddali więc datowaniu radiowęglowemu 11 ze znalezionych kości i odkryli, że chociaż wszystkie pochodzą z późnego neolitu, to można wyróżnić trzy okresy, z których żyły osoby wykorzystane do złożenia szkieletu. Najstarsze kości mogą pochodzić nawet z roku 3333 przed naszą erą, najmłodsze zaś datowane są na rok 2675. To jednak nie koniec tajemnic niezwykłego szkieletu. Jego czaszki nie udało się datować, ale znaleziona obok niej szpilka pochodzi z lat 69–210 naszej ery. Analiza DNA wykazała, że czaszka należała do kobiety, która była spokrewniona z dwójką dzieci, pochowaną na rzymskim cmentarzu w położonym 150 kilometrów dalej Tongeren. Te spokrewnione ze sobą dzieci – dziewczynka w wieku 4-5 lat i chłopiec w wieku 2-4 lat – spoczęły w grobie z dorosłym mężczyzną, który nie był ich ojcem. Szczątki dziewczynki udało się datować na lata 211–335, co jest zgodne z innymi pochówkami z Tongeren oraz z kremacjami z Pommerœul. Stopień pokrewieństwa pomiędzy dziećmi z Tongeren, a kobietą z Pommerœul wynosi od 0 do 28 pokoleń, co oznacza, że różnica w czasie, w którym osoby te żyły wynosi od 0 do 784 lat (przy założeniu 28 lat na pokolenie). Cmentarz w Tongeren pochodzi z czasów gallo-rzymskich, nawet jeśli przyjmiemy wspomniane 784 lata różnicy, to pomiędzy czaszką, a najmłodszymi kośćmi, z którymi została pochowana, jest ponad 2000 lat różnicy. Według badaczy istnieją dwa możliwe wyjaśnienia tak niezwykłego pochówku. Wedle pierwszego z nich podczas pochówków ciałopalnych w okresie gallo-rzymskim trafiono na złożony z kości różnych osób pochówek z czasów neolitu. Szkieletowi albo brakowało czaszki, albo postanowiono zastąpić ją czaszką z okresu rzymskiego. Jako dobro grobowe dodano zaś rzymską szpilkę do włosów. Znamy przypadki, gdy spokój wcześniejszych grobów był przypadkowo zakłócany w czasach rzymskich, jednak brak dowodów, by dokonywano celowego „przemodelowania” takich grobów. Drugi zaś scenariusz zakłada, że w czasach gallo-rzymskich złożono cały szkielet, wykorzystując znalezione lokalnie kości z neolitu, a całość uzupełniono rzymską czaszką. Jeśli tak było, jest to prawdopodobnie pierwszy znany przypadek, by w czasach rzymskich złożono nowy szkielet z kości prehistorycznych i rzymskich. « powrót do artykułu
-
Badania DNA ludzi zabitych w Pompejach przez Wezuwiusza pokazały, jak błędne były czynione przez wieki założenia. Okazuje się, że rzekome rodziny nie były rodzinami, zmarłym źle przyporządkowano płeć. Okazało się ponadto, że ludność Pompejów w większości stanowili emigranci ze wschodnich regionów Morza Śródziemnego. Erupcja Wezuwiusza nie dała szans na ucieczkę wielu mieszkańcom miasta. Ci, którzy przeżyli pierwszą jej fazę, zabiły lawiny piroklastyczne, szybko przemieszczające się chmury gorących gazów i popiołów. Pokryły one ciała ofiar grubą warstwą, na zawsze zachowując ich kształt. Od XIX wieku naukowcy wykonują w Parco Archeologico di Pompei odlewy ciał, wstrzykując gips z puste miejsca, pozostałe po rozłożeniu się tkanek. Uczonym, którzy prowadzili zabiegi konserwatorskie, udało się pozyskać DNA z pofragmentowanych szkieletów zatopionych w 14 z 86 tych odlewów. To zaś pozwoliło na określenie płci zmarłych, ich pochodzenia oraz związków genetycznych pomiędzy nimi. I pokazało, jak błędne były dotychczasowe założenia, które opierano na wyglądzie i pozycji ciał. Na przykład w Domu Złotej Bransolety, jedynym miejscu z którego mamy DNA całej grupy ciał, okazało się, że cztery osoby, które interpretowano jako rodzice z dwójką dzieci, nie były w żaden sposób ze sobą spokrewnione, mówi profesor David Caramelli z Uniwersytetu we Florencji. To nie jedyne błędne przypuszczenia, zweryfikowane przez DNA. Innym znanym przykładem jest dorosła osoba nosząca złotą bransoletę i trzymająca dziecko. Tradycyjnie interpretowano je jako matkę z dzieckiem. Okazało się, że to mężczyzna i dziecko, którzy nie byli ze sobą spokrewnieni. Mamy też dwie obejmujące się osoby, które interpretowano jako matka z córką lub siostry. Teraz wiemy, że jedna z tych osób to mężczyzna, dodaje David Reich z Uniwersytetu Harvarda. Ponadto wszyscy mieszkańcy Pompejów, w przypadku których udało się zdobyć dane z całego genomu, okazali się w głównej mierze potomkami emigrantów ze wschodnich regionów Śródziemiomorza. Pochodzenie takie widoczne jest też w genomach współczesnych im mieszkańców Rzymu, co tylko pokazuje, jak kosmopolityczne było Imperium Romanum w tych czasach. « powrót do artykułu
- 14 odpowiedzi
-
- 1
-
-
Badacze z MIT, University of Cambridge i McGill University skanowali mózgi ludzi oglądających filmy i dzięki temu stworzyli najbardziej kompletną mapę funkcjonowania kory mózgowej. Za pomocą funkcjonalnego rezonansu magnetycznego (fMRI) naukowcy zidentyfikowali w naszej korze mózgowej 24 sieci połączeń, które pełnią różne funkcje, jak przetwarzanie języka, interakcje społeczne czy przetwarzanie sygnałów wizualnych. Wiele z tych sieci było znanych wcześniej, jednak dotychczas nie zbadano ich działania w warunkach naturalnych. Wcześniejsze badania polegały bowiem na obserwowaniu tych sieci podczas wypełniania konkretnych zadań lub podczas odpoczynku. Teraz uczeni sprawdzali ich działanie podczas oglądania filmów, byli więc w stanie sprawdzić, jak reagują na różnego rodzaju sceny. W neuronauce coraz częściej bada się mózg w naturalnym środowisku. To inne podejście, które dostarcz nam nowych informacji w porównaniu z konwencjonalnymi metodami badawczymi, mówi Robert Desimone, dyrektor McGovern Institute for Brain Research na MIT. Dotychczas zidentyfikowane sieci w mózgu badano podczas wykonywania takich zadań jak na przykład oglądanie fotografii twarzy czy też podczas odpoczynku, gdy badani mogli swobodnie błądzić myślami. Teraz naukowcy postanowili przyjrzeć się mózgowi w czasie bardziej naturalnych zadań: oglądania filmów. Wykorzystując do stymulacji mózgu tak bogate środowisko jak film, możemy bardzo efektywnie badań wiele obszarów kory mózgowej. Różne regiony będą różnie reagowały na różne elementy filmu, jeszcze inne obszary będą aktywne podczas przetwarzania informacji dźwiękowych, inne w czasie oceniania kontekstu. Aktywując mózg w ten sposób możemy odróżnić od siebie różne obszary lub różne sieci w oparciu o ich wzorce aktywacji, wyjaśnia badacz Reza Rajimehr. Bo badań zaangażowano 176 osób, z których każda oglądała przez godzinę klipy filmowe z różnymi scenami. W tym czasie ich mózgi były skanowane aparatem do rezonansu magnetycznego, generującym pole magnetyczne o indukcji 7 tesli. To zapewnia znacznie lepszy obraz niż najlepsze komercyjnie dostępne aparaty MRI. Następnie za pomocą algorytmów maszynowego uczenia analizowano uzyskane dane. Dzięki temu zidentyfikowali 24 różne sieci o różnych wzorcach aktywności i zadaniach. Różne regiony mózgu konkurują ze sobą o przetwarzanie specyficznych zadań, gdy więc mapuje się je z osobna, otrzymujemy nieco większe sieci, gdyż ich działanie nie jest ograniczone przez inne. My przeanalizowaliśmy wszystkie te sieci jednocześnie podczas pracy, co pozwoliło na bardziej precyzyjne określenie granic każdej z nich, dodaje Rajimehr. Badacze opisali też sieci, których wcześniej nikt nie zauważył. Jedna z nich znajduje się w korze przedczołowej i wydaje się bardzo silnie reagować na bodźce wizualne. Sieć ta była najbardziej aktywna podczas przetwarzania scen z poszczególnych klatek filmu. Trzy inne sieci zaangażowane były w „kontrolę wykonawczą” i były najbardziej aktywne w czasie przechodzenia pomiędzy różnymi klipami. Naukowcy zauważyli też, że były one powiązane z sieciami przetwarzającymi konkretne cechy filmów, takie jak twarze czy działanie. Gdy zaś taka powiązana sieć, odpowiedzialna za daną cechę, była bardzo aktywna, sieci „kontroli wykonawczej” wyciszały się i vice versa. Gdy dochodzi do silnej aktywacji sieci odpowiedzialnej za specyficzny obszar, wydaje się, że te sieci wyższego poziomu zostają wyciszone. Ale w sytuacjach niepewności czy dużej złożoności bodźca, sieci te zostają zaangażowane i obserwujemy ich wysoką aktywność, wyjaśniają naukowcy. « powrót do artykułu
-
- kora mózgowa
- mózg
-
(i 1 więcej)
Oznaczone tagami:
-
Przez lata uważano, że jedynie silnie zaangażowani politycznie, a jednocześnie mniej wykształceni odbiorcy informacji medialnych, przedkładają potwierdzenie własnych poglądów nad prawdę. Innymi słowy, że wierzą w informacje potwierdzające ich poglądy, niezależnie od tego, czy są prawdziwe. W ostatnich latach zaczęły się ukazywać badania, które wykazały, że konsumenci informacji – bez względu nad wykształcenie – przedkładają poglądy nad prawdę. W 2021 roku jedno z badań wykazało nawet, że wiarygodność informacji była oceniana czterokrotnie wyżej wówczas, gdy informacja potwierdzała poglądy odbiorcy. Nowe badania przynoszą więcej szczegółów na ten temat i pokazują, w jakim stopniu ludzie są skłonni poświęcić prawdę dla ideologii. W czasie naszych badań obserwowaliśmy, że większą odgrywa polityczne samookreślenie niż prawda. Widzieliśmy to po obu stronach sporu politycznego, nawet u ludzi, którzy dobrze wypadali w testach racjonalnego rozumowania. Zdziwiło nas, jak szeroko rozpowszechnione to zjawisko. Ludzie bardzo mocno angażują się, by nie poznać niewygodnej prawdy, mówi główny autor badań, doktor Michael Schwalbe z Wydziału Psychologii w School of Humanities and Sciences na Uniwersytecie Stanforda. Co interesujące, zjawisko to jest bardziej widoczne w przypadku prawdziwych informacji niż fałszywych, co oznacza, że ludzie z większym prawdopodobieństwem odrzucą prawdziwe informacje jeśli przeczą ich poglądom, niż zaakceptują fałszywe informacje, potwierdzające ich poglądy. Wszyscy uważają, że to problem, który ich nie dotyczy. Twierdzą, że w ich przypadku jest inaczej. Jednak jak wykazują kolejne badania, to zjawisko stale występujące w całym spektrum poglądów politycznych i niezależny od wykształcenia. Problemem nie jest tutaj sama dezinformacja, a filtry, które zbudowaliśmy w naszym mózgu, mówi profesor Geoffrey L. Cohen. Autorzy badań mówią, że ich wyniki różnią się od badań wcześniejszych, ze względu na inną metodologię. Na przykład wcześniejsze badania korzystały z prawdziwych nagłówków prasowych, a Cohen i Schwalbe stworzyli własne nagłówki. Ponadto podczas wcześniejszych badań osoby biorące w nich udział miały wgląd w to, z jakich mediów pochodziły prezentowane im nagłówki i informowano ich, jaki jest cel badań. Uczeni ze Stanforda nie zdradzili, co naprawdę badają. Poinformowali badanych, że chodzi o kwestie związane z pamięcią i komunikacją, wykorzystali też pytania dotyczące tych właśnie zagadnień, by badani nie domyślili się prawdziwego celu eksperymentu. Cohen i Schwalbe prowadzili swoje badania w 2020 roku, podczas wcześniejszych wyborów, które Donald Trump przegrał z Joe Bidenem. Zespół naukowy przedstawił badanym fałszywe nagłówki prasowe, na przykład Trump pokonał arcymistrza szachowego czy Trump, przebrany za papieża, wziął udział prywatnej orgii z okazji Halloween. Okazało się, że obie strony sporu politycznego bardziej wierzyły w fałszywe informacje potwierdzające ich poglądy, niż w prawdziwe informacje przeczące ich poglądom. Naukowcy zauważyli, że jednym z głównych powodów odrzucania prawdy na rzecz własnej ideologii, jest coraz silniejsze skupienie się na mediach przedstawiających jeden punkt widzenia oraz przekonanie o obiektywizmie i braku tendencyjności po własnej stronie sporu politycznego w porównaniu ze stroną przeciwną. Innymi słowy, im kto więcej konsumował informacji z mediów prezentujących jego punkt widzenia i im bardziej był przekonany, że jego strona sporu politycznego jest obiektywna, tym bardziej odrzucał niewygodną prawdę na rzecz potwierdzenia swoich poglądów. Sytuację pogarsza zamykanie się we własnych bańkach informacyjnych w mediach społecznościowych. Schwalbe i Cohen mówią, że problemu tego nie rozwiąże walka z fałszywymi informacjami, gdyż ludzie odrzucają prawdziwe informacje, które nie potwierdzają ich poglądów. Zdaniem uczonych, ważną rolę mogłoby odegrać nauczenie ludzi nieco intelektualnej skromności. Uświadomienie konsumentom informacji, że rozum może ich zwodzić i nauczenie ich kwestionowania swojego punktu widzenia, gdyż nie jest on jedynym słusznym i prawdziwym. « powrót do artykułu
-
Do National Maritime Museum w Greenwich trafił niezwykły zabytek – mundur oficera napoleońskiej służby celnej, w który przebrał się nastoletni chorąży Royal Navy, Charles Hare, podczas ucieczki z niewoli we Francji. To jedyny znany przypadek ucieczki w takim przebraniu. Historycy nie mieli pojęcia, o istnieniu munduru. Potomkowie Hare'a przechowali go przez wieki, a sam zabytek jest jeszcze bardziej niezwykły przez fakt, że zachowali też dziennik żołnierza, który szczegółowo opisywał brawurową ucieczkę, podczas której wiernie towarzyszył mu pies. Po tym, jak mundur trafił do muzeum, został poddany zabiegom konserwatorskim i został umieszczony w galerii Nelson, Navy, Nation. Podczas wojen napoleońskich zaszły ważne zmiany w traktowaniu jeńców wojennych. Złapani brytyjscy żołnierze i marynarze spędzali całe lata we francuskiej niewoli. Niektóry próbowali uciekać, przebierając się za chłopów czy praczki. Hare to jedyna osoba, o której wiemy, że przebrała się za francuskiego oficera. Jeńcy prawdopodobnie tak nie robili, gdyż było to niezwykle niebezpieczne. W przypadku schwytania zostaliby straceni, jako szpiedzy. Hare musiał być bardzo odważny, mówi kuratorka Katherine Gazzard. Chorąży zdawał sobie sprawę z niebezpieczeństwa. W swoim dzienniku napisał: jeśli zostanę złapany w mundurze, z bronią lub fałszywymi dokumentami, czeka mnie natychmiastowa śmierć z dekretu Bonapartego. To złamanie prawa, o którym dobrze wiem. Ten straszny obraz nie opuszcza mojej głowy i to prawdopodobnie dlatego na mej twarzy rysuje się roztargnienie. Słuchając, jak toczą się koła powozu, wydaje mi się, że współpasażerowie coraz bardziej mi się przyglądają. Moja podejrzliwość rośnie z minuty na minutę. Muszę powstrzymywać się, by nie zacząć uciekać. Hare bardzo szczegółowo opisał swoją podróż ku wolności, swoje rozterki i obawy, żarty które robił Francuzom. Na koniec zaś wspomina o psie, który mu towarzyszył. Nie mógłbym zakończyć, bez poinformowania moich przyjaciół czytelników, że towarzyszył mi terier angielski, którego cztery lata wcześniej otrzymałem od pewnego dżentelmena w Verdun. Był on bardzo pomocny podczas mej podróży. Za każdym razem, gdy podczas posiłku czy przy innej okazji kierowane było do mnie niewygodne pytanie, udawałem, że nie słyszę, gdyż cały czas bawiłem się z psem i go pieściłem. Ta strategia nigdy mnie nie zawiodła dzięki niezwykłej uprzejmości Francuzów, który widzieli, że jestem bardziej zainteresowany psem niż konwersacją z nimi. Hare wrócił do domu w Lincolnshire w sierpniu 1809 roku, sześć lat po tym, jak trafił do niewoli. Charles Hare urodził się w 28 września 1789 roku w rodzinie oficera marynarki. W wieku 11 lat wstąpił do Royal Navy, jego ojciec zmarł w tym samym roku. W 1803 roku Francuzi przechwycili „Minerwę” – okręt na którym służył już w stopniu chorążego. Jeńców przetransportowano do Verdun. Oficerowie, w tym Hare, mogli swobodnie poruszać się po mieście. W 1806 Hare został przeniesiony do więzienia w forcie Sarre-Libre (obecnie Saarlouis). Z fortu uciekł 12 sierpnia 1809 roku. Najpierw pojechał powozem do Moguncji, następnie kolejnymi łodziami płynął Renem, aż dotarł do Rotterdamu. Dnia 25 sierpnia 1809 roku zameldował się na pokładzie „Royal Oak”, brytyjskiego okrętu wojennego, który brał udział w blokadzie duńskiego wybrzeża. Kilka dni później okręt popłynął do Wielkiej Brytanii. Hare opuścił jego pokład w Grimsby. Stamtąd, już pieszo, udał się do domu w Summer Castle, gdzie powitały go matka i siostry. « powrót do artykułu
-
Chińsko-amerykański zespół naukowy zdobył pierwsze bezpośrednie dowody geochemiczne na to, że Ziemia była w pewnym momencie „błotnistą planetą”, co z kolei potwierdza hipotezę Ziemi-śnieżki, czyli etapu globalnego zlodowacenia. Zakończyło je gwałtowne ocieplenie klimatu spowodowane wzrostem stężenia dwutlenku węgla w atmosferze. Zgodnie ze wspomnianą hipotezą, zlodowacenie Marinoan miało miejsce 650–635 milionów lat temu. Gdy globalne temperatury się obniżyły, lód na biegunach zaczął się rozrastać, zwiększyło się albedo Ziemi, co spowodowało kolejne obniżenie temperatur i dalsze rozprzestrzenianie się lodów na obie półkule. Gdy zamarzła znaczna część oceanów, a lód morski sięgał tropików, zatrzymany został cykl hydrologiczny. Nie zachodziło parowanie, opady deszczu i śniegu były minimalne. Bez wody doszło do olbrzymiego spowolnienia procesu wietrzenia chemicznego skał. To bardzo ważny proces, w ramach którego z atmosfery wycofywana jest znaczna część węgla. Bez chemicznego wietrzenia skał i bez kontaktu z wodami oceanicznymi, atmosfera nie miała jak pozbywać się węgla. Więc dwutlenek węgla, który do niej trafiał np. w wyniku erupcji wulkanicznych, nie był usuwany. Tylko kwestią czasu było, aż dwutlenek węgla osiągnie poziom wystarczająco wysoki, by jego wpływ był silniejszy, niż chłodzący wpływ pokryw lodowych. A gdy to się stało, zjawisko takie miało katastrofalne rozmiary, mówi Shuhai Xiao, Wydziału Nauk o Ziemi na Virginia Tech. Doszło do gwałtownego wzrostu globalnych temperatur. W ciągu 10 milionów lat średnia temperatura na Ziemi wzrosła z -45 do 48 stopni Celsjusza. Do bardzo słonych starych (bo zamkniętych pod lodem przez miliony lat) wód oceanicznych zaczęła gwałtownie spływać słodka woda z roztapiającego się lodu. Wody te się nie wymieszały. Lżejsza słodka woda utworzyła grubą warstwę na powierzchni oceanów. I to właśnie istnienie tej hipotetycznej warstwy, a zatem prawdziwość takiego scenariusza, postanowili sprawdzić autorzy wspomnianych badań. Zgodnie bowiem z tym scenariuszem, śladem istnienia takiego błotnistego rozmokłego świata z warstwą słodkiej wody unoszącą się na starych mocno słonych wodach oceanu, powinny być różnice w sygnaturze biochemicznej skał. Otóż znajdujące się w pobliżu wybrzeży skały, które miały kontakt z tą słodką wodą, powinny mieć wyraźnie różną sygnaturę izotopów litu, niż położone w głębi oceanów skały, które takiego kontaktu nie miały. Analizy przeprowadzone przez uczonych z Chin i USA wykazały, że rzeczywiście skład izotopów litu w skałach jest taki, jakiego należałoby oczekiwać, gdyby hipoteza o słodkich wodach tworzących warstwę na starych wodach słonych, była prawdziwa. Z artykułem opisującym wyniki badań można zapoznać się na łamach PNAS. « powrót do artykułu
-
- Ziemia-śnieżka
- globalne zlodowacenie
-
(i 1 więcej)
Oznaczone tagami:
-
Jezioro Genezaret (Morze Kinneret), największe słodkowodne jezioro Izraela, jest od tysięcy lat ważnym regionalnym miejscem ludzkiej aktywności. Wokół niego koncentrowała się też znaczna część działalności Jezusa Chrystusa i jego uczniów, z których część była rybakami. Nad brzegiem jeziora Jezus dokonał jednego z najbardziej znanych cudów – rozmnożenia chleba i ryb. Cud miał miejsce dwukrotnie, a pierwsze rozmnożenie jest jedynym cudem opisanym we wszystkich Ewangeliach. Grupa uczonych uważa, że do rozmnożenia ryb mogło rzeczywiście dojść, ale zjawisko to ma całkowicie naturalne wytłumaczenie. Już sam fakt, że wspomniany cud został jako jedyny opisany we wszystkich Ewangeliach, wskazuje na jego olbrzymie znaczenie dla rozwoju chrześcijaństwa, wraz ze wszystkimi tego konsekwencjami dla historii ludzkości. Nic więc dziwnego, że nauka stara się dowiedzieć jak najwięcej o tym wydarzeniu. Ponadto w Ewangelii Łukasza opisany jest cudowny połów ryb, kiedy to Jezus zachęcił swoich uczniów, by – pomimo nieudanych prób połowu prowadzonych przez całą noc – jeszcze raz wypłynęli na jezioro. Uczniowie posłuchali i złowili olbrzymią liczbę ryb. Autorzy nowych badań uważają, że cuda te można wyjaśnić za pomocą naturalnego zjawiska. Tradycja chrześcijańska przekazała, że do cudów miało dojść na północnym wybrzeżu, w regionie zwanym Tabga. Pod koniec IV wieku region ten odwiedziła hiszpańska pątniczka Egeria, która pozostawiła zapiski ze swojej podróży. Wspomina w nich o istnieniu kamienia, czczonego przez pierwszych chrześcijan, na którym to Chrystus miał spożywać posiłek oraz informuje o istniejącym tam kościele. Kilkaset lat później o kościele wspomina też mnich Epifaniusz. Podczas badań archeologicznych przeprowadzonych w XX wieku odkryto pozostałości trzech kościołów, z jasnymi nawiązaniami do cudów. Naukowcy są zgodni, że to rzeczywiście Tabga jest tym miejscem, które wcześni chrześcijanie identyfikowali jako miejsce, gdzie Chrystus rozmnożył chleb i ryby. Teraz dowiadujemy się, że jest też miejscem, w którym występuje pewne naturalne zjawisko, które mogło doprowadzić do pojawienia się wielkiej obfitości ryb. Genezaret należy do jezior holomiktycznych (czyli takich, w których mieszaniu ulega cała masa wody), do podgrupy jezior monomiktycznych ciepłych, co oznacza, że mieszanie zachodzi tylko zimą. Takie jeziora praktycznie nigdy nie zamarzają. Latem górna warstwa jeziora – epilimnion – jest ciepła i spoczywa na chłodnej dolnej warstwie, hypolimnionie. Pomiędzy nimi znajduje się metalimnion o bardzo dużym gradiencie temperatur (termoklina). Od kwietnia do października nad jeziorem dominują wiatry północno-zachodnie, które zaczynają wiać po południu i wieją przez 5–8 godzin. Wiejący wiatr wywołuje poziomy gradient ciśnienia, spychając wody powierzchniowe w dół wiatru. Powoduje to powstanie na jeziorze sejszy, fali stojącej. Termoklina zwiększa się w kierunku, w którym wieje wiatr. W wyniku oddziaływania wiatru i ruchu obrotowego Ziemi w jeziorze pojawiają się również fale wewnętrzne – fale Kelvina i Poincarego. Naukowcy od dłuższego czasu je badają i zauważyli, że w wyniku oscylacji fal wewnętrznych dochodzi do pionowego przemieszczania się mas wody w Genezaret, a zjawisko to jest najsilniejsze u zachodnich wybrzeży jeziora. Wiemy też, że w ciągu 4-6 tygodni od zakończenia mieszania wód jeziora w marcu-kwietniu warstwa hypolimnionu zostaje pozbawiona tlenu, a zjawisko to jest dodatnio skorelowane z wiosenną produktywnością fitoplanktonu. Autorzy nowych badań przypominają o zaobserwowaniu dwóch przypadków masowego śnięcia ryb w regionie Tabga. Do jednego wydarzenia doszło 31 maja 2012 roku, a do drugiego 27 czerwca 2012 roku. Ich zdaniem ryby zginęły, gdy w wyniku działalności wiatru i fal wewnętrznych doszło do wypłynięcia na powierzchnię (upwelling) u wybrzeży Tabgi pozbawionych tlenu wód hypolimnionu. Brak tlenu zabił ryby pływające w górnych warstwach jeziora. Hipotezę tę autorzy zweryfikowali tworząc trójwymiarowy model komputerowy jeziora, za pomocą którego symulowali warunki panujące w całym zbiorniku wodnym w czasie, gdy ryby zginęły. Podobne trudne do wytłumaczenia epizody śmierci ryb obserwowane są w również w innych jeziorach. W Genezaret występują rzadko. Jeden z autorów badań, Tamar Zohary z Kinneret Limnological Laboratory, który od 34 lat bada jezioro, mówi, że pamięta tylko dwa tego typu przypadki. Jeden miał miejsce na początku lat 90., a drugi w kwietniu 2007 roku. Od roku 2012 podobna sytuacja nie miała miejsca. Mamy więc do czynienia z rzadkim zjawiskiem, które może pojawić się, jeśli zaistnieją specyficzne warunki. Warunkiem wstępnym do pojawienia się masowego pomoru ryb jest pogodna wiosna, zapewniająca dobrą produktywność roślinną. Do pomoru dochodzi późną wiosną w ciągu kilku tygodni od zaprzestania mieszania się wód. Dane z osadów w jeziorze i z przekazów historycznych wskazują, że warunki te były spełnione w czasach, gdy Jezus nauczał u wybrzeży Genezaret. Dlatego też autorzy badań uważają, że mogło dojść do nagłego masowego wypłynięcia martwych ryb u wybrzeży Tabga lub do nagromadzenia tam dużej liczby żywych ryb, szukających tlenu po tym, jak doszło do częściowego upwellingu pozbawionych tlenu wód. Zjawisko to zbiegło się z obecnością w tym miejscu Jezusa, który nauczał zgromadzone tłumy, zostało uznane za cud i na stałe weszło do kanonu kulturowego. « powrót do artykułu
- 10 odpowiedzi
-
- 1
-
-
- jezioro Genezaret
- rozmnożenie ryb
-
(i 1 więcej)
Oznaczone tagami:
-
Oceany pochłaniają około 26% dwutlenku węgla emitowanego przez człowieka. Są więc niezwykle ważnym czynnikiem zmniejszającym nasz negatywny wpływ na atmosferę. Większość tego węgla – około 70% – wykorzystuje fitoplankton i inne organizmy żywe. Gdy one giną, resztki ich ciał opadają w postaci przypominającej płatki śniegu. Ten zawierający węgiel „śnieg” zalega na dnie, jest przykrywany osadami i pozostaje bezpiecznie zamknięty na bardzo długi czas, nie trafiając z powrotem do atmosfery. Jednak badania, których wyniki ukazały się właśnie na łamach Science wskazują, że proces ten nie wygląda tak prosto, jak byśmy chcieli. Grupa naukowców z Uniwersytetu Stanforda, Woods Hole Oceanographic Institution oraz Rutgers University zbudowała specjalny mikroskop, potocznie nazwany Gravity Machine, który pozwala badać mikroorganizmy i inne niewielkie elementy występujące w kolumnie wody o dowolnej długości. Okazało się, że „morski śnieg” nie opada na dno tak szybko, jak sądziła nauka. Mikroskop pozwolił na symulowanie zachowania „śniegu” w środowisku naturalnym i okazało się, że „płatki śniegu” ciągną za sobą śluzowe warkocze, która spowalniają ich opadanie. Czasem warkocze te całkowicie uniemożliwiają opadnięcie i „śnieg” pozostaje zawieszony w górnych częściach kolumny wody. Żyjące tam organizmy mogą go pochłaniać i w procesie oddychania wydalić do wody znajdujący się tam węgiel, a to z kolei zmniejsza tempo pochłaniania przez ocean CO2 z atmosfery. Mikroskop, za pomocą którego prowadzono badania, wykorzystuje koło o średnicy kilkunastu centymetrów. Do koła naukowcy wlewali wodę pobraną w oceanie na różnych głębokościach. Koło się obracało, a obecne w wodzie mikroorganizmy mogły swobodnie opadać pod wpływem grawitacji. Dzięki ruchowi obrotowemu koła, mikroorganizmy mogły bez końca opadać, w ten sposób możliwe jest symulowanie opadania na dowolną odległość. Temperatura, oświetlenie i ciśnienie wewnątrz koła dobiera jest odpowiednio do symulowanej głębokości, na której „znajduje się” badana próbka. Jednocześnie to, co dzieje się w próbce jest bez przerwy monitorowane za pomocą mikroskopu. Dzięki takiej konstrukcji instrumentu badawczego zauważono, że poszczególne „płatki śniegu” tworzą, niewidoczną goły okiem, śluzowatą strukturę ciągnącą się na podobieństwo warkocza komety. Odkrycia warkocza dokonano, gdy do próbki dodano niewielkie mikrokoraliki, by zbadać, jak będą one przepływały wokół „płatków”. Zauważyliśmy, że koraliki utknęły w czymś niewidzialnym, co ciągnęło się za płatkami, mówi jeden z badaczy. Bliższe badania pokazały, że ten śluzowaty warkocz dwukrotnie wydłuża czas pobytu „płatków” w górnych 100 metrach kolumny wody. Odkrycie pokazuje, że proces pochłaniania węgla przez oceany jest bardziej złożony niż sądziliśmy. Jest jednak mało prawdopodobne, by oznaczało ono, że oceany pochłaniają mniej węgla, niż sądzimy. Ilość tego węgla została bowiem określona metodami empirycznymi, więc wpływ warkocza został - choć nieświadomie - uwzględniony. « powrót do artykułu
-
Zwierzęta spożywają alkohol częściej, niż nam się wydaje
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Spożycie alkoholu wśród zwierząt jest bardziej rozpowszechnione, niż sądzimy – uważają naukowcy w University of Exeter, University of Calgary i College of Central Florida. Przypominają oni, że etanol jest obecny niemal w każdym ekosystemie, należy więc przyjąć, że prawdopodobnie jest regularnie spożywany przez większość zwierząt odżywiających się owocami i nektarem. Swoje wnioski uczeni opublikowali na łamach pisma Trends in Ecology & Evolution. Niejednokrotnie słyszeliśmy doniesienia o zwierzętach, które upiły się sfermentowanymi owocami. Jednak poza tymi anegdotycznymi informacjami, nauka stoi na stanowisku, że zwierzęta – z wyjątkiem człowieka – rzadko spożywają alkohol. Autorzy wspomnianej pracy uważają, że pogląd ten wymaga rewizji. Musimy porzucić antropocentryczny punkt wiedzenia, zgodnie z którym etanolu używają ludzie. Substancja ta jest znacznie bardziej rozpowszechniona w środowisku, niż sądziliśmy, i większość zwierząt jedzących owoce jest wystawionych na działanie alkoholu, mówi doktor Kimberley Hockings z University of Exeter. Etanol powszechnie pojawił się na Ziemi około 100 milionów lat temu, gdy rośliny kwitnące zaczęły wytwarzać nektar i owoce zawierające cukier, które mogły zostać poddane fermentacji przez drożdże. Obecnie etanol jest z sposób naturalny obecny w niemal każdym ekosystemie, a jego stężenie jest wyższe na niższych szerokościach geograficznych i w wilgotnych tropikach. Tam też pojawia się on przez cały rok. W większości przypadków w wyniku naturalnej fermentacji w owocach stężenie alkoholu sięga 2%. Jednak na przykład w przejrzałych owocach palm w Panamie zanotowano stężenie sięgające 10,3%. Geny pozwalające na rozkładanie etanolu są starsze niż sam etanol. Mamy też dowody, że u ptaków i ssaków doszło do udoskonalenia możliwości trawienia etanolu już po jego pojawieniu się. Najbardziej efektywnie etanol jest metabolizowany przez naczelne i wiewióreczniki. Dlaczego właśnie u nich? Wyjaśnienie jest proste. Z ekologicznego punktu widzenia nie jest zbyt korzystnym chodzenie po drzewach w stanie upojenia alkoholowego. To przepis, by nie przekazać dalej genów, mówi Matthew Carrigan z College of Central Florida. Uczony dodaje, że w przypadku zwierząt mamy do czynienia z odmiennym mechanizmem niż u ludzi. Ludzie chcą się upić, a nie chcą przy tym dodatkowych kalorii. Zwierzęta poszukują kalorii, ale nie chcą się upijać. Nie jest jasne, czy zwierzęta spożywają etanol dla samego etanolu. Tutaj potrzeba dalszych badań, na przykład nad wpływem etanolu na fizjologię i ewolucję zwierząt. Jednak, jak zauważają naukowcy, spożycie etanolu może przynosić dzikim zwierzętom korzyści. Przede wszystkim zawiera on sporo kalorii, a jego silny zapach prowadzi zwierzęta do źródła pożywienia. Chociaż, jak uważają naukowcy, jest mało prawdopodobne, by zwierzęta wyczuwały sam etanol. Etanol może przynosić też korzyści zdrowotne. Muszki owocówki celowo składają jajka tam, gdzie jest etanol, gdyż chroni on je przed pasożytami. Zauważono też, że larwy owocówek zwiększają spożycie etanolu jeśli zostaną zarażone pasożytem. Kwestią otwartą pozostaje pytanie, czy po spożyciu etanolu zwierzęta również czują się przyjemnie, są odprężone, chętniej nawiązują kontakty społeczne. By to zbadać musimy sprawdzić, jaka jest fizjologiczna reakcja zwierząt na etanol, mówi Anna Bowland z Exeter. « powrót do artykułu -
Jednym z najważniejszych czynników, który znacząco oddziałuje na wycenę diamentu, jest jego masa wyrażona w karatach. Karat, oznaczany skrótem kt, to specyficzna jednostka miary, używana do określania wielkości diamentów oraz innych kamieni szlachetnych. Historia i pochodzenie jednostki karat Jednostka miary, jaką jest karat, pełni istotną funkcję w branży jubilerskiej, zwłaszcza w przypadku diamentów i innych kamieni szlachetnych. Nazwa „karat” pochodzi od drzewa zwanego szarańczyn strąkowy, znanego również jako karob. W starożytności, na Bliskim Wschodzie, nasiona karobu były używane jako odważniki do ważenia kamieni szlachetnych, ponieważ cechowały się one niezwykłą regularnością masy – każde ziarno ważyło około 0,2 grama. To właśnie ta właściwość sprawiła, że nasiona te stały się podstawą do określenia jednostki masy kamieni szlachetnych, która przetrwała do dziś. Karat jako miara masy diamentów W jubilerstwie karat metryczny (ct) jest standardową jednostką miary masy diamentów. Jeden karat odpowiada 200 miligramom, czyli 0,2 grama. Warto zauważyć, że choć karat określa wagę kamienia, nie odnosi się bezpośrednio do jego wielkości. Dwa diamenty o tej samej masie mogą mieć różne wymiary, w zależności od ich gęstości, kształtu i szlifu. Dlatego karat jest tylko jednym z wielu czynników, które wpływają na ocenę i wycenę diamentów. Zasada 4C – karat jako jeden z najważniejszych parametrów Karat jest jednym z czterech podstawowych kryteriów, znanych jako zasada 4C, które mają decydujący wpływ na wartość diamentu. Oprócz masy, na cenę diamentu wpływają także jego czystość, kolor i szlif, które wspólnie determinują jakość i piękno kamienia. W przypadku diamentów o większej masie nawet niewielka różnica w wadze może znacząco podnieść ich wartość, co jest szczególnie istotne przy ocenie rzadkich i dużych egzemplarzy. Dlatego precyzyjne określenie masy jest niezwykle ważne w procesie wyceny kamienia, a dokładność pomiaru jest niezwykle ważna, aby zapewnić sprawiedliwą ocenę jego wartości rynkowej. Co więcej, waga w karatach jest jednym z parametrów, który jest szczególnie brany pod uwagę przez kolekcjonerów i inwestorów, poszukujących diamentów o wyjątkowej jakości. Przykłady i znaczenie masy diamentu Największy diament, jaki kiedykolwiek odkryto – Cullinan – miał imponującą masę 3106 karatów, co odpowiada około 621,2 gramom. Diamenty o tak ogromnej masie są niezwykle rzadkie i stanowią nie tylko skarb o ogromnej wartości historycznej, ale także finansowej, często stając się obiektem zainteresowania kolekcjonerów i muzeów na całym świecie. Warto również wspomnieć, że masa diamentu jest precyzyjnie mierzona i podawana z dokładnością do dwóch miejsc po przecinku, co pozwala na bardzo dokładne określenie jego wagi, a tym samym znacząco wpływa na jego wycenę. Ta precyzja jest istotna, zwłaszcza przy obrocie diamentami, gdzie nawet najmniejsza różnica w masie może prowadzić do znacznych różnic w cenie biżuterii, podkreślając tym samym unikalność każdego egzemplarza. Gdzie najlepiej kupować diamenty? Diamenty najlepiej kupować w renomowanych i zaufanych sklepach jubilerskich, które oferują certyfikowane kamienie szlachetne. Certyfikaty, takie jak te wydawane przez GIA (Gemological Institute of America), gwarantują autentyczność i jakość diamentu. Można również rozważyć zakup diamentów na aukcjach, które często oferują unikatowe i rzadkie egzemplarze. Godnym polecenia miejscem do zakupu diamentów jest atelier House of Diamond, które oferuje diamenty i biżuterię najwyższej jakości, opatrzone certyfikatami GIA lub IGI. Ważne jest, aby unikać zakupów od niezweryfikowanych sprzedawców, szczególnie online, gdzie ryzyko oszustwa jest wyższe. Najważniejsze jest upewnienie się, że sprzedawca jest godny zaufania, a diament posiada pełną dokumentację, co zapewnia bezpieczeństwo inwestycji. Podsumowując, masa diamentów jest określana w karatach, jednostce miary, która ma swoje korzenie w starożytnych metodach ważenia kamieni szlachetnych na Bliskim Wschodzie. Dziś karat jest międzynarodowym standardem w branży jubilerskiej, a jego precyzyjne określenie ma ogromne znaczenie dla wyceny diamentów. Warto pamiętać, że diamenty o większej masie są nie tylko bardziej wartościowe, ale także trudniejsze do znalezienia, co dodatkowo podnosi ich cenę na rynku jubilerskim. « powrót do artykułu
-
Niskocukrowa dieta matki w czasie ciąży oraz dziecka przez dwa lata po urodzeniu, znacząco zmniejsza ryzyko rozwoju cukrzycy i nadciśnienia u dorosłego człowieka. Naukowcy z Uniwersytetu Kalifornijskiego w Berkeley, Uniwersytetu Południowej Kalifornii (USC) w Los Angeles i kanadyjskiego McGill University w Montrealu zauważyli, że dzieci, które przez pierwszych 1000 dni od poczęcia spożywały niewiele cukru, miały o 35% mniejsze ryzyko rozwoju cukrzycy typu II i o 20% mniejsze ryzyko rozwoju nadciśnienia w dorosłym życiu. Już ograniczenie ekspozycji na cukier przed urodzeniem wiązało się z obniżeniem ryzyka wystąpienia tych chorób, a ograniczenie cukru po urodzeniu dodatkowo zwiększa uzyskane korzyści. Naukowcy wykorzystali w swoich badaniach niezamierzony naturalny eksperyment, jakim była II wojna światowa. Sprawdzili, jak ówczesna polityka racjonowania cukru wpłynęła długoterminowo na zdrowie obywateli. W Wielkiej Brytanii racjonowanie cukru rozpoczęto w 1942 roku, a zakończono je dopiero we wrześniu 1953 roku. Naukowcy wykorzystali bazę danych U.K. Biobank. Znajdują się w niej dane genetyczne, medyczne, informacje dotyczące stylu życia i innych czynników ryzyka olbrzymiej liczby obywateli. Dzięki niej mogli porównać zdrowie dorosłych mieszkańców Wielkiej Brytanii z czasów przed ograniczenia sprzedaży cukru i po niej. Badania długoterminowych skutków spożywania cukru dodawanego do żywności jest trudne. Ciężko jest bowiem znaleźć takie sytuacje, gdy duże grupy społeczeństwa na początkowych etapach życia mają do czynienia z różnymi składnikami odżywczymi, a potem śledzić tych losy tych ludzi przez kolejnych 50 czy 60 lat, mówi główna autorka badań, Tadeja Gracner z USC. Gdy cukier był racjonowany, średnie spożycie na głowę wynosiło 40 gramów dziennie. Po zakończeniu ograniczeń zwiększyło się ono do około 80 gramów dziennie. Co ważne dla badań, racjonowanie żywności w czasie wojny nie wiązało się z ekstremalnymi ograniczeniami składników odżywczych. W tym czasie dieta przeciętnego mieszkańca Wielkiej Brytanii była mniej więcej zgodna z obecnymi zaleceniami WHO czy amerykańskiego Departamentu Rolnictwa, które radzą, by dzieci do 2. roku życia nie spożywały w ogóle dodatkowego cukru, a spożycie u dorosłych nie przekraczało 50 gramów (12 łyżeczek) dziennie. Natychmiastowy olbrzymi wzrost spożycia cukru po zniesieniu restrykcji, który nie wiązał się ze wzrostem spożycia innych rodzajów żywności, stał się więc interesującym przypadkiem naturalnego eksperymentu. Ludzie zostali wystawieni na ekspozycję różnych ilości cukru na samym początku życia, w zależności od tego, czy zostali poczęci bądź urodzili się przed czy po wrześniu 1953 roku. To pozwoliło na porównanie tych, którzy zostali poczęci lub urodzili się w czasach, gdy cukier racjonowano, z tymi, z czasów po zniesieniu ograniczeń. Naukowcy porównali więc tak wyodrębnione dwie grupy osób i stwierdzili, że ci, którzy przez 1000 dni od poczęcia spożywali mniej cukru, byli narażeni na mniejsze ryzyko cukrzycy i nadciśnienia. Jednak to nie wszystko. W grupie tej, jeśli już ktoś zapadł an cukrzycę, to pojawiała się ona cztery lata później, a w przypadku nadciśnienia było to dwa lata później, niż chorowały osoby spożywające więcej cukru w ciągu pierwszych 1000 dni życia. Co ważne, już mniejsze spożycie cukru w łonie matki zapewniało korzyści zdrowotne kilkadziesiąt lat później. Wyniki badań pokazują, jak ważne jest znaczące zmniejszenia spożycia cukru przez kobietę w ciąży, gdyż ograniczenie cukru dziecku po urodzeniu jest o tyle trudne, że cukier dodawany jest bardzo wielu produktów spożywczych, a dzieci są bez przerwy bombardowane reklamami słodyczy. Średnie miesięczne koszty ekonomiczne cukrzycy w USA wynoszą 1000 USD na osobę. Ponadto cukrzyca skraca oczekiwany czas życia, a im wcześniej się pojawi, tym większa jest utrata lat życia. Wynosi ona 3-4 lata na każdą dekadę, zatem osoba, która zapadła na cukrzycę w wieku 30 lat może żyć o 6–8 lat krócej, niż osoba, u której choroba pojawiła się w wieku 50 lat. « powrót do artykułu
-
Archeolodzy ze szwedzkich Narodowych Muzeów Historii prowadzili prowadzili prace wykopaliskowe w Tvååker w miejscu, o którym sądzili, że jest pozostałością po osadzie z epoki kamienia. Okazało się jednak, że pracują na gigantycznym cmentarzu z epoki wikingów. Dotychczas odkopano 139 pochówków, w tym kurhan w kształcie łodzi. Wraz ze zmarłymi złożono ceramiczne naczynia, broszki czy zwierzęce kości. Gdy tylko zaczęliśmy wykopaliska, zdaliśmy sobie sprawę, że to wielki cmentarz wikingów. Dotychczas odsłoniliśmy jedynie 6% jego powierzchni, mówi kierująca pracami Petra Nordin z Narodowych Muzeum Historii. Do pierwszych prac przystąpiono tutaj w maju 2017 roku przed planowaną budową drogi. Na planach teren ten oznaczono jako prawdopodobną osadę z epoki kamienia. Wcześniej znaleziono tam bowiem pozostałości pieca oraz kamienne narzędzia. Mimo że Tvååker wspomniane jest w sagach, informacje o znajdującym się powyżej cmentarzu zniknęły w mroku dziejów. Pierwsze wykopaliska przeprowadziliśmy w maju 2017 roku i znaleźliśmy 5 pochówków, ślady ognia, kości ludzi i psów. Zdaliśmy sobie sprawę, że w rzeczywistości to cmentarz wikingów, wyjaśnia uczona. Problem w tym, że cały ten teren objęty był działalnością rolniczą. Wszystko, co znajdowało się powyżej terenów mieszkalnych, zostało wyrównane. Pochówki zaorano i zamieniono na pastwiska. To zaś oznacza, że wszystko musieliśmy interpretować z bardzo mocno poszatkowanych pozostałości. Nasze badania pokazały, gdzie znajdowały się stosy pogrzebowe. Znaleźliśmy też coś, co interpretujemy jako ułożony z kamieni 50-metrowej długości pochówek w kształcie łodzi, dodaje Nordin. W sumie znaleziono trzy pochówki w kształcie łodzi ułożone z kamieni oraz kurhan w kształcie łodzi. Znaczna część cmentarza prawdopodobnie znajduje się pod współczesną zabudową. Nordin wyjaśnia, że zwykle podczas podobnych wykopalisk archeolodzy skupiają się na pochówkach. Tutaj jednak zostały one tak bardzo zniszczone, że większy nacisk uczeni kładą na pozostałości po miejscach kremacji zwłok. Większość znalezionych tam artefaktów nosi ślady działania ognia. Badacze natrafili między innymi na arabską monetę z lat 795–806. Jej wiek zgadza się z wiekiem najstarszych pochówków. Wraz ze zmarłymi wikingowie kremowali ich psy, które były towarzyszami ludzi za życia. Później, po złożeni skremowanych zwłok do grobu, na wierzch kładziono nieskremowane zwłoki innych zwierząt, najczęściej krów. Dopiero wówczas zamykano pochówek. Archeolodzy nie wiedzą, gdzie mieszkali pochowani ludzie. Z sag wiemy, że w okolicy prawdopodobnie istniała osada. Być może na jej miejscu stoi dzisiejsze Tvååker. Być może jednak to któraś z okolicznych miejscowości. Tego obecnie nie wiadomo. Tym ważniejszy jest badany cmentarz, gdyż może on zdradzić wiele informacji o tym, jak żyli okoliczni mieszkańcy. « powrót do artykułu
-
- wikingowie
- cmentarz
-
(i 2 więcej)
Oznaczone tagami:
-
W imieniu Obserwatorium Astronomicznego Uniwersytetu Jagiellońskiego w Krakowie i Fundacji Antares zapraszamy uczniów polskich szkół i ich nauczycieli do udziału w tegorocznej, już VIII edycji naszego Konkursu. Rejestracja uczestników jest otwarta! Celem Konkursu „Astrolabium” jest upowszechnianie znaczenia i piękna nauk ścisłych, a w szczególności astronomii i badań kosmicznych, wśród uczniów szkół podstawowych i średnich wszystkich typów. Uczestnictwo w Konkursie pozwala pogłębić i usystematyzować dotychczasową wiedzę astronomiczną, może też być zachętą do samodzielnych obserwacji nieba i dalszego rozwijania astronomicznej pasji. Nasz Konkurs dedykowany jest, podobnie jak w ubiegłych latach, dla czterech grup wiekowych: uczniów klas I-III, IV-VI i VII-VIII szkół podstawowych oraz wszystkich klas szkół średnich. Przeprowadzany jest w dwóch etapach. Pierwszy z nich polega na wykonaniu przez uczniów publikowanych na stronie Konkursu doświadczeń, opracowanych z osobna dla poszczególnych grup wiekowych. Uczniowie mogą przeprowadzać je samodzielnie lub w grupach, a także z pomocą nauczycieli lub rodziców. W ramach tych doświadczeń mają bezpośredni kontakt z zagadnieniami współczesnej astronomii i posługują się podobnymi metodami i narzędziami, jakie na co dzień wykorzystują naukowcy. W obecnej edycji Konkursu w doświadczeniach poruszona będzie m.in. tematyka zanieczyszczenia światłem, wielozakresowych obserwacji meteorów, aktywności słonecznej, współczesnych wielkich teleskopów do obserwacji nieba oraz radiowej struktury naszej Galaktyki, Drogi Mlecznej. Drugi etap Konkursu będzie polegać na samodzielnym wypełnieniu końcowego testu zdobytej wiedzy, który uczniowie napiszą w zgłoszonych szkołach w kwietniu 2025 r. Dla uczestników, którzy w teście końcowym uzyskają najwyższe wyniki, przewidujemy atrakcyjne nagrody, w tym profesjonalne teleskopy i lornetki, wejściówki do obserwatoriów, książki i czasopisma o tematyce astronomicznej. W tym roku uczestnictwo w Konkursie „Astrolabium” jest bezpłatne – nie obowiązuje opłata wpisowa. Z przyjemnością informujemy, że Konkurs uzyskał dofinansowanie z Narodowego Instytutu Wolności - Centrum Rozwoju Społeczeństwa Obywatelskiego. Już teraz zapraszamy do rejestracji szkoły i uczniów w Konkursie „Astrolabium”! Można to zrobić pod tym adresem: https://astrolabium.oa.uj.edu.pl/ « powrót do artykułu
-
Ubezpieczenie to forma ochrony finansowej zapewniane przez towarzystwo ubezpieczeniowe, która chroni osoby i mienie przed skutkami nieprzewidzianych zdarzeń. Polega na zawarciu umowy między ubezpieczycielem a ubezpieczonym, gdzie ubezpieczyciel zobowiązuje się do wypłaty odszkodowania w zamian za opłacaną przez ubezpieczonego składkę. W zależności od potrzeb i rodzaju ryzyka dostępne są różne rodzaje ubezpieczeń. Czym jest ubezpieczenie? Ubezpieczenia można podzielić na dwie główne kategorie: ubezpieczenia osobowe i majątkowe. Ubezpieczenia osobowe obejmują ochronę życia i zdrowia. Ubezpieczenia majątkowe dotyczą ochrony mienia, np. ubezpieczenie nieruchomości czy samochodów. Dodatkowo, istotnym rodzajem są ubezpieczenia odpowiedzialności cywilnej (OC), które chronią przed skutkami szkód wyrządzonych osobom trzecim. Wybór odpowiedniego ubezpieczenia zależy od indywidualnych potrzeb, rodzaju działalności czy posiadanych aktywów. Ubezpieczenia są kluczowe dla zapewnienia stabilności finansowej w sytuacjach, które mogą prowadzić do znacznych strat. W wyborze najlepszego ubezpieczenia pomagają nam internetowe rankingi i porównywarki ubezpieczeń. Pozwalają one m.in kupować ubezpieczenie online. Jeden z takich rankingów dostępny jest na stronie rankingubezpieczennazycie.pl. Ubezpieczenie samochodu Ubezpieczenie samochodu to popularny typ ubezpieczenia majątkowego, który obejmuje zarówno obowiązkowe, jak i dobrowolne polisy. Sposób funkcjonowania ubezpieczeń OC reguluje ustawa o ubezpieczeniach obowiązkowych. Ubezpieczenie OC (odpowiedzialność cywilna) – jest to obowiązkowa polisa, która chroni kierowcę przed kosztami odszkodowań dla osób trzecich w razie spowodowania wypadku. W Polsce brak tego ubezpieczenia wiąże się z karami finansowymi. Ubezpieczenie AC (Autocasco) – dobrowolna polisa, która obejmuje ochronę samochodu w przypadku jego uszkodzenia, kradzieży czy zniszczenia. Jest to szczególnie ważne dla właścicieli droższych pojazdów. Ubezpieczenie NNW (następstw nieszczęśliwych wypadków) – chroni kierowcę i pasażerów przed skutkami wypadków drogowych, oferując wypłatę odszkodowania w razie uszczerbku na zdrowiu lub śmierci. Ubezpieczenie Assistance – zapewnia pomoc w przypadku awarii, holowanie i wsparcie techniczne w razie problemów na drodze. Ubezpieczenie turystyczne Ubezpieczenie turystyczne zapewnia kompleksową ochronę podczas podróży, zarówno krajowych, jak i zagranicznych. Jego głównym celem jest zabezpieczenie finansowe w przypadku nieprzewidzianych sytuacji, takich jak: Nagłe zachorowanie lub wypadek, które mogą wymagać kosztownego leczenia za granicą, Zagubienie lub uszkodzenie bagażu, Odwołanie lub opóźnienie lotu, Odpowiedzialność cywilna za szkody wyrządzone osobom trzecim. Polisa turystyczna może również obejmować ubezpieczenie od rezygnacji z podróży, co jest przydatne w sytuacji, gdy plany muszą zostać zmienione z przyczyn niezależnych od podróżującego. Przed wyborem polisy warto porównać dostępne oferty i upewnić się, że zakres ochrony odpowiada charakterowi i miejscu planowanego wyjazdu. Ubezpieczenie domu Ubezpieczenie domu to kluczowy element ochrony majątku, który zabezpiecza przed różnorodnymi ryzykami, takimi jak pożar, zalanie, kradzież czy zniszczenia spowodowane przez czynniki atmosferyczne, np. burze i wichury. Polisa może obejmować nie tylko sam budynek, ale także elementy stałe (np. instalacje, okna, drzwi) oraz wyposażenie, takie jak meble, sprzęt RTV czy AGD. Ubezpieczenie domu pozwala na uzyskanie odszkodowania, które pokryje koszty naprawy lub odbudowy nieruchomości oraz wymiany uszkodzonego mienia. Warto dopasować zakres ochrony do wartości posiadłości i indywidualnych potrzeb, aby zapewnić pełne bezpieczeństwo i minimalizować skutki potencjalnych strat. Co zawierają umowy ubezpieczenia? Umowy ubezpieczenia stanowią podstawę prawną relacji między ubezpieczycielem a ubezpieczonym. Każda umowa zawiera istotne informacje, takie jak: Zakres ochrony, Okres obowiązywania ubezpieczenia, Wysokość składki ubezpieczeniowej, Warunki wypłaty odszkodowania, Wyłączenia odpowiedzialności towarzystw ubezpieczeniowych, które wskazują, w jakich sytuacjach ubezpieczyciel nie wypłaci świadczenia. Umowy ubezpieczenia różnią się w zależności od rodzaju polisy oraz specyfiki chronionego mienia lub ryzyka. Przed zawarciem umowy warto dokładnie zapoznać się z jej treścią, aby zrozumieć swoje prawa i obowiązki. Co oznacza suma ubezpieczenia? Suma ubezpieczenia mieszkania, samochodu lub życia to maksymalna kwota, jaką ubezpieczyciel zobowiązuje się wypłacić w przypadku wystąpienia szkody. Wysokość sumy ubezpieczenia jest kluczowa, gdyż wpływa bezpośrednio na zakres ochrony i wysokość potencjalnych odszkodowań. W ubezpieczeniach majątkowych suma ubezpieczenia powinna być zgodna z rzeczywistą wartością chronionego mienia, aby w przypadku szkody można było uzyskać pełne pokrycie strat. W ubezpieczeniach na życie suma ubezpieczenia jest ustalana na podstawie potrzeb osoby ubezpieczonej i jej sytuacji życiowej. « powrót do artykułu
-
Badacze z Wessex Archaeology poinformowali o odkryciu jednego z najstarszych i najlepiej zachowanych drewnianych narzędzi znalezionych na terenie Wielkiej Brytanii. Wstępne datowanie drewnianego szpadla znalezionego na podmokłym terenie przy Poole Harbour wskazuje, że pochodzi on z epoki brązu. Drewniany zabytek przetrwał więc tysiące lat. Zwykle drewno rozkłada się w ciągu dziesięcioleci. Szpadel zachował się dzięki wyjątkowym warunkom, jakie panują w miejscu jego znalezienia. Archeolodzy bardzo szybko zdali sobie sprawę, że wydobywają z ziemi coś wyjątkowego. Gdy narzędzie przesłano do laboratorium, okazało się, że zostało ono wykonane z drewna dębu, a jego wiek określono na 3400–3500 lat. Szpadel wykonano z jednego kawałka drewna, a jego wykonanie z pewnością wymagało wiele pracy. Był więc cennym narzędziem. Dzięki temu, że wyprodukowano go z pojedynczego kawałka, w razie uszkodzenia można go było przerobić na inne narzędzie. Co interesujące, w okolicy znalezienia szpadla odkryto dotychczas niewiele dowodów wskazujących na stałe osadnictwo. Badana jest hipoteza, że ludzie okazyjnie odwiedzali do miejsce. W czasach, z których pochodzi szpadel, okolica ta była prawdopodobnie podatna na zalania w ziemi i wysychała latem. Można więc było wykorzystywać ten obszar do wypasu zwierząt, rybołówstwa, polowań czy pozyskiwania torfu, wikliny, być może na potrzeby upraw. Szpadel znaleziono w okrągłym wykopie, który mógł służyć wielu różnym celom, w tym suszeniu czy przechowywaniu lokalnie pozyskanych zasobów. Dotychczas na terenie Wielkiej Brytanii znaleziono tylko jedno podobne drewniane narzędzie z epoki brązu. W 1875 roku odkryto długi przedmiot o kształcie liścia, który z czasem nazwano „łopatą z Brynlow”. Być może odkrycie szpadla pozwoli na lepsze zrozumienie roli tego i innych drewnianych narzędzi, dowiemy się skąd wynikają podobieństwa i różnice pomiędzy nimi. « powrót do artykułu
-
Twierdzenie o nieskończonej liczbie małp mówi, że jeśli nieskończona liczba małp będzie losowo naciskała na klawisze maszyn do pisania przez nieskończenie długi czas, to w końcu stworzą dowolny tekst. Na przykład dzieła Szekspira. Badacze z University of Technology Sydney stwierdzili, że twierdzenie rzeczywiście jest prawdziwe, jednak takie przypadkowe stworzenie dzieła Szekspira zajęłoby znacznie dłużej niż wiek wszechświata. Sprawdzenia prawdziwości teorii podjęli się profesor Stephen Woodcock i Jay Falletta. Twierdzenie o nieskończonej liczbie małp nie nakłada ograniczeń ani na liczbę małp, ani na ilość czasu. My zbadaliśmy prawdopodobieństwo powstania danego ciągu liter napisanego przez określoną liczbę małp w czasie równym wiekowi wszechświata, wyjaśnia Woodcock. Wyniki swoich badań uczeni opublikowali na łamach pisma Franklin Open w artykule A numerical evaluation of the Finite Monkeys Theorem. Naukowcy założyli, że klawiatura, a jaką mają do czynienia małpy, składa się z 30 klawiszy z wszystkimi literami alfabetu łacińskiego oraz najpowszechniej stosowanymi znakami interpunkcyjnymi. Obliczeń dokonali zarówno dla jednej małpy, jak i dla 200 000 żyjących obecnie na Ziemi szympansów. Założyli także, że średnie produktywne tempo naciskania na klawisze wynosi 1 klawisz na sekundę i że małpy będą pisały do końca wszechświata, który nastąpi za około 10100 lat. Badania wykazały, że istnieje 5-procentowe prawdopodobieństwo, że w ciągu swojego życia szympans napisze wyraz „bananas”. Jednak nawet 200 000 szympansów nie byłoby w stanie stworzyć wszystkich dzieł Szekspira – a napisał on około 884 647 słów – do końca istnienia wszechświata. Jest niemal niemożliwe, by – nawet zwiększając liczbę szympansów czy przyspieszając tempo pisania – małpy były użytecznym narzędziem do tworzenia nietrywialnych dzieł literackich, stwierdzili autorzy badań. Nasze badania plasują to stwierdzenie wśród takich problemów jak paradoks petersburski, paradoksów Zenona, gdzie wykorzystanie idei nieskończonych zasobów nie zgadza się z wynikiem, który otrzymamy, gdy weźmiemy pod uwagę ograniczenia narzucane przez rzeczywistość, dodaje Woodcock. « powrót do artykułu
- 11 odpowiedzi
-
- twierdzenie o nieskończonej liczbie małp
- Szekspir
-
(i 2 więcej)
Oznaczone tagami:
-
Jaki jest idealny kształt szklanki do piwa? Nauka zna odpowiedź
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Claudio Pellegrini z brazylijskiego Uniwersytetu Federalnego w São João del-Rei obliczył, jaki kształt powinna mieć szklanka do piwa, by jak najdłużej utrzymać niską temperaturę napoju. Problem temperatury piwa trapi naukowców od dawna. Już przed 11 laty klimatolodzy z University of Washington prowadzili obliczenia i eksperymenty, które dały odpowiedź na pytanie, dlaczego w letni dzień piwo tak szybko się ogrzewa. Większość osób woli pić piwo ze szklanki niż z kufla. Jednak piwo w takim naczyniu szybciej się ogrzewa. Pellegrini, który opublikował wyniki swoich badań na łamach arXiv, postanowił poszukać optymalnego kształtu szklanki, opierając się na podstawach fizyki dotyczących transferu ciepła. W swojej pracy nie brał pod uwagę czynników zewnętrznych, takich jak ciepło dłoni czy rodzaj szkła. Badał jedynie, w jaki sposób kształt wpływa na tempo przepływu energii cieplnej. Swoje obliczenia rozpoczął od standardowego kształtu i rozmiaru typowej szklanki o prostych ściankach i takiej samej średnicy na górze i na dole. Dla każdego ze sprawdzanych kształtów przyjął taką samą temperaturę napoju oraz założył, że samo szkło ma pomijalną rezystancję termiczną. Okazało się, że ludzkość – bez naukowych obliczeń – stworzyła już idealny kształt szklanki do piwa. Okazało się, że złocisty napój ogrzewa się najwolniej w szklance z dnem o niewielkiej średnicy, która stopniowo rozszerza się ku górze. « powrót do artykułu -
Wiele z odkrytych dotychczas czarnych dziur jest częścią układu podwójnego. Układy takie składają się z krążących wokół siebie czarnej dziury oraz innego obiektu – jak gwiazda, gwiazda neutronowa czy druga czarna dziura. Astronomowie z MIT-u i Caltechu poinformowali właśnie o zaskakującym odkryciu. Jedna z najlepiej przebadanych czarnych dziur, klasyfikowana jako część układu podwójnego, okazała się wchodzić w skład układu potrójnego. Dotychczas sądzono, że czarnej dziurze V404 Cygni towarzyszy jedynie sąsiednia gwiazda. Obiega ona dziurę w ciągu 6,5 doby, to tak blisko, że V404 Cygni wciąga materiał z gwiazdy.Ku zdumieniu badaczy okazało się jednak, że wokół czarnej dziury krąży jeszcze jedna gwiazda. Ten drugi z towarzyszy znajduje się w znacznie większej odległości. Gwiazda obiega dziurę w ciągu 70 000 lat. Sam fakt, że czarna dziura wywiera wpływ grawitacyjny na tak odległy obiekt każe zadać pytania o jej pochodzenie. Czarne dziury tego typu powstają w wyniku eksplozji supernowej. Badacze zauważają jednak, że gdyby tak było w tym przypadku, to energia wyemitowana przez gwiazdę przed jej zapadnięciem się, eksplozją i utworzeniem czarnej dziury, wyrzuciłaby w przestrzeń kosmiczną każdy luźno powiązany z nią obiekt. Zatem tej drugiej gwiazdy, bardziej odległej od czarnej dziury, nie byłoby w jej otoczeniu. Dlatego też badacze uważają, że zaobserwowana przez nich czarna dziura powstała w wyniku bezpośredniego zapadnięcia się gwiazdy, w procesie, który nie doprowadził do pojawienia się supernowej. To znacznie bardziej łagodna droga tworzenia się czarnych dziur. Sądzimy, że większość czarnych dziur powstaje w wyniku gwałtownej eksplozji gwiazd, jednak to odkrycie poddaje tę drogę w wątpliwość. To bardzo interesujący układ z punktu badania ewolucji czarnych dziur. I każe zadać sobie pytanie, czy istnieje więcej układów potrójnych, mówi Kevin Burdge z MIT-u. Odkrycia dokonano przypadkiem. Naukowcy analizowali bazę Aladin Lite, repozytorium obserwacji astronomicznych wykonanych przez różne teleskopy naziemne i kosmiczne. Wykorzystali automatyczne narzędzie, by wyodrębnić z bazy obserwacje dotyczące tych samych fragmentów nieboskłonów. Szukali w nich śladów nieznanych czarnych dziur. Z ciekawości Burdge zaczął przyglądać się V404 Cygni. To czarna dziura znajdująca się w odległości 8000 lat od Ziemi i jedna z pierwszych potwierdzonych czarnych dziur. Od czasu potwierdzenia w 1992 roku V404 Cygni jest jedną z najlepiej przebadanych czarnych dziur, na jej temat powstało ponad 1300 prac naukowych. Burdge, oglądając jej zdjęcia, zauważył dwa źródła światła, zadziwiająco blisko siebie. Pierwsze ze źródeł zostało już wcześniej opisane jako niewielka gwiazda, której materiał jest wciągany przez V404 Cygni. Drugim ze źródeł nikt się dotychczas szczegółowo nie zainteresował. Burdge przystąpił do pracy. Dzięki danym z europejskiego satelity Gaia stwierdził, że to druga gwiazda, poruszająca się w tandemie z pierwszą. Prawdopodobieństwo, że to tylko przypadek, wynosi 1 do 10 milinów. Zatem ta druga gwiazda również jest powiązana grawitacyjnie z V404 Cygni. Jest jednak daleko od niej. Znajduje się w odległości 3500 jednostek astronomicznych, czyli 3500 razy dalej niż Ziemia od Słońca. Obserwacje tej gwiazdy zdradziły też wiek całego układu. Badacze stwierdzili, że gwiazda rozpoczyna proces zmiany w czerwonego olbrzyma, ma zatem około 4 miliardów lat. Jak się zatem okazuje, nawet – wydawałoby się – bardzo dobrze przebadane obiekty astronomiczne mogą skrywać niezwykłe tajemnice, których rozwikłanie znacząco zmienia i wzbogaca naszą wiedzę. « powrót do artykułu
-
- V404 Cygni
- supernowa
-
(i 1 więcej)
Oznaczone tagami:
-
Latem 2022 z powodu upałów zmarły w Europie 68 593 osoby. Badacze z Barcelońskiego Instytutu Zdrowia Globalnego poinformowali, że gdyby nie globalne ocieplenie, nie doszłoby do śmierci 38 154 z tych osób. Uczeni zauważyli też, że liczba zgonów z powodu globalnego ocieplenia była szczególnie duża wśród kobiet oraz osób w wieku 80 lat i starszych. Punktem wyjścia do obecnych badań, była wcześniejsza praca, w ramach której – wykorzystując dane o zgonach i temperaturze w 35 krajach Europy – eksperci stworzyli model epidemiologiczny pozwalający na określenie liczby zgonów spowodowanych wysokimi temperaturami. Teraz wykorzystali dane na temat średnich anomalii temperaturowych w latach 1880–2022 i oszacowali dla każdego badanego regionu wzrost temperatury spowodowany ociepleniem. Na tej podstawie określili, jakie temperatury panowałyby na badanych obszarach, gdybyśmy nie mieli do czynienia z ociepleniem klimatu. W końcu uruchomili swój model epidemiologiczny, by sprawdzić, do jakiej liczby zgonów by doszło w scenariuszu, w którym ocieplenie nie występuje. Badania wykazały, że – w przeliczeniu na milion mieszkańców – liczba zgonów z powodu upałów, które można przypisać ociepleniu, jest dwukrotnie wyższa na południu kontynentu niż w pozostałej części Europy. Z modelu wynika, że stres cieplny spowodowany globalnym ociepleniem w szkodzi głównie kobietom – z powodu globalnego ocieplenia zmarło ich 22 501 z 37 983 wszystkich zgonów kobiet spowodowanych upałami – osobom w wieku 80 lat i więcej (23 881 zgonów z ogólnej liczby 38 978). Wzrost temperatur spowodowany przez ocieplenie klimatu w mniejszym stopniu dotyka mężczyzn (14 426 z 25 385 zgonów) oraz osób w wieku 64 lat i mniej (2702 z 5565 zgonów). Nasze badania pokazują, do jakiego stopnia globalne ocieplenie wpływa na zdrowie publiczne. Niemal we wszystkich krajach obserwujemy wzrost liczby zgonów spowodowanych upałami. Nie wszyscy są jednak narażeni w takim samym stopniu, mówi Thessa Beck. Latem 2022 roku z powodu upałów najwięcej osób – 18 758 – zmarło we Włoszech. Globalne ocieplenie spowodowało śmierć 13 318 z nich, co stanowi 71% wszystkich zgonów. W Hiszpanii zmarło 11 797 osób, z czego z powodu ocieplenia 7 582 (64%). Na kolejnym miejscu znajdziemy Niemcy (9675 zgonów, 5746 (59%) z powodu ocieplenia). Następne na liście są Francja, Grecja, Wielka Brytania i Rumunia. Polska uplasowała się na 8. miejscu tabeli. W naszym kraju upały zabiły 1808 osób, z czego 1218 zgonów badacze przypisali globalnemu ociepleniu. « powrót do artykułu
- 2 odpowiedzi
-
- ocieplenie klimatu
- globalne ocieplenie
-
(i 4 więcej)
Oznaczone tagami:
-
Międzynarodowa Unia Ochrony Przyrody (IUCN) dokonała właśnie aktualizacji czerwonej księgi gatunków zagrożonych i poinformowała, że jeż zachodni (Erinaceus europaeus) – występujący w Europie zachodniej po zachodnią Polskę – został przesunięty z kategorii „najmniejszej troski” (LC) do kategorii „bliski zagrożenia” (NT). Niebezpieczeństwo na jeże, podobnie jak na dziesiątki tysięcy innych gatunków zwierząt i roślin, sprowadził człowiek. Jak poinformowała IUCN, populacja wspomnianego gatunku jeża zmniejszyła się w ponad połowie krajów, w których występuje, w tym w Wielkiej Brytanii, Norwegii, Szwecji, Danii, Belgii, Holandii, Niemczech i Austrii. W zależności od kraju spadki liczebności sięgają 16–33 procent. Najwięcej jeży, bo nawet do 50%, ubyło w Bawarii oraz we Flandrii. Przyczyną tak gwałtownego zaniku jeży jest przede wszystkim degradacja środowiska naturalnego przez intensywne rolnictwo, coraz gęstszą sieć dróg i coraz większe miasta. Profesor Chris Carbone z Instytutu Zoologii Londyńskiego Towarzystwa Zoologicznego i założyciel organizacji London Hogwatch mówi, że spadek liczebności jeży wciąż można powstrzymać. Można to zrobić zapobiegając utracie habitatów, zmniejszając ilość używanych pestycydów czy tworząc bezpieczne korytarze, którymi jeże będą mogły przemieszczać się pomiędzy siedliskami. W Polsce żyją dwa gatunki jeży. Zachodni (europejski), występujący na zachodzie, oraz wschodni, którego możemy spotkać na całym terenie naszego kraju. Często są one zabijane przez kierowców na drogach, giną w płomieniach wyniku wypalania traw, umierają zimą nie mogąc znaleźć odpowiedniego schronienia ogrodach z krótko skoszoną trawą, w których nie ma ani liści, ani chrustu. W najnowszej czerwonej księdze umieszczono dane dotyczące 166 061 gatunków. Aż 46 337 to gatunki zagrożone wyginięciem. Listę zaktualizowano o pierwszy w historii Global Tree Assesment. Po raz pierwszy w Liście uwzględniono większość gatunków drzew występujących na Ziemi. Okazuje się, że z 47 282 ocenionych gatunków tych roślin zagrożonych jest co najmniej 16 425. « powrót do artykułu
-
- jeż zachodni
- czerwona księga gatunków zagrożonych
- (i 2 więcej)
-
Badania archeologiczne przeprowadzone w górach Uzbekistanu za pomocą drona wyposażonego w lidar zakończyły się odkryciem dwóch miast handlowych położonych na Jedwabnym Szlaku. To jedne z największych średniowiecznych miast udokumentowanych w górskich regionach dróg handlowych łączących Europę ze wschodem Azji. Miasta znalazł zespół pracujący pod kierunkiem profesora Michaela Frachettiego z Washington University w St. Louis i Farhoda Maksudova, dyrektora Narodowego Centrum Archeologii w Uzbekistanie. Na obrazach z lidaru widać place, fortyfikacje, drogi i budynki mieszkalne. Oba miasta znajdują się na wysokości pomiędzy 2000 a 2200 metrów nad poziomem morza. To równie wysoko co słynne Machu Picchu. Mniejsze z miast nazwano Taszbulak. Miało ono powierzchnię 12 hektarów. Większe – Tugunbulak – o powierzchni 120 ha, było jednym z największych miast w regionie. To były dwa ważne ośrodki w Azji Środkowej. Szczególnie ważne dla podróżujących, którzy opuszczali niziny i wchodzili w bardziej wymagający teren górski. Góry są zwykle postrzegane jako przeszkody w handlu i przemieszczaniu się Jedwabnym Szlakiem. W rzeczywistości znajdowało się tam ważne centra, których pomyślność zapewniały zwierzęta, rudy metali i inne cenne zasoby, mówi Frachetti. Jasnym jest, że ludzie, którzy przez ponad 1000 lat zamieszkiwali Tugunbulak byli wędrownymi pasterzami pielęgnującymi swoją odrębność kulturową i gospodarczą. To miejsca posada złożoną strukturę miejską i specyficzną kulturę materialną, która znacznie różni się od kultury osiadłych ludów z nizin, dodaje Maksudov. Skany o rozdzielczości liczonej centymetrach dostarczyły dużej ilości danych do analiz komputerowych, które ujawniły liczne szczegóły dotyczące architektury i organizacji miasta. Mamy jedne z najbardziej szczegółowych danych lidar, jakie kiedykolwiek opublikowano na potrzeby archeologii. Ich zdobycie było częściowo możliwe dzięki unikatowym procesom erozji zachodzącym w tych miejscach, wyjaśnia Frachetti. Uczeni i ich zespół po raz pierwszy trafili na ślady obu miast dokonując analiz komputerowych oraz pieszego rozpoznania przypuszczalnych dróg wchodzących w skład Jedwabnego Szlaku. Badania te prowadzili w latach 2011–2015. Przez wiele lat zbierali dane i przekonywali władze, by pozwoliły wykonać badania za pomocą dronów. Wysiłek się opłacił. Stworzenie mapy o wysokiej rozdzielczości wymagało 17 lotów dronem, które wykonaliśmy w ciągu 3 tygodni. Wykonanie mapy tak rozległego terenu tradycyjną metodą zajęłoby nam całą dekadę, wyjaśnia Frachetti. Naukowcy chcieliby bliżej przyjrzeć się obu miastom. Wstępne wykopaliska na miejscu jednej z fortyfikacji w Tugunbulak sugeruje, że budynek, chroniony przez trzymetrowej grubości ściany z ubijanej ziemi, mógł być miejscem, w którym z bogatych rud wytwarzano stal. Wykopaliska archeologiczne przyniosłyby więc nowe, fascynujące informacje. Frachetti ma nadzieję, że prace, podobne do tego, jakie prowadził ze swoim zespołem, pozwolą na odkrycie kolejnych osad i miast w górach Azji Centralnej. Moglibyśmy naprawdę zmienić naszą wiedzę o sieci miejskiej w średniowiecznej Azji, uważa uczony. « powrót do artykułu
-
- Jedwabny Szlak
- Uzbekistan
-
(i 2 więcej)
Oznaczone tagami:
-
Nieznany walc Chopina odkryty w amerykańskiej bibliotece
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Z zbiorach nowojorskiego The Morgan Library & Museum znaleziono nieznany dotychczas walc Fryderyka Chopina. Jego odkrywca, kurator Robinson McClellan przypomina, że poprzedniego odkrycia nieznanego dzieła polskiego kompozytora dokonano w latach 30. XX wieku, minęło zatem około 90 lat. Nowo odkryty utwór składa się z 24 taktów, po których należy zagrać go jeszcze raz. Chopin znany był z krótkich form, jednak tutaj mamy do czynienia z jego najkrótszym walcem. Całość trwa około minuty. Specjaliści, biorąc pod uwagę spisaną formę utworu przypuszczają, że kompozytor chciał go komuś zadedykować. Zwykle podpisywał takie prezenty. Walc jest jednak niepodpisany, co wskazuje, że artysta się rozmyślił. Doktor McClellan po raz pierwszy trafił na ten utwór w 2019 roku, gdy rozpoczynał katalogowanie Kolekcji Arthura Satza, która niedawno trafiła do muzeum. Przypuszczał, że to dzieło Chopina, jednak jest ono tak odmienne od innych walców tego autora, że badacz poprosił o pomoc jednego z czołowych znawców polskiego kompozytora, profesora Jeffreya Kallberga z University of Pennsylvania. Wspólnie potwierdzili autentyczność manuskryptu i uznali, że wszystko wskazuje na to, że jego autorem jest Chopin. Ich spostrzeżenia potwierdzili inni poproszeni o pomoc chopinolodzy, a muzealni konserwatorzy przeprowadzili badania papieru i atramentu, stwierdzając, że pasują one do papieru i atramentu używanego przez Chopina. Nowo odkryty walc poszerza naszą wiedzę o Chopinie jako kompozytorze i stawia przed badaczami nowe wyzwania. Powstaje pytanie, kiedy powstał i komu miał być dedykowany, stwierdza McClellan. W The Morgan Library & Museum znajduje się jeden z najwspanialszych zbiorów manuskryptów muzycznych i rzadkich wydruków partytur. Instytucja posiada też liczne listy słynnych kompozytorów, pierwsze wydania wielu librett i partytur. W jej kolekcji znajdziemy też jeden z największych na świecie zbiorów manuskryptów Mahlera i znaczną część dzieł Mozarta, Schuberta, Chopina, Brahmsa, Debussy'ego, R. Straussa, Strawińskiego, Ravela i Schoenberga. Muzealne zbiory muzyczne obejmują 40 000 zabytków, które powstały w ciągu 600 lat w wielu różnych krajach. Poniżej możecie posłuchać nowo odkrytego utworu Chopina oraz zapoznać się z jego analizą. « powrót do artykułu- 1 odpowiedź
-
- biblioteka
- utwór
-
(i 2 więcej)
Oznaczone tagami: