Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Największe jak dotąd tego typu badanie wykazało, że weekendowa pogoda w Europie jest gorsza niż w czasie tygodnia. Jeśli ktoś więc wcześniej podejrzewał, że wszystkie siły sprzysięgają się, by uniemożliwić wyjazd na narty czy wycieczkę do lasu, miał ku temu podstawy...

Meteorolodzy z Uniwersytetu w Karlsruhe przeanalizowali 6,3 mln wpisów z danymi klimatycznymi z lat 1991-2005. A oto uzyskane wyniki. Najwyższa średnia temperatura występowała we środy, a najniższa w soboty. Poniedziałek uznano za najbardziej suchy, a sobotę za najbardziej mokry dzień tygodnia. Bezchmurne niebo to znak firmowy poniedziałku, ponieważ słońce świeciło wtedy średnio o 15 minut dłużej niż podczas weekendu. Największe zachmurzenie jest typowe oczywiście dla soboty. Jednym słowem: to nie poniedziałek, ale właśnie sobotę należy ochrzcić mianem najgorszego dnia tygodnia.

Naukowcy uważają, że ludzie powinni sami siebie obwiniać za taki stan rzeczy. Gazy spalinowe przyczyniają się do wzrostu zapylenia. Ogranicza to dostęp promieni słonecznych oraz przyspiesza tworzenie się chmur. Ponieważ na efekty trzeba trochę poczekać [a w tygodniu ruch uliczny jest największy — przyp. red.], muszą na tym ucierpieć weekendy. Wtedy pogoda się psuje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Po raz czwarty z rzędu światowe oceany pobiły rekordy ciepła. Kilkunastu naukowców z Chin, USA, Nowej Zelandii, Włoch opublikowało raport, z którego dowiadujemy się, że w 2022 roku światowe oceany – pod względem zawartego w nich ciepła – były najcieplejsze w historii i przekroczyły rekordowe maksimum z roku 2021. Poprzednie rekordy ciepła padały w 2021, 2020 i 2019 roku. Oceany pochłaniają nawet do 90% nadmiarowego ciepła zawartego w atmosferze, a jako że atmosfera jest coraz bardziej rozgrzana, coraz więcej ciepła trafia do oceanów.
      Lijing Cheng z Chińskiej Akademii Nauk, który stał na czele grupy badawczej, podkreślił, że od roku 1958, kiedy to zaczęto wykonywać wiarygodne pomiary temperatury oceanów, każda dekada była cieplejsza niż poprzednia, a ocieplenie przyspiesza. Od końca lat 80. tempo, w jakim do oceanów trafia dodatkowa energia, zwiększyło się nawet 4-krotnie.
      Z raportu dowiadujemy się, że niektóre obszary ocieplają się szybciej, niż pozostałe. Swoje własne rekordy pobiły Północny Pacyfik, Północny Atlantyk, Morze Śródziemne i Ocean Południowy. Co gorsza, naukowcy obserwują coraz większą stratyfikację oceanów, co oznacza, że wody ciepłe i zimne nie mieszają się tak łatwo, jak w przeszłości. Przez większą stratyfikację może pojawić się problem z transportem ciepła, tlenu i składników odżywczych w kolumnie wody, co zagraża ekosystemom morskim. Ponadto zamknięcie większej ilości ciepła w górnej części oceanów może dodatkowo ogrzać atmosferę. Kolejnym problemem jest wzrost poziomu wód oceanicznych. Jest on powodowany nie tylko topnieniem lodu, ale również zwiększaniem objętości wody wraz ze wzrostem jej temperatury.
      Ogrzewające się oceany przyczyniają się też do zmian wzorców pogodowych, napędzają cyklony i huragany. Musimy spodziewać się coraz bardziej gwałtownych zjawisk pogodowych i związanych z tym kosztów. Amerykańska Administracja Oceaniczna i Atmosferyczna prowadzi m.in. statystyki dotyczące gwałtownych zjawisk klimatycznych i pogodowych, z których każde przyniosło USA straty przekraczające miliard dolarów. Wyraźnie widać, że liczba takich zjawisk rośnie, a koszty są coraz większe. W latach 1980–1989 średnia liczba takich zjawisk to 3,1/rok, a straty to 20,5 miliarda USD/rok. Dla lat 1990–1999 było to już 5,5/rok, a straty wyniosły 31,4 miliarda USD rocznie. W ubiegłym roku zanotowano zaś 18 takich zjawisk, a straty sięgnęły 165 miliardów dolarów.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Inżynierowie w University of Texas at Austin stworzyli najmniejsze w dziejach urządzenie do przechowywania danych. Profesor Deji Akiwande i jego zespół opierali się na opisywanych już przez nas badaniach, w czasie których powstał atomistor, najcieńsze urządzenie do składowania danych. Teraz naukowcy poczynili krok naprzód zmniejszając przekrój swojego urządzenie do zaledwie 1 nm2.
      Kluczem do dalszej redukcji rozmiarów urządzenia było dobre poznanie właściwości materiałów w tak małej skali i wykorzystanie roli defektów w materiale. Gdy pojedynczy dodatkowy atom metalu wypełnia dziurę, przekazuje materiałowi nieco ze swojego przewodnictwa, co prowadzi do zmiany czyli pojawienia się efektu pamięciowego, mówi Akinwande. Mniejsze układy pamięci pozwolą na stworzenie mniejszych komputerów i telefonów. Układy takie zużywają też mniej energii, pozwalają przechować więcej danych w mniejszej przestrzeni, działają też szybciej.
      Wyniki tych badań przecierają drogę do opracowania przyszłych generacji interesującego Departament Obrony sprzętu takiego jak ultragęste układy pamięci, neuromorficzne systemy komputerowe, systemy komunikacyjne działające w zakresie fal radiowych i inne, mówi Pani Veranasi, menedżer w US Army Research Office, które finansowało najnowsze badaniach.
      Atomristor, na którym oparto najnowsze badania, był już najcieńszym układem pamięci. Jego grubość wynosiła zaledwie 1 atom. Jednak dla zmniejszenia urządzeń ważny jest również ich przekrój poprzeczny. Tym, czego poszukiwaliśmy było spowodowanie by pojedynczy atom kontrolował funkcje pamięci. Udało się nam to osiągnąć, mówi Akinwande.
      Nowe urządzenie należy do kategorii memrystorów, urządzeń zdolnych do modyfikowania oporności pomiędzy dwoma punktami końcowymi bez potrzeby używania bramki w roli pośrednika. Opracowana właśnie odmiana memrystora, którą stworzono dzięki wykorzystaniu zaawansowanych narzędzi z Oak Ridge National Laboratory, daje szanse na osiągnięcie gęstości zapisu rzędu 25 Tb/cm2. To 100 krotnie więcej niż obecnie dostępne komercyjne układ flash.
      Nowy układ pamięci wykorzystuje dwusiarczek molibdenu (MoS2). Jednak jego twórcy zapewniają, że w tej roli można wykorzystać setki innych materiałów o podobnej budowie.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wyjście z łóżka w ciemny zimowy poranek jest dla wielu nie lada wyzwaniem. Nie ma jednak co robić sobie z tego powodu wyrzutów. Neurobiolodzy z Northwestern University odkryli właśnie mechanizm wskazujący, że zachowanie takie ma biologiczne podstawy.
      Naukowcy zauważyli otóż, że muszki owocówki posiadają rodzaj termometru, który przekazuje informacje o temperaturze z czułków zwierzęcia do bardziej rozwiniętych części mózgu. Wykazali też, że gdy jest ciemno i zimno sygnały te tłumią działanie neuronów odpowiedzialnych za przebudzenie się i aktywność, a tłumienie to jest najsilniejsze o poranku.
      To pomaga wyjaśnić dlaczego, zarówno w przypadku muszek owocówek jak i ludzi, tak trudno jest obudzić się w zimie. Badając zachowanie muszek możemy lepiej zrozumieć jak i dlaczego temperatury są tak ważne dla regulacji snu, mówi profesor Marco Gallio z Winberg College of Arts and Sciences.
      W artykule opublikowanym na łamach Current Biology autorzy badań jako pierwsi opisali receptory „absolutnego zimna” znajdujące się w czułkach muszki. Reagują one wyłącznie na temperatury poniżej strefy komfortu termicznego zwierzęcia, czyli poniżej 25 stopni Celsjusza. Po zidentyfikowaniu tych neuronów uczeni zbadali ich interakcję z mózgiem. Okazało się, że głównym odbiorcą przesyłanych przez nie informacji jest mała grupa neuronów mózgu, która jest częścią większego obszaru odpowiedzialnego za kontrolę rytmu aktywności i snu. Gdy obecne w czułkach receptory zimna zostają aktywowane, wówczas komórki w mózgu, które zwykle są aktywowane przez światło, pozostają uśpione.
      Odczuwanie temperatury to jeden z najważniejszych stymulantów. Podstawy jego działania, jakie znaleźliśmy u owocówki, mogą być identyczne u ludzi. Niezależnie bowiem od tego, czy mamy do czynienia z człowiekiem czy z muszką, narządy zmysłów mają do rozwiązania te same problemy i często jest to robione w ten sam sposób, dodaje Gallio.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Rok 2019 był drugim najcieplejszym rokiem od czasu rozpoczęcia regularnych pomiarów w 1880 roku, a miniona dekada był najgorętszą od 140 lat. Dotychczas najcieplejszym rokiem w historii pomiarów był 2016, a ostatnich pięć lat było najgorętszymi, od kiedy ludzkość regularnie mierzy temperaturę na Ziemi.
      Jak poinformowali specjaliści z NASA, rok 2019 był o 0,98 stopnia Celsjusza cieplejszy niż średnia z lat 1951–1980. Od lat 80. XIX wieku średnie temperatury na Ziemi wzrosły o około 1,1 stopnia Celsjusza w porównaniu z epoką preindustrialną. Dla porównania, w czasach epoki lodowej temperatury były o około 5,5 stopnia Celsjusza niższe niż bezpośrednio przed rewolucją przemysłową. O ile więc w okresie 10 000 lat pomiędzy epoką lodową z rewolucją przemysłową średni temperatury na Ziemi zwiększyły się o 5,5 stopnia Celsjusza, to w ciagu ostatnich 140 lat wzrosły one o 1,1 stopień Celsjusza.
      Fakt, że zakończyła się najbardziej gorąca znana nam dekada potwierdzają niezależnie od siebie NASA, NOAA, Berkeley Earth, Met Office czy Copernicus Climate Change Service. Ranking pięciu najgorętszych lat w historii pomiarów wygląda następująco: 2016 (+0,94 stopnia Celsjusza względem okresu referencyjnego), 2019 (+0,93), 2015 (+0,90), 2017 (+0,84), 2018 (+0,77). Lata 2010–2019 były o 0,753 stopnia Celsjusza cieplejsze od średniej z okresu referencyjnego (1951-1980) i o 0,24 stopnia Celsjusza cieplejsze od dekady wcześniejszej.


      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na internetowych czarnych rynkach pojawiła się oferta sprzedaży danych 92 milionów Brazylijczyków. Jej cena wywoławcza to 15 000 dolarów. Wiadomo, że oferentem jest ktoś zarejestrowany jako X4Crow, a bazę wystawiono na wielu forach, do których dostęp uzyskuje się za zaproszeniem lub poprzez płatną rejestrację.
      Jak twierdzi sprzedający, baza zawiera nazwiska, daty urodzenia oraz identyfikatory podatkowe około 92 milionów Brazylijczyków. Baza w formacie SQL zajmuje 16 gigabajtów, a zaprezentowane fragmenty wskazują, że jest ona podzielona na poszczególne stany.
      Witryna BleepingComputer poinformowała, że otrzymała próbkę bazy danych. Dziennikarze potwierdzili, że dane te są prawdziwe oraz zawierają m.in. informacje o nazwisku matki. Nie wiadomo, co jest źródłem bazy, jednak sprzedający poinformowali dziennikarzy, że pochodzi ona ze źródeł rządowych.
      Sprzedający twierdzą, że dzięki informacjom z tej bazy możliwe jest pozyskanie dodatkowych informacji, jak dane z dowodów osobistych czy praw jazdy. Niewykluczone, że możliwe jest też zdobycie innych danych osobowych, jak numery telefonów, e-maili, informacji o zawodzie, wykształceniu, członkach rodziny, numerach rejestracyjnych pojazdów i wielu innych.
      Próba sprzedaży danych dotyczących milionów obywateli Brazylii to kolejny w ostatnich tygodniach przykład na masowy wyciek danych z instytucji rządowych. We wrześniu wycikeły informacje na temat około 20 milionów obywateli Ekwadoru, a na początku października do sieci trafiły informacje podatkowe dotyczące około 20 milionów obywateli Rosji.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...