Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36664
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    203

Ostatnia wygrana KopalniaWiedzy.pl w dniu 26 kwietnia

Użytkownicy przyznają KopalniaWiedzy.pl punkty reputacji!

Reputacja

320 Wyśmienita

6 obserwujących

O KopalniaWiedzy.pl

  • Tytuł
    Duch Kopalni
  • Urodziny 01.05.2006

Informacje szczegółowe

  • Płeć
    Nie powiem

Ostatnie wizyty

Blok z ostatnimi odwiedzającymi dany profil jest wyłączony i nie jest wyświetlany użytkownikom.

  1. Początki motoryzacji – pierwsze pojazdy samobieżne Współczesne samochody są nowoczesne i naszpikowane zaawansowanymi technologiami. Aż trudno uwierzyć, że prototypy pojazdów samobieżnych napędzane były siłą wiatru. Projekt takiej maszyny był włoski inżynier Roberto Valturio, tematem interesował się także Leonardo da Vinci. Żaglowozy pojawiły się Niderlandach – można je było zobaczyć na tamtejszych drogach już w na początku XVII wieku. Jednak pierwszy pojazd samobieżny, który był zdolny do przewozu osób i dał zalążek współczesnej motoryzacji, pojawił się w roku 1765. Jego konstruktorem był francuski inżynier Nicolas Josepha Cugnot. Maszyna powstała na potrzeby armii i miała pełnić funkcję ciągnika artyleryjskiego. W ten sposób rozpoczęła się przygoda, która trwa do dzisiaj. Branża samochodowa budzi duże zainteresowanie i generuje ogromne zyski. Wynalazcy sprzed stuleci na pewno nie spodziewali się, jak może ewoluować ich pomysł. Dzięki nim każdy z nas może swobodnie przemieszczać się z miejsca na miejsce. Oczywiście warunkiem jest spełnienie wymogów – posiadanie prawa jazdy, wykonywanie corocznych przeglądów oraz wykupienie obowiązkowej polisy. Aktualne ceny znajdziesz tutaj – kalkulator oc HDI. Tak powstawały konstrukcje współczesnych samochodów Jak wspomniano wcześniej, pierwsze próby skonstruowania samochodu we współczesnym rozumieniu sięgają XVIII wieku, kiedy to powstały pojazdy napędzane silnikiem parowym. Jednak prawdziwy przełom nastąpił w 1886 roku, gdy Carl Benz opatentował pierwszy pojazd napędzany silnikiem spalinowym. Był to trójkołowy pojazd nazwany Benz Patent-Motorwagen Nummer 1, który uznawany jest za protoplastę współczesnych samochodów. W 2011 roku akt patentowy został wpisany na listę Pamięć Świata. Jest to projekt pod patronatem UNESCO, który ma chronić najbardziej wartościowe dla ludzkości dokumenty. W kolejnych latach pojawiały się nowe konstrukcje, takie jak pierwszy seryjnie produkowany samochód Benz Velo z 1894 roku (maksymalna prędkość wynosiła zawrotne 30 km/h) czy Ford Model T, który zrewolucjonizował przemysł motoryzacyjny dzięki wprowadzeniu taśmowej produkcji. Samochody z początku XX wieku charakteryzowały się prostą budową, otwartym nadwoziem i niewielkimi silnikami. Rozwój technologii i designu w branży motoryzacyjnej Wraz z upływem czasu samochody stawały się coraz bardziej zaawansowane technologicznie. W latach 20. i 30. XX wieku pojawiły się pierwsze pojazdy z zamkniętym nadwoziem, elektrycznym rozrusznikiem czy hydraulicznymi hamulcami. Zaczęto także zwracać uwagę na design, tworząc bardziej opływowe i eleganckie karoserie. Lata 50., 60. i 70. to okres rozkwitu motoryzacji, szczególnie w Stanach Zjednoczonych. Powstawały duże, mocne samochody z silnikami V8, bogato wyposażone i efektownie stylizowane. Były to auta typu muscle car i pony car – miały masywną sylwetkę i dużą moc. W Europie dominowały mniejsze, ekonomiczne pojazdy dostosowane do węższych ulic i wyższych cen paliwa. Samochody współczesne Obecnie samochody to zaawansowane technologicznie maszyny wyposażone w elektroniczne systemy wspomagające kierowcę, zapewniające wysoki poziom bezpieczeństwa i komfortu. Coraz większą rolę odgrywają kwestie ekologii, stąd dynamiczny rozwój pojazdów z napędem hybrydowym i elektrycznym. Współczesne trendy w designie samochodów to m.in. dążenie do aerodynamicznej sylwetki, LED-owe oświetlenie, duże alufelgi i muskularne proporcje nadwozia. Jednocześnie producenci starają się wyróżnić swoje modele charakterystycznym wyglądem zgodnym z filozofią marki. Innowacje i kierunki rozwoju Branża motoryzacyjna nieustannie poszukuje innowacyjnych rozwiązań, które mają uczynić samochody bardziej przyjaznymi dla środowiska, bezpiecznymi i funkcjonalnymi. Kluczowe kierunki rozwoju to elektromobilność, autonomiczne systemy jazdy czy komunikacja między pojazdami. Coraz większe znaczenie zyskują także usługi mobilności, takie jak car-sharing czy abonamenty na samochody. Zmienia się podejście do własności pojazdu, szczególnie wśród młodszych pokoleń, które chętniej korzystają z elastycznych form użytkowania aut. Nadal jednak samochody pozostają wyznacznikami statusu – mimo swojej powszechnej dostępności. Ewolucja pojazdów – niezwykła podróż przez historię Historia samochodu to fascynująca opowieść o ludzkiej pomysłowości, innowacyjności i dążeniu do ciągłego ulepszania środków transportu. Od pierwszych prymitywnych pojazdów napędzanych silnikiem parowym, przez kultowe modele będące ikonami swoich epok, aż po zaawansowane technologicznie współczesne auta – samochody przeszły ogromną ewolucję. Dziś stoją one przed nowymi wyzwaniami związanymi z ochroną środowiska, bezpieczeństwem i zmieniającymi się potrzebami użytkowników. Jednak jedno pozostaje niezmienne – samochody nadal są symbolem wolności, niezależności i realizacji marzeń o podróżowaniu, odgrywając istotną rolę w życiu milionów ludzi na całym świecie. « powrót do artykułu
  2. Geolodzy z MIT oraz Uniwersytetu Oksfordzkiego odkryli najstarsze skały ze śladami ziemskiego pola magnetycznego. Dziewicze skały, które zachowały swoje właściwości od czasu powstania, pochodzą sprzed 3,7 miliarda lat. Widać w nich ślady ziemskiego pola magnetycznego o natężeniu co najmniej 15 mikrotesli (µT). To najstarsze znane dowody na istnienie pola magnetycznego chroniącego planetę. Odkrycie oznacza, że pole magnetyczne Ziemi jest starsze o setki milionów lat niż sądzono i może mieć duże znaczenie dla badań nad początkami życia. Istnienie pola magnetycznego to, przynajmniej w teorii, jeden z powodów, dla których uważamy Ziemię za unikatową zamieszkałą planetę. Powszechnie uważa się, że pole magnetyczne chroni nas przed szkodliwym promieniowaniem z kosmosu i umożliwia istnienie stabilnych oceanów i atmosfery, mówi Claire Nichols z Oksfordu. Dotychczasowe badania pokazywały, że pole magnetyczne Ziemi liczy sobie co najmniej 3,5 miliarda lat. Teraz widzimy, że jest o co najmniej 200 milionów lat starsze. To ważne, gdyż mówimy tutaj o okresie, w którym na Ziemi powstawało życie. Jeśli pole magnetyczne istniało kilkaset milionów lat wcześniej, mogło odegrać kluczową rolę w spowodowaniu, że Ziemia nadawała się do życia, wyjaśnia profesor Benjamin Weiss z MIT. Pole magnetyczne nie tylko chroni naszą planetę przed szkodliwym promieniowaniem, ale umożliwia jej też utrzymanie atmosfery. Skały tworzą się przez miliony lat, w miarę jak nawarstwiają się osady i minerały, które stopniowo są ściskane przez kolejne warstwy. W takich osadach znajdują się też cząsteczki minerałów reagujących na pole magnetyczne, takie jak tlenki żelaza. Układają się one wzdłuż linii pola magnetycznego. I właśnie ta ich wspólna zbiorowa orientacja wskazuje na jego istnienie. Jednak dane takie mogą zostać zniszczone, jeśli skały przeszły przemiany. Stąd też wyniki badań dotyczących śladów pola magnetycznego w skałach budzą w środowisku specjalistów wiele sporów. Uczeni z MIT i Oksfordu, poszukując skał, które mogły nie zostać przeobrażone, wybrali się na Grenlandię do odległej lokalizacji znanej jako Isua Supracrustal Belt. Badając próbki swoich skał stwierdzili, że musiały one powstać dawniej niż 2,5 miliarda lat temu, jeszcze zanim w atmosferze pojawił się tlen. Skały utworzyły się więc w oceanie. "Wtedy nie było tlenu w atmosferze, żelazo nie utleniało się tak łatwo, więc to co tu widzimy to tlenek żelaza, który był rozpuszczony w wodzie, osiągnął wysokie stężenie i opadł na dno", wyjaśnia Nichols. To piękne, dziwaczne skały, które wyglądają zupełnie inaczej niż to, co się tworzy obecnie na Ziemi, dodaje Weiss. Przeprowadzone w laboratorium badania nie tylko pozwoliły na określenie wieku skał, ale i na zmierzenie pola magnetycznego sprzed 3,7 miliarda lat. Okazało się, że jego natężenie wynosiło 15 µT, było więc dwukrotnie mniejsze od obecnego pola. To połowa natężenia, ale ten sam rząd wielkości. To pokazuje, że cokolwiek napędza pole magnetyczne Ziemi, to jego natężenie nie uległo znacznej zmianie przez miliardy lat, mówi Nichols. Naukowcy odkryli też, że skały zachowały zapis o polu magnetycznym, mimo że przeszły później dwa epizody, w których zostały ogrzane. Wszystko wskazuje na to, że gdy skały się utworzyły 3,7 miliarda lat temu, doszło do ich ogrzania do wysokiej temperatury i krystalizacji. Później jeszcze dwukrotnie, 2,8 miliarda lat temu i 1,5 miliarda lat temu, zostały ogrzane, ale temperatury nie były tak wysokie jak pierwotnie, więc zapis ich magnetyzacji się nie zmienił. Wciąż nie wiadomo, co było źródłem pola magnetycznego przed miliardami lat. Zgodnie z obecnymi teoriami, pole magnetyczne generowane jest w wewnętrznym jądrze Ziemi. Jednak nauka uważa, że nie istniało ono 3,7 miliarda lat temu. Cokolwiek generowało wtedy pole magnetyczne, było czymś innym niż obecnie. Zajmuje nas Ziemia, bo istnieje na niej życie, ale te badania pozwalają lepiej zrozumieć inne planety typu ziemskiego. Pokazują bowiem, że planety mają wiele różnych sposobów na wytworzenie pola magnetycznego, a to ważna kwestia w poszukiwaniu planet, na których mogło powstać życie, dodaje profesor Weiss. « powrót do artykułu
  3. Psycholodzy społeczni z Uniwersytetu w Amsterdamie postanowili zbadać, na ile ludzie wierzą naukowcom z różnych dziedzin. W ich badaniach wzięło udział 2780 Amerykanów, a zebrane od nich dane pozwoliły na określenie poziomu zaufania do specjalistów z 45 dziedzin nauki. To prawdopodobnie pierwsze badania tego typu, którymi objęto tak wiele różnych dziedzin. Ich uczestnicy mieli określić poziom kompetencji (na ile są mądrzy i inteligentni), asertywności (na ile sprawiają wrażenie pewnych i asertywnych), moralności (na ile są uczciwi) oraz przyjazności. Badania prowadzono w oparciu o nowo opracowany Influence Granting Task, w ramach którego uczestnicy mieli do rozwiązania złożone problemy i mogli scedować podjęcie decyzji na różne grupy, w tym przyjaciół czy wszystkich obywateli. Jedną z tych grup byli naukowcy. Autorzy eksperymentu zauważyli, że ludzie generalnie ufają naukowcom, ale poziom zaufania znacząco się różni w zależności od dziedziny nauki. Najmniejszym zaufaniem na 7-punktowej skali cieszyli się politolodzy (3,71 pkt.) i ekonomiści (4,28 pkt.). Najwięcej zaś zaufania pokładamy w neurobiologach (5,53 pkt.) i biologach morskich (5,54 pkt.). Okazuje się, że najważniejszymi czynnikami, które decydują o poziomie społecznego zaufania do naukowców z danej dziedziny są ich kompetencje oraz moralność. Gdy naukowcy są postrzegani jako kompetentni i moralni, ludzie z większym prawdopodobieństwem powierzają im rozwiązywanie problemów społecznych. Co interesujące, wpływ moralności na zaufanie był różny dla różnych dziedzin nauki. Moralność najbardziej liczyła się na tych polach naukowych, które wywołują obecnie kontrowersje w mediach – jak w klimatologii czy socjologii – a mniej na polach niekontrowersyjnych, jak geografia czy archeologia. Największym zaufaniem społecznym – jak już wspomnieliśmy – cieszą się biolodzy morscy i neurobiolodzy. W pierwszej 10 zaufania znaleźli się też zoolodzy, astrofizycy, oceanografowie, inżynierowie lotniczy i kosmiczni, mikrobiolodzy, astronomowie, immunolodzy i biolodzy. Z kolei najniżej na liście zaufania uplasowali się politolodzy, ekonomiści, socjolodzy, specjaliści ds. nauk o żywieniu, meteorolodzy, psycholodzy, farmakolodzy, agronomowie, statystycy i danolodzy. « powrót do artykułu
  4. W Bibliotece Uniwersyteckiej w Poznaniu odkryto 27 książek z prywatnej kolekcji braci Grimmów. Dotychczas woluminy te uważano za zaginione w czasie wojny. To kolejne książki słynnych pisarzy, które zidentyfikowano w Poznaniu. O tym, że mamy w zbiorach dzieła należące wcześniej do braci Grimm, wiemy już od 2002 roku, kiedy zidentyfikowaliśmy pierwsze sześć woluminów. Powstał wówczas katalog inkunabułów, opracowany przez prof. Wiesława Wydrę, który zawiera ich opis, mówi kustosz Renata Wilgosiewicz-Skutecka z Biblioteki Uniwersyteckiej. W Bibliotece od lat prowadzone są badania proweniencyjne, w czasie których określane są losy poszczególnych książek, od momentu ich powstania. Wilgosiewicz-Skutecka wyjaśnia, że w czasie digitalizacji katalogu zbiory są dokładnie opisywane i badane. Odczytujemy zapiski dawnych właścicieli, badamy stemple znajdujące się na dziełach, opisujemy ich oprawy, wyjaśnia. Profesor Eliza Pieciul-Karmińska od wielu lat zajmuje się badaniem twórczości braci Grimm. Gdy usłyszała o o znalezieniu pierwszych sześciu woluminów z biblioteki słynnych pisarzy, postanowiła sprawdzić, czy w Poznaniu nie ma ich więcej. Punktem wyjścia był katalog Ludwiga Deneckego, który podjął się rekonstrukcji prywatnego księgozbioru braci Grimm. Poświęcił dziesięciolecia na to, by skatalogować ich książki, opisał także dzieła, które oznaczył jako "zagubione". Pani Renata wpadła więc na pomysł, że dobrze byłoby poszukać tak oznaczonych książek. Na szczęście Grimmowie oznaczali swoje książki sygnaturami, podobnie robiła biblioteka w Berlinie, a poznańska Biblioteka Uniwersytecka każdą z tych sygnatur pieczołowicie odnotowywała, co ułatwiło poszukiwania, mówi uczona. Poszukiwania okazały się owocne. Dzięki nim dowiedzieliśmy się, że Poznaniu znajduje się nie 6 a 33 książki z bogatej biblioteki braci. Z przeprowadzonych badań dowiedzieliśmy się, że książki trafiły do Poznania z latach 1898–1899. Tworzono wówczas Kaiser-Wilhelm-Bibliothek i biblioteka w Berlinie – by krzewić niemiecką kulturę na wschodzie – przekazała do Poznania dublety, książki, które posiadała w co najmniej dwóch egzemplarzach. Dzieła mają wielką wartość. Bracia-pisarze zbierali starodruki, są wśród nich egzemplarze z końca XV wieku. Na tym jednak ich wartość się nie kończy. Nie dość, że należały do wybitnych twórców, to Jakub i Wilhelm pozostawili na książkach zapiski, które posłużą do badania ich twórczości. Trzeba bowiem pamiętać, że bracia Grimm nie są tylko i wyłącznie twórcami bajek. Przeciętnemu polskiego czytelnikowi bracia Grimm kojarzą się głównie z baśniami, na co dzień traktujemy ich jak pisarzy. Tymczasem w kulturze niemieckiej to szczególne postaci, wybitni uczeni, twórcy zrębów filologii niemieckiej. Opracowanie baśni było tylko częścią ich działalności, zajmowali się także badaniem historii języka niemieckiego, jego gramatyki. Byli także autorami fundamentalnego Słownika języka niemieckiego. Rozmach ich badań był naprawdę imponujący, mówi profesor Pieciul-Karmińska. Wiemy, że podczas pracy Wilhelm używał ołówka, a Jakub pióra. Podkreślali interesujące ich fragmenty, robili notatki. Pozwala to śledzić ich pracę, tok myślenia i proces twórczy. Najpierw jednak trzeba te notatki odcyfrować, co nie zawsze jest łatwe. Bracia pisali dla siebie, posługiwali się skrótami myślowymi, inicjałami. Trzeba też sprawdzić, co ich zainspirowało do wynotowania danego słowa - może chcieli w ten sposób zaznaczyć nazwę własną, a może myśleli o konkretnym motywie baśniowym? Warto pamiętać, że na początku XIX wieku, gdy Grimmowie rozpoczęli dzieło zbierania baśni, dzisiejsze Niemcy nie były jednolitym państwem, ale były rozbite na wiele mniejszych. Dlatego to, skąd pochodziła dana wersja baśni, czy była przetworzoną opowieścią francuską, czy może wariantem heskim, czy np. pochodziła z okolic Paderbornu, było dla Grimmów istotną informacją, odnotowywaną w odręcznych notatkach, a później w przypisach, wyjaśnia profesor Pieciul-Karmińska. « powrót do artykułu
  5. Podczas remontu Mount Vernon, posiadłości pierwszego prezydenta USA George'a Washingtona, archeolodzy znaleźli w piwnicy dwie nietknięte butelki europejskiego wina. Ciemnozielone butelki były w pozycji pionowej, były zapieczętowane i zawierały płyn. Ich kształt odpowiada charakterystycznemu stylowi butelek z lat 40. i 50. XVIII wieku. Znajdowały się w zagłębieniu, na którym w latach 70. ułożono podłogę z cegieł. Podczas renowacji domu bohatera wojny o niepodległość i pierwszego prezydenta USA prowadziliśmy bardzo ostrożne badania archeologiczne, by uniknąć zniszczenia potencjalnie nieznanych artefaktów. Dzięki temu dokonaliśmy wielu użytecznych odkryć, w tym dwóch zawierających płyn butelek. Takich butelek nie widziano tutaj od czasów jeszcze przed wojny o niepodległość USA, mówi Doug Bradburn zarządzający Mount Vernon z ramienia organizacji Mount Vernon Ladies' Association, do której należy posiadłość Washingtona. Butelki zostały przetransportowane do laboratorium, gdzie zdecydowano, że opróżnienie ich z zawartości pozwoli na ustabilizowanie szkła, która od ponad 200 lat nie było wystawione na bezpośrednie działanie warunków atmosferycznych. W płynie znajdowały się resztki wiśni, w tym pestki i ogonki. Pozostawiono je w nim. Jak mówią badacze, płyn wciąż pachnie kwiatami czereśni, który to zapach roznosi się wiosną po okolicach Mount Vernon. Mount Vernon Ladies' Association zdecydowało się na przeprowadzenie rewitalizacji prezydenckiej rezydencji, gdyż budynek nie powstał z myślą o takim ruchu, jaki panuje w nim obecnie. Został wybudowany jako prywatna rezydencja. Dzisiaj każdego dnia odwiedzają go tysiące osób. W swojej 290-letniej historii był remontowany i dokonywano napraw, jednak niektóre elementy naprawiano ostatnio ponad 100 lat temu. « powrót do artykułu
  6. Naukowcy z Uniwersytetu Harvarda zauważyli, że kwas oleinowy – który jest obecny w tłuszczach i stanowi główny składnik oliwy z oliwek czy tranu – odgrywa rolę w przerzutowaniu (metastazie) nowotworów. Uczeni podkreślają, że ich odkrycie nie jest zaprzeczeniem faktu, iż oliwa z oliwek pomaga w zapobieganiu wielu schorzeniom, w tym chorobom układu krążenia. Dodają, iż prowadzone przez nich badania są bardzo skomplikowane i wiele kwestii wymaga jeszcze wyjaśnienia. Onkologia od dekad skupia się na zapobieganiu przerzutom w rozwoju chorób nowotworowych. Profesor Jessalyn Ubellacker z Harvard T.H. Chan School of Public Health badała ze swoim zespołem związki pomiędzy dietą a rozprzestrzenianiem się nowotworów i odkryła, że komórki nowotworowe tworzą wokół siebie osłonki z kwasu oleinowego znajdującego się w węzłach chłonnych. Ubellacker podkreśla, że jej badania nie przyniosły dowodu na związek pomiędzy spożywaniem oliwy z oliwek, a rozprzestrzenianiem się nowotworów. Wręcz przeciwnie, naukowcy sądzą, że to sam organizm jest głównym źródłem tłuszczy, z których komórki nowotworowe tworzą osłony. Obecnie uczona i jej zespół badają, czy dodatkowy kwas oleinowy w diecie ma wpływ na rozprzestrzenianie się nowotworów, a jeśli tak, to czy można by nim manipulować w taki sposób, by wpłynąć na prawdopodobieństwo przerzutowania. Jeśli znaleźlibyśmy sposób na kontrolowanie lub zapobieganie metastazie, wówczas nowotwory nie byłyby w stanie powodować tak dużych uszkodzeń organizmu, poważnych chorób oraz tylu zgonów, dodaje profesor Ted James, ordynator oddziału onkologicznej chirurgii piersi w Beth Israel Deaconess Medical Center. James i Ubellacker prowadzą prace nad dietą i przerzutowaniem, korzystając przy tym z pomocy 50 kobiet, u których stwierdzono raka piersi. To niezbadany dotychczas obszar, wyjaśnia James. Nowotwór, który się rozprzestrzenia używa tłuszczów do ochrony w bardzo odmienny sposób od nowotworu, który dopiero powstaje. Chcemy zrozumieć, co się dzieje, gdy pacjent ma już nowotwór i daje on przerzuty, dodaje Ubellacker. Specjaliści ds. żywienia z Chan School wykazali korzystny wpływ na zdrowie diety śródziemnomorskiej i diety roślinnej, w tym tłuszczów. Analizujemy ich badania, by stwierdzić, czy profil lipidowy diety jest powiązany z późniejszą diagnozą nowotworów  i ich rozwojem z udziałem lub bez udziału węzłów chłonnych, wyjaśnia. W ramach badań naukowcy będą zbierali szczegółowe informacje o diecie wspomnianych 50 pacjentek oraz pobierali próbki ich węzłów chłonnych. Próbki będą analizowane pod kątem występowania 300 rodzajów tłuszczów i ich metabolitów. « powrót do artykułu
  7. Rower cargo, zwany także rowerem towarowym, to nie tylko trend, ale odpowiedź na rosnące potrzeby mieszkańców gęsto zabudowanych metropolii, gdzie transport musi być zarówno efektywny, jak i ekologiczny. Rower cargo zaprojektowano z myślą o przewożeniu większych ładunków niż tradycyjny rower, co czyni go idealnym rozwiązaniem zarówno dla biznesów, jak i dla rodziców przewożących dzieci czy zakupy. W ostatnich latach obserwujemy znaczący wzrost popularności tych rowerów, szczególnie modeli elektrycznych. dobry rower cargo – cechy, na które warto zwrócić uwagę Wybierając rower cargo, należy zwrócić uwagę na kilka kluczowych aspektów, które decydują o funkcjonalności i trwałości pojazdu: Wytrzymałość: Rama roweru cargo powinna być solidna i dobrze zaprojektowana, aby mogła wytrzymać ciężar przewożonych ładunków. Warto zwrócić uwagę na materiały, z których została wykonana rama – stal czy aluminium to popularne wybory ze względu na ich trwałość i odporność na uszkodzenia. Użyteczność: Rower cargo powinien być wygodny w użytkowaniu, nawet przy pełnym załadunku. Dobrej jakości rowery cargo oferują różne konfiguracje ładunków, w tym skrzynie i platformy montowane z przodu lub z tyłu. Ważne jest, by były one łatwe w montażu i demontażu. E-bike (rower elektryczny): Wersje elektryczne rowerów cargo są szczególnie popularne ze względu na dodatkowe wsparcie silnika, które ułatwia przewożenie ciężkich ładunków. Przy wyborze e-bike’a cargo zwróć uwagę na moc silnika i pojemność baterii, które wpływają na zasięg i komfort jazdy. jaki rower cargo wybrać? praktyczne porady i wskazówki Wybór odpowiedniego roweru cargo zależy od indywidualnych potrzeb i warunków, w jakich będzie użytkowany: Czego potrzebujesz: Zastanów się, co będziesz przewoził. Jeśli planujesz transportować ciężkie ładunki lub dzieci, poszukaj modeli z mocniejszą ramą i lepszym systemem hamulcowym. Rodzaj roweru: Rower cargo dostępny jest w wersjach dwukołowych i trójkołowych. Rower trójkołowy oferuje większą stabilność, ale jest mniej zwrotny, co może być problemem w ciasnych miejskich uliczkach. Rower dwukołowy jest lżejszy i zazwyczaj szybszy, ale wymaga więcej umiejętności przy balansowaniu ładunku. Napęd: Modele z napędem elektrycznym to doskonały wybór dla tych, którzy potrzebują dodatkowej pomocy podczas jazdy. Silnik elektryczny pomaga w pokonywaniu podjazdów i przewożeniu cięższych ładunków bez dodatkowego wysiłku. Wygoda i bezpieczeństwo: Ważne jest, by rower był wygodny. Zwróć uwagę na jakość siedziska, system hamulcowy oraz dodatkowe funkcje takie jak oświetlenie czy błotniki. Cena: Rower cargo jest inwestycją na lata, więc warto wybrać model, który oferuje dobrą jakość wykonania i jest objęty gwarancją lub dostępem do serwisu. Sprawdź elektryczne rowery cargo na https://sprint-rowery.pl/rowery-elektryczne-cargo « powrót do artykułu
  8. NASA jest na dobrej drodze do rozwiązania problemów z Voyagerem 1. Po raz pierwszy od listopada pojazd przysłał użyteczne dane. Z Voyagera w końcu napłynęły informacje o stanie jego podzespołów. W najbliższym czasie inżynierowie chcą sprawić, by pojazd rozpoczął przesyłanie danych naukowych. Przed pięcioma miesiącami, 14 listopada ubiegłego roku, z Voyagera 1 przestały napływać użyteczne dane naukowe i inżynieryjne. Sprawa była tajemnicza tym bardziej, że centrum kontroli misji wiedziało, że poza tym pojazd działa prawidłowo i odbiera komendy z Ziemi. W marcu udało się ustalić, że problem dotyczy komputera FDS (flight data system). Nie komunikował się on prawidłowo z TMU (telemetry modulation unit). FDS jest odpowiedzialny za zbieranie i łączenie danych z instrumentów naukowych oraz danych inżynieryjnych dotyczących samego Voyagera. Informacje te są następnie przesyłane na Ziemię za pośrednictwem TMU. Inżynierowie NASA zauważyli, że jeden z układów scalonych odpowiedzialnych za przechowywanie danych z FDS, w którym znajdowało się też część oprogramowania, nie działa. Utrata tego kodu spowodowała, że wysyłane na Ziemię dane były nieczytelne. Jako, że wspomnianego układu nie można było naprawić, specjaliści zdecydowali się na przeniesienie kodu w inne miejsce pamięci FDS. Problem w tym, że żadna z dostępnych lokalizacji nie była na tyle pojemna, by przechować cały kod. Został on więc podzielony i wgrany w różne miejsca. Jednak, by zadziałał, najpierw trzeba było się upewnić, że całość będzie funkcjonowała jak jeden kod oraz wprowadzić niezbędne poprawki dotyczące lokalizacji poszczególnych fragmentów kodu. Próbę generalną przeprowadzono 18 kwietnia, kiedy nowy kod wysłano do Voyagera. Sygnał w jedną stronę biegnie 22,5 godziny, zatem dopiero 20 kwietnia można było sprawdzić, czy się udało. Wtedy to, po raz pierszwy od 5 miesięcy, na Ziemię trafiły dane pozwalające sprawdzić status pojazdu. W ciągu kolejnych tygodni centrum kontroli misji będzie przeprogramowywało i wysyłało do Voyagera kolejne fragmenty kodu z uszkodzonego chipa. Będzie wśród nich też oprogramowanie, które spowoduje, że będziemy otrzymywali dane naukowe. Voyager 1 został wystrzelony 5 września 1977 roku. Wraz z bliźniaczą sondą, Voyagerem 2 (wystrzelona 20 sierpnia 1977), są jedynymi zbudowanymi przez człowieka pojazdami, które opuściły Układ Słoneczny. Obecnie Voyager 1 znajduje się w odległości 24,33 miliardów kilometrów od Ziemi i porusza się z prędkością niemal 61 000 km/h względem Słońca. Za 300 lat dotrze do wewnętrznych obszarów Obłoku Oorta. Voyagera 2, który porusza się z prędkością 55 000 km/h dzieli od nas 20,37 miliardów kilometrów. « powrót do artykułu
  9. IceCube, umieszczony w lodzie Antarktydy gigantyczny wykrywacz neutrin o objętości 1 km3, zarejestrował sygnały, które mogą pochodzić z niezwykle trudnego do uchwycenia neutrino taonowego. Neutrina występują w trzech odmianach: elektronowej, mionowej i taonowej. Wyjątkowo trudno jest zarejestrować to ostatnie pochodzące ze źródeł astrofizycznych. Na łamach Physical Review Letters opublikowano właśnie artykuł, w którym naukowcy z IceCube Collaboration donoszą o zarejestrowaniu aż 7 sygnałów świadczących o obecności neutrino taonowego. Wykrycie siedmiu sygnałów w połączeniu z bardzo niskim poziomem szumu tła pozwala nam stwierdzić, że jest wysoce nieprawdopodobne, by były to fałszywe sygnały powodowane zakłóceniami z tła, mówi jeden z autorów badań, profesor Doug Cowen z Penn State University. Uczony dodaje, że prawdopodobieństwo, iż sygnał jest skutkiem zakłóceń jest mniejsze niż 1:3 500 000. Podczas przyszłych analiz naukowcy wykorzystają dane z większej liczby czujników. Podczas obecnych badań wykorzystano czujniki z 3 zatopionych w lodzie lin. Na każdej linie jest 60 czujników. Tymczasem w skład IceCube wchodzi 86 lin. Naukowcy mają nadzieję, że dzięki większej liczbie danych zdobędą kolejne informacje o tym tak trudnym w badaniu neutrino. Obecnie nie istnieje narzędzie, które pozwoliłoby na określenie energii i kierunku neutrin badanych podczas ostatnich analiz. Jeśli taki wyspecjalizowany algorytm powstanie, naukowcy będą w stanie lepiej odróżnić sygnał neutrina taonowego od szumu tła i wykrywać takie neutrina w czasie rzeczywistym. Obecnie w ten sposób wykrywane są neutrina elektronowe i mionowe, a światowa społeczność naukowców zainteresowanych ich badaniem, na bieżąco otrzymuje alerty o zarejestrowaniu takich sygnałów. « powrót do artykułu
  10. Jeśli zamierzasz przejść na samozatrudnienie lub otworzyć własny biznes działający na większą skalę, formalności wydają się proste. Podczas rejestracji firmy musisz jednak podać jej adres, a to może być pewien problem. Sprawdźmy, jak rozwiązać go z wirtualnym biurem w Warszawie i dla kogo przede wszystkim jest to propozycja. Adres dla firmy: w czym problem? Rejestracja firmy – zwłaszcza jednoosobowej działalności, która cieszy się w Polsce zdecydowanie największą popularnością – jest naprawdę prosta. W większości przypadków będziesz w stanie załatwić formalności w ciągu maksymalnie kilkudziesięciu minut przez Internet. Ale wielu przyszłych przedsiębiorców nieoczekiwanie zatrzymuje się na rubrykach dotyczących firmowych adresów. Co prawda nie musisz posiadać stałego miejsca wykonywania działalności (jak ma to miejsce na przykład w przypadku sklepów), ale musisz wskazać m.in. adres do doręczeń. Dla sporej grupy osób, zwłaszcza tych wynajmujących mieszkanie, uzyskanie zgody na rejestrację firmy w miejscu zamieszkania może być trudne lub niemożliwe. Nawet jeśli np. posiadasz prawo własności nieruchomości, podawanie adresu domowego jako siedziby firmy może wpłynąć na Twoje poczucie prywatności: do skrzynki będzie trafiać mnóstwo korespondencji (zarówno tej chcianej, jak i nie), a nawet mogą odwiedzać Cię akwizytorzy. Czym jest biuro wirtualne? Wirtualne biuro, określane również jako wirtualny adres dla firmy, jest w takim przypadku idealnym rozwiązaniem! To usługa, która pozwala przyszłym i aktualnym przedsiębiorcom na uzyskanie adresu, który można umieścić w publicznych rejestrach, ale również posługiwać się nim w komunikacji biznesowej i marketingowej. Jednocześnie najem nie dotyczy standardowej przestrzeni biurowej, dzięki czemu możesz spełnić wszystkie wymogi formalne, działać zgodnie z prawem i naprawdę sporo zaoszczędzić. Sprawdź, co możesz zyskać, wybierając biuro wirtualne w Warszawie od Biznes Centrum. Poznaj zalety biura wirtualnego w Warszawie Dzięki sprawdzonemu partnerowi otrzymujesz przede wszystkim: Adres do rejestracji i korespondencji: możliwa jest rejestracja firmy pod wskazanym adresem. Jeśli postawisz na wirtualne biuro w Warszawie centrum czy innej rozpoznawalnej w całym kraju lokalizacji, zyskasz także prestiż i rozpoznawalność, które pomogą Ci rozwijać biznes. Usługi wsparcia: biuro wirtualne będzie zajmować się obsługą Twojej korespondencji. W znacznym stopniu to od Ciebie zależy, co będzie się działo z przesyłkami: możesz zdecydować się na przykład na ich skanowanie oraz wysyłkę mailem. Elastyczność i oszczędność: biuro kojarzy Ci się z bardzo drogimi biurowcami, gdzie czynsz to wydatek dziesiątek, a nawet setek tysięcy złotych? Wirtualne biuro w Warszawie działa na innej zasadzie. Dostępne są zróżnicowane plany dostosowane do różnorodnych potrzeb. Od samego początku wiesz, ile zapłacisz i wiesz, że wydatki będą bardzo niskie. Bezpieczeństwo i prywatność: dzięki adresowi dla firmy zyskujesz bezpieczeństwo danych i prywatność, oddzielając adres domowy od biznesowego. Kto powinien pomyśleć o adresie dla firmy? Dla kogo są wirtualne biura? Idealnie sprawdzą się niemal w każdym przypadku. Przede wszystkim warto o nich pomyśleć, jeśli: Jesteś freelancerem lub pracujesz na B2B: dla osób samozatrudnionych pracujących z domu adres wirtualny firmy może stać się najlepszym sposobem na oddzielenie życie prywatnego od zawodowego. Pozwoli także w łatwy sposób uporać się z problemami z rejestracją działalności. Zarządzasz start-upem: Młode firmy, które chcą zbudować silną markę i zyskać zaufanie inwestorów oraz klientów, mogą skorzystać z prestiżowego adresu, który podnosi ich wiarygodność na rynku. Prowadzisz działalność sezonową lub projektową: dla firm, które nie potrzebują stałego biura, ale chcą utrzymać profesjonalny wizerunek, wirtualne biuro jest idealnym rozwiązaniem. Współpracujesz wyłącznie zdalnie: to samo dotyczy również coraz częstszej sytuacji, w której po prostu nie potrzebujesz standardowego biura, bo Ty i Twoi współpracownicy pracujecie wyłącznie zdalnie. « powrót do artykułu
  11. Wiemy, że klimat miał olbrzymi wpływ na pojawianie się i znikanie różnych gatunków człowieka. Jednak u licznych kręgowców wielką rolę odgrywa rywalizacja międzygatunkowa. Laura A. van Holstein i Robert A. Foley z University of Cambridge opublikowali na łamach Nature. Ecology & Evolution artykuł, w którym stwierdzają, że rywalizacja odgrywała olbrzymią rolę w ciągu pięciu milionów lat ewolucji homininów i wpływała na powstawanie gatunków (specjację). Dotychczas ignorowaliśmy wpływ konkurencji międzygatunkowej na kształtowanie naszego własnego drzewa ewolucyjnego. Wpływ klimatu na gatunki homininów to tylko część układanki, mówi doktor van Holstein. Van Holstein przypomina, że u innych kręgowców powstają gatunki, które wypełniają wolne nisze ekologiczne. Weźmy słynne zięby Darwina. Jedne wyewoluowały duże dzioby, dzięki którym mogły rozbijać orzechy, inne miały małe dzioby, pozwalające im żywić się owadami. Gdy każda z nisz ekologicznych została zapełniona, rozpoczęła się konkurencja, a nowe gatunki przestały się pojawiać. Autorzy obecnych badań wykorzystali modelowanie bayesowskie oraz analizy filogenetyczne i na tej podstawie wykazali, że większość gatunków homininów powstała w warunkach niskiej konkurencji o zasoby lub przestrzeń. Wzorzec, który widzimy u wielu wczesnych homininów jest podobny do wzorca obserwowanego u innych ssaków. Specjacja zwiększa się, a później wypłaszcza i zaczyna się wymieranie. To wskazuje, że konkurencja międzygatunkowa jest ważnym czynnikiem ewolucyjnym, mówi van Holstein. Uczeni zauważyli jednak pewne „dziwaczne” zjawisko w przypadku rodzaju Homo. W tej linii ewolucyjnej, która doprowadziła do pojawienia się H. sapiens, wzorce ewolucji wskazują, że konkurencja pomiędzy gatunkami doprowadziła do pojawienia się kolejnych gatunków. To zupełne odwrócenie trendów, jakie obserwujemy u niemal wszystkich innych kręgowców. Im więcej było gatunków Homo, tym szybsze tempo specjacji. To zjawisko niemal bezprecedensowe w naukach o ewolucji, stwierdza van Holstein. Najbliższą analogią do niego jest... ewolucja chrząszczy żyjących na wyspach. Wzorce ewolucji, które zaobserwowaliśmy wśród linii ewolucyjnej rodzaju Homo, która doprowadziła do powstania H. sapiens, bardziej przypominają wzorce ewolucyjne chrząszczy z wysp, niż innych naczelnych, a nawet innych ssaków, komentuje uczona. Autorzy badań przypominają, że szczątki, które znajdujemy w zapisie kopalnym nie pozwalają dokładnie datować czasu, w którym dany gatunek występował. Zachowanie się szczątków zależy bowiem od warunków, w jakich przebywały, a ponadto badania koncentrują się w konkretnych miejscach na świecie. Dlatego też to, co znajdujemy, najprawdopodobniej nie jest ani najstarszym, ani najmłodszym przedstawicielem konkretnego gatunku. Dlatego uczeni wykorzystali metody statystyczne do określenia nowych dat początku i końca istnienia większości znanych gatunków homininów. Z artykułu dowiadujemy się, że część gatunków, o których dotychczas sądzono, iż pojawiły się w wyniku anagenezy – procesu zmian ewolucyjnych całej populacji prowadzącego do pojawienia się tak istotnych różnic, że nowa populacja zostaje uznana za nowy gatunek, a populacja początkowa za gatunek wymarły – w rzeczywistości mogą być efektem rozdzielenia się linii ewolucyjnych w ramach tego samego gatunku. Na przykład obecnie uważa się, że Australopithecus afarensis pojawił się w wyniku anagenezy Australopithecus anamensis. Jednak z nowych badań wynika, że oba gatunki żyły jednocześnie przez około 500 000 lat. To oznacza, że najprawdopodobniej równocześnie żyło więcej gatunków homininów, niż się obecnie zakłada, więc prawdopodobnie gatunki te konkurowały. Van Holstein mówi, że motorem napędowym niezwykłego wzorca ewolucji rodzaju Homo mogło być opanowanie narzędzi czy ognia. Dzięki temu Homo nie musiał czekać na pojawienie się fizycznych zmian – na przykład zębów zdolnych do poradzenia sobie z nowymi rodzajami żywności – ale mógł dostosowywać nisze ekologiczne do siebie. Ponadto użycie narzędzi pozwalało na łatwe zajmowanie kolejnych nisz ekologicznych oraz konkurencję z innymi gatunkami, co może wyjaśniać sukces ewolucyjny rodzaju Homo. W końcu doprowadziło to do pojawienia się gatunku H. sapiens, zdolnego do życia w niemal każdym środowisku i korzystania z niemal każdego źródła pożywienia. A to mogło przyczynić się do wyginięcia wszystkich innych gatunków Homo. « powrót do artykułu
  12. Uczeni z Uniwersytetu Warszawskiego i Szkoły Głównej Gospodarstwa Wiejskiego pracują nad nową technologią wczesnego diagnozowania chorób Parkinsona i Alzheimera. Metoda, opracowana przez dr inż. Piotra Hańczyca z Wydziału Fizyki UW polega na badaniu widma światła powstającego po prześwietleniu laserem pobranych od pacjentów próbek płynu mózgowo-rdzeniowego. Analiza tego widma pozwala na odkrycie amyloidów oraz zweryfikowanie ich stadiów. Dzięki niej można zauważyć gromadzenie się amyloidów na długo przed wystąpieniem objawów. Amyloidy to nieprawidłowe białka, które mają tendencję do akumulowania się i zbijania w grupy. Z czasem tworzą fibryle amyloidowe, a następnie blaszki amyloidowe. Taki proces trwa wiele lat. W końcu nagromadzenie amyloidów w układzie nerwowym zaczyna zakłócać jego pracę i prowadzi do degeneracji. Choroby neurodegeneracyjne najczęściej są diagnozowane stosunkowo późno, gdy ich leczenie jest już utrudnione i nie przynosi zadowalających rezultatów. Wynika to ze specyfiki tych schorzeń. Mogą one rozwijać się latami bez wystąpienia objawów, ponieważ nasz układ nerwowy uruchamia silne mechanizmy obronne, które odwlekają je w czasie. Dopiero po przekroczeniu pewnej masy krytycznej choroby te dają o sobie znać. Dla medycyny ważne jest więc, by dysponować metodą diagnostyczną, która pozwoli wykryć schorzenia wiele lat przed tym, gdy pacjent odczuje, że jest chory, wyjaśnia doktor Hańczyc. Metoda Hańczyca polega na przepuszczeniu światła laserowego przez próbkę, którą wcześniej znakuje się barwnikami fluorescencyjnymi wiążącymi się z amyloidami. Dzięki temu wzbudzane wiązką lasera komórki amyloidów emitują specyficzne widmo. To pozwala na stwierdzenie, czy w próbce w ogóle są amyloidy, a jeśli tak, to na jakim stadium rozwoju się znajdują. Można też sprawdzić, czy w próbce dochodzi do agregacji białka ASN (alfa-synukleiny). W przypadku osoby zdrowej agregacja białek nie zachodzi w stopniu zaburzającym codziennie funkcjonowanie. Jeżeli natomiast badany materiał pochodzi od osoby chorej, fluorescencyjny barwnik zwiąże się z ASN, co pozwoli dać lekarzowi wskazanie, iż pacjent, nawet gdy nie ma jeszcze żadnych objawów, w przyszłości rozwinie się choroba Parkinsona, dodaje twórca metody. Obecnie uczeni z UW i SGGW pracują nad rozwojem opisanej technologiii jej komercjalizacją. Ich celem jest zoptymalizowanie sprzętu potrzebnego do prowadzenia badań spektroskopowych ze wzmocnio0nym laserem oraz stworzenie oprogramowania, które pozwoli na zautomatyzowanie całej pracy. Komercjalizacja ma odbyć się za pośrednictwem spółki Neurolight, powołanej przez spółki celowe – UWRC i InnoTech4Life – założone przez obie uczelnie. « powrót do artykułu
  13. Od ponad 10 lat archeolodzy badają niezwykły średniowieczny wrak – duński okręt królewski, który zatonął w 1495 roku wraz z setką niemieckich najemników, gdy król Danii płynął do Szwecji, by uzyskać dla siebie tron i przywrócić Unię Kalmarską. To jeden z najlepiej zachowanych szczątków statków ze średniowiecza. Na jego pokładzie, o czym wcześniej informowaliśmy, znaleziono egzotyczne przyprawy i podarunek króla Danii dla regenta Szwecji. Teraz archeolodzy trafili tam na kolejny wyjątkowy zabytek, średniowieczną skrzynię z narzędziami i materiałami do wytwarzania amunicji, zeuglade. Latem 1495 roku król Hans (Jan Oldenburg) płynął do Szwecji na królewskim okręcie flagowym Gribshunden. Ten 40-latek był od 1481 roku królem Danii, a od 1483 królem Norwegii. Jan chciał przywrócić Unię Kalmarską, Ten najpotężniejszy w swoim czasie sojusz północnej Europy przeżywał poważny kryzys. Został de facto zerwany pod koniec lat 40. XV wieku. Chrystian I Oldenburg, wybrany wówczas na króla Danii zdobył Norwegię w 1450 roku, jednak walki o tron szwedzki toczyły się przez kilkadziesiąt lat. Dlatego też duński i norweski król Jan Oldenburg płynął z Kopenhagi do Kalmaru, w nadziei, że spotka się ze szwedzkim regentem Stenem Sture Starszym i przekona go do uznania praw Duńczyka do tronu Szwecji. Chciał pokazać swą potęgę i wspaniałomyślność. Pewnej nocy, gdy Gribshunden znajdował się na wysokości Ronneby, które wówczas należało do Danii, na pokładzie wybuchł pożar. Króla nie było wówczas na okręcie, jednak jednostka wraz z załogą i całym ładunkiem zatonęła. Skrzynia to jedno z najważniejszych dotychczasowych odkryć na pokładzie Gribshundena. O jej istnieniu wiedziano od 2019 roku, dopiero jednak podczas ostatniego sezonu badawczego przystąpiono do jej szczegółowych oględzin i dokumentacji zawartości. Znaleziono tam między innymi formy i ołowiane płyty, które służyły do produkcji kul do wczesnej ręcznej broni palnej. Najprawdopodobniej należała do najemników, których Jan Oldenburg wiózł ze sobą na negocjacje z regentem. Archeolodzy znaleźli też fragmenty kolczugi, które pochodziły z jednej lub więcej kolczug. Analizy przeprowadzone na Uniwersytecie w Sztokholmie wykazały, że fragmenty zawierały wiele metalowych kółek o różnej konstrukcji, co wskazuje na wielokrotnie przeprowadzane naprawy. Naukowcy skupiają się obecnie na rekonstrukcji budowy jednostki oraz badaniu zmian, jakim wrak podlega w czasie. Okręt ten to ważny przyczynek do poznania „wojskowej rewolucji na morzu”, jaka zachodziła we wczesnej nowożytności, gdy taktyka walki na morzu zmieniała się z walki wręcz na bitwy artyleryjskie. Okręt ten będzie porównywany z innymi ważnymi i dobrze zachowanymi jednostkami, jak Mars (zatonął w 1564) czy Waza (1628), co pozwoli nam zrozumieć ewolucję takich jednostek, zauważa doktorant Rolf Warming. Szczegółowy raport z badań został udostępniony w sieci. « powrót do artykułu
  14. Specjaliści z Poczdamskiego Instytutu Badań nad Wpływem Klimatu szacują, że nawet gdybyśmy od jutra radykalnie zmniejszyli emisję CO2, to do roku 2050 zmiany klimatu będą powodowały rocznie 19-procentową utratę globalnego dochodu. Oznacza to, że średnia roczna strata wyniesie 38 bilionów USD w porównaniu ze scenariuszem, gdyby zmiany klimatu nie zachodziły. Jest ona powodowana przede wszystkim wzrostem temperatur, ale również ich zmiennością oraz zmianami w opadach. Są jednak kraje, dla których ocieplenie klimatu jest ekonomicznie korzystne. Nasze analizy wykazały, że zmiana klimatu będzie powodowała olbrzymie straty ekonomiczne przez najbliższych 26 lat. Odczują to również kraje wysoko rozwinięte jak Niemcy, Francja czy Stany Zjednoczone. Te krótkoterminowe straty to skutek naszych emisji z przeszłości. Jeśli chcemy uniknąć niektórych z nich, powinniśmy się szybciej adaptować do zmian. Musimy też bardzo szybko i radykalnie zmniejszyć emisję gazów cieplarnianych. Jeśli tego nie zrobimy, straty będą jeszcze większe i do roku 2100 mogą wzrosnąć nawet do 60% globalnego dochodu, stwierdza główna autorka badań, Leonie Wenz. Z wyliczeń wynika, że już w najbliższych dwóch dekadach straty związane z globalnym ociepleniem będą średnio 6-krotnie wyższe, niż szacowane koszty radykalnej redukcji emisji. W swoich badaniach naukowcy oparli się na danych dotyczących wpływu zmian klimatu w ciągu ostatnich 40 lat na gospodarkę 1600 regionów świata. Na tej podstawie przygotowali prognozy do roku 2050. Nasze badania pokazują znaczącą nierównowagę we wpływie zmian. Stwierdziliśmy, że do strat dojdzie niemal we wszystkich krajach, ale najbardziej ucierpią państwa w tropikach, gdyż tam już jest cieplej. Dalszy wzrost temperatur będzie tam bardziej szkodliwy. Kraje najmniej odpowiedzialne za zmiany klimatu doświadczą strat o 60% większych niż kraje o wyższych dochodach i o 40% większych niż kraje o wyższej emisji. Są to jednocześnie kraje, które mają najmniej zasobów, by się dostosować, mówi współautor badań, Andreas Levermann. « powrót do artykułu
  15. Księżyc Jowisza, Io, to najbardziej aktywne pod względem wulkanicznym miejsce w Układzie Słonecznym. Naukowców z Kalifornijskiego Instytutu Technologiczno (Caltech), Uniwersytetu Kalifornijskiego w Santa Cruz (UCSC) oraz NASA interesowało, od jak dawna Io jest tak aktywny. Aby znaleźć odpowiedź, przeprowadzili pomiary izotopów siarki w gazowych formach SO2 i SO znajdujących się w atmosferze księżyca. Księżyce Io, Europa i Ganimedes krążą wokół Jowisza w rezonansie orbitalnym. Na każdą 1 orbitę ukończoną przez Ganimedesa, który jest najbardziej z nich trzech oddalony od planety, przypadają dokładnie 2 orbity Europy i 4 orbity Io. Księżyce wpływają na siebie nawzajem powodując, że ich orbity są eliptyczne. W związku z tym ciągłe zmiany siły oddziaływania Jowisza oraz oddziaływanie Ganimedesa i Europy powoduje, że Io jest ciągle rozciągany i ściskany, do wnętrza księżyca ciągle dostarczana jest energia, która obawia się niezwykle intensywnym wulkanizmem. Ta sama energia powoduje, że pod lodową powierzchnią Europy znajduje się ciekły ocean. Na Io nie ma wody, głównym składnikiem gazów wydobywających się podczas erupcji jest siarka. Dlatego też jego atmosfera składa się w 90% z dwutlenku siarki. W wyniku aktywności wulkanicznej gazy, które znajdują się przy powierzchni Io są ponownie wchłaniane do środka i ponownie wyrzucane do atmosfery. Atomy siarki na Io występują w kilku odmianach izotopowych. Mamy tam na przykład siarkę-32 i siarkę-34, które posiadają po 16 protonów, ale różnią się liczbą neutronów, których jest – odpowiednio – 16 i 18. Więcej neutronów powoduje, że atom jest cięższy. Z większym więc prawdopodobieństwem siarka-34 będzie gromadziła się przy powierzchni, a siarka-32 w górnych partiach atmosfery. W wyniku oddziaływania pola magnetycznego Jowisza Io traci atmosferę w tempie około 1 tony na sekundę. Ulatuje ona w przestrzeń kosmiczną. Jak wspomnieliśmy, w górnych partiach atmosfery gromadzi się siarka-32, więc ubywa jej nieproporcjonalnie dużo w porównaniu z siarką-34. Badając ile brakuje siarki-32 w stosunku do siarki-34 można policzyć, jak długo trwa wulkanizm na Io. Najpierw jednak trzeba wiedzieć, jaki był na początku stosunek obu izotopów do siebie. Z badań meteorytów, które są pozostałościami po okresie tworzenia się Układu Słonecznego, wiemy, że u zarania jego dziejów na 23 atomy siarki-32 przypadał 1 atom siarki-34. Jeśli nie zaszłyby żadne zmiany, to do dzisiaj na Io stosunek obu izotopów były identyczny. Okazało się jednak, że Io nie tylko stracił 94–99 procent siarki, ale doszło też do zmiany stosunku izotopowego, względnego wzrostu siarki-34 do siarki-32. Badania wykazały, że Io jest aktywny wulkanicznie od około 4,5 miliardów lat i przez cały te czas traci siarkę. To pokazuje, że Io, Europa i Ganimedes zaczęły krążyć w rezonansie orbitalnym wkrótce po tym, jak się uformowały. Wyniki tych badań są zgodne z teoretycznymi modelami opracowywanymi w ciągu ostatnich 20 lat, które pokazywały, że trzy najbardziej znane księżyce Jowisza musiały wejść w rezonans orbitalny bardzo szybko po powstaniu. Jowisz i jego księżyce to tylko jeden z wielu przykładów rezonansów księżyców i egzoplanet. Ogrzewanie pływowe generowane przez takie rezonansy jest głównym źródłem ciepła dla księżyców i może napędzać ich aktywność geologiczną. Io to najbardziej ekstremalny tego przykład, mówi profesor Katherine de Kleer z Caltechu. Naukowcy planują teraz przeprowadzenie badań, które odpowiedzą im na pytanie, jakie jeszcze inne gazy zostały utracone przez Io. Tutaj pojawia się niezwykle interesujące pytanie o wodę. Na Io jej nie ma, ale pozostałe księżyce galileuszowe Jowisza – Europa, Ganimedes i Kallisto – są jej pełne. Rodzi się więc pytanie, czy i Io nie posiadał w przeszłości wody. « powrót do artykułu
×
×
  • Dodaj nową pozycję...