Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36659
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    202

Zawartość dodana przez KopalniaWiedzy.pl

  1. Naukowcy z Uniwersytetu Harvarda zauważyli, że kwas oleinowy – który jest obecny w tłuszczach i stanowi główny składnik oliwy z oliwek czy tranu – odgrywa rolę w przerzutowaniu (metastazie) nowotworów. Uczeni podkreślają, że ich odkrycie nie jest zaprzeczeniem faktu, iż oliwa z oliwek pomaga w zapobieganiu wielu schorzeniom, w tym chorobom układu krążenia. Dodają, iż prowadzone przez nich badania są bardzo skomplikowane i wiele kwestii wymaga jeszcze wyjaśnienia. Onkologia od dekad skupia się na zapobieganiu przerzutom w rozwoju chorób nowotworowych. Profesor Jessalyn Ubellacker z Harvard T.H. Chan School of Public Health badała ze swoim zespołem związki pomiędzy dietą a rozprzestrzenianiem się nowotworów i odkryła, że komórki nowotworowe tworzą wokół siebie osłonki z kwasu oleinowego znajdującego się w węzłach chłonnych. Ubellacker podkreśla, że jej badania nie przyniosły dowodu na związek pomiędzy spożywaniem oliwy z oliwek, a rozprzestrzenianiem się nowotworów. Wręcz przeciwnie, naukowcy sądzą, że to sam organizm jest głównym źródłem tłuszczy, z których komórki nowotworowe tworzą osłony. Obecnie uczona i jej zespół badają, czy dodatkowy kwas oleinowy w diecie ma wpływ na rozprzestrzenianie się nowotworów, a jeśli tak, to czy można by nim manipulować w taki sposób, by wpłynąć na prawdopodobieństwo przerzutowania. Jeśli znaleźlibyśmy sposób na kontrolowanie lub zapobieganie metastazie, wówczas nowotwory nie byłyby w stanie powodować tak dużych uszkodzeń organizmu, poważnych chorób oraz tylu zgonów, dodaje profesor Ted James, ordynator oddziału onkologicznej chirurgii piersi w Beth Israel Deaconess Medical Center. James i Ubellacker prowadzą prace nad dietą i przerzutowaniem, korzystając przy tym z pomocy 50 kobiet, u których stwierdzono raka piersi. To niezbadany dotychczas obszar, wyjaśnia James. Nowotwór, który się rozprzestrzenia używa tłuszczów do ochrony w bardzo odmienny sposób od nowotworu, który dopiero powstaje. Chcemy zrozumieć, co się dzieje, gdy pacjent ma już nowotwór i daje on przerzuty, dodaje Ubellacker. Specjaliści ds. żywienia z Chan School wykazali korzystny wpływ na zdrowie diety śródziemnomorskiej i diety roślinnej, w tym tłuszczów. Analizujemy ich badania, by stwierdzić, czy profil lipidowy diety jest powiązany z późniejszą diagnozą nowotworów  i ich rozwojem z udziałem lub bez udziału węzłów chłonnych, wyjaśnia. W ramach badań naukowcy będą zbierali szczegółowe informacje o diecie wspomnianych 50 pacjentek oraz pobierali próbki ich węzłów chłonnych. Próbki będą analizowane pod kątem występowania 300 rodzajów tłuszczów i ich metabolitów. « powrót do artykułu
  2. Rower cargo, zwany także rowerem towarowym, to nie tylko trend, ale odpowiedź na rosnące potrzeby mieszkańców gęsto zabudowanych metropolii, gdzie transport musi być zarówno efektywny, jak i ekologiczny. Rower cargo zaprojektowano z myślą o przewożeniu większych ładunków niż tradycyjny rower, co czyni go idealnym rozwiązaniem zarówno dla biznesów, jak i dla rodziców przewożących dzieci czy zakupy. W ostatnich latach obserwujemy znaczący wzrost popularności tych rowerów, szczególnie modeli elektrycznych. dobry rower cargo – cechy, na które warto zwrócić uwagę Wybierając rower cargo, należy zwrócić uwagę na kilka kluczowych aspektów, które decydują o funkcjonalności i trwałości pojazdu: Wytrzymałość: Rama roweru cargo powinna być solidna i dobrze zaprojektowana, aby mogła wytrzymać ciężar przewożonych ładunków. Warto zwrócić uwagę na materiały, z których została wykonana rama – stal czy aluminium to popularne wybory ze względu na ich trwałość i odporność na uszkodzenia. Użyteczność: Rower cargo powinien być wygodny w użytkowaniu, nawet przy pełnym załadunku. Dobrej jakości rowery cargo oferują różne konfiguracje ładunków, w tym skrzynie i platformy montowane z przodu lub z tyłu. Ważne jest, by były one łatwe w montażu i demontażu. E-bike (rower elektryczny): Wersje elektryczne rowerów cargo są szczególnie popularne ze względu na dodatkowe wsparcie silnika, które ułatwia przewożenie ciężkich ładunków. Przy wyborze e-bike’a cargo zwróć uwagę na moc silnika i pojemność baterii, które wpływają na zasięg i komfort jazdy. jaki rower cargo wybrać? praktyczne porady i wskazówki Wybór odpowiedniego roweru cargo zależy od indywidualnych potrzeb i warunków, w jakich będzie użytkowany: Czego potrzebujesz: Zastanów się, co będziesz przewoził. Jeśli planujesz transportować ciężkie ładunki lub dzieci, poszukaj modeli z mocniejszą ramą i lepszym systemem hamulcowym. Rodzaj roweru: Rower cargo dostępny jest w wersjach dwukołowych i trójkołowych. Rower trójkołowy oferuje większą stabilność, ale jest mniej zwrotny, co może być problemem w ciasnych miejskich uliczkach. Rower dwukołowy jest lżejszy i zazwyczaj szybszy, ale wymaga więcej umiejętności przy balansowaniu ładunku. Napęd: Modele z napędem elektrycznym to doskonały wybór dla tych, którzy potrzebują dodatkowej pomocy podczas jazdy. Silnik elektryczny pomaga w pokonywaniu podjazdów i przewożeniu cięższych ładunków bez dodatkowego wysiłku. Wygoda i bezpieczeństwo: Ważne jest, by rower był wygodny. Zwróć uwagę na jakość siedziska, system hamulcowy oraz dodatkowe funkcje takie jak oświetlenie czy błotniki. Cena: Rower cargo jest inwestycją na lata, więc warto wybrać model, który oferuje dobrą jakość wykonania i jest objęty gwarancją lub dostępem do serwisu. Sprawdź elektryczne rowery cargo na https://sprint-rowery.pl/rowery-elektryczne-cargo « powrót do artykułu
  3. NASA jest na dobrej drodze do rozwiązania problemów z Voyagerem 1. Po raz pierwszy od listopada pojazd przysłał użyteczne dane. Z Voyagera w końcu napłynęły informacje o stanie jego podzespołów. W najbliższym czasie inżynierowie chcą sprawić, by pojazd rozpoczął przesyłanie danych naukowych. Przed pięcioma miesiącami, 14 listopada ubiegłego roku, z Voyagera 1 przestały napływać użyteczne dane naukowe i inżynieryjne. Sprawa była tajemnicza tym bardziej, że centrum kontroli misji wiedziało, że poza tym pojazd działa prawidłowo i odbiera komendy z Ziemi. W marcu udało się ustalić, że problem dotyczy komputera FDS (flight data system). Nie komunikował się on prawidłowo z TMU (telemetry modulation unit). FDS jest odpowiedzialny za zbieranie i łączenie danych z instrumentów naukowych oraz danych inżynieryjnych dotyczących samego Voyagera. Informacje te są następnie przesyłane na Ziemię za pośrednictwem TMU. Inżynierowie NASA zauważyli, że jeden z układów scalonych odpowiedzialnych za przechowywanie danych z FDS, w którym znajdowało się też część oprogramowania, nie działa. Utrata tego kodu spowodowała, że wysyłane na Ziemię dane były nieczytelne. Jako, że wspomnianego układu nie można było naprawić, specjaliści zdecydowali się na przeniesienie kodu w inne miejsce pamięci FDS. Problem w tym, że żadna z dostępnych lokalizacji nie była na tyle pojemna, by przechować cały kod. Został on więc podzielony i wgrany w różne miejsca. Jednak, by zadziałał, najpierw trzeba było się upewnić, że całość będzie funkcjonowała jak jeden kod oraz wprowadzić niezbędne poprawki dotyczące lokalizacji poszczególnych fragmentów kodu. Próbę generalną przeprowadzono 18 kwietnia, kiedy nowy kod wysłano do Voyagera. Sygnał w jedną stronę biegnie 22,5 godziny, zatem dopiero 20 kwietnia można było sprawdzić, czy się udało. Wtedy to, po raz pierszwy od 5 miesięcy, na Ziemię trafiły dane pozwalające sprawdzić status pojazdu. W ciągu kolejnych tygodni centrum kontroli misji będzie przeprogramowywało i wysyłało do Voyagera kolejne fragmenty kodu z uszkodzonego chipa. Będzie wśród nich też oprogramowanie, które spowoduje, że będziemy otrzymywali dane naukowe. Voyager 1 został wystrzelony 5 września 1977 roku. Wraz z bliźniaczą sondą, Voyagerem 2 (wystrzelona 20 sierpnia 1977), są jedynymi zbudowanymi przez człowieka pojazdami, które opuściły Układ Słoneczny. Obecnie Voyager 1 znajduje się w odległości 24,33 miliardów kilometrów od Ziemi i porusza się z prędkością niemal 61 000 km/h względem Słońca. Za 300 lat dotrze do wewnętrznych obszarów Obłoku Oorta. Voyagera 2, który porusza się z prędkością 55 000 km/h dzieli od nas 20,37 miliardów kilometrów. « powrót do artykułu
  4. IceCube, umieszczony w lodzie Antarktydy gigantyczny wykrywacz neutrin o objętości 1 km3, zarejestrował sygnały, które mogą pochodzić z niezwykle trudnego do uchwycenia neutrino taonowego. Neutrina występują w trzech odmianach: elektronowej, mionowej i taonowej. Wyjątkowo trudno jest zarejestrować to ostatnie pochodzące ze źródeł astrofizycznych. Na łamach Physical Review Letters opublikowano właśnie artykuł, w którym naukowcy z IceCube Collaboration donoszą o zarejestrowaniu aż 7 sygnałów świadczących o obecności neutrino taonowego. Wykrycie siedmiu sygnałów w połączeniu z bardzo niskim poziomem szumu tła pozwala nam stwierdzić, że jest wysoce nieprawdopodobne, by były to fałszywe sygnały powodowane zakłóceniami z tła, mówi jeden z autorów badań, profesor Doug Cowen z Penn State University. Uczony dodaje, że prawdopodobieństwo, iż sygnał jest skutkiem zakłóceń jest mniejsze niż 1:3 500 000. Podczas przyszłych analiz naukowcy wykorzystają dane z większej liczby czujników. Podczas obecnych badań wykorzystano czujniki z 3 zatopionych w lodzie lin. Na każdej linie jest 60 czujników. Tymczasem w skład IceCube wchodzi 86 lin. Naukowcy mają nadzieję, że dzięki większej liczbie danych zdobędą kolejne informacje o tym tak trudnym w badaniu neutrino. Obecnie nie istnieje narzędzie, które pozwoliłoby na określenie energii i kierunku neutrin badanych podczas ostatnich analiz. Jeśli taki wyspecjalizowany algorytm powstanie, naukowcy będą w stanie lepiej odróżnić sygnał neutrina taonowego od szumu tła i wykrywać takie neutrina w czasie rzeczywistym. Obecnie w ten sposób wykrywane są neutrina elektronowe i mionowe, a światowa społeczność naukowców zainteresowanych ich badaniem, na bieżąco otrzymuje alerty o zarejestrowaniu takich sygnałów. « powrót do artykułu
  5. Jeśli zamierzasz przejść na samozatrudnienie lub otworzyć własny biznes działający na większą skalę, formalności wydają się proste. Podczas rejestracji firmy musisz jednak podać jej adres, a to może być pewien problem. Sprawdźmy, jak rozwiązać go z wirtualnym biurem w Warszawie i dla kogo przede wszystkim jest to propozycja. Adres dla firmy: w czym problem? Rejestracja firmy – zwłaszcza jednoosobowej działalności, która cieszy się w Polsce zdecydowanie największą popularnością – jest naprawdę prosta. W większości przypadków będziesz w stanie załatwić formalności w ciągu maksymalnie kilkudziesięciu minut przez Internet. Ale wielu przyszłych przedsiębiorców nieoczekiwanie zatrzymuje się na rubrykach dotyczących firmowych adresów. Co prawda nie musisz posiadać stałego miejsca wykonywania działalności (jak ma to miejsce na przykład w przypadku sklepów), ale musisz wskazać m.in. adres do doręczeń. Dla sporej grupy osób, zwłaszcza tych wynajmujących mieszkanie, uzyskanie zgody na rejestrację firmy w miejscu zamieszkania może być trudne lub niemożliwe. Nawet jeśli np. posiadasz prawo własności nieruchomości, podawanie adresu domowego jako siedziby firmy może wpłynąć na Twoje poczucie prywatności: do skrzynki będzie trafiać mnóstwo korespondencji (zarówno tej chcianej, jak i nie), a nawet mogą odwiedzać Cię akwizytorzy. Czym jest biuro wirtualne? Wirtualne biuro, określane również jako wirtualny adres dla firmy, jest w takim przypadku idealnym rozwiązaniem! To usługa, która pozwala przyszłym i aktualnym przedsiębiorcom na uzyskanie adresu, który można umieścić w publicznych rejestrach, ale również posługiwać się nim w komunikacji biznesowej i marketingowej. Jednocześnie najem nie dotyczy standardowej przestrzeni biurowej, dzięki czemu możesz spełnić wszystkie wymogi formalne, działać zgodnie z prawem i naprawdę sporo zaoszczędzić. Sprawdź, co możesz zyskać, wybierając biuro wirtualne w Warszawie od Biznes Centrum. Poznaj zalety biura wirtualnego w Warszawie Dzięki sprawdzonemu partnerowi otrzymujesz przede wszystkim: Adres do rejestracji i korespondencji: możliwa jest rejestracja firmy pod wskazanym adresem. Jeśli postawisz na wirtualne biuro w Warszawie centrum czy innej rozpoznawalnej w całym kraju lokalizacji, zyskasz także prestiż i rozpoznawalność, które pomogą Ci rozwijać biznes. Usługi wsparcia: biuro wirtualne będzie zajmować się obsługą Twojej korespondencji. W znacznym stopniu to od Ciebie zależy, co będzie się działo z przesyłkami: możesz zdecydować się na przykład na ich skanowanie oraz wysyłkę mailem. Elastyczność i oszczędność: biuro kojarzy Ci się z bardzo drogimi biurowcami, gdzie czynsz to wydatek dziesiątek, a nawet setek tysięcy złotych? Wirtualne biuro w Warszawie działa na innej zasadzie. Dostępne są zróżnicowane plany dostosowane do różnorodnych potrzeb. Od samego początku wiesz, ile zapłacisz i wiesz, że wydatki będą bardzo niskie. Bezpieczeństwo i prywatność: dzięki adresowi dla firmy zyskujesz bezpieczeństwo danych i prywatność, oddzielając adres domowy od biznesowego. Kto powinien pomyśleć o adresie dla firmy? Dla kogo są wirtualne biura? Idealnie sprawdzą się niemal w każdym przypadku. Przede wszystkim warto o nich pomyśleć, jeśli: Jesteś freelancerem lub pracujesz na B2B: dla osób samozatrudnionych pracujących z domu adres wirtualny firmy może stać się najlepszym sposobem na oddzielenie życie prywatnego od zawodowego. Pozwoli także w łatwy sposób uporać się z problemami z rejestracją działalności. Zarządzasz start-upem: Młode firmy, które chcą zbudować silną markę i zyskać zaufanie inwestorów oraz klientów, mogą skorzystać z prestiżowego adresu, który podnosi ich wiarygodność na rynku. Prowadzisz działalność sezonową lub projektową: dla firm, które nie potrzebują stałego biura, ale chcą utrzymać profesjonalny wizerunek, wirtualne biuro jest idealnym rozwiązaniem. Współpracujesz wyłącznie zdalnie: to samo dotyczy również coraz częstszej sytuacji, w której po prostu nie potrzebujesz standardowego biura, bo Ty i Twoi współpracownicy pracujecie wyłącznie zdalnie. « powrót do artykułu
  6. Wiemy, że klimat miał olbrzymi wpływ na pojawianie się i znikanie różnych gatunków człowieka. Jednak u licznych kręgowców wielką rolę odgrywa rywalizacja międzygatunkowa. Laura A. van Holstein i Robert A. Foley z University of Cambridge opublikowali na łamach Nature. Ecology & Evolution artykuł, w którym stwierdzają, że rywalizacja odgrywała olbrzymią rolę w ciągu pięciu milionów lat ewolucji homininów i wpływała na powstawanie gatunków (specjację). Dotychczas ignorowaliśmy wpływ konkurencji międzygatunkowej na kształtowanie naszego własnego drzewa ewolucyjnego. Wpływ klimatu na gatunki homininów to tylko część układanki, mówi doktor van Holstein. Van Holstein przypomina, że u innych kręgowców powstają gatunki, które wypełniają wolne nisze ekologiczne. Weźmy słynne zięby Darwina. Jedne wyewoluowały duże dzioby, dzięki którym mogły rozbijać orzechy, inne miały małe dzioby, pozwalające im żywić się owadami. Gdy każda z nisz ekologicznych została zapełniona, rozpoczęła się konkurencja, a nowe gatunki przestały się pojawiać. Autorzy obecnych badań wykorzystali modelowanie bayesowskie oraz analizy filogenetyczne i na tej podstawie wykazali, że większość gatunków homininów powstała w warunkach niskiej konkurencji o zasoby lub przestrzeń. Wzorzec, który widzimy u wielu wczesnych homininów jest podobny do wzorca obserwowanego u innych ssaków. Specjacja zwiększa się, a później wypłaszcza i zaczyna się wymieranie. To wskazuje, że konkurencja międzygatunkowa jest ważnym czynnikiem ewolucyjnym, mówi van Holstein. Uczeni zauważyli jednak pewne „dziwaczne” zjawisko w przypadku rodzaju Homo. W tej linii ewolucyjnej, która doprowadziła do pojawienia się H. sapiens, wzorce ewolucji wskazują, że konkurencja pomiędzy gatunkami doprowadziła do pojawienia się kolejnych gatunków. To zupełne odwrócenie trendów, jakie obserwujemy u niemal wszystkich innych kręgowców. Im więcej było gatunków Homo, tym szybsze tempo specjacji. To zjawisko niemal bezprecedensowe w naukach o ewolucji, stwierdza van Holstein. Najbliższą analogią do niego jest... ewolucja chrząszczy żyjących na wyspach. Wzorce ewolucji, które zaobserwowaliśmy wśród linii ewolucyjnej rodzaju Homo, która doprowadziła do powstania H. sapiens, bardziej przypominają wzorce ewolucyjne chrząszczy z wysp, niż innych naczelnych, a nawet innych ssaków, komentuje uczona. Autorzy badań przypominają, że szczątki, które znajdujemy w zapisie kopalnym nie pozwalają dokładnie datować czasu, w którym dany gatunek występował. Zachowanie się szczątków zależy bowiem od warunków, w jakich przebywały, a ponadto badania koncentrują się w konkretnych miejscach na świecie. Dlatego też to, co znajdujemy, najprawdopodobniej nie jest ani najstarszym, ani najmłodszym przedstawicielem konkretnego gatunku. Dlatego uczeni wykorzystali metody statystyczne do określenia nowych dat początku i końca istnienia większości znanych gatunków homininów. Z artykułu dowiadujemy się, że część gatunków, o których dotychczas sądzono, iż pojawiły się w wyniku anagenezy – procesu zmian ewolucyjnych całej populacji prowadzącego do pojawienia się tak istotnych różnic, że nowa populacja zostaje uznana za nowy gatunek, a populacja początkowa za gatunek wymarły – w rzeczywistości mogą być efektem rozdzielenia się linii ewolucyjnych w ramach tego samego gatunku. Na przykład obecnie uważa się, że Australopithecus afarensis pojawił się w wyniku anagenezy Australopithecus anamensis. Jednak z nowych badań wynika, że oba gatunki żyły jednocześnie przez około 500 000 lat. To oznacza, że najprawdopodobniej równocześnie żyło więcej gatunków homininów, niż się obecnie zakłada, więc prawdopodobnie gatunki te konkurowały. Van Holstein mówi, że motorem napędowym niezwykłego wzorca ewolucji rodzaju Homo mogło być opanowanie narzędzi czy ognia. Dzięki temu Homo nie musiał czekać na pojawienie się fizycznych zmian – na przykład zębów zdolnych do poradzenia sobie z nowymi rodzajami żywności – ale mógł dostosowywać nisze ekologiczne do siebie. Ponadto użycie narzędzi pozwalało na łatwe zajmowanie kolejnych nisz ekologicznych oraz konkurencję z innymi gatunkami, co może wyjaśniać sukces ewolucyjny rodzaju Homo. W końcu doprowadziło to do pojawienia się gatunku H. sapiens, zdolnego do życia w niemal każdym środowisku i korzystania z niemal każdego źródła pożywienia. A to mogło przyczynić się do wyginięcia wszystkich innych gatunków Homo. « powrót do artykułu
  7. Uczeni z Uniwersytetu Warszawskiego i Szkoły Głównej Gospodarstwa Wiejskiego pracują nad nową technologią wczesnego diagnozowania chorób Parkinsona i Alzheimera. Metoda, opracowana przez dr inż. Piotra Hańczyca z Wydziału Fizyki UW polega na badaniu widma światła powstającego po prześwietleniu laserem pobranych od pacjentów próbek płynu mózgowo-rdzeniowego. Analiza tego widma pozwala na odkrycie amyloidów oraz zweryfikowanie ich stadiów. Dzięki niej można zauważyć gromadzenie się amyloidów na długo przed wystąpieniem objawów. Amyloidy to nieprawidłowe białka, które mają tendencję do akumulowania się i zbijania w grupy. Z czasem tworzą fibryle amyloidowe, a następnie blaszki amyloidowe. Taki proces trwa wiele lat. W końcu nagromadzenie amyloidów w układzie nerwowym zaczyna zakłócać jego pracę i prowadzi do degeneracji. Choroby neurodegeneracyjne najczęściej są diagnozowane stosunkowo późno, gdy ich leczenie jest już utrudnione i nie przynosi zadowalających rezultatów. Wynika to ze specyfiki tych schorzeń. Mogą one rozwijać się latami bez wystąpienia objawów, ponieważ nasz układ nerwowy uruchamia silne mechanizmy obronne, które odwlekają je w czasie. Dopiero po przekroczeniu pewnej masy krytycznej choroby te dają o sobie znać. Dla medycyny ważne jest więc, by dysponować metodą diagnostyczną, która pozwoli wykryć schorzenia wiele lat przed tym, gdy pacjent odczuje, że jest chory, wyjaśnia doktor Hańczyc. Metoda Hańczyca polega na przepuszczeniu światła laserowego przez próbkę, którą wcześniej znakuje się barwnikami fluorescencyjnymi wiążącymi się z amyloidami. Dzięki temu wzbudzane wiązką lasera komórki amyloidów emitują specyficzne widmo. To pozwala na stwierdzenie, czy w próbce w ogóle są amyloidy, a jeśli tak, to na jakim stadium rozwoju się znajdują. Można też sprawdzić, czy w próbce dochodzi do agregacji białka ASN (alfa-synukleiny). W przypadku osoby zdrowej agregacja białek nie zachodzi w stopniu zaburzającym codziennie funkcjonowanie. Jeżeli natomiast badany materiał pochodzi od osoby chorej, fluorescencyjny barwnik zwiąże się z ASN, co pozwoli dać lekarzowi wskazanie, iż pacjent, nawet gdy nie ma jeszcze żadnych objawów, w przyszłości rozwinie się choroba Parkinsona, dodaje twórca metody. Obecnie uczeni z UW i SGGW pracują nad rozwojem opisanej technologiii jej komercjalizacją. Ich celem jest zoptymalizowanie sprzętu potrzebnego do prowadzenia badań spektroskopowych ze wzmocnio0nym laserem oraz stworzenie oprogramowania, które pozwoli na zautomatyzowanie całej pracy. Komercjalizacja ma odbyć się za pośrednictwem spółki Neurolight, powołanej przez spółki celowe – UWRC i InnoTech4Life – założone przez obie uczelnie. « powrót do artykułu
  8. Od ponad 10 lat archeolodzy badają niezwykły średniowieczny wrak – duński okręt królewski, który zatonął w 1495 roku wraz z setką niemieckich najemników, gdy król Danii płynął do Szwecji, by uzyskać dla siebie tron i przywrócić Unię Kalmarską. To jeden z najlepiej zachowanych szczątków statków ze średniowiecza. Na jego pokładzie, o czym wcześniej informowaliśmy, znaleziono egzotyczne przyprawy i podarunek króla Danii dla regenta Szwecji. Teraz archeolodzy trafili tam na kolejny wyjątkowy zabytek, średniowieczną skrzynię z narzędziami i materiałami do wytwarzania amunicji, zeuglade. Latem 1495 roku król Hans (Jan Oldenburg) płynął do Szwecji na królewskim okręcie flagowym Gribshunden. Ten 40-latek był od 1481 roku królem Danii, a od 1483 królem Norwegii. Jan chciał przywrócić Unię Kalmarską, Ten najpotężniejszy w swoim czasie sojusz północnej Europy przeżywał poważny kryzys. Został de facto zerwany pod koniec lat 40. XV wieku. Chrystian I Oldenburg, wybrany wówczas na króla Danii zdobył Norwegię w 1450 roku, jednak walki o tron szwedzki toczyły się przez kilkadziesiąt lat. Dlatego też duński i norweski król Jan Oldenburg płynął z Kopenhagi do Kalmaru, w nadziei, że spotka się ze szwedzkim regentem Stenem Sture Starszym i przekona go do uznania praw Duńczyka do tronu Szwecji. Chciał pokazać swą potęgę i wspaniałomyślność. Pewnej nocy, gdy Gribshunden znajdował się na wysokości Ronneby, które wówczas należało do Danii, na pokładzie wybuchł pożar. Króla nie było wówczas na okręcie, jednak jednostka wraz z załogą i całym ładunkiem zatonęła. Skrzynia to jedno z najważniejszych dotychczasowych odkryć na pokładzie Gribshundena. O jej istnieniu wiedziano od 2019 roku, dopiero jednak podczas ostatniego sezonu badawczego przystąpiono do jej szczegółowych oględzin i dokumentacji zawartości. Znaleziono tam między innymi formy i ołowiane płyty, które służyły do produkcji kul do wczesnej ręcznej broni palnej. Najprawdopodobniej należała do najemników, których Jan Oldenburg wiózł ze sobą na negocjacje z regentem. Archeolodzy znaleźli też fragmenty kolczugi, które pochodziły z jednej lub więcej kolczug. Analizy przeprowadzone na Uniwersytecie w Sztokholmie wykazały, że fragmenty zawierały wiele metalowych kółek o różnej konstrukcji, co wskazuje na wielokrotnie przeprowadzane naprawy. Naukowcy skupiają się obecnie na rekonstrukcji budowy jednostki oraz badaniu zmian, jakim wrak podlega w czasie. Okręt ten to ważny przyczynek do poznania „wojskowej rewolucji na morzu”, jaka zachodziła we wczesnej nowożytności, gdy taktyka walki na morzu zmieniała się z walki wręcz na bitwy artyleryjskie. Okręt ten będzie porównywany z innymi ważnymi i dobrze zachowanymi jednostkami, jak Mars (zatonął w 1564) czy Waza (1628), co pozwoli nam zrozumieć ewolucję takich jednostek, zauważa doktorant Rolf Warming. Szczegółowy raport z badań został udostępniony w sieci. « powrót do artykułu
  9. Specjaliści z Poczdamskiego Instytutu Badań nad Wpływem Klimatu szacują, że nawet gdybyśmy od jutra radykalnie zmniejszyli emisję CO2, to do roku 2050 zmiany klimatu będą powodowały rocznie 19-procentową utratę globalnego dochodu. Oznacza to, że średnia roczna strata wyniesie 38 bilionów USD w porównaniu ze scenariuszem, gdyby zmiany klimatu nie zachodziły. Jest ona powodowana przede wszystkim wzrostem temperatur, ale również ich zmiennością oraz zmianami w opadach. Są jednak kraje, dla których ocieplenie klimatu jest ekonomicznie korzystne. Nasze analizy wykazały, że zmiana klimatu będzie powodowała olbrzymie straty ekonomiczne przez najbliższych 26 lat. Odczują to również kraje wysoko rozwinięte jak Niemcy, Francja czy Stany Zjednoczone. Te krótkoterminowe straty to skutek naszych emisji z przeszłości. Jeśli chcemy uniknąć niektórych z nich, powinniśmy się szybciej adaptować do zmian. Musimy też bardzo szybko i radykalnie zmniejszyć emisję gazów cieplarnianych. Jeśli tego nie zrobimy, straty będą jeszcze większe i do roku 2100 mogą wzrosnąć nawet do 60% globalnego dochodu, stwierdza główna autorka badań, Leonie Wenz. Z wyliczeń wynika, że już w najbliższych dwóch dekadach straty związane z globalnym ociepleniem będą średnio 6-krotnie wyższe, niż szacowane koszty radykalnej redukcji emisji. W swoich badaniach naukowcy oparli się na danych dotyczących wpływu zmian klimatu w ciągu ostatnich 40 lat na gospodarkę 1600 regionów świata. Na tej podstawie przygotowali prognozy do roku 2050. Nasze badania pokazują znaczącą nierównowagę we wpływie zmian. Stwierdziliśmy, że do strat dojdzie niemal we wszystkich krajach, ale najbardziej ucierpią państwa w tropikach, gdyż tam już jest cieplej. Dalszy wzrost temperatur będzie tam bardziej szkodliwy. Kraje najmniej odpowiedzialne za zmiany klimatu doświadczą strat o 60% większych niż kraje o wyższych dochodach i o 40% większych niż kraje o wyższej emisji. Są to jednocześnie kraje, które mają najmniej zasobów, by się dostosować, mówi współautor badań, Andreas Levermann. « powrót do artykułu
  10. Księżyc Jowisza, Io, to najbardziej aktywne pod względem wulkanicznym miejsce w Układzie Słonecznym. Naukowców z Kalifornijskiego Instytutu Technologiczno (Caltech), Uniwersytetu Kalifornijskiego w Santa Cruz (UCSC) oraz NASA interesowało, od jak dawna Io jest tak aktywny. Aby znaleźć odpowiedź, przeprowadzili pomiary izotopów siarki w gazowych formach SO2 i SO znajdujących się w atmosferze księżyca. Księżyce Io, Europa i Ganimedes krążą wokół Jowisza w rezonansie orbitalnym. Na każdą 1 orbitę ukończoną przez Ganimedesa, który jest najbardziej z nich trzech oddalony od planety, przypadają dokładnie 2 orbity Europy i 4 orbity Io. Księżyce wpływają na siebie nawzajem powodując, że ich orbity są eliptyczne. W związku z tym ciągłe zmiany siły oddziaływania Jowisza oraz oddziaływanie Ganimedesa i Europy powoduje, że Io jest ciągle rozciągany i ściskany, do wnętrza księżyca ciągle dostarczana jest energia, która obawia się niezwykle intensywnym wulkanizmem. Ta sama energia powoduje, że pod lodową powierzchnią Europy znajduje się ciekły ocean. Na Io nie ma wody, głównym składnikiem gazów wydobywających się podczas erupcji jest siarka. Dlatego też jego atmosfera składa się w 90% z dwutlenku siarki. W wyniku aktywności wulkanicznej gazy, które znajdują się przy powierzchni Io są ponownie wchłaniane do środka i ponownie wyrzucane do atmosfery. Atomy siarki na Io występują w kilku odmianach izotopowych. Mamy tam na przykład siarkę-32 i siarkę-34, które posiadają po 16 protonów, ale różnią się liczbą neutronów, których jest – odpowiednio – 16 i 18. Więcej neutronów powoduje, że atom jest cięższy. Z większym więc prawdopodobieństwem siarka-34 będzie gromadziła się przy powierzchni, a siarka-32 w górnych partiach atmosfery. W wyniku oddziaływania pola magnetycznego Jowisza Io traci atmosferę w tempie około 1 tony na sekundę. Ulatuje ona w przestrzeń kosmiczną. Jak wspomnieliśmy, w górnych partiach atmosfery gromadzi się siarka-32, więc ubywa jej nieproporcjonalnie dużo w porównaniu z siarką-34. Badając ile brakuje siarki-32 w stosunku do siarki-34 można policzyć, jak długo trwa wulkanizm na Io. Najpierw jednak trzeba wiedzieć, jaki był na początku stosunek obu izotopów do siebie. Z badań meteorytów, które są pozostałościami po okresie tworzenia się Układu Słonecznego, wiemy, że u zarania jego dziejów na 23 atomy siarki-32 przypadał 1 atom siarki-34. Jeśli nie zaszłyby żadne zmiany, to do dzisiaj na Io stosunek obu izotopów były identyczny. Okazało się jednak, że Io nie tylko stracił 94–99 procent siarki, ale doszło też do zmiany stosunku izotopowego, względnego wzrostu siarki-34 do siarki-32. Badania wykazały, że Io jest aktywny wulkanicznie od około 4,5 miliardów lat i przez cały te czas traci siarkę. To pokazuje, że Io, Europa i Ganimedes zaczęły krążyć w rezonansie orbitalnym wkrótce po tym, jak się uformowały. Wyniki tych badań są zgodne z teoretycznymi modelami opracowywanymi w ciągu ostatnich 20 lat, które pokazywały, że trzy najbardziej znane księżyce Jowisza musiały wejść w rezonans orbitalny bardzo szybko po powstaniu. Jowisz i jego księżyce to tylko jeden z wielu przykładów rezonansów księżyców i egzoplanet. Ogrzewanie pływowe generowane przez takie rezonansy jest głównym źródłem ciepła dla księżyców i może napędzać ich aktywność geologiczną. Io to najbardziej ekstremalny tego przykład, mówi profesor Katherine de Kleer z Caltechu. Naukowcy planują teraz przeprowadzenie badań, które odpowiedzą im na pytanie, jakie jeszcze inne gazy zostały utracone przez Io. Tutaj pojawia się niezwykle interesujące pytanie o wodę. Na Io jej nie ma, ale pozostałe księżyce galileuszowe Jowisza – Europa, Ganimedes i Kallisto – są jej pełne. Rodzi się więc pytanie, czy i Io nie posiadał w przeszłości wody. « powrót do artykułu
  11. Caltech poinformował właśnie, że przed rokiem wykrywacz fal grawitacyjnych LIGO zarejestrował sygnał GW230529 pochodzący ze zderzenia dwóch obiektów odległych od nas o 650 milionów lat świetlnych. Jednym była prawdopodobnie gwiazda neutronowa. Drugim zaś, znacznie bardziej interesującym naukowców, prawdopodobnie czarna dziura o masie 2,5–4,5 masy Słońca. Sygnał jest dlatego tak intrygujący, że masa tego drugiego obiektu mieści się w zakresie luki masy pomiędzy gwiazdami neutronowymi a czarnymi dziurami. Naukowcy wciąż starają się zrozumieć, co w tej luce się znajduje. Maksymalna masa gwiazd neutronowych jest nieco większa niż 2-krotna masa Słońca (M☉). Najlżejsze czarne dziury mają masę około 5 M☉. Naukowcy do niedawna nie wiedzieli, czy istnieją jakieś obiekty o masach pomiędzy najcięższymi gwiazdami neutronowymi, a najlżejszymi czarnymi dziurami, a jeśli istnieją, to czym takie obiekty są. Zarejestrowanie sygnału GW230529 pokazuje, że gwiazdy neutronowe i czarne dziury o niskiej masie mogą zderzać się częściej, niż sądziliśmy, mówi rzecznik prasowa LIGO, Jess McIver. Szczegółowe dane z badań zostały publicznie udostępnione. Dotychczas przechwycono tylko jeden podobny sygnał. W 2020 roku informowaliśmy, że wykrywacze LIGO-Virgo odnotowały fale grawitacyjne pochodzące z połączenia czarnej dziury o masie 23 M☉ z obiektem o masie 2,6 M☉. « powrót do artykułu
  12. W materiałach ferromagnetycznych spiny grup elektronów zwrócone są w tym samym kierunku. Dotyczy to jednak poszczególnych regionów (domen magnetycznych), spiny pomiędzy domenami nie są uzgodnione. Wszystko się zmienia w obecności pola magnetycznego. Wówczas spiny wszystkich domen ustawiają się w tym samym kierunku. Zjawisko to nie zachodzi jednak jednocześnie, a przypomina lawinę, w której jedne domeny wpływają na drugie, aż ułożą się w tym samym kierunku. Istnienie takiej lawiny w magnesach zostało po raz pierwszy wykazane przez fizyka Heinricha Barkhausena w 1919 roku. Nawinął on cewkę na materiał o właściwościach magnetycznych i podłączył ją do głośnika. Wykazał, że zmiany magnetyzmu ujawniają się w postaci trzeszczącego dźwięku. Zjawisko to zostało nazwane szumem Barkhausena. Teraz naukowcy z Caltechu (California Institute of Technology) oraz University of British Columbia wykazali, że szum Barkhausena można zarejestrować nie tylko metodami klasycznymi, ale wykorzystując zjawiska z dziedziny mechaniki kwantowej. Ich osiągnięcie może znaleźć zastosowanie w budowie kwantowych czujników i innych urządzeń elektronicznych. Szum Barkhausena to wynik grupowego przełączania się malutkich magnesów. Przeprowadziliśmy ten sam eksperyment, który pokazywano wiele razy, ale wykorzystaliśmy w tym celu materiał kwantowy. Widzimy tutaj efekty kwantowe prowadzące do zmian w skali makroskopowej, wyjaśnia główny autor artykułu, Christopher Simon z Caltechu. Na gruncie fizyki klasycznej wspomniane przełączanie odbywa się dzięki temu, że cząsteczki chwilowo uzyskują wystarczająco dużo energii, by przeskoczyć ponad barierą potencjału. Amerykańsko-kanadyjski zespół wykazał właśnie, że zmiana kierunku spinów domen magnetycznych może dokonać się również za pomocą zjawiska kwantowego tunelowania. W procesie tym cząsteczki przedostają się na drugą stronę bariery potencjału, nie przeskakując nad nią. Naukowcy porównują to do piłeczki golfowej, która by znaleźć się po drugiej stronie wzgórza nie musiałaby przelatywać nad jego szczytem. W świecie kwantowym piłeczka nie musi przedostawać się nad wzgórzem, gdyż jest falą i jej część już jest po drugiej stronie wzgórza, dodaje Simon. Naukowcy wykorzystali fluorek litowo-holmowo-itrowy (LiHoxY1−xF4) schłodzony do temperatur od 90 mK do 580 mK (od 15 do 95 procent temperatury Curie). Wokół ferromagnetyka owinięto cewkę, włączyli pole magnetyczne i obserwowali krótkie skoki napięcia. Skoki te pokazywały, kiedy domeny zmieniały orientację spinu. Seria takich skoków napięcia to właśnie szum Barkhausena. Analizując go uczeni wykazali, że zmiana spinów miała miejsce również bez obecności zjawisk klasycznych i dowiedli, że odpowiedzialne były zjawiska kwantowe. « powrót do artykułu
  13. Model GPT-4 znacząco lepiej diagnozuje choroby oczu od lekarzy, którzy w chorobach takich się nie specjalizują, dowodzi eksperyment przeprowadzony przez naukowców z University of Cambridge. Co więcej, jego zdolności diagnostyczne oraz proponowane rozwiązania zbliżają się do poziomu lekarzy-specjalistów w tej dziedzinie. Takie wnioski płyną z badań, w ramach których porównano GPT-4 z lekarzami-stażystami nie specjalizującymi się w chorobach oczu, lekarzami w trakcie specjalizacji oraz ze specjalistami chorób oczu. GPT-4 oraz lekarzom przedstawiono 87 scenariuszy związanych z chorobami oczu i poproszono o postawienie diagnozy lub zaproponowanie leczenia poprzez wybór jednej z czterech opcji. Model językowy uzyskał znacznie więcej punktów niż stażyści, którzy nie specjalizowali się w chorobach oczu oraz bardzo podobną liczbę punktów co lekarze w trakcie specjalizacji i okuliści. Jedynie najlepsi z okulistów byli wyraźnie lepsi od GPT-4. Zdaniem naukowców, sztuczna inteligencja nie zastąpi lekarzy, ale może znacząco usprawnić pracę służby zdrowia. Modele językowe mogą służyć poradą, sugerować diagnozy i leczenie, szczególnie tam, gdzie dostęp do specjalistów jest ograniczony. Możemy wykorzystać takie systemy do selekcjonowania pacjentów z chorobami oczu, by stwierdzić, który przypadek jest pilny i wymaga natychmiastowej konsultacji ze specjalistą, z którym poradzi sobie lekarz ogólny, a w którym wizyta u lekarza jest zbędna, mówi główny autor badań, doktor Arun Thirunavukarasu. Modele językowe mogą doradzać też lekarzom ogólnym, którzy mają problemy z zapisaniem swoich lekarzy do specjalistów. Obecnie w Wielkiej Brytanii na konsultacje okulistyczne czeka się dłużej niż kiedykolwiek, dodaje. « powrót do artykułu
  14. Świat fizyki ma kolejne powody do radości. Ledwie poinformowaliśmy o rozpoczęciu napełniania argonem ProtoDUNE, a dowiedzieliśmy się, że amerykański Departament Energii zezwolił na rozpoczęcie kolejnej fazy prac nad Zderzaczem Elektron-Jon (Electron-Ion Collider, EIC), urządzeniem, które będzie badało najpotężniejsze oddziaływania podstawowe we wszechświecie, a w które zaangażowani są też Polacy. Przejście do etapu zwanego „critical decision 3A” pozwala na dokonywanie zakupów wyposażenia, usług i materiałów potrzebnych do powstania EIC. W pracach nad EIC biorą udział naukowcy z 8 polskich instytucji: Akademia Górniczo-Hutnicza, Instytut Fizyki Jądrowej PAN, Narodowe Centrum Badań Jądrowych, Politechnika Krakowska, Politechnika Warszawska, Uniwersytet Jagielloński, Uniwersytet Rzeszowski i Uniwersytet Warszawski, które utworzyły Konsorcjum „The Polish Electron-Ion Collider Group". W NCBJ od dawna prowadzone są badania teoretyczne nad oddziaływaniami silnymi, a Polacy należą do światowej czołówki ekspertów w tej dziedzinie. Zderzacz Elektron-Jon powstanie w Brookhaven National Laboratory na bazie istniejącego tam Relativistic Heavy Ion Collider. Głównym elementem konstrukcji EIC będzie dodanie do RHIC dodatkowego pierścienia tak, by urządzenie składało się z dwóch krzyżujących się akceleratorów. W jednym z nich będą krążyły elektrony, w drugim proton lub jądra atomów. Koszt budowy nowego akceleratora ma wynieść 1,7–2,8 miliardów dolarów i jest to jedyny akcelerator zderzeniowy, jakiego budowa jest rozważana w USA w kontekście kolejnych 50 lat. Można postawić pytanie, czy światowa nauka na pewno potrzebuje kolejnego akceleratora. Wbrew pozorom, nie ma zbyt wielu takich urządzeń. Obecnie na świecie pracuje jedynie kilka akceleratorów zderzeniowych. Elektrony z pozytonami są zderzane w VEPP-5 (Nowosybirsk, Rosja), SuperKEKB (Tsukuba, Japonia), Dafne (Frascati, Włochy), BEPC II (Pekin, Chiny), natomiast jedyne zderzacze hadronów to RHIC (Nowy Jork, USA) i LHC (Francja/Szwajcaria). W EIC ma dochodzić do zderzeń protonów z elektronami. Badanie wyników zderzeń pozwoli na poznanie struktury wewnętrznej protonu, ma dać odpowiedź na pytanie, skąd bierze się spin protonu oraz wyjaśnić właściwości gluonów. Obecnie bardzo słabo rozumiemy wewnętrzną strukturę protonów. Wiemy, że proton składa się z trzech kwarków połączonych oddziaływaniami silnymi. Jednak jako, że wkraczamy tutaj na pole fizyki kwantowej, pozostaje wiele niepewności. Wewnątrz protonu pojawiają się i znikają pary kwark-antykwark, ważną rolę odgrywają też gluony, łączące wszystko w całość. Jednak pozostaje jeszcze do wyjaśnienia wiele tajemnic. Na przykład trzy kwarki tworzące proton stanowią mniej niż 5% jego masy. Reszta masy pojawia się w jakiś sposób z energii wirtualnych kwarków i gluonów. Nie wiemy też, skąd się bierze spin protonu. Nie jest on prostą sumą spinów trzech kwarków. Znaczenie mają również gluony oraz orbitujące wokół siebie kwarki. Niewiele wiemy o samych gluonach. Zgodnie z niektórymi teoriami, łączą się one w pojedynczą falę kwantową. EIC znacznie bardziej nadaje się do tego typu badań, niż Wielki Zderzacz Hadronów, w którym protony zderzane są z protonami. W EIC wykorzystywane będą znacznie mniejsze od protonów elektrony, co da łatwiejsze do interpretacji wyniki. Obecny plan zakłada, że prace konstrukcyjne EIC rozpoczną się w kwietniu przyszłego roku, a w czerwcu 2025 zostanie wyłączony RHIC. EIC ma zacząć pracę w pierwszej połowie przyszłej dekady. « powrót do artykułu
  15. W miarę akumulowania się dwutlenku węgla w atmosferze, na Ziemi robi się coraz cieplej. Naukowcy z University of Washington postanowili zweryfikować scenariusze wzrost temperatur w zależności od wzrostu CO2. To właśnie zależność pomiędzy koncentracją dwutlenku węgla a ociepleniem, zwana czułością klimatu, jest elementem decydującym o tym, jak będzie wyglądała nasza przyszłość. Analizując, o ile chłodniejsza była Ziemia w przeszłości przy niskim stężeniu gazów cieplarnianych, możemy oszacować, o ile będzie cieplejsza przy wyższym ich stężeniu, mówi główny autor badań, Vince Cooper. Nowe badania nie zmieniają przewidywań scenariusza najbardziej optymistycznego, który mówi, że przy podwojeniu koncentracji CO2 w porównaniu z epoką przedprzemysłową średnie temperatury na Ziemi wzrosną o 2 stopnie Celsjusza, ani najbardziej prawdopodobnego, przewidującego wzrost o 3 stopnie. Jednak koryguje prognozy najbardziej pesymistyczne, zgodnie z którymi przy dwukrotnym wzroście koncentracji dwutlenku węgla, dojdzie do wzrostu temperatury o 5 stopni. Zdaniem uczonych z Seattle wzrost w najgorszym wypadku wyniesie 4 stopnie Celsjusza. Jednocześnie autorzy badań stwierdzają, że to, co dzieje się w ostatnich dekadach nie pozwala dobrze przewidywać przyszłości. Duży wpływ mają tutaj bowiem takie czynniki jak krótkoterminowe cykle klimatyczne czy zanieczyszczenie atmosfery. Wzorzec przestrzenny globalnego ocieplenia w ciągu ostatnich 40 latach nie wygląda tak, jak długoterminowy wzorzec przewidywany dla przyszłości. Niedawna przeszłość nie jest dobrą analogią przyszłości, wyjaśnia profesor Kyle Armour. Dlatego uczeni skupili się na maksimum ostatniej epoki lodowej sprzed 21 000 lat. Średnia temperatura na Ziemi była wówczas o 6 stopni niższa niż obecnie, a z badań rdzeni lodowych wiemy, że koncentracja CO2 wynosiła ponaddwukrotnie mniej niż dzisiaj i była na poziomie około 190 ppm. Wśród danych paleoklimatycznych mamy informacje o długich okresach, gdy średnie temperatury były znacznie wyższe lub znacznie niższe niż obecnie. Wiemy, że istniały w tych okresach wielkie wymuszenia klimatyczne, takie jak pokrywy lodowe czy gazy cieplarniane. Jeśli wiemy, jak zmieniały się temperatury w przeszłości i co powodowało te zmiany, wiemy, czego spodziewać się w przyszłości dodaje Cooper. Autorzy badań połączyli dane o dawnym klimacie – pochodzące m.in. z osadów oceaniczny, rdzeni lodowych czy pyłków roślin – z modelami klimatycznym i symulowali pogodę w czasie maksimum ostatniego zlodowacenia. Okazało się, że rozległe pokrywy lodowe chłodziły wówczas Ziemię nie tylko odbijając światło słoneczne. Doprowadziły one też do zmiany wzorców wiatrów i prądów morskich, przez co północne obszary Pacyfiku i Atlantyku były szczególnie pochmurne i chłodne. Chmury te odbijały dodatkowe światło słoneczne, pogłębiając chłodzący efekt pokryw lodowych. Innymi słowy, badacze wykazali, że dwutlenek węgla odegrał mniejszą niż sądzono rolę w nadejściu epoki lodowej. A to oznacza, ich zdaniem, że najbardziej pesymistyczne przewidywania dotyczące jego wpływu na ocieplenie, są mało prawdopodobne. « powrót do artykułu
  16. Już w najbliższy piątek 19 kwietnia w Narodowym Centrum Badań Jądrowych w Otwocku-Świerku odbędzie się Seminarium Finałowe kończące XIX edycję konkursu Fizyczne Ścieżki. Konkurs przeznaczony jest dla uczniów szkół ponadpodstawowych oraz 7 i 8 klas szkół podstawowych. W odróżnieniu od konkursów przedmiotowych i olimpiad Fizyczne Ścieżki to konkurs prac zaproponowanych przez uczniów. Konkurs odbywa się pod honorowym patronatem Ministra Nauki oraz Ministra Edukacji, a jego organizatorami są Narodowe Centrum Badań Jądrowych oraz Instytut Fizyki Polskiej Akademii Nauk. W tym roku na Konkurs zgłoszono 111 prac w trzech kategoriach: Praca Naukowa (29 prac), Pokaz Zjawiska Fizycznego (25 prac), Esej (57 prac). Spośród nich jury Konkursu wybrało najciekawsze, które będą prezentowane przez uczniów na tegorocznym Seminarium Finałowym. Po krótkiej prezentacji odbędzie się dyskusja, w trakcie której uczniowie odpowiadają na pytania jurorów. Po prezentacji i rozmowach z każdym z finalistów Jury Konkursu wyłoni najlepsze prace w trzech kategoriach finałowych, przyznając nagrody i wyróżnienia. Fundatorem nagród głównych są NCBJ, IF PAN a od kilku lat stypendia laureatom funduje Marszałek Województwa Mazowieckiego. Ponadto, wybrani laureaci Konkursu otrzymują tygodniowe staże w ośrodkach badawczych w Polsce (NCBJ, IF PAN), jak również bezwarunkowy wstęp na wybrane uczelnie wyższe (dotyczy wybranych kierunków na Uniwersytecie w Białymstoku, Uniwersytecie Jagiellońskim, Uniwersytecie Warszawskim i Politechnice Świętokrzyskiej) lub – w przypadku Politechniki Warszawskiej – maksymalnej ilość punktów z fizyki (bez względu na ocenę maturalną z tego przedmiotu) w rekrutacji na studia. XIX edycja Konkursu realizowana jest w ramach projektu „Organizacja XIX i XX edycji ogólnopolskiego konkursu fizycznego Fizyczne Ścieżki”. Projekt dofinansowany jest ze środków budżetu państwa, przyznanych przez Ministra Edukacji i Nauki w ramach Programu Społeczna Odpowiedzialność Nauki II. Szczegółowe informacje na temat Konkursu można znaleźć na stronie internetowej: fizycznesciezki.pl. « powrót do artykułu
  17. W CERN-ie rozpoczęło się napełnianie ProtoDUNE, prototypu Deep Underground Neutrino Experiment (DUNE), budowanego w USA gigantycznego wykrywacza neutrin. Napełnianie ciekłym argonem jednego z dwóch detektorów ProtoDUNE potrwa niemal dwa miesiące. Komora jest olbrzymia, ma rozmiary trzypiętrowego budynku. Napełnianie drugiej komory rozpocznie się jesienią. A wszystko po to, by przetestować technologie, które będą wykorzystywane w DUNE, rozciągającym się na 1300 kilometrów eksperymencie, w skład którego wchodzi zespół detektorów wielkości 7-piętrowych budynków mieszczących dziesiątki tysięcy ton argonu. Główne cele ProtoDUNE to: przetestowanie procesów produkcyjnych i upewnienie się co do jakości uzyskanych komponentów, by uniknąć wszelkich ryzyk związanych z ich produkcją na potrzeby dalekiego wykrywacza DUNE (DUNE FD); zweryfikowanie procedur instalacyjnych oraz przetestowanie wszystkich połączeń pomiędzy elementami; zweryfikowanie obliczeń dotyczących projektu i jego wydajności poprzez prowadzenie eksperymentów z wykorzystaniem promieni kosmicznych; zebranie danych eksperymentalnych i zbadanie fizycznych reakcji detektora. Jak łatwo zauważyć, w czasie wypełniania argonem, wnętrze detektora pozornie zmieniło kolor ze złotego na zielony. Dzieje się tak, gdyż światło LED wewnątrz detektora odbija się od jego ścian, wpada do argonu, gdzie następuje zmiana długości fali, dzięki czemu wszystko świeci na zielono. Jeśli ProtoDUNE wydaje się imponujący, to co można powiedzieć o o DUNE? Ten gigantyczny międzynarodowy eksperyment będzie składał się z trzech głównych elementów: źródła neutrin o wysokiej intensywności, które będą generowane w akceleratorze protonów w legendarnym Fermilab, bliskiego detektora oraz znajdującego się 1500 kilometrów dalej i położonego 1,5 kilometra pod ziemią potężnego detektora złożonego z czterech komór zawierających po 10 tysięcy ton argonu schłodzonego do temperatury -185 stopni Celsjusza. Long Baseline Neutrino Facility (LBNF) to najbardziej intensywne źródło neutrin na świecie. Budowany na jego potrzeby liniowy akcelerator protonów Proton Improvement Plan II – w który zainwestowała Polska – będzie generował wiązkę protonów o mocy 1–1,2 MW. W LBNF protony te, o energiach 60–120 gigaelektronowoltów (GeV), będą zamieniane w wiązkę pionów i kaonów, które z kolei rozpadną się do neutrin. Wiązka musi być skierowana w stronę znajdującego się pod ziemią dalekiego wykrywacza. Dlatego całość umieszczono w sztucznym wzgórzu o wysokości niemal 18 metrów. A do roku 2030 moc wiązki protonów zostanie zwiększona do 2,4 MW. Daleki wykrywacz, DUNE FD (od DUNE Far Detector) będzie składał się z czterech modułów, a w każdym z nich masa ciekłego argonu w przestrzeni roboczej – czyli tej objętości, z której analizowane będą dane – wyniesie co najmniej 10 000 ton. Każdy z tych modułów zostanie umieszczony w osobnym kriostacie o wymiarach 15x14x62 metry, w którym znajdzie się około 17 500 ton ciekłego argonu. Niedawno ogłoszono zakończenie prac nad kopaniem gigantycznych jaskiń na potrzeby DUNE FD. Zawierający neutrina strumień cząstek wystrzelony z położonego 1300 kilometrów dalej LBNF trafi w argonowe detektory, a interakcja atomu argonu z neutrinem prowadzi do pojawienia się naładowanych cząstek jonizujących atom, co pozowali naukowcom na odkrycie interakcji i dokonanie pomiarów. Dodatkowo pojawi się rozbłysk światła, który ułatwi wykrywanie interakcji. Zanim jednak strumień z LBNF dotrze do DUNE FD, najpierw trafi do bliskiego detektora, czyli DUNE ND (Near Detector), znajdującego się w odległości 574 metrów od źródła neutrin. DUNE ND będzie służył jako urządzenie kontrolne eksperymentu, ograniczając liczbę błędów i mierząc spektra energii początkowych, niepodlegających oscylacjom, neutrin mionowych i elektronowych oraz ich antyneutrin. Porównanie spektrów energii neutrin w pobliżu ich źródła, zanim jeszcze dojdzie do jakichkolwiek oscylacji, oraz porównanie z wynikami pomiarów w DUNE FD pozwoli na usunięcie wiele niepewnych elementów z obliczeń. Ponadto w skład DUNE ND wchodzi między innymi detektor z gazowym argonem. Porównanie pomiarów interakcji neutrin z gazowym i z ciekłym argonem to kolejny ze sposobów na zwiększenie precyzji uzyskanych wyników. DUNE to wielki międzynarodowy projekt, w którym udział bierze ponad 1400 naukowców i inżynierów z 36 krajów. Obok USA zaangażowane są Polska (Uniwersytet Wrocławski, Uniwersytet Warszawski, Politechnika Warszawska), Ukraina, Niemcy, Chiny, Chile, Kanada, Armenia, Brazylia, Francja, Wielka Brytania, Hiszpania, Szwecja, Indie, Iran, Izrael, Madagaskar, Peru czy Japonia. W pracach biorą udział najlepsze uczelnie na świecie, w tym MIT, Uniwersytety Harvarda, Oksfordzki, Cambridge oraz 8 kolejnych uczelni sklasyfikowanych na pierwszych 20 miejscach światowej czołówki. Eksperyment ma rozpocząć prace w 2028 roku. Będzie badał neutrina, najpowszechniej występujące cząstki we wszechświecie, o których najmniej wiemy. A ten brak wiedzy wynika z faktu, że neutrina niemal nie wchodzą w interakcje z innymi cząstkami. Wszystko jest dla nich przezroczyste. W każdej sekundzie nasze ciała przebijane są przez biliony neutrin. Neutrino może przelecieć przez całą planetę, nie zderzając się z żadną inną cząstką. DUNE ma badać neutrina i poznać ich naturę, by móc odpowiedzieć na trzy główne pytania. Różnice w zachowaniu pomiędzy neutrinami a antyneutrinami być może dadzą odpowiedź na pytanie, czy to neutrina są odpowiedzialne za to, że wszechświat składa się z materii. Pracujący przy eksperymencie naukowcy będą chcieli też zaobserwować rozpad protonu, zjawisko, którego dotychczas nie obserwowano. Jeśli go zarejestrują i zbadają być może uda się zrealizować marzenie Einsteina o stworzeniu zunifikowanej teorii dotyczącej materii i energii. DUNE przyjrzy się też potężnym strumieniom neutrin emitowanym przez eksplodujące gwiazdy. To zaś pozwoli na obserwowanie w czasie rzeczywistym – z uwzględnieniem oczywiście czasu dotarcia strumienia do nas – procesu tworzenia się gwiazd neutronowych i czarnych dziur. Koszty projektu są spore i ciągle rosną. W 2014 roku zakładano, że budowa LBNF i DUNE pochłonie mniej niż 1,9 miliarda USD i zostanie ukończona w 2028 roku. Obecnie koszty szacuje się na 3,2 miliarda dolarów, a to nie wszystko. Prace podzielono bowiem na dwa etapy i te 3,2 miliarda USD to koszt DUNE z 2 detektorami w DUNE FD. Dwa pozostałe zostaną dodane później. Obecne prognozy przewidują, że DUNE ruszy nie wcześniej niż w 2031 roku. Osoby zainteresowane szczegółami eksperymentu, powinny sięgnąć po dwuczęściowe opracowanie Deep Underground Neutrino Experiment (DUNE) Far Detector Technical Design Report [1, 2]. « powrót do artykułu
  18. Jeden z najbardziej znanych spektakli afrykańskiej przyrody, olbrzymie migracje antylop gnu, odchodzą w przeszłość. Kolejne drogi, płoty, rozlewające się miasta, farmy i stada udomowionych zwierząt w coraz większym stopniu zakłócają wędrówkę antylop. To zaś, jak alarmują naukowcy z Uniwersytetu w Kopenhadze, prowadzi do degeneracji genetycznej stad, które nie są w stanie swobodnie się przemieszczać. Masowa migracja ma olbrzymie znaczenie nie tylko dla antylop, ale też dla polujących na nie lwy, hieny czy krokodyle i odgrywa ważną rolę w całym ekosystemie. Jednak wielka migracja ma jeszcze miejsce tylko w jednym miejscu Czarnego Lądu. W innych zaś antylopy nie mogą ani wziąć udziału w wielkiej migracji, ani nawet swobodnie przemieszczać się w poszukiwaniu wody i pożywienia. Nikt dotychczas nie zauważył, że to ma wpływ na genom antylop gnu. Nasze badania jasno jednak pokazują, że genom populacji, które już nie migrują, ale w przeszłości to robiły, jest w gorszym stanie. A te zmiany niekorzystnie wpływają na długoterminowe szanse przetrwania takich populacji, mówi profesor Rasmus Heller. Stada, które nie mogą już migrować, są bardziej izolowane genetycznie, mają mniejsze zróżnicowanie genetyczne i częściej dochodzi w nich do chowu wsobnego. Będzie to prowadziło do mniejszej przeżywalności, zmniejszonej płodności oraz innych negatywnych skutków dla sprawności zwierząt, dodaje jeden z autorów badań, Xiaodong Liu. Antylopa gnu jako gatunek nie jest obecnie zagrożona. Jednak spadek zróżnicowania genetycznego oznacza, że populacje, które go doświadczają mają mniejsze szanse na poradzenie sobie z wyzwaniami stawianymi przez zmieniający się klimat, to zaś grozi ich zagładą. Całkowita liczba gnu utrzymuje się na dość stabilnym poziomie, jednak w wielu lokalnych populacjach obserwuje się silne spadki liczebności, a część populacji uległa już załamaniu. Jeszcze 150 lat temu wiele populacji brało udział w wielkich migracjach. Jednak już 40 lat temu pozostały tylko 2 duże migracje. Słynna Wielka Migracja Serengeti-Mara oraz migracja na Pustyni Kalahari na południu Afryki. Obecnie tej drugiej już nie ma. W ostatnich dekadach w Bostwanie zaczęto stawiać coraz więcej ogrodzeń, które miały uniemożliwić kontakt pomiędzy zwierzętami hodowlanymi a dzikimi. W wyniku tych działań populacja gnu w Botswanie spadła z około 260 000 w latach 70. do mniej niż 15 000 pod koniec lat 80. Dzisiaj ostatnią z wielkich migracji jest Serengeti-Mara, ale i ona jest zagrożona przez plany rozwoju kolei i dróg w regionie, w którym się odbywa, mówi Mikkel Sinding. Antylopy gnu muszą migrować, by utrzymać liczną populację. Mogą przetrwać w lokalnych niemigrujących stadach, ale wówczas ich liczebność dramatycznie spada. Obserwujemy to właśnie w tych częściach Kenii i Tanzanii, w których człowiek uniemożliwił im migrację, stwierdza statystyk Joseph O. Ogutu. Gnu, przez swoje migracje, są jednym z kluczowych gatunków utrzymujących zdrowie ekosystemu. Zgryzając roślinność utrzymują ją w zdrowiu, roznoszą substancje odżywcze i same są źródłem pożywienia dla drapieżników oraz padlinożerców. Gdy uniemożliwiamy im migrację, to zagrażamy nie tylko temu gatunkowi, ale też wielu innym. Nie wspominając już o tym, że migracje przyciągają olbrzymią liczbę turystów oraz wpływy zarówno do budżetu, jak i dla lokalnych społeczności, dodaje Ogutu. Uczeni z Kopenhagi mają nadzieję, że ich praca zachęci innych naukowców do zbadania wpływu zaburzeń migracji na genetykę poszczególnych gatunków. Te badania pokazują, że dzikie zwierzęta, dla których migracja jest kluczowym elementem biologii, mają problemy z przetrwaniem w świecie coraz bardziej zdominowanym przez człowieka. [...] Dotyczy to wielu gatunków migrujących w Afryce i wszędzie indziej. Zależy nam na tym, by gatunki te przetrwały więcej niż, powiedzmy, 50 lat, by się rozwijały i przetrwały znacznie dłużej, musimy powstrzymać spadek ich różnorodności genetycznej spowodowany niszczeniem ich naturalnych tras migracji, komentuje profesor Heller. « powrót do artykułu
  19. Meteoryty to skarbnica informacji o Układzie Słonecznym. A najważniejszym ich źródłem jest Antarktyka, z której pochodzi około 60% dotychczas znalezionych okruchów z kosmosu. Lodowy kontynent może zawierać 300 000 – 800 000 meteorytów. Stosunkowo łatwo je znaleźć, gdyż są widoczne na białej powierzchni, a ruch lodu powoduje ich gromadzenie się w tzw. „strefach osiadania meteorytów”. Badacze z Belgii i Szwajcarii apelują o przyspieszenie tempa zbierania meteorytów w Antarktyce, gdyż z powodu globalnego ocieplenia coraz szybciej znikają one z powierzchni lodu. Uczeni z Wolnego Uniwersytetu Brukselskiego i Politechniki Federalnej w Zurychu wykorzystali sztuczną inteligencję, obserwacje satelitarne i modele klimatyczne, co pozwoliło im stwierdzić, że wraz z każdym wzrostem średniej globalnej temperatury powierza o 1/10 stopnia Celsjusza, z powierzchni Antarktyki znika około 9000 meteorytów. Przy założeniu scenariusza wysokiej emisji gazów cieplarnianych, do roku 2050 może w ten sposób zniknąć 1/4, a do końca wieku 3/4 meteorytów. Jak ocenili Veronica Tollenaar i Harry Zekollari oraz ich zespół, już obecne temperatury powodują, że z powierzchni znika około 5000 meteorytów rocznie. To pięciokrotnie więcej, niż jest znajdowanych w Antarktyce. Stąd też apele naukowców o przyspieszenie zbierania cennego materiału. Utrata meteorytów Antarktyki jest podobna do utraty danych rdzeni lodowych pobieranych z cofających się lodowców. Gdy takie meteoryty znikną nam z pola widzenia, znika też część tajemnic wszechświata, stwierdził Zekollari. Meteoryty mają ciemny kolor, więc nagrzewają się bardziej niż otaczający je lód. Roztapiają więc lód – a im wyższa temperatura powietrza, tym łatwiej im to przychodzi – i znikają pod jego powierzchnią. Nie muszą wnikać głęboko, by stać się niewykrywalne, a więc i stracone dla nauki. Co więc można zrobić? Zdaniem autorów badań należy zintensyfikować misje poszukiwawcze, wykorzystać dostępne dane w celu identyfikacji nieznanych „stref osiadania meteorytów” oraz stworzyć lepsze mapy obszarów niebieskiego lodu, na których często znajdowane są meteoryty. « powrót do artykułu
  20. W 2022 roku Teleskop Horyzontu Zdarzeń (Event Horizon Telescope – EHT) dostarczył pierwszych zdjęć Sagittariusa A* (Sgr A*), supermasywnej czarnej dziury w centrum Drogi Mlecznej. Niedawno na nowych obrazach z EHT uwieczniono silne, zorganizowane pola magnetyczne układające się spiralnie od krawędzie Sgr A*. Struktura tych pól jest bardzo podobna do pól magnetycznych czarnej dziury M87* w galaktyce M87, co może wskazywać, że obecność silnych pól magnetycznych jest czymś typowym dla czarnych dziur. Sgr A* znajduje się w odległości około 27 000 lat świetlnych od Ziemi. Jej badania wykazały, że mimo iż czarna dziura w środku naszej galaktyki jest ponad tysiąc razy mniejsza i mniej masywna niż czarna dziura w M87, to podobieństwo pomiędzy oboma obiektami jest uderzające. Astronomowie zaczęli więc zastanawiać się, czy oprócz zewnętrznego wyglądu obie czarne dziury może jeszcze coś łączyć. Przyjrzeli się więc Sgr A* w świetle spolaryzowanym. Wcześniejsze badania M87* pokazały, że pola magnetyczne wokół dziury powodują, że wyrzuca ona potężne strumienie materiału z powrotem do otoczenia. Uczeni z EHT chcieli sprawdzić, czy tak jest też w przypadku Sgr A*. Odkrycie bardzo podobnych pól magnetycznych skłania do przypuszczeń, że i w przypadku naszej czarnej dziury istnieją takie strumienie. Dowiedzieliśmy się, że silne i uporządkowane pola magnetyczne to kluczowy element interakcji czarnych dziur z gazem i materią, które je otaczają, stwierdziła Sara Issaoun z Center for Astrophysics | Harvard & Smithsonian. « powrót do artykułu
  21. Po trzech latach badań naukowcy z Uniwersytetu Oksfordzkiego i Uniwersytetu Nowej Południowej Walii stworzyli pierwszy „World Cybercrime Index”, w którym uszeregowali kraje pod kątem zagrożenia, jakie stwarzają miejscowi cyberprzestępcy. Okazuje się, że największym źródłem cyberprzestępczości na świecie jest Rosja, na drugie miejsce zestawienia trafiła Ukraina, na trzecim znalazły się Chiny, następnie USA, a po nich Nigeria. Index opiera się na danych uzyskanych od 92 czołowych światowych ekspertów z całego świata, którzy specjalizują się w badaniu cyberprzestępczości. Ekspertów poproszono o przyjrzenie się pięciu rodzajom cyberprzestępczości. Były to: tworzenie produków i usług (np. pisanie szkodliwego kodu, udostępnianie botnetów, shakowanych systemów czy produkcja narzędzi hakerskich), ataki i wymuszenia (np. ataki typu DoS czy ransomware), kradzież danych i tożsamości (np. phishing, kradzieże kont bankowych czy kart bankowych), oszustwa internetowe (prowadzone np. na aukcjach internetowych czy za pomocą zhakowanych kont firmowych) oraz pranie brudnych pieniędzy (np. fałszowanie kart kredytowych, wykorzystywanie słupów do transakcji finansowych). Następnie eksperci do każdej z tych kategorii przypisali kraje, które są najbardziej znaczącym źródłem takiego rodzaju przestępczości oraz by uszeregowali te kraje pod kątem profesjonalizmu, umiejętności technicznych oraz wpływu miejscowych kryminalistów na światową cyberprzestępczość. W rankingu ogólnym udało się zebrać wystarczającą liczbę danych, by sklasyfikować aż 97 krajów. Bezapelacyjnie największym źródłem światowej przestępczości jest Rosja. Zajęła 1. miejsce zdobywając 58,39 punktów rankingu World Cybercrime Index (WCI Score). Ukraina zdobyła 36,44 punkty, Chiny uzyskały 27,86 pkt, USA przypadło ich 25,01, a Nigerii 21,28. Na kolejnych miejscach znalazły się Rumunia (14,83), Korea Północna (10,61), Wielka Brytania (9,01), Brazylia (8,93) oraz Indie (6,13). W niechlubnej statystyce Polska znalazła się na 16. pozycji z 2,22 pkt. Oprócz 10 wymienionych wcześniej krajów wyprzedzają nas też Iran, Białoruś, Ghana, RPA, Mołdowa oraz Izrael. Zaraz za nami uplasowały się Niemcy, Holandia i Łotwa. Stawkę krajów, dla których udało się zdobyć wystarczającą ilość danych, zamykają zaś Azerbejdżan (0,13 pkt.), Dominikana, Luksemburg, Japonia, Mali, Syria, Gwinea-Bissau i Egipt (0,08 pkt.). « powrót do artykułu
  22. Grove, przedmieścia miasteczka Wantage w Wielkiej Brytanii, położone są w miejscu, które było zamieszkane od epoki brązu. Trafiono tam na pozostałości rzymskiej willi i liczne artefakty. A najciekawszymi z nich jest zestaw ściśle zwiniętych pasków ołowiu. Po rozwinięciu okazało się, że przypominają one rzymskie tabliczki złorzeczące i, chociaż wydają się niezapisane, to w połączeniu ze znalezionymi w willi miniaturowymi siekierkami wotywnymi, sugerują, że na terenie posiadłości znajdowało się miejsce rytualne bądź pielgrzymkowe. Odkryte zabytki świadczą o tym, że rzymska aktywność w tym miejscu trwała przez niemal całą obecność Imperium Romanum na Wyspach. Być może rozpoczęła się już w I wieku, a zakończyła może dopiero na początku wieku V. Archeolodzy znaleźli tam wysokiej jakości fragmenty tynku zdobione złożonymi motywami, w tym roślinnymi, pozostałości mozaiki, kafle typowe dla hypocaustum (system centralnego ogrzewania), ceramikę terra sigillata, setki monet, pierścienie, brosze oraz sprzączkę pasa z końskimi głowami datowaną na lata 350–450. Wydaje się, że pierwsze budynki powstały tutaj już w I wieku, a większość pochodzi z II wieku. Z czasem rozwinęły się w willę. Widoczne są ślady olbrzymiej wewnętrznej kolumnady, która mogła stać w budynku o powierzchni 500 metrów kwadratowych. Budynek ten przylega do willi, której korytarz biegnie wzdłuż frontu budynku, dając dostęp do poszczególnych pomieszczeń, oraz łączy główny budynek ze skrzydłami. To miejsce jest znacznie bardziej złożone niż przeciętne wiejskie stanowisko archeologiczne. Oczywistym jest, że znajdowało się tutaj ważne centrum lokalnej aktywności, która rozciągała się od epoki brązu po późny okres rzymski, stwierdziła Francesca Giarelli z Red River Archeology Group. Prace wykopaliskowe wciąż trwają, ale już widać, że dokonano ważnego odkrycia. Oprócz imponujących rozmiarów i zróżnicowania całej struktury, bardzo ważne są dowody na ciągłą rzymską aktywność w późnym IV, a może nawet w V wieku. Najlepszym tego dowodem jest sprzączka do pasa typu 1B, ozdobiona głowami koni. Takie artefakty są charakterystyczne nie tylko dla rzymskiej elity wojskowej, ale znajduje się je również we wczesnych pochówkach anglosaskich. Archeolodzy trafili też na ślady systematycznych przebudów, do których dochodziło prawdopodobnie pod koniec epoki rzymskiej. Jednym z takich przykładów może być stopiony ołów na środku podłogi jednego z pomieszczeń, co wskazuje na zmianę przeznaczenia materiału budowlanego. Podobne zjawisko obserwuje się w wielu rzymskich wielkich willach na terenie Brytanii, których przeznaczenie zmieniało się z czasem z wystawnego miejsca zamieszkania elity w miejsce nastawione na produkcję. Naukowcy wciąż badają ołowiane zwoje i miniaturowe wotywne siekierki. Podobne artefakty znane są w rzymsko-brytyjskich miejsc kultu i uważa się je za przedmioty wotywne. « powrót do artykułu
  23. Działalność człowieka zmienia planetę na wiele sposobów, a jednym z efektów tej zmiany jest bardzo szybki spadek populacji owadów. Specjaliści mówią, że mamy do czynienia z szóstym wymieraniem i próbują określić przyczynę tego zjawiska. Naukowcy z Instytutu im. Maxa Plancka w Jenie zauważyli, że w obecności zbyt dużego stężenia ozonu – takiego jakie występuje w wielu miejscach podczas gorących letnich dni – dochodzi do zniszczenia feromonów muszek owocowych, co znacząco zakłóca ich cykl rozrodczy. Zaczynają rozmnażać się międzygatunkowo lub próbują zapładniać przedstawiciela własnej płci. Niszczenie habitatów, intensywne rolnictwo, używanie pestycydów czy zanieczyszczenie światłem to jedne z wielu przyczyn szybkiego spadku liczby owadów. Rosnąca ilość CO2 w powietrzu powoduje spadek wartości odżywczych roślin, co przyczynia się do spadku liczebności wielu gatunków prostoskrzydłych (np. koniki polne). Liczebność owadów zmniejsza się od dziesięcioleci, a szczególnie zła sytuacja panuje w Europie. Teraz dowiadujemy się, że problemem może być też ozon, którego naturalna produkcja rośnie wraz ze wzrostem temperatury. Nanji Jiang, Bill Hansson i Markus Knaden już wcześniej dowiedli, że ozon rozrywa wiązania pomiędzy atomami węgla, które znajdują się w większości owadzich feromonów. Wskutek tego samce muszek owocowych nie są w stanie odróżnić samicy od innego samca i próbują rozmnażać się z obiema płciami. Podczas swoich najnowszych badań naukowcy postanowili sprawdzić, czy poprzez niszczenie feromonów ozon nie powoduje przypadkiem, że dochodzi do krzyżowania się gatunków. Chcieliśmy sprawdzić, czy zwiększony poziom ozonu nie znosi granic międzygatunkowych i jaki jest wpływ możliwej hybrydyzacji. Z wcześniejszych eksperymentów wiemy, że ozon może silnie zaburzyć wybór partnera przez samce. Nasze obecne badania wykazały, że nawet w obecności lekko podwyższonych poziomów ozonu, które obecnie powszechnie występują w wielu miejscach na Ziemi, dochodzi do łączenia się muszek z blisko spokrewnionymi gatunkami, co może przyczyniać się do spadku populacji owadów, gdyż takie hybrydowe potomstwo jest bezpłodne, mówi Nanji Jiang. Podczas eksperymentów naukowcy wykorzystali cztery gatunku z rodzaju Drosophila. Drosophila melanogaster oraz Drosophila simulans to gatunki kosmopolityczne, występujące na całym świecie. Z kolei Drosophila secheillia i Drosophila mauritiana są endemiczne dla wysp – odpowiednio – Seszeli i Mauritiusu. Gatunki te używają bardzo podobnych feromonów, ale każdy miesza je w specyficzny dla siebie sposób. Naukowcy przez dwie godziny wystawili muszki na działanie takich stężeń ozonu, jakie panują w miastach w bardzo upalne dni. Następnie samice miały okazję wybrać samce – z własnego i obcego gatunku – z którymi się rozmnożą. Po kilku godzinach samice oddzielono od samców i pozwolono im złożyć jajka. Uczeni przyjrzeli się młodym, które wykluły się z jaj i stwierdzili, że przy podwyższonym stężeniu ozonu znacznie częściej dochodzi do hybrydyzacji i pojawienia się bezpłodnego potomstwa, niż przy standardowych poziomach tego gazu. Wyniki badań zaskoczyły naukowców. Spodziewali się nieco większego odsetka hybrydyzacji, ale nie aż tak dużego, jak zaobserwowany. Muszki owocówki polegają bowiem nie tylko na feromonach, ale również odróżniają swój gatunek na podstawie specyficznego brzęczenia skrzydeł oraz wskazówek wizualnych. Byliśmy zaskoczeni, że w podwyższonym stężeniu ozonu niektóre samice były całkowicie niezdolne do odróżnienia samców własnego gatunku pomimo istniejących wskazówek dźwiękowych i wizualnych, mówi Bill Hansson. Owad kierują się zapachem nie tylko podczas wybierania partnera. Używają feromonów do komunikacji, ostrzegania się o niebezpieczeństwie, owady społeczne – jak mrówki – wykorzystują feromony do nawigowania w otoczeniu czy rozpoznawania mrówek z tego samego gniazda. Wiele z tych feromonów zawiera podwójne wiązania pomiędzy atomami węgla. Autorzy badań obawiają się, że coraz częstsze upalne dni i związane z tym zwiększone stężenie ozonu, mogą zaburzyć komunikację pomiędzy owadami. Planują więc przeprowadzenie kolejnych eksperymentów. Chcą się przyjrzeć, między innymi, mrówkom. « powrót do artykułu
  24. Encyklopedia Britannica to niewątpliwie jeden z najważniejszych zbiorów wiedzy encyklopedycznej. Dlatego, gdy Wydawnictwo Kropka zapytało, czy nie chcielibyśmy zrecenzować "Infografiki", książki z rodziny "Britannica. Nowa encyklopedia dla dzieci", nie mogliśmy odmówić. Byliśmy ciekawi, jak twórcy encyklopedii oraz wydawnictwo poradzili sobie z wymagającymi najmłodszymi klientami. Trafił do nas imponujący, świetnie wykonany tom. Kolorowe, twarde okładki kryją ponad 300-stronicową szytą książkę, która z pewnością dobrze zniesie traktowanie przez dzieci. Okładka to przedsmak tego, co czeka nas w środku. Wspaniałe grafiki przekazują dokładnie to, co autorzy przekazać chcieli. Nie musimy domyślać się, co widać na poszczególnych rysunkach, a twórcy użyli stonowanych kolorów, które nie rozpraszają, pozwalając z jednej strony skupić się na obrazkach, z drugiej zaś – na treści. No i ta treść... Olbrzymia ilość informacji, podanych tak, że ani nie można poczuć się przytłoczony, ani nie można się nudzić. I prawdę mówiąc, mimo że „Infografika” kierowana jest do dzieci, to kompendium wiedzy dla wszystkich. Czego tam nie ma... Dowiemy się, jakie nasiono jest najcięższe na świecie, gdzie i kiedy nastąpiły największe opady śniegu w ciągu 12 miesięcy, który mięsień w ciele człowieka jest największy i jaka jest temperatura powietrza w pobliżu pioruna (podpowiemy: jest znacznie cieplej niż na powierzchni Słońca). Książkę podzielono na 6 części. W 1. – Kosmos – poczytamy o planetach, czarnych dziurach, asteroidach czy mgławicach. „Lądy, wody i niebo” poświęcona jest wulkanom, piorunom, skałom oraz głębinom oceanicznym. Dziecko interesuje się zwierzętami? Jest o zwierzętach. Tych najszybszych, najsilniejszych, najmniejszych czy najbardziej wytrzymałych. W „Ciele człowieka” są informacje o mięśniach, kościach, mózgu czy kupie. A niejedno dziecko z pewnością chciałby się dowiedzieć ile wanien glutów produkuje w ciągu swojego życia. Są też infografiki o robotach, samochodach, książkach, sztuce i największych wynalazkach w historii. Ciekawość zaspokoją również miłośnicy drzew, grzybów czy skamieniałości. Każda z części kończy się przedstawieniem jednego z naukowców, którzy czuwali nad jakością merytoryczną książki oraz krótkim quizem, w którym możemy sprawdzić swoją wiedzę. Za każdym razem, gdy otwieramy „Infografikę” trafiamy na coś, o czym nie mieliśmy pojęcia. Na przykład o tym, że żyrafy śpią 40 minut na dobę i to na stojąco, a ludzie mają 35% DNA wspólnego z żonkilem. Dzięki niej dowiedzieliśmy się, że żuk gnojowy jest w stanie ciągnąć ciężar o 1110 razy większy od jego własnej masy, a najtwardszą naszą kością, jest kość skalista, stanowiąca część kości skroniowej. Autorzy „Infografiki” to uznana specjalistka od projektowania i wizualizacji danych Valentina D'Efilippo, pisarz, dziennikarz i redaktor „Britannica Magazine” Andrew Pettie oraz dziennikarz Conrad Quilty-Harper. Wspomagali ich dziennikarze specjalizujący się w gromadzeniu i analizie danych, a nad całością czuwało sześcioro naukowców z USA, Wielkiej Brytanii i Australii.
  25. Opieka nad osobami starszymi w domu jest ważnym zadaniem, które wymaga odpowiedniego przygotowania, zarówno emocjonalnego, jak i praktycznego. Zapewnienie komfortu oraz bezpieczeństwa seniorom pozwala im na zachowanie godności i możliwie największej samodzielności. Poniżej przedstawiamy kilka kluczowych kwestii, które warto rozważyć, organizując opiekę domową dla osób starszych. Ocena potrzeb seniora Pierwszym i fundamentalnym krokiem jest dokładna ocena potrzeb osoby starszej. Warto skonsultować się z lekarzem, który pomoże określić stan zdrowia seniora oraz ewentualne wymagania medyczne. Należy także rozważyć potrzeby psychologiczne i społeczne, takie jak wsparcie w utrzymaniu kontaktów z rodziną i przyjaciółmi czy zainteresowań, które sprawiają, że życie seniora jest pełniejsze. Przystosowanie przestrzeni życiowej Bezpieczeństwo jest priorytetem, dlatego ważne jest przystosowanie domu w sposób, który minimalizuje ryzyko wypadków. Instalacja poręczy, usunięcie progów, zapewnienie odpowiedniego oświetlenia i pozbycie się luźnych dywanów to tylko niektóre z działań, które mogą znacząco zwiększyć bezpieczeństwo. Ponadto, warto zainwestować w sprzęty ułatwiające codzienne czynności, jak podwyższone toalety czy krzesła prysznicowe. Organizacja opieki medycznej i wsparcia Regularne wizyty lekarza są kluczowe, ale równie ważne jest zorganizowanie dostępu do leków i możliwość szybkiego kontaktu z pomocą medyczną w razie nagłych wypadków. Warto rozważyć również zaangażowanie profesjonalnych opiekunów osoby starszej, którzy mogą zapewnić wsparcie w codziennych czynnościach, które senior może już wykonywać z trudem, takich jak mycie się, ubieranie czy przygotowywanie posiłków. Wsparcie emocjonalne Opieka nad osobami starszymi to nie tylko wsparcie fizyczne, ale także emocjonalne. Seniorzy często czują się izolowani, szczególnie jeśli ich stan zdrowia ogranicza możliwości wychodzenia z domu. Regularne rozmowy, wspólne spędzanie czasu, słuchanie ich opowieści i wspomnień może znacząco wpłynąć na ich samopoczucie. Dobrym rozwiązaniem jest zatrudnienie opiekunki nad osobą starszą, która w dużym stopniu zaspokoi potrzebę seniora w tym względzie. Wykorzystanie technologii Nowoczesne technologie mogą znacznie ułatwić opiekę nad seniorami. Systemy monitorujące, które informują o potencjalnych niebezpieczeństwach, aplikacje pozwalające na przypominanie o lekach czy nawet proste rozwiązania umożliwiające video rozmowy z rodziną to tylko niektóre z narzędzi, które mogą być pomocne. Planowanie przyszłości Ważne jest, aby nie tylko skupiać się na bieżących potrzebach seniora, ale także planować przyszłość. Rozmowy na temat opieki długoterminowej, życzenia dotyczące opieki paliatywnej czy nawet sprawy succession powinny być omówione z seniorem, co zapewni, że jego życzenia będą respektowane. Opieka nad osobami starszymi w domu wymaga planowania, empatii i zaangażowania. Kluczem jest stworzenie bezpiecznego, komfortowego środowiska, które umożliwi seniorom jak najdłuższe, samodzielne życie. Ważne jest, aby pamiętać o regularnej ocenie potrzeb i dostosowywaniu opieki w miarę zmieniających się okoliczności. Jeśli nie wiesz jak się do tego zabrać rozważ zatrudnienie opiekunki nad osobą starszą: https://veritas-polska.pl/ « powrót do artykułu
×
×
  • Dodaj nową pozycję...