Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36655
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    200

Zawartość dodana przez KopalniaWiedzy.pl

  1. Jeśli zamierzasz przejść na samozatrudnienie lub otworzyć własny biznes działający na większą skalę, formalności wydają się proste. Podczas rejestracji firmy musisz jednak podać jej adres, a to może być pewien problem. Sprawdźmy, jak rozwiązać go z wirtualnym biurem w Warszawie i dla kogo przede wszystkim jest to propozycja. Adres dla firmy: w czym problem? Rejestracja firmy – zwłaszcza jednoosobowej działalności, która cieszy się w Polsce zdecydowanie największą popularnością – jest naprawdę prosta. W większości przypadków będziesz w stanie załatwić formalności w ciągu maksymalnie kilkudziesięciu minut przez Internet. Ale wielu przyszłych przedsiębiorców nieoczekiwanie zatrzymuje się na rubrykach dotyczących firmowych adresów. Co prawda nie musisz posiadać stałego miejsca wykonywania działalności (jak ma to miejsce na przykład w przypadku sklepów), ale musisz wskazać m.in. adres do doręczeń. Dla sporej grupy osób, zwłaszcza tych wynajmujących mieszkanie, uzyskanie zgody na rejestrację firmy w miejscu zamieszkania może być trudne lub niemożliwe. Nawet jeśli np. posiadasz prawo własności nieruchomości, podawanie adresu domowego jako siedziby firmy może wpłynąć na Twoje poczucie prywatności: do skrzynki będzie trafiać mnóstwo korespondencji (zarówno tej chcianej, jak i nie), a nawet mogą odwiedzać Cię akwizytorzy. Czym jest biuro wirtualne? Wirtualne biuro, określane również jako wirtualny adres dla firmy, jest w takim przypadku idealnym rozwiązaniem! To usługa, która pozwala przyszłym i aktualnym przedsiębiorcom na uzyskanie adresu, który można umieścić w publicznych rejestrach, ale również posługiwać się nim w komunikacji biznesowej i marketingowej. Jednocześnie najem nie dotyczy standardowej przestrzeni biurowej, dzięki czemu możesz spełnić wszystkie wymogi formalne, działać zgodnie z prawem i naprawdę sporo zaoszczędzić. Sprawdź, co możesz zyskać, wybierając biuro wirtualne w Warszawie od Biznes Centrum. Poznaj zalety biura wirtualnego w Warszawie Dzięki sprawdzonemu partnerowi otrzymujesz przede wszystkim: Adres do rejestracji i korespondencji: możliwa jest rejestracja firmy pod wskazanym adresem. Jeśli postawisz na wirtualne biuro w Warszawie centrum czy innej rozpoznawalnej w całym kraju lokalizacji, zyskasz także prestiż i rozpoznawalność, które pomogą Ci rozwijać biznes. Usługi wsparcia: biuro wirtualne będzie zajmować się obsługą Twojej korespondencji. W znacznym stopniu to od Ciebie zależy, co będzie się działo z przesyłkami: możesz zdecydować się na przykład na ich skanowanie oraz wysyłkę mailem. Elastyczność i oszczędność: biuro kojarzy Ci się z bardzo drogimi biurowcami, gdzie czynsz to wydatek dziesiątek, a nawet setek tysięcy złotych? Wirtualne biuro w Warszawie działa na innej zasadzie. Dostępne są zróżnicowane plany dostosowane do różnorodnych potrzeb. Od samego początku wiesz, ile zapłacisz i wiesz, że wydatki będą bardzo niskie. Bezpieczeństwo i prywatność: dzięki adresowi dla firmy zyskujesz bezpieczeństwo danych i prywatność, oddzielając adres domowy od biznesowego. Kto powinien pomyśleć o adresie dla firmy? Dla kogo są wirtualne biura? Idealnie sprawdzą się niemal w każdym przypadku. Przede wszystkim warto o nich pomyśleć, jeśli: Jesteś freelancerem lub pracujesz na B2B: dla osób samozatrudnionych pracujących z domu adres wirtualny firmy może stać się najlepszym sposobem na oddzielenie życie prywatnego od zawodowego. Pozwoli także w łatwy sposób uporać się z problemami z rejestracją działalności. Zarządzasz start-upem: Młode firmy, które chcą zbudować silną markę i zyskać zaufanie inwestorów oraz klientów, mogą skorzystać z prestiżowego adresu, który podnosi ich wiarygodność na rynku. Prowadzisz działalność sezonową lub projektową: dla firm, które nie potrzebują stałego biura, ale chcą utrzymać profesjonalny wizerunek, wirtualne biuro jest idealnym rozwiązaniem. Współpracujesz wyłącznie zdalnie: to samo dotyczy również coraz częstszej sytuacji, w której po prostu nie potrzebujesz standardowego biura, bo Ty i Twoi współpracownicy pracujecie wyłącznie zdalnie. « powrót do artykułu
  2. Wiemy, że klimat miał olbrzymi wpływ na pojawianie się i znikanie różnych gatunków człowieka. Jednak u licznych kręgowców wielką rolę odgrywa rywalizacja międzygatunkowa. Laura A. van Holstein i Robert A. Foley z University of Cambridge opublikowali na łamach Nature. Ecology & Evolution artykuł, w którym stwierdzają, że rywalizacja odgrywała olbrzymią rolę w ciągu pięciu milionów lat ewolucji homininów i wpływała na powstawanie gatunków (specjację). Dotychczas ignorowaliśmy wpływ konkurencji międzygatunkowej na kształtowanie naszego własnego drzewa ewolucyjnego. Wpływ klimatu na gatunki homininów to tylko część układanki, mówi doktor van Holstein. Van Holstein przypomina, że u innych kręgowców powstają gatunki, które wypełniają wolne nisze ekologiczne. Weźmy słynne zięby Darwina. Jedne wyewoluowały duże dzioby, dzięki którym mogły rozbijać orzechy, inne miały małe dzioby, pozwalające im żywić się owadami. Gdy każda z nisz ekologicznych została zapełniona, rozpoczęła się konkurencja, a nowe gatunki przestały się pojawiać. Autorzy obecnych badań wykorzystali modelowanie bayesowskie oraz analizy filogenetyczne i na tej podstawie wykazali, że większość gatunków homininów powstała w warunkach niskiej konkurencji o zasoby lub przestrzeń. Wzorzec, który widzimy u wielu wczesnych homininów jest podobny do wzorca obserwowanego u innych ssaków. Specjacja zwiększa się, a później wypłaszcza i zaczyna się wymieranie. To wskazuje, że konkurencja międzygatunkowa jest ważnym czynnikiem ewolucyjnym, mówi van Holstein. Uczeni zauważyli jednak pewne „dziwaczne” zjawisko w przypadku rodzaju Homo. W tej linii ewolucyjnej, która doprowadziła do pojawienia się H. sapiens, wzorce ewolucji wskazują, że konkurencja pomiędzy gatunkami doprowadziła do pojawienia się kolejnych gatunków. To zupełne odwrócenie trendów, jakie obserwujemy u niemal wszystkich innych kręgowców. Im więcej było gatunków Homo, tym szybsze tempo specjacji. To zjawisko niemal bezprecedensowe w naukach o ewolucji, stwierdza van Holstein. Najbliższą analogią do niego jest... ewolucja chrząszczy żyjących na wyspach. Wzorce ewolucji, które zaobserwowaliśmy wśród linii ewolucyjnej rodzaju Homo, która doprowadziła do powstania H. sapiens, bardziej przypominają wzorce ewolucyjne chrząszczy z wysp, niż innych naczelnych, a nawet innych ssaków, komentuje uczona. Autorzy badań przypominają, że szczątki, które znajdujemy w zapisie kopalnym nie pozwalają dokładnie datować czasu, w którym dany gatunek występował. Zachowanie się szczątków zależy bowiem od warunków, w jakich przebywały, a ponadto badania koncentrują się w konkretnych miejscach na świecie. Dlatego też to, co znajdujemy, najprawdopodobniej nie jest ani najstarszym, ani najmłodszym przedstawicielem konkretnego gatunku. Dlatego uczeni wykorzystali metody statystyczne do określenia nowych dat początku i końca istnienia większości znanych gatunków homininów. Z artykułu dowiadujemy się, że część gatunków, o których dotychczas sądzono, iż pojawiły się w wyniku anagenezy – procesu zmian ewolucyjnych całej populacji prowadzącego do pojawienia się tak istotnych różnic, że nowa populacja zostaje uznana za nowy gatunek, a populacja początkowa za gatunek wymarły – w rzeczywistości mogą być efektem rozdzielenia się linii ewolucyjnych w ramach tego samego gatunku. Na przykład obecnie uważa się, że Australopithecus afarensis pojawił się w wyniku anagenezy Australopithecus anamensis. Jednak z nowych badań wynika, że oba gatunki żyły jednocześnie przez około 500 000 lat. To oznacza, że najprawdopodobniej równocześnie żyło więcej gatunków homininów, niż się obecnie zakłada, więc prawdopodobnie gatunki te konkurowały. Van Holstein mówi, że motorem napędowym niezwykłego wzorca ewolucji rodzaju Homo mogło być opanowanie narzędzi czy ognia. Dzięki temu Homo nie musiał czekać na pojawienie się fizycznych zmian – na przykład zębów zdolnych do poradzenia sobie z nowymi rodzajami żywności – ale mógł dostosowywać nisze ekologiczne do siebie. Ponadto użycie narzędzi pozwalało na łatwe zajmowanie kolejnych nisz ekologicznych oraz konkurencję z innymi gatunkami, co może wyjaśniać sukces ewolucyjny rodzaju Homo. W końcu doprowadziło to do pojawienia się gatunku H. sapiens, zdolnego do życia w niemal każdym środowisku i korzystania z niemal każdego źródła pożywienia. A to mogło przyczynić się do wyginięcia wszystkich innych gatunków Homo. « powrót do artykułu
  3. Uczeni z Uniwersytetu Warszawskiego i Szkoły Głównej Gospodarstwa Wiejskiego pracują nad nową technologią wczesnego diagnozowania chorób Parkinsona i Alzheimera. Metoda, opracowana przez dr inż. Piotra Hańczyca z Wydziału Fizyki UW polega na badaniu widma światła powstającego po prześwietleniu laserem pobranych od pacjentów próbek płynu mózgowo-rdzeniowego. Analiza tego widma pozwala na odkrycie amyloidów oraz zweryfikowanie ich stadiów. Dzięki niej można zauważyć gromadzenie się amyloidów na długo przed wystąpieniem objawów. Amyloidy to nieprawidłowe białka, które mają tendencję do akumulowania się i zbijania w grupy. Z czasem tworzą fibryle amyloidowe, a następnie blaszki amyloidowe. Taki proces trwa wiele lat. W końcu nagromadzenie amyloidów w układzie nerwowym zaczyna zakłócać jego pracę i prowadzi do degeneracji. Choroby neurodegeneracyjne najczęściej są diagnozowane stosunkowo późno, gdy ich leczenie jest już utrudnione i nie przynosi zadowalających rezultatów. Wynika to ze specyfiki tych schorzeń. Mogą one rozwijać się latami bez wystąpienia objawów, ponieważ nasz układ nerwowy uruchamia silne mechanizmy obronne, które odwlekają je w czasie. Dopiero po przekroczeniu pewnej masy krytycznej choroby te dają o sobie znać. Dla medycyny ważne jest więc, by dysponować metodą diagnostyczną, która pozwoli wykryć schorzenia wiele lat przed tym, gdy pacjent odczuje, że jest chory, wyjaśnia doktor Hańczyc. Metoda Hańczyca polega na przepuszczeniu światła laserowego przez próbkę, którą wcześniej znakuje się barwnikami fluorescencyjnymi wiążącymi się z amyloidami. Dzięki temu wzbudzane wiązką lasera komórki amyloidów emitują specyficzne widmo. To pozwala na stwierdzenie, czy w próbce w ogóle są amyloidy, a jeśli tak, to na jakim stadium rozwoju się znajdują. Można też sprawdzić, czy w próbce dochodzi do agregacji białka ASN (alfa-synukleiny). W przypadku osoby zdrowej agregacja białek nie zachodzi w stopniu zaburzającym codziennie funkcjonowanie. Jeżeli natomiast badany materiał pochodzi od osoby chorej, fluorescencyjny barwnik zwiąże się z ASN, co pozwoli dać lekarzowi wskazanie, iż pacjent, nawet gdy nie ma jeszcze żadnych objawów, w przyszłości rozwinie się choroba Parkinsona, dodaje twórca metody. Obecnie uczeni z UW i SGGW pracują nad rozwojem opisanej technologiii jej komercjalizacją. Ich celem jest zoptymalizowanie sprzętu potrzebnego do prowadzenia badań spektroskopowych ze wzmocnio0nym laserem oraz stworzenie oprogramowania, które pozwoli na zautomatyzowanie całej pracy. Komercjalizacja ma odbyć się za pośrednictwem spółki Neurolight, powołanej przez spółki celowe – UWRC i InnoTech4Life – założone przez obie uczelnie. « powrót do artykułu
  4. Od ponad 10 lat archeolodzy badają niezwykły średniowieczny wrak – duński okręt królewski, który zatonął w 1495 roku wraz z setką niemieckich najemników, gdy król Danii płynął do Szwecji, by uzyskać dla siebie tron i przywrócić Unię Kalmarską. To jeden z najlepiej zachowanych szczątków statków ze średniowiecza. Na jego pokładzie, o czym wcześniej informowaliśmy, znaleziono egzotyczne przyprawy i podarunek króla Danii dla regenta Szwecji. Teraz archeolodzy trafili tam na kolejny wyjątkowy zabytek, średniowieczną skrzynię z narzędziami i materiałami do wytwarzania amunicji, zeuglade. Latem 1495 roku król Hans (Jan Oldenburg) płynął do Szwecji na królewskim okręcie flagowym Gribshunden. Ten 40-latek był od 1481 roku królem Danii, a od 1483 królem Norwegii. Jan chciał przywrócić Unię Kalmarską, Ten najpotężniejszy w swoim czasie sojusz północnej Europy przeżywał poważny kryzys. Został de facto zerwany pod koniec lat 40. XV wieku. Chrystian I Oldenburg, wybrany wówczas na króla Danii zdobył Norwegię w 1450 roku, jednak walki o tron szwedzki toczyły się przez kilkadziesiąt lat. Dlatego też duński i norweski król Jan Oldenburg płynął z Kopenhagi do Kalmaru, w nadziei, że spotka się ze szwedzkim regentem Stenem Sture Starszym i przekona go do uznania praw Duńczyka do tronu Szwecji. Chciał pokazać swą potęgę i wspaniałomyślność. Pewnej nocy, gdy Gribshunden znajdował się na wysokości Ronneby, które wówczas należało do Danii, na pokładzie wybuchł pożar. Króla nie było wówczas na okręcie, jednak jednostka wraz z załogą i całym ładunkiem zatonęła. Skrzynia to jedno z najważniejszych dotychczasowych odkryć na pokładzie Gribshundena. O jej istnieniu wiedziano od 2019 roku, dopiero jednak podczas ostatniego sezonu badawczego przystąpiono do jej szczegółowych oględzin i dokumentacji zawartości. Znaleziono tam między innymi formy i ołowiane płyty, które służyły do produkcji kul do wczesnej ręcznej broni palnej. Najprawdopodobniej należała do najemników, których Jan Oldenburg wiózł ze sobą na negocjacje z regentem. Archeolodzy znaleźli też fragmenty kolczugi, które pochodziły z jednej lub więcej kolczug. Analizy przeprowadzone na Uniwersytecie w Sztokholmie wykazały, że fragmenty zawierały wiele metalowych kółek o różnej konstrukcji, co wskazuje na wielokrotnie przeprowadzane naprawy. Naukowcy skupiają się obecnie na rekonstrukcji budowy jednostki oraz badaniu zmian, jakim wrak podlega w czasie. Okręt ten to ważny przyczynek do poznania „wojskowej rewolucji na morzu”, jaka zachodziła we wczesnej nowożytności, gdy taktyka walki na morzu zmieniała się z walki wręcz na bitwy artyleryjskie. Okręt ten będzie porównywany z innymi ważnymi i dobrze zachowanymi jednostkami, jak Mars (zatonął w 1564) czy Waza (1628), co pozwoli nam zrozumieć ewolucję takich jednostek, zauważa doktorant Rolf Warming. Szczegółowy raport z badań został udostępniony w sieci. « powrót do artykułu
  5. Specjaliści z Poczdamskiego Instytutu Badań nad Wpływem Klimatu szacują, że nawet gdybyśmy od jutra radykalnie zmniejszyli emisję CO2, to do roku 2050 zmiany klimatu będą powodowały rocznie 19-procentową utratę globalnego dochodu. Oznacza to, że średnia roczna strata wyniesie 38 bilionów USD w porównaniu ze scenariuszem, gdyby zmiany klimatu nie zachodziły. Jest ona powodowana przede wszystkim wzrostem temperatur, ale również ich zmiennością oraz zmianami w opadach. Są jednak kraje, dla których ocieplenie klimatu jest ekonomicznie korzystne. Nasze analizy wykazały, że zmiana klimatu będzie powodowała olbrzymie straty ekonomiczne przez najbliższych 26 lat. Odczują to również kraje wysoko rozwinięte jak Niemcy, Francja czy Stany Zjednoczone. Te krótkoterminowe straty to skutek naszych emisji z przeszłości. Jeśli chcemy uniknąć niektórych z nich, powinniśmy się szybciej adaptować do zmian. Musimy też bardzo szybko i radykalnie zmniejszyć emisję gazów cieplarnianych. Jeśli tego nie zrobimy, straty będą jeszcze większe i do roku 2100 mogą wzrosnąć nawet do 60% globalnego dochodu, stwierdza główna autorka badań, Leonie Wenz. Z wyliczeń wynika, że już w najbliższych dwóch dekadach straty związane z globalnym ociepleniem będą średnio 6-krotnie wyższe, niż szacowane koszty radykalnej redukcji emisji. W swoich badaniach naukowcy oparli się na danych dotyczących wpływu zmian klimatu w ciągu ostatnich 40 lat na gospodarkę 1600 regionów świata. Na tej podstawie przygotowali prognozy do roku 2050. Nasze badania pokazują znaczącą nierównowagę we wpływie zmian. Stwierdziliśmy, że do strat dojdzie niemal we wszystkich krajach, ale najbardziej ucierpią państwa w tropikach, gdyż tam już jest cieplej. Dalszy wzrost temperatur będzie tam bardziej szkodliwy. Kraje najmniej odpowiedzialne za zmiany klimatu doświadczą strat o 60% większych niż kraje o wyższych dochodach i o 40% większych niż kraje o wyższej emisji. Są to jednocześnie kraje, które mają najmniej zasobów, by się dostosować, mówi współautor badań, Andreas Levermann. « powrót do artykułu
  6. Księżyc Jowisza, Io, to najbardziej aktywne pod względem wulkanicznym miejsce w Układzie Słonecznym. Naukowców z Kalifornijskiego Instytutu Technologiczno (Caltech), Uniwersytetu Kalifornijskiego w Santa Cruz (UCSC) oraz NASA interesowało, od jak dawna Io jest tak aktywny. Aby znaleźć odpowiedź, przeprowadzili pomiary izotopów siarki w gazowych formach SO2 i SO znajdujących się w atmosferze księżyca. Księżyce Io, Europa i Ganimedes krążą wokół Jowisza w rezonansie orbitalnym. Na każdą 1 orbitę ukończoną przez Ganimedesa, który jest najbardziej z nich trzech oddalony od planety, przypadają dokładnie 2 orbity Europy i 4 orbity Io. Księżyce wpływają na siebie nawzajem powodując, że ich orbity są eliptyczne. W związku z tym ciągłe zmiany siły oddziaływania Jowisza oraz oddziaływanie Ganimedesa i Europy powoduje, że Io jest ciągle rozciągany i ściskany, do wnętrza księżyca ciągle dostarczana jest energia, która obawia się niezwykle intensywnym wulkanizmem. Ta sama energia powoduje, że pod lodową powierzchnią Europy znajduje się ciekły ocean. Na Io nie ma wody, głównym składnikiem gazów wydobywających się podczas erupcji jest siarka. Dlatego też jego atmosfera składa się w 90% z dwutlenku siarki. W wyniku aktywności wulkanicznej gazy, które znajdują się przy powierzchni Io są ponownie wchłaniane do środka i ponownie wyrzucane do atmosfery. Atomy siarki na Io występują w kilku odmianach izotopowych. Mamy tam na przykład siarkę-32 i siarkę-34, które posiadają po 16 protonów, ale różnią się liczbą neutronów, których jest – odpowiednio – 16 i 18. Więcej neutronów powoduje, że atom jest cięższy. Z większym więc prawdopodobieństwem siarka-34 będzie gromadziła się przy powierzchni, a siarka-32 w górnych partiach atmosfery. W wyniku oddziaływania pola magnetycznego Jowisza Io traci atmosferę w tempie około 1 tony na sekundę. Ulatuje ona w przestrzeń kosmiczną. Jak wspomnieliśmy, w górnych partiach atmosfery gromadzi się siarka-32, więc ubywa jej nieproporcjonalnie dużo w porównaniu z siarką-34. Badając ile brakuje siarki-32 w stosunku do siarki-34 można policzyć, jak długo trwa wulkanizm na Io. Najpierw jednak trzeba wiedzieć, jaki był na początku stosunek obu izotopów do siebie. Z badań meteorytów, które są pozostałościami po okresie tworzenia się Układu Słonecznego, wiemy, że u zarania jego dziejów na 23 atomy siarki-32 przypadał 1 atom siarki-34. Jeśli nie zaszłyby żadne zmiany, to do dzisiaj na Io stosunek obu izotopów były identyczny. Okazało się jednak, że Io nie tylko stracił 94–99 procent siarki, ale doszło też do zmiany stosunku izotopowego, względnego wzrostu siarki-34 do siarki-32. Badania wykazały, że Io jest aktywny wulkanicznie od około 4,5 miliardów lat i przez cały te czas traci siarkę. To pokazuje, że Io, Europa i Ganimedes zaczęły krążyć w rezonansie orbitalnym wkrótce po tym, jak się uformowały. Wyniki tych badań są zgodne z teoretycznymi modelami opracowywanymi w ciągu ostatnich 20 lat, które pokazywały, że trzy najbardziej znane księżyce Jowisza musiały wejść w rezonans orbitalny bardzo szybko po powstaniu. Jowisz i jego księżyce to tylko jeden z wielu przykładów rezonansów księżyców i egzoplanet. Ogrzewanie pływowe generowane przez takie rezonansy jest głównym źródłem ciepła dla księżyców i może napędzać ich aktywność geologiczną. Io to najbardziej ekstremalny tego przykład, mówi profesor Katherine de Kleer z Caltechu. Naukowcy planują teraz przeprowadzenie badań, które odpowiedzą im na pytanie, jakie jeszcze inne gazy zostały utracone przez Io. Tutaj pojawia się niezwykle interesujące pytanie o wodę. Na Io jej nie ma, ale pozostałe księżyce galileuszowe Jowisza – Europa, Ganimedes i Kallisto – są jej pełne. Rodzi się więc pytanie, czy i Io nie posiadał w przeszłości wody. « powrót do artykułu
  7. Caltech poinformował właśnie, że przed rokiem wykrywacz fal grawitacyjnych LIGO zarejestrował sygnał GW230529 pochodzący ze zderzenia dwóch obiektów odległych od nas o 650 milionów lat świetlnych. Jednym była prawdopodobnie gwiazda neutronowa. Drugim zaś, znacznie bardziej interesującym naukowców, prawdopodobnie czarna dziura o masie 2,5–4,5 masy Słońca. Sygnał jest dlatego tak intrygujący, że masa tego drugiego obiektu mieści się w zakresie luki masy pomiędzy gwiazdami neutronowymi a czarnymi dziurami. Naukowcy wciąż starają się zrozumieć, co w tej luce się znajduje. Maksymalna masa gwiazd neutronowych jest nieco większa niż 2-krotna masa Słońca (M☉). Najlżejsze czarne dziury mają masę około 5 M☉. Naukowcy do niedawna nie wiedzieli, czy istnieją jakieś obiekty o masach pomiędzy najcięższymi gwiazdami neutronowymi, a najlżejszymi czarnymi dziurami, a jeśli istnieją, to czym takie obiekty są. Zarejestrowanie sygnału GW230529 pokazuje, że gwiazdy neutronowe i czarne dziury o niskiej masie mogą zderzać się częściej, niż sądziliśmy, mówi rzecznik prasowa LIGO, Jess McIver. Szczegółowe dane z badań zostały publicznie udostępnione. Dotychczas przechwycono tylko jeden podobny sygnał. W 2020 roku informowaliśmy, że wykrywacze LIGO-Virgo odnotowały fale grawitacyjne pochodzące z połączenia czarnej dziury o masie 23 M☉ z obiektem o masie 2,6 M☉. « powrót do artykułu
  8. W materiałach ferromagnetycznych spiny grup elektronów zwrócone są w tym samym kierunku. Dotyczy to jednak poszczególnych regionów (domen magnetycznych), spiny pomiędzy domenami nie są uzgodnione. Wszystko się zmienia w obecności pola magnetycznego. Wówczas spiny wszystkich domen ustawiają się w tym samym kierunku. Zjawisko to nie zachodzi jednak jednocześnie, a przypomina lawinę, w której jedne domeny wpływają na drugie, aż ułożą się w tym samym kierunku. Istnienie takiej lawiny w magnesach zostało po raz pierwszy wykazane przez fizyka Heinricha Barkhausena w 1919 roku. Nawinął on cewkę na materiał o właściwościach magnetycznych i podłączył ją do głośnika. Wykazał, że zmiany magnetyzmu ujawniają się w postaci trzeszczącego dźwięku. Zjawisko to zostało nazwane szumem Barkhausena. Teraz naukowcy z Caltechu (California Institute of Technology) oraz University of British Columbia wykazali, że szum Barkhausena można zarejestrować nie tylko metodami klasycznymi, ale wykorzystując zjawiska z dziedziny mechaniki kwantowej. Ich osiągnięcie może znaleźć zastosowanie w budowie kwantowych czujników i innych urządzeń elektronicznych. Szum Barkhausena to wynik grupowego przełączania się malutkich magnesów. Przeprowadziliśmy ten sam eksperyment, który pokazywano wiele razy, ale wykorzystaliśmy w tym celu materiał kwantowy. Widzimy tutaj efekty kwantowe prowadzące do zmian w skali makroskopowej, wyjaśnia główny autor artykułu, Christopher Simon z Caltechu. Na gruncie fizyki klasycznej wspomniane przełączanie odbywa się dzięki temu, że cząsteczki chwilowo uzyskują wystarczająco dużo energii, by przeskoczyć ponad barierą potencjału. Amerykańsko-kanadyjski zespół wykazał właśnie, że zmiana kierunku spinów domen magnetycznych może dokonać się również za pomocą zjawiska kwantowego tunelowania. W procesie tym cząsteczki przedostają się na drugą stronę bariery potencjału, nie przeskakując nad nią. Naukowcy porównują to do piłeczki golfowej, która by znaleźć się po drugiej stronie wzgórza nie musiałaby przelatywać nad jego szczytem. W świecie kwantowym piłeczka nie musi przedostawać się nad wzgórzem, gdyż jest falą i jej część już jest po drugiej stronie wzgórza, dodaje Simon. Naukowcy wykorzystali fluorek litowo-holmowo-itrowy (LiHoxY1−xF4) schłodzony do temperatur od 90 mK do 580 mK (od 15 do 95 procent temperatury Curie). Wokół ferromagnetyka owinięto cewkę, włączyli pole magnetyczne i obserwowali krótkie skoki napięcia. Skoki te pokazywały, kiedy domeny zmieniały orientację spinu. Seria takich skoków napięcia to właśnie szum Barkhausena. Analizując go uczeni wykazali, że zmiana spinów miała miejsce również bez obecności zjawisk klasycznych i dowiedli, że odpowiedzialne były zjawiska kwantowe. « powrót do artykułu
  9. Model GPT-4 znacząco lepiej diagnozuje choroby oczu od lekarzy, którzy w chorobach takich się nie specjalizują, dowodzi eksperyment przeprowadzony przez naukowców z University of Cambridge. Co więcej, jego zdolności diagnostyczne oraz proponowane rozwiązania zbliżają się do poziomu lekarzy-specjalistów w tej dziedzinie. Takie wnioski płyną z badań, w ramach których porównano GPT-4 z lekarzami-stażystami nie specjalizującymi się w chorobach oczu, lekarzami w trakcie specjalizacji oraz ze specjalistami chorób oczu. GPT-4 oraz lekarzom przedstawiono 87 scenariuszy związanych z chorobami oczu i poproszono o postawienie diagnozy lub zaproponowanie leczenia poprzez wybór jednej z czterech opcji. Model językowy uzyskał znacznie więcej punktów niż stażyści, którzy nie specjalizowali się w chorobach oczu oraz bardzo podobną liczbę punktów co lekarze w trakcie specjalizacji i okuliści. Jedynie najlepsi z okulistów byli wyraźnie lepsi od GPT-4. Zdaniem naukowców, sztuczna inteligencja nie zastąpi lekarzy, ale może znacząco usprawnić pracę służby zdrowia. Modele językowe mogą służyć poradą, sugerować diagnozy i leczenie, szczególnie tam, gdzie dostęp do specjalistów jest ograniczony. Możemy wykorzystać takie systemy do selekcjonowania pacjentów z chorobami oczu, by stwierdzić, który przypadek jest pilny i wymaga natychmiastowej konsultacji ze specjalistą, z którym poradzi sobie lekarz ogólny, a w którym wizyta u lekarza jest zbędna, mówi główny autor badań, doktor Arun Thirunavukarasu. Modele językowe mogą doradzać też lekarzom ogólnym, którzy mają problemy z zapisaniem swoich lekarzy do specjalistów. Obecnie w Wielkiej Brytanii na konsultacje okulistyczne czeka się dłużej niż kiedykolwiek, dodaje. « powrót do artykułu
  10. Świat fizyki ma kolejne powody do radości. Ledwie poinformowaliśmy o rozpoczęciu napełniania argonem ProtoDUNE, a dowiedzieliśmy się, że amerykański Departament Energii zezwolił na rozpoczęcie kolejnej fazy prac nad Zderzaczem Elektron-Jon (Electron-Ion Collider, EIC), urządzeniem, które będzie badało najpotężniejsze oddziaływania podstawowe we wszechświecie, a w które zaangażowani są też Polacy. Przejście do etapu zwanego „critical decision 3A” pozwala na dokonywanie zakupów wyposażenia, usług i materiałów potrzebnych do powstania EIC. W pracach nad EIC biorą udział naukowcy z 8 polskich instytucji: Akademia Górniczo-Hutnicza, Instytut Fizyki Jądrowej PAN, Narodowe Centrum Badań Jądrowych, Politechnika Krakowska, Politechnika Warszawska, Uniwersytet Jagielloński, Uniwersytet Rzeszowski i Uniwersytet Warszawski, które utworzyły Konsorcjum „The Polish Electron-Ion Collider Group". W NCBJ od dawna prowadzone są badania teoretyczne nad oddziaływaniami silnymi, a Polacy należą do światowej czołówki ekspertów w tej dziedzinie. Zderzacz Elektron-Jon powstanie w Brookhaven National Laboratory na bazie istniejącego tam Relativistic Heavy Ion Collider. Głównym elementem konstrukcji EIC będzie dodanie do RHIC dodatkowego pierścienia tak, by urządzenie składało się z dwóch krzyżujących się akceleratorów. W jednym z nich będą krążyły elektrony, w drugim proton lub jądra atomów. Koszt budowy nowego akceleratora ma wynieść 1,7–2,8 miliardów dolarów i jest to jedyny akcelerator zderzeniowy, jakiego budowa jest rozważana w USA w kontekście kolejnych 50 lat. Można postawić pytanie, czy światowa nauka na pewno potrzebuje kolejnego akceleratora. Wbrew pozorom, nie ma zbyt wielu takich urządzeń. Obecnie na świecie pracuje jedynie kilka akceleratorów zderzeniowych. Elektrony z pozytonami są zderzane w VEPP-5 (Nowosybirsk, Rosja), SuperKEKB (Tsukuba, Japonia), Dafne (Frascati, Włochy), BEPC II (Pekin, Chiny), natomiast jedyne zderzacze hadronów to RHIC (Nowy Jork, USA) i LHC (Francja/Szwajcaria). W EIC ma dochodzić do zderzeń protonów z elektronami. Badanie wyników zderzeń pozwoli na poznanie struktury wewnętrznej protonu, ma dać odpowiedź na pytanie, skąd bierze się spin protonu oraz wyjaśnić właściwości gluonów. Obecnie bardzo słabo rozumiemy wewnętrzną strukturę protonów. Wiemy, że proton składa się z trzech kwarków połączonych oddziaływaniami silnymi. Jednak jako, że wkraczamy tutaj na pole fizyki kwantowej, pozostaje wiele niepewności. Wewnątrz protonu pojawiają się i znikają pary kwark-antykwark, ważną rolę odgrywają też gluony, łączące wszystko w całość. Jednak pozostaje jeszcze do wyjaśnienia wiele tajemnic. Na przykład trzy kwarki tworzące proton stanowią mniej niż 5% jego masy. Reszta masy pojawia się w jakiś sposób z energii wirtualnych kwarków i gluonów. Nie wiemy też, skąd się bierze spin protonu. Nie jest on prostą sumą spinów trzech kwarków. Znaczenie mają również gluony oraz orbitujące wokół siebie kwarki. Niewiele wiemy o samych gluonach. Zgodnie z niektórymi teoriami, łączą się one w pojedynczą falę kwantową. EIC znacznie bardziej nadaje się do tego typu badań, niż Wielki Zderzacz Hadronów, w którym protony zderzane są z protonami. W EIC wykorzystywane będą znacznie mniejsze od protonów elektrony, co da łatwiejsze do interpretacji wyniki. Obecny plan zakłada, że prace konstrukcyjne EIC rozpoczną się w kwietniu przyszłego roku, a w czerwcu 2025 zostanie wyłączony RHIC. EIC ma zacząć pracę w pierwszej połowie przyszłej dekady. « powrót do artykułu
  11. W miarę akumulowania się dwutlenku węgla w atmosferze, na Ziemi robi się coraz cieplej. Naukowcy z University of Washington postanowili zweryfikować scenariusze wzrost temperatur w zależności od wzrostu CO2. To właśnie zależność pomiędzy koncentracją dwutlenku węgla a ociepleniem, zwana czułością klimatu, jest elementem decydującym o tym, jak będzie wyglądała nasza przyszłość. Analizując, o ile chłodniejsza była Ziemia w przeszłości przy niskim stężeniu gazów cieplarnianych, możemy oszacować, o ile będzie cieplejsza przy wyższym ich stężeniu, mówi główny autor badań, Vince Cooper. Nowe badania nie zmieniają przewidywań scenariusza najbardziej optymistycznego, który mówi, że przy podwojeniu koncentracji CO2 w porównaniu z epoką przedprzemysłową średnie temperatury na Ziemi wzrosną o 2 stopnie Celsjusza, ani najbardziej prawdopodobnego, przewidującego wzrost o 3 stopnie. Jednak koryguje prognozy najbardziej pesymistyczne, zgodnie z którymi przy dwukrotnym wzroście koncentracji dwutlenku węgla, dojdzie do wzrostu temperatury o 5 stopni. Zdaniem uczonych z Seattle wzrost w najgorszym wypadku wyniesie 4 stopnie Celsjusza. Jednocześnie autorzy badań stwierdzają, że to, co dzieje się w ostatnich dekadach nie pozwala dobrze przewidywać przyszłości. Duży wpływ mają tutaj bowiem takie czynniki jak krótkoterminowe cykle klimatyczne czy zanieczyszczenie atmosfery. Wzorzec przestrzenny globalnego ocieplenia w ciągu ostatnich 40 latach nie wygląda tak, jak długoterminowy wzorzec przewidywany dla przyszłości. Niedawna przeszłość nie jest dobrą analogią przyszłości, wyjaśnia profesor Kyle Armour. Dlatego uczeni skupili się na maksimum ostatniej epoki lodowej sprzed 21 000 lat. Średnia temperatura na Ziemi była wówczas o 6 stopni niższa niż obecnie, a z badań rdzeni lodowych wiemy, że koncentracja CO2 wynosiła ponaddwukrotnie mniej niż dzisiaj i była na poziomie około 190 ppm. Wśród danych paleoklimatycznych mamy informacje o długich okresach, gdy średnie temperatury były znacznie wyższe lub znacznie niższe niż obecnie. Wiemy, że istniały w tych okresach wielkie wymuszenia klimatyczne, takie jak pokrywy lodowe czy gazy cieplarniane. Jeśli wiemy, jak zmieniały się temperatury w przeszłości i co powodowało te zmiany, wiemy, czego spodziewać się w przyszłości dodaje Cooper. Autorzy badań połączyli dane o dawnym klimacie – pochodzące m.in. z osadów oceaniczny, rdzeni lodowych czy pyłków roślin – z modelami klimatycznym i symulowali pogodę w czasie maksimum ostatniego zlodowacenia. Okazało się, że rozległe pokrywy lodowe chłodziły wówczas Ziemię nie tylko odbijając światło słoneczne. Doprowadziły one też do zmiany wzorców wiatrów i prądów morskich, przez co północne obszary Pacyfiku i Atlantyku były szczególnie pochmurne i chłodne. Chmury te odbijały dodatkowe światło słoneczne, pogłębiając chłodzący efekt pokryw lodowych. Innymi słowy, badacze wykazali, że dwutlenek węgla odegrał mniejszą niż sądzono rolę w nadejściu epoki lodowej. A to oznacza, ich zdaniem, że najbardziej pesymistyczne przewidywania dotyczące jego wpływu na ocieplenie, są mało prawdopodobne. « powrót do artykułu
  12. Już w najbliższy piątek 19 kwietnia w Narodowym Centrum Badań Jądrowych w Otwocku-Świerku odbędzie się Seminarium Finałowe kończące XIX edycję konkursu Fizyczne Ścieżki. Konkurs przeznaczony jest dla uczniów szkół ponadpodstawowych oraz 7 i 8 klas szkół podstawowych. W odróżnieniu od konkursów przedmiotowych i olimpiad Fizyczne Ścieżki to konkurs prac zaproponowanych przez uczniów. Konkurs odbywa się pod honorowym patronatem Ministra Nauki oraz Ministra Edukacji, a jego organizatorami są Narodowe Centrum Badań Jądrowych oraz Instytut Fizyki Polskiej Akademii Nauk. W tym roku na Konkurs zgłoszono 111 prac w trzech kategoriach: Praca Naukowa (29 prac), Pokaz Zjawiska Fizycznego (25 prac), Esej (57 prac). Spośród nich jury Konkursu wybrało najciekawsze, które będą prezentowane przez uczniów na tegorocznym Seminarium Finałowym. Po krótkiej prezentacji odbędzie się dyskusja, w trakcie której uczniowie odpowiadają na pytania jurorów. Po prezentacji i rozmowach z każdym z finalistów Jury Konkursu wyłoni najlepsze prace w trzech kategoriach finałowych, przyznając nagrody i wyróżnienia. Fundatorem nagród głównych są NCBJ, IF PAN a od kilku lat stypendia laureatom funduje Marszałek Województwa Mazowieckiego. Ponadto, wybrani laureaci Konkursu otrzymują tygodniowe staże w ośrodkach badawczych w Polsce (NCBJ, IF PAN), jak również bezwarunkowy wstęp na wybrane uczelnie wyższe (dotyczy wybranych kierunków na Uniwersytecie w Białymstoku, Uniwersytecie Jagiellońskim, Uniwersytecie Warszawskim i Politechnice Świętokrzyskiej) lub – w przypadku Politechniki Warszawskiej – maksymalnej ilość punktów z fizyki (bez względu na ocenę maturalną z tego przedmiotu) w rekrutacji na studia. XIX edycja Konkursu realizowana jest w ramach projektu „Organizacja XIX i XX edycji ogólnopolskiego konkursu fizycznego Fizyczne Ścieżki”. Projekt dofinansowany jest ze środków budżetu państwa, przyznanych przez Ministra Edukacji i Nauki w ramach Programu Społeczna Odpowiedzialność Nauki II. Szczegółowe informacje na temat Konkursu można znaleźć na stronie internetowej: fizycznesciezki.pl. « powrót do artykułu
  13. W CERN-ie rozpoczęło się napełnianie ProtoDUNE, prototypu Deep Underground Neutrino Experiment (DUNE), budowanego w USA gigantycznego wykrywacza neutrin. Napełnianie ciekłym argonem jednego z dwóch detektorów ProtoDUNE potrwa niemal dwa miesiące. Komora jest olbrzymia, ma rozmiary trzypiętrowego budynku. Napełnianie drugiej komory rozpocznie się jesienią. A wszystko po to, by przetestować technologie, które będą wykorzystywane w DUNE, rozciągającym się na 1300 kilometrów eksperymencie, w skład którego wchodzi zespół detektorów wielkości 7-piętrowych budynków mieszczących dziesiątki tysięcy ton argonu. Główne cele ProtoDUNE to: przetestowanie procesów produkcyjnych i upewnienie się co do jakości uzyskanych komponentów, by uniknąć wszelkich ryzyk związanych z ich produkcją na potrzeby dalekiego wykrywacza DUNE (DUNE FD); zweryfikowanie procedur instalacyjnych oraz przetestowanie wszystkich połączeń pomiędzy elementami; zweryfikowanie obliczeń dotyczących projektu i jego wydajności poprzez prowadzenie eksperymentów z wykorzystaniem promieni kosmicznych; zebranie danych eksperymentalnych i zbadanie fizycznych reakcji detektora. Jak łatwo zauważyć, w czasie wypełniania argonem, wnętrze detektora pozornie zmieniło kolor ze złotego na zielony. Dzieje się tak, gdyż światło LED wewnątrz detektora odbija się od jego ścian, wpada do argonu, gdzie następuje zmiana długości fali, dzięki czemu wszystko świeci na zielono. Jeśli ProtoDUNE wydaje się imponujący, to co można powiedzieć o o DUNE? Ten gigantyczny międzynarodowy eksperyment będzie składał się z trzech głównych elementów: źródła neutrin o wysokiej intensywności, które będą generowane w akceleratorze protonów w legendarnym Fermilab, bliskiego detektora oraz znajdującego się 1500 kilometrów dalej i położonego 1,5 kilometra pod ziemią potężnego detektora złożonego z czterech komór zawierających po 10 tysięcy ton argonu schłodzonego do temperatury -185 stopni Celsjusza. Long Baseline Neutrino Facility (LBNF) to najbardziej intensywne źródło neutrin na świecie. Budowany na jego potrzeby liniowy akcelerator protonów Proton Improvement Plan II – w który zainwestowała Polska – będzie generował wiązkę protonów o mocy 1–1,2 MW. W LBNF protony te, o energiach 60–120 gigaelektronowoltów (GeV), będą zamieniane w wiązkę pionów i kaonów, które z kolei rozpadną się do neutrin. Wiązka musi być skierowana w stronę znajdującego się pod ziemią dalekiego wykrywacza. Dlatego całość umieszczono w sztucznym wzgórzu o wysokości niemal 18 metrów. A do roku 2030 moc wiązki protonów zostanie zwiększona do 2,4 MW. Daleki wykrywacz, DUNE FD (od DUNE Far Detector) będzie składał się z czterech modułów, a w każdym z nich masa ciekłego argonu w przestrzeni roboczej – czyli tej objętości, z której analizowane będą dane – wyniesie co najmniej 10 000 ton. Każdy z tych modułów zostanie umieszczony w osobnym kriostacie o wymiarach 15x14x62 metry, w którym znajdzie się około 17 500 ton ciekłego argonu. Niedawno ogłoszono zakończenie prac nad kopaniem gigantycznych jaskiń na potrzeby DUNE FD. Zawierający neutrina strumień cząstek wystrzelony z położonego 1300 kilometrów dalej LBNF trafi w argonowe detektory, a interakcja atomu argonu z neutrinem prowadzi do pojawienia się naładowanych cząstek jonizujących atom, co pozowali naukowcom na odkrycie interakcji i dokonanie pomiarów. Dodatkowo pojawi się rozbłysk światła, który ułatwi wykrywanie interakcji. Zanim jednak strumień z LBNF dotrze do DUNE FD, najpierw trafi do bliskiego detektora, czyli DUNE ND (Near Detector), znajdującego się w odległości 574 metrów od źródła neutrin. DUNE ND będzie służył jako urządzenie kontrolne eksperymentu, ograniczając liczbę błędów i mierząc spektra energii początkowych, niepodlegających oscylacjom, neutrin mionowych i elektronowych oraz ich antyneutrin. Porównanie spektrów energii neutrin w pobliżu ich źródła, zanim jeszcze dojdzie do jakichkolwiek oscylacji, oraz porównanie z wynikami pomiarów w DUNE FD pozwoli na usunięcie wiele niepewnych elementów z obliczeń. Ponadto w skład DUNE ND wchodzi między innymi detektor z gazowym argonem. Porównanie pomiarów interakcji neutrin z gazowym i z ciekłym argonem to kolejny ze sposobów na zwiększenie precyzji uzyskanych wyników. DUNE to wielki międzynarodowy projekt, w którym udział bierze ponad 1400 naukowców i inżynierów z 36 krajów. Obok USA zaangażowane są Polska (Uniwersytet Wrocławski, Uniwersytet Warszawski, Politechnika Warszawska), Ukraina, Niemcy, Chiny, Chile, Kanada, Armenia, Brazylia, Francja, Wielka Brytania, Hiszpania, Szwecja, Indie, Iran, Izrael, Madagaskar, Peru czy Japonia. W pracach biorą udział najlepsze uczelnie na świecie, w tym MIT, Uniwersytety Harvarda, Oksfordzki, Cambridge oraz 8 kolejnych uczelni sklasyfikowanych na pierwszych 20 miejscach światowej czołówki. Eksperyment ma rozpocząć prace w 2028 roku. Będzie badał neutrina, najpowszechniej występujące cząstki we wszechświecie, o których najmniej wiemy. A ten brak wiedzy wynika z faktu, że neutrina niemal nie wchodzą w interakcje z innymi cząstkami. Wszystko jest dla nich przezroczyste. W każdej sekundzie nasze ciała przebijane są przez biliony neutrin. Neutrino może przelecieć przez całą planetę, nie zderzając się z żadną inną cząstką. DUNE ma badać neutrina i poznać ich naturę, by móc odpowiedzieć na trzy główne pytania. Różnice w zachowaniu pomiędzy neutrinami a antyneutrinami być może dadzą odpowiedź na pytanie, czy to neutrina są odpowiedzialne za to, że wszechświat składa się z materii. Pracujący przy eksperymencie naukowcy będą chcieli też zaobserwować rozpad protonu, zjawisko, którego dotychczas nie obserwowano. Jeśli go zarejestrują i zbadają być może uda się zrealizować marzenie Einsteina o stworzeniu zunifikowanej teorii dotyczącej materii i energii. DUNE przyjrzy się też potężnym strumieniom neutrin emitowanym przez eksplodujące gwiazdy. To zaś pozwoli na obserwowanie w czasie rzeczywistym – z uwzględnieniem oczywiście czasu dotarcia strumienia do nas – procesu tworzenia się gwiazd neutronowych i czarnych dziur. Koszty projektu są spore i ciągle rosną. W 2014 roku zakładano, że budowa LBNF i DUNE pochłonie mniej niż 1,9 miliarda USD i zostanie ukończona w 2028 roku. Obecnie koszty szacuje się na 3,2 miliarda dolarów, a to nie wszystko. Prace podzielono bowiem na dwa etapy i te 3,2 miliarda USD to koszt DUNE z 2 detektorami w DUNE FD. Dwa pozostałe zostaną dodane później. Obecne prognozy przewidują, że DUNE ruszy nie wcześniej niż w 2031 roku. Osoby zainteresowane szczegółami eksperymentu, powinny sięgnąć po dwuczęściowe opracowanie Deep Underground Neutrino Experiment (DUNE) Far Detector Technical Design Report [1, 2]. « powrót do artykułu
  14. Jeden z najbardziej znanych spektakli afrykańskiej przyrody, olbrzymie migracje antylop gnu, odchodzą w przeszłość. Kolejne drogi, płoty, rozlewające się miasta, farmy i stada udomowionych zwierząt w coraz większym stopniu zakłócają wędrówkę antylop. To zaś, jak alarmują naukowcy z Uniwersytetu w Kopenhadze, prowadzi do degeneracji genetycznej stad, które nie są w stanie swobodnie się przemieszczać. Masowa migracja ma olbrzymie znaczenie nie tylko dla antylop, ale też dla polujących na nie lwy, hieny czy krokodyle i odgrywa ważną rolę w całym ekosystemie. Jednak wielka migracja ma jeszcze miejsce tylko w jednym miejscu Czarnego Lądu. W innych zaś antylopy nie mogą ani wziąć udziału w wielkiej migracji, ani nawet swobodnie przemieszczać się w poszukiwaniu wody i pożywienia. Nikt dotychczas nie zauważył, że to ma wpływ na genom antylop gnu. Nasze badania jasno jednak pokazują, że genom populacji, które już nie migrują, ale w przeszłości to robiły, jest w gorszym stanie. A te zmiany niekorzystnie wpływają na długoterminowe szanse przetrwania takich populacji, mówi profesor Rasmus Heller. Stada, które nie mogą już migrować, są bardziej izolowane genetycznie, mają mniejsze zróżnicowanie genetyczne i częściej dochodzi w nich do chowu wsobnego. Będzie to prowadziło do mniejszej przeżywalności, zmniejszonej płodności oraz innych negatywnych skutków dla sprawności zwierząt, dodaje jeden z autorów badań, Xiaodong Liu. Antylopa gnu jako gatunek nie jest obecnie zagrożona. Jednak spadek zróżnicowania genetycznego oznacza, że populacje, które go doświadczają mają mniejsze szanse na poradzenie sobie z wyzwaniami stawianymi przez zmieniający się klimat, to zaś grozi ich zagładą. Całkowita liczba gnu utrzymuje się na dość stabilnym poziomie, jednak w wielu lokalnych populacjach obserwuje się silne spadki liczebności, a część populacji uległa już załamaniu. Jeszcze 150 lat temu wiele populacji brało udział w wielkich migracjach. Jednak już 40 lat temu pozostały tylko 2 duże migracje. Słynna Wielka Migracja Serengeti-Mara oraz migracja na Pustyni Kalahari na południu Afryki. Obecnie tej drugiej już nie ma. W ostatnich dekadach w Bostwanie zaczęto stawiać coraz więcej ogrodzeń, które miały uniemożliwić kontakt pomiędzy zwierzętami hodowlanymi a dzikimi. W wyniku tych działań populacja gnu w Botswanie spadła z około 260 000 w latach 70. do mniej niż 15 000 pod koniec lat 80. Dzisiaj ostatnią z wielkich migracji jest Serengeti-Mara, ale i ona jest zagrożona przez plany rozwoju kolei i dróg w regionie, w którym się odbywa, mówi Mikkel Sinding. Antylopy gnu muszą migrować, by utrzymać liczną populację. Mogą przetrwać w lokalnych niemigrujących stadach, ale wówczas ich liczebność dramatycznie spada. Obserwujemy to właśnie w tych częściach Kenii i Tanzanii, w których człowiek uniemożliwił im migrację, stwierdza statystyk Joseph O. Ogutu. Gnu, przez swoje migracje, są jednym z kluczowych gatunków utrzymujących zdrowie ekosystemu. Zgryzając roślinność utrzymują ją w zdrowiu, roznoszą substancje odżywcze i same są źródłem pożywienia dla drapieżników oraz padlinożerców. Gdy uniemożliwiamy im migrację, to zagrażamy nie tylko temu gatunkowi, ale też wielu innym. Nie wspominając już o tym, że migracje przyciągają olbrzymią liczbę turystów oraz wpływy zarówno do budżetu, jak i dla lokalnych społeczności, dodaje Ogutu. Uczeni z Kopenhagi mają nadzieję, że ich praca zachęci innych naukowców do zbadania wpływu zaburzeń migracji na genetykę poszczególnych gatunków. Te badania pokazują, że dzikie zwierzęta, dla których migracja jest kluczowym elementem biologii, mają problemy z przetrwaniem w świecie coraz bardziej zdominowanym przez człowieka. [...] Dotyczy to wielu gatunków migrujących w Afryce i wszędzie indziej. Zależy nam na tym, by gatunki te przetrwały więcej niż, powiedzmy, 50 lat, by się rozwijały i przetrwały znacznie dłużej, musimy powstrzymać spadek ich różnorodności genetycznej spowodowany niszczeniem ich naturalnych tras migracji, komentuje profesor Heller. « powrót do artykułu
  15. Meteoryty to skarbnica informacji o Układzie Słonecznym. A najważniejszym ich źródłem jest Antarktyka, z której pochodzi około 60% dotychczas znalezionych okruchów z kosmosu. Lodowy kontynent może zawierać 300 000 – 800 000 meteorytów. Stosunkowo łatwo je znaleźć, gdyż są widoczne na białej powierzchni, a ruch lodu powoduje ich gromadzenie się w tzw. „strefach osiadania meteorytów”. Badacze z Belgii i Szwajcarii apelują o przyspieszenie tempa zbierania meteorytów w Antarktyce, gdyż z powodu globalnego ocieplenia coraz szybciej znikają one z powierzchni lodu. Uczeni z Wolnego Uniwersytetu Brukselskiego i Politechniki Federalnej w Zurychu wykorzystali sztuczną inteligencję, obserwacje satelitarne i modele klimatyczne, co pozwoliło im stwierdzić, że wraz z każdym wzrostem średniej globalnej temperatury powierza o 1/10 stopnia Celsjusza, z powierzchni Antarktyki znika około 9000 meteorytów. Przy założeniu scenariusza wysokiej emisji gazów cieplarnianych, do roku 2050 może w ten sposób zniknąć 1/4, a do końca wieku 3/4 meteorytów. Jak ocenili Veronica Tollenaar i Harry Zekollari oraz ich zespół, już obecne temperatury powodują, że z powierzchni znika około 5000 meteorytów rocznie. To pięciokrotnie więcej, niż jest znajdowanych w Antarktyce. Stąd też apele naukowców o przyspieszenie zbierania cennego materiału. Utrata meteorytów Antarktyki jest podobna do utraty danych rdzeni lodowych pobieranych z cofających się lodowców. Gdy takie meteoryty znikną nam z pola widzenia, znika też część tajemnic wszechświata, stwierdził Zekollari. Meteoryty mają ciemny kolor, więc nagrzewają się bardziej niż otaczający je lód. Roztapiają więc lód – a im wyższa temperatura powietrza, tym łatwiej im to przychodzi – i znikają pod jego powierzchnią. Nie muszą wnikać głęboko, by stać się niewykrywalne, a więc i stracone dla nauki. Co więc można zrobić? Zdaniem autorów badań należy zintensyfikować misje poszukiwawcze, wykorzystać dostępne dane w celu identyfikacji nieznanych „stref osiadania meteorytów” oraz stworzyć lepsze mapy obszarów niebieskiego lodu, na których często znajdowane są meteoryty. « powrót do artykułu
  16. W 2022 roku Teleskop Horyzontu Zdarzeń (Event Horizon Telescope – EHT) dostarczył pierwszych zdjęć Sagittariusa A* (Sgr A*), supermasywnej czarnej dziury w centrum Drogi Mlecznej. Niedawno na nowych obrazach z EHT uwieczniono silne, zorganizowane pola magnetyczne układające się spiralnie od krawędzie Sgr A*. Struktura tych pól jest bardzo podobna do pól magnetycznych czarnej dziury M87* w galaktyce M87, co może wskazywać, że obecność silnych pól magnetycznych jest czymś typowym dla czarnych dziur. Sgr A* znajduje się w odległości około 27 000 lat świetlnych od Ziemi. Jej badania wykazały, że mimo iż czarna dziura w środku naszej galaktyki jest ponad tysiąc razy mniejsza i mniej masywna niż czarna dziura w M87, to podobieństwo pomiędzy oboma obiektami jest uderzające. Astronomowie zaczęli więc zastanawiać się, czy oprócz zewnętrznego wyglądu obie czarne dziury może jeszcze coś łączyć. Przyjrzeli się więc Sgr A* w świetle spolaryzowanym. Wcześniejsze badania M87* pokazały, że pola magnetyczne wokół dziury powodują, że wyrzuca ona potężne strumienie materiału z powrotem do otoczenia. Uczeni z EHT chcieli sprawdzić, czy tak jest też w przypadku Sgr A*. Odkrycie bardzo podobnych pól magnetycznych skłania do przypuszczeń, że i w przypadku naszej czarnej dziury istnieją takie strumienie. Dowiedzieliśmy się, że silne i uporządkowane pola magnetyczne to kluczowy element interakcji czarnych dziur z gazem i materią, które je otaczają, stwierdziła Sara Issaoun z Center for Astrophysics | Harvard & Smithsonian. « powrót do artykułu
  17. Po trzech latach badań naukowcy z Uniwersytetu Oksfordzkiego i Uniwersytetu Nowej Południowej Walii stworzyli pierwszy „World Cybercrime Index”, w którym uszeregowali kraje pod kątem zagrożenia, jakie stwarzają miejscowi cyberprzestępcy. Okazuje się, że największym źródłem cyberprzestępczości na świecie jest Rosja, na drugie miejsce zestawienia trafiła Ukraina, na trzecim znalazły się Chiny, następnie USA, a po nich Nigeria. Index opiera się na danych uzyskanych od 92 czołowych światowych ekspertów z całego świata, którzy specjalizują się w badaniu cyberprzestępczości. Ekspertów poproszono o przyjrzenie się pięciu rodzajom cyberprzestępczości. Były to: tworzenie produków i usług (np. pisanie szkodliwego kodu, udostępnianie botnetów, shakowanych systemów czy produkcja narzędzi hakerskich), ataki i wymuszenia (np. ataki typu DoS czy ransomware), kradzież danych i tożsamości (np. phishing, kradzieże kont bankowych czy kart bankowych), oszustwa internetowe (prowadzone np. na aukcjach internetowych czy za pomocą zhakowanych kont firmowych) oraz pranie brudnych pieniędzy (np. fałszowanie kart kredytowych, wykorzystywanie słupów do transakcji finansowych). Następnie eksperci do każdej z tych kategorii przypisali kraje, które są najbardziej znaczącym źródłem takiego rodzaju przestępczości oraz by uszeregowali te kraje pod kątem profesjonalizmu, umiejętności technicznych oraz wpływu miejscowych kryminalistów na światową cyberprzestępczość. W rankingu ogólnym udało się zebrać wystarczającą liczbę danych, by sklasyfikować aż 97 krajów. Bezapelacyjnie największym źródłem światowej przestępczości jest Rosja. Zajęła 1. miejsce zdobywając 58,39 punktów rankingu World Cybercrime Index (WCI Score). Ukraina zdobyła 36,44 punkty, Chiny uzyskały 27,86 pkt, USA przypadło ich 25,01, a Nigerii 21,28. Na kolejnych miejscach znalazły się Rumunia (14,83), Korea Północna (10,61), Wielka Brytania (9,01), Brazylia (8,93) oraz Indie (6,13). W niechlubnej statystyce Polska znalazła się na 16. pozycji z 2,22 pkt. Oprócz 10 wymienionych wcześniej krajów wyprzedzają nas też Iran, Białoruś, Ghana, RPA, Mołdowa oraz Izrael. Zaraz za nami uplasowały się Niemcy, Holandia i Łotwa. Stawkę krajów, dla których udało się zdobyć wystarczającą ilość danych, zamykają zaś Azerbejdżan (0,13 pkt.), Dominikana, Luksemburg, Japonia, Mali, Syria, Gwinea-Bissau i Egipt (0,08 pkt.). « powrót do artykułu
  18. Grove, przedmieścia miasteczka Wantage w Wielkiej Brytanii, położone są w miejscu, które było zamieszkane od epoki brązu. Trafiono tam na pozostałości rzymskiej willi i liczne artefakty. A najciekawszymi z nich jest zestaw ściśle zwiniętych pasków ołowiu. Po rozwinięciu okazało się, że przypominają one rzymskie tabliczki złorzeczące i, chociaż wydają się niezapisane, to w połączeniu ze znalezionymi w willi miniaturowymi siekierkami wotywnymi, sugerują, że na terenie posiadłości znajdowało się miejsce rytualne bądź pielgrzymkowe. Odkryte zabytki świadczą o tym, że rzymska aktywność w tym miejscu trwała przez niemal całą obecność Imperium Romanum na Wyspach. Być może rozpoczęła się już w I wieku, a zakończyła może dopiero na początku wieku V. Archeolodzy znaleźli tam wysokiej jakości fragmenty tynku zdobione złożonymi motywami, w tym roślinnymi, pozostałości mozaiki, kafle typowe dla hypocaustum (system centralnego ogrzewania), ceramikę terra sigillata, setki monet, pierścienie, brosze oraz sprzączkę pasa z końskimi głowami datowaną na lata 350–450. Wydaje się, że pierwsze budynki powstały tutaj już w I wieku, a większość pochodzi z II wieku. Z czasem rozwinęły się w willę. Widoczne są ślady olbrzymiej wewnętrznej kolumnady, która mogła stać w budynku o powierzchni 500 metrów kwadratowych. Budynek ten przylega do willi, której korytarz biegnie wzdłuż frontu budynku, dając dostęp do poszczególnych pomieszczeń, oraz łączy główny budynek ze skrzydłami. To miejsce jest znacznie bardziej złożone niż przeciętne wiejskie stanowisko archeologiczne. Oczywistym jest, że znajdowało się tutaj ważne centrum lokalnej aktywności, która rozciągała się od epoki brązu po późny okres rzymski, stwierdziła Francesca Giarelli z Red River Archeology Group. Prace wykopaliskowe wciąż trwają, ale już widać, że dokonano ważnego odkrycia. Oprócz imponujących rozmiarów i zróżnicowania całej struktury, bardzo ważne są dowody na ciągłą rzymską aktywność w późnym IV, a może nawet w V wieku. Najlepszym tego dowodem jest sprzączka do pasa typu 1B, ozdobiona głowami koni. Takie artefakty są charakterystyczne nie tylko dla rzymskiej elity wojskowej, ale znajduje się je również we wczesnych pochówkach anglosaskich. Archeolodzy trafili też na ślady systematycznych przebudów, do których dochodziło prawdopodobnie pod koniec epoki rzymskiej. Jednym z takich przykładów może być stopiony ołów na środku podłogi jednego z pomieszczeń, co wskazuje na zmianę przeznaczenia materiału budowlanego. Podobne zjawisko obserwuje się w wielu rzymskich wielkich willach na terenie Brytanii, których przeznaczenie zmieniało się z czasem z wystawnego miejsca zamieszkania elity w miejsce nastawione na produkcję. Naukowcy wciąż badają ołowiane zwoje i miniaturowe wotywne siekierki. Podobne artefakty znane są w rzymsko-brytyjskich miejsc kultu i uważa się je za przedmioty wotywne. « powrót do artykułu
  19. Działalność człowieka zmienia planetę na wiele sposobów, a jednym z efektów tej zmiany jest bardzo szybki spadek populacji owadów. Specjaliści mówią, że mamy do czynienia z szóstym wymieraniem i próbują określić przyczynę tego zjawiska. Naukowcy z Instytutu im. Maxa Plancka w Jenie zauważyli, że w obecności zbyt dużego stężenia ozonu – takiego jakie występuje w wielu miejscach podczas gorących letnich dni – dochodzi do zniszczenia feromonów muszek owocowych, co znacząco zakłóca ich cykl rozrodczy. Zaczynają rozmnażać się międzygatunkowo lub próbują zapładniać przedstawiciela własnej płci. Niszczenie habitatów, intensywne rolnictwo, używanie pestycydów czy zanieczyszczenie światłem to jedne z wielu przyczyn szybkiego spadku liczby owadów. Rosnąca ilość CO2 w powietrzu powoduje spadek wartości odżywczych roślin, co przyczynia się do spadku liczebności wielu gatunków prostoskrzydłych (np. koniki polne). Liczebność owadów zmniejsza się od dziesięcioleci, a szczególnie zła sytuacja panuje w Europie. Teraz dowiadujemy się, że problemem może być też ozon, którego naturalna produkcja rośnie wraz ze wzrostem temperatury. Nanji Jiang, Bill Hansson i Markus Knaden już wcześniej dowiedli, że ozon rozrywa wiązania pomiędzy atomami węgla, które znajdują się w większości owadzich feromonów. Wskutek tego samce muszek owocowych nie są w stanie odróżnić samicy od innego samca i próbują rozmnażać się z obiema płciami. Podczas swoich najnowszych badań naukowcy postanowili sprawdzić, czy poprzez niszczenie feromonów ozon nie powoduje przypadkiem, że dochodzi do krzyżowania się gatunków. Chcieliśmy sprawdzić, czy zwiększony poziom ozonu nie znosi granic międzygatunkowych i jaki jest wpływ możliwej hybrydyzacji. Z wcześniejszych eksperymentów wiemy, że ozon może silnie zaburzyć wybór partnera przez samce. Nasze obecne badania wykazały, że nawet w obecności lekko podwyższonych poziomów ozonu, które obecnie powszechnie występują w wielu miejscach na Ziemi, dochodzi do łączenia się muszek z blisko spokrewnionymi gatunkami, co może przyczyniać się do spadku populacji owadów, gdyż takie hybrydowe potomstwo jest bezpłodne, mówi Nanji Jiang. Podczas eksperymentów naukowcy wykorzystali cztery gatunku z rodzaju Drosophila. Drosophila melanogaster oraz Drosophila simulans to gatunki kosmopolityczne, występujące na całym świecie. Z kolei Drosophila secheillia i Drosophila mauritiana są endemiczne dla wysp – odpowiednio – Seszeli i Mauritiusu. Gatunki te używają bardzo podobnych feromonów, ale każdy miesza je w specyficzny dla siebie sposób. Naukowcy przez dwie godziny wystawili muszki na działanie takich stężeń ozonu, jakie panują w miastach w bardzo upalne dni. Następnie samice miały okazję wybrać samce – z własnego i obcego gatunku – z którymi się rozmnożą. Po kilku godzinach samice oddzielono od samców i pozwolono im złożyć jajka. Uczeni przyjrzeli się młodym, które wykluły się z jaj i stwierdzili, że przy podwyższonym stężeniu ozonu znacznie częściej dochodzi do hybrydyzacji i pojawienia się bezpłodnego potomstwa, niż przy standardowych poziomach tego gazu. Wyniki badań zaskoczyły naukowców. Spodziewali się nieco większego odsetka hybrydyzacji, ale nie aż tak dużego, jak zaobserwowany. Muszki owocówki polegają bowiem nie tylko na feromonach, ale również odróżniają swój gatunek na podstawie specyficznego brzęczenia skrzydeł oraz wskazówek wizualnych. Byliśmy zaskoczeni, że w podwyższonym stężeniu ozonu niektóre samice były całkowicie niezdolne do odróżnienia samców własnego gatunku pomimo istniejących wskazówek dźwiękowych i wizualnych, mówi Bill Hansson. Owad kierują się zapachem nie tylko podczas wybierania partnera. Używają feromonów do komunikacji, ostrzegania się o niebezpieczeństwie, owady społeczne – jak mrówki – wykorzystują feromony do nawigowania w otoczeniu czy rozpoznawania mrówek z tego samego gniazda. Wiele z tych feromonów zawiera podwójne wiązania pomiędzy atomami węgla. Autorzy badań obawiają się, że coraz częstsze upalne dni i związane z tym zwiększone stężenie ozonu, mogą zaburzyć komunikację pomiędzy owadami. Planują więc przeprowadzenie kolejnych eksperymentów. Chcą się przyjrzeć, między innymi, mrówkom. « powrót do artykułu
  20. Encyklopedia Britannica to niewątpliwie jeden z najważniejszych zbiorów wiedzy encyklopedycznej. Dlatego, gdy Wydawnictwo Kropka zapytało, czy nie chcielibyśmy zrecenzować "Infografiki", książki z rodziny "Britannica. Nowa encyklopedia dla dzieci", nie mogliśmy odmówić. Byliśmy ciekawi, jak twórcy encyklopedii oraz wydawnictwo poradzili sobie z wymagającymi najmłodszymi klientami. Trafił do nas imponujący, świetnie wykonany tom. Kolorowe, twarde okładki kryją ponad 300-stronicową szytą książkę, która z pewnością dobrze zniesie traktowanie przez dzieci. Okładka to przedsmak tego, co czeka nas w środku. Wspaniałe grafiki przekazują dokładnie to, co autorzy przekazać chcieli. Nie musimy domyślać się, co widać na poszczególnych rysunkach, a twórcy użyli stonowanych kolorów, które nie rozpraszają, pozwalając z jednej strony skupić się na obrazkach, z drugiej zaś – na treści. No i ta treść... Olbrzymia ilość informacji, podanych tak, że ani nie można poczuć się przytłoczony, ani nie można się nudzić. I prawdę mówiąc, mimo że „Infografika” kierowana jest do dzieci, to kompendium wiedzy dla wszystkich. Czego tam nie ma... Dowiemy się, jakie nasiono jest najcięższe na świecie, gdzie i kiedy nastąpiły największe opady śniegu w ciągu 12 miesięcy, który mięsień w ciele człowieka jest największy i jaka jest temperatura powietrza w pobliżu pioruna (podpowiemy: jest znacznie cieplej niż na powierzchni Słońca). Książkę podzielono na 6 części. W 1. – Kosmos – poczytamy o planetach, czarnych dziurach, asteroidach czy mgławicach. „Lądy, wody i niebo” poświęcona jest wulkanom, piorunom, skałom oraz głębinom oceanicznym. Dziecko interesuje się zwierzętami? Jest o zwierzętach. Tych najszybszych, najsilniejszych, najmniejszych czy najbardziej wytrzymałych. W „Ciele człowieka” są informacje o mięśniach, kościach, mózgu czy kupie. A niejedno dziecko z pewnością chciałby się dowiedzieć ile wanien glutów produkuje w ciągu swojego życia. Są też infografiki o robotach, samochodach, książkach, sztuce i największych wynalazkach w historii. Ciekawość zaspokoją również miłośnicy drzew, grzybów czy skamieniałości. Każda z części kończy się przedstawieniem jednego z naukowców, którzy czuwali nad jakością merytoryczną książki oraz krótkim quizem, w którym możemy sprawdzić swoją wiedzę. Za każdym razem, gdy otwieramy „Infografikę” trafiamy na coś, o czym nie mieliśmy pojęcia. Na przykład o tym, że żyrafy śpią 40 minut na dobę i to na stojąco, a ludzie mają 35% DNA wspólnego z żonkilem. Dzięki niej dowiedzieliśmy się, że żuk gnojowy jest w stanie ciągnąć ciężar o 1110 razy większy od jego własnej masy, a najtwardszą naszą kością, jest kość skalista, stanowiąca część kości skroniowej. Autorzy „Infografiki” to uznana specjalistka od projektowania i wizualizacji danych Valentina D'Efilippo, pisarz, dziennikarz i redaktor „Britannica Magazine” Andrew Pettie oraz dziennikarz Conrad Quilty-Harper. Wspomagali ich dziennikarze specjalizujący się w gromadzeniu i analizie danych, a nad całością czuwało sześcioro naukowców z USA, Wielkiej Brytanii i Australii.
  21. Opieka nad osobami starszymi w domu jest ważnym zadaniem, które wymaga odpowiedniego przygotowania, zarówno emocjonalnego, jak i praktycznego. Zapewnienie komfortu oraz bezpieczeństwa seniorom pozwala im na zachowanie godności i możliwie największej samodzielności. Poniżej przedstawiamy kilka kluczowych kwestii, które warto rozważyć, organizując opiekę domową dla osób starszych. Ocena potrzeb seniora Pierwszym i fundamentalnym krokiem jest dokładna ocena potrzeb osoby starszej. Warto skonsultować się z lekarzem, który pomoże określić stan zdrowia seniora oraz ewentualne wymagania medyczne. Należy także rozważyć potrzeby psychologiczne i społeczne, takie jak wsparcie w utrzymaniu kontaktów z rodziną i przyjaciółmi czy zainteresowań, które sprawiają, że życie seniora jest pełniejsze. Przystosowanie przestrzeni życiowej Bezpieczeństwo jest priorytetem, dlatego ważne jest przystosowanie domu w sposób, który minimalizuje ryzyko wypadków. Instalacja poręczy, usunięcie progów, zapewnienie odpowiedniego oświetlenia i pozbycie się luźnych dywanów to tylko niektóre z działań, które mogą znacząco zwiększyć bezpieczeństwo. Ponadto, warto zainwestować w sprzęty ułatwiające codzienne czynności, jak podwyższone toalety czy krzesła prysznicowe. Organizacja opieki medycznej i wsparcia Regularne wizyty lekarza są kluczowe, ale równie ważne jest zorganizowanie dostępu do leków i możliwość szybkiego kontaktu z pomocą medyczną w razie nagłych wypadków. Warto rozważyć również zaangażowanie profesjonalnych opiekunów osoby starszej, którzy mogą zapewnić wsparcie w codziennych czynnościach, które senior może już wykonywać z trudem, takich jak mycie się, ubieranie czy przygotowywanie posiłków. Wsparcie emocjonalne Opieka nad osobami starszymi to nie tylko wsparcie fizyczne, ale także emocjonalne. Seniorzy często czują się izolowani, szczególnie jeśli ich stan zdrowia ogranicza możliwości wychodzenia z domu. Regularne rozmowy, wspólne spędzanie czasu, słuchanie ich opowieści i wspomnień może znacząco wpłynąć na ich samopoczucie. Dobrym rozwiązaniem jest zatrudnienie opiekunki nad osobą starszą, która w dużym stopniu zaspokoi potrzebę seniora w tym względzie. Wykorzystanie technologii Nowoczesne technologie mogą znacznie ułatwić opiekę nad seniorami. Systemy monitorujące, które informują o potencjalnych niebezpieczeństwach, aplikacje pozwalające na przypominanie o lekach czy nawet proste rozwiązania umożliwiające video rozmowy z rodziną to tylko niektóre z narzędzi, które mogą być pomocne. Planowanie przyszłości Ważne jest, aby nie tylko skupiać się na bieżących potrzebach seniora, ale także planować przyszłość. Rozmowy na temat opieki długoterminowej, życzenia dotyczące opieki paliatywnej czy nawet sprawy succession powinny być omówione z seniorem, co zapewni, że jego życzenia będą respektowane. Opieka nad osobami starszymi w domu wymaga planowania, empatii i zaangażowania. Kluczem jest stworzenie bezpiecznego, komfortowego środowiska, które umożliwi seniorom jak najdłuższe, samodzielne życie. Ważne jest, aby pamiętać o regularnej ocenie potrzeb i dostosowywaniu opieki w miarę zmieniających się okoliczności. Jeśli nie wiesz jak się do tego zabrać rozważ zatrudnienie opiekunki nad osobą starszą: https://veritas-polska.pl/ « powrót do artykułu
  22. Z ujawnionego właśnie raportu dowiadujemy się, że doktor Ranga Dias, naukowiec z University of Rochester, fałszował wyniki prowadzonych przez siebie badań. O naukowcu stało się głośno przed czterema laty, gdy opublikował na łamach Nature pracę, w której donosił o uzyskaniu nadprzewodnictwa w temperaturze pokojowej. Swoje stwierdzania powtórzył trzy lata później na łamach kolejnego artykułu. Szybko jednak pojawiły się wątpliwości co do uzyskanych wyników i uczciwości Diasa. W związku z tymi wątpliwościami Nature wycofało oba artykuły. Teraz poznaliśmy poufny 130-stronicowy raport ze śledztwa prowadzonego przez macierzystą uczelnię Diasa. Śledztwo, zakończone 8 lutego, prowadzone było przez 10 miesięcy przez doktorów Petera Celliersa i Mariusa Millota z Lawrence Livermore National Laboratory oraz Marcusa D. Knudsona z Sandia National Laboratories, którzy do tego zadania zostali wynajęci przez University of Rochester. Uczelnia zdecydowała się na wszczęcie śledztwa po tym, jak zaczęła otrzymywać od naukowców informacje o prawdopodobnych nieprawidłowościach. W sierpniu 2021 roku skargę taką złożył doktor Jorge Hirsch, profesor na Uniwersytecie Kalifornijskim w San Diego, pół roku później pojawiła się skarga profesora Dirka van der Marela z Uniwersytetu w Genewie, a następnie kolejne informacje od doktora Hirscha. Wszystkie one wskazywały na możliwość fałszowania danych przez Diasa. Śledczy przygotowali poufny raport, który został obecnie ujawniony, gdyż znalazł się w aktach pozwu sądowego wytoczonego przez Diasa jego macierzystej uczelni. Diasowi nie spodobało się, że uniwersytet odsunął go od nauczania i pracy badawczej. Gdy uczelnia nie uwzględniła jego skargi, Dias wystąpił do sądu. Z ujawnionego raportu dowiadujmy się, że w śledztwo włączyła się Narodowa Fundacja Nauki, jeden z głównych sponsorów amerykańskiej nauki, która w ramach programu CAREER przyznała Diasowi grant w wysokości 790 000 USD. Śledczy dowodzą, że Dias sfałszował dane nie tylko na potrzeby dwóch artykułów opublikowanych w Nature, ale również dwóch kolejnych. Jeden z nich ukazał się w Chemical Communications, a drugi w Physical Review Letters. W raporcie opisano, w jaki sposób Dias przez lata oszukiwał współpracowników, naukowców i wydawców pism naukowych. Komitet Śledczy zaleca, by [Diasowi] nie zezwalać na nauczanie studentów, bycie ich mentorem oraz jakiekolwiek nadzorowanie studentów, czy to w sali wykładowej czy laboratorium badawczym, by nie mógł nadzorować badań ani prowadzić niezależnych badań czy to finansowanych przez agendy rządowe, czy instytucje prywatne. Na Uniwersytecie stanowisko adiunkta wiąże się z zaufaniem, adiunkt jest wzorem, mentorem i może stać na czele zespołu badawczego. Ujawnione dowody wskazują, że [Diasowi] nie można ufać, był złym wzorem, złym mentorem i źle kierował zespołem badawczym. Wśród zebranych dowodów są i takie, które wskazują, że [Dias] lekceważył wątpliwości studentów, a jego postępowanie od rozpoczęcia śledztwa wskazuje na pewne zachowania wobec byłych już studentów, które mogą zostać uznane za prześladowanie. [Dias] oszukiwał też innych naukowców i redaktorów oraz wydawców pism naukowych, czytamy w raporcie. Okazało się, że Dias uciszał wątpliwości studentów i współpracowników tłumacząc je skomplikowanym procesem przetwarzania danych, zwlekał bądź odmawiał zaprezentowania surowych danych, kłamał odnośnie miejsca i czasu wykonywania pomiarów. Mimo, że nie było to przedmiotem śledztwa, w raporcie odnotowano liczne przypadki plagiatów, jakich dopuścił się Dias. Okazało się, że we własnym doktoracie przekopiował on fragmenty 18 różnych prac naukowych. Przypomnieli też, że już w 2017 roku, gdy Dias pracował na Uniwersytecie Harvarda, jego praca opublikowana w Science została ostro skrytykowana przez środowisko naukowe i niemal żaden z recenzentów nie zgodził się z wyciągniętymi w niej wnioskami. Obecnie University of Rochester próbuje zgodnie z prawem zwolnić Diasa z pracy jeszcze przed zakończeniem kontraktu podpisanego z nim na rok akademicki 2024/2025. Ma również zamiar wystąpić przeciwko niemu do sądu. « powrót do artykułu
  23. Międzynarodowy zespół naukowy, prowadzony przez ekspertów z Instytutu Maxa Plancka w Marburgu i Uniwersytetu w Marburgu natrafił na pierwszą regularną molekułę w naturze. Molekuła ta to syntaza cytrynianowa wytwarzana przez cyjanobakterie. Spontanicznie łączy się ona we wzór zwany trójkątem Sierpińskiego. Badania sugerują, że ten niezwykły kształt może być ewolucyjnym wypadkiem. W naturze znamy wiele mniej lub bardziej regularnych wzorów. Widzimy je w płatkach śniegu czy kalafiorach romanesco. Pojedyncze ich części przypominając całość. Kształty, które powtarzają się od najmniejszej skali po największą, zwiemy fraktalami. Jednak bardzo rzadko zdarzają się naturalne fraktale, które są niemal identyczne w każdej ze skal. Molekuły też posiadają pewną regularność, jednak tylko w niektórych skalach. Dotychczas nie znaliśmy żadnej molekuły, która byłaby fraktalem. Teraz naukowcy trafili na pierwszą taką molekułę. Zauważyliśmy tę strukturę zupełnie przypadkiem i nie mogliśmy uwierzyć w to, co pokazał nam mikroskop elektronowy. Ta proteina tworzy piękne trójkąty i w miarę jak się powiększa widzimy coraz większe i większe trójkątne wolne przestrzenie. Takiego zjawiska nie widzieliśmy nigdy w przypadku żadnej proteiny, mówi główna autorka badań, profesor Franziska Sendker. Uczeni przystąpili więc do badania, w jaki sposób tak niezwykła struktura mogła powstać. Poprosili o pomoc biologów strukturalnych z Uniwersytetu w Marburgu. To była jedna z najtrudniejszych, ale i najbardziej fascynujących, struktur, nad jakimi pracowałem, mówi Jan Schuller, którego zespół pomógł rozwiązać zagadkę fraktalnej molekuły. Badania pozwoliły określić, w jaki sposób powstał niezwykły kształt. Proces samoorganizowania się białek jest wysoce symetryczny. Poszczególne łańcuchy przyjmują takie samo ułożenie względem łańcuchów sąsiednich. Zawsze prowadzi to do pojawienia się gładkiej struktury w dużej skali. Takie białko nie jest fraktalem, nie ma dużej skali jego charakterystycznej strzępiastej struktury. Kluczem do powstania fraktalnej molekuły było złamanie tej symetrii. W syntazie cytrynianowej cyjanobakterii każdy z indywidualnych łańcuchów wchodził w nieco inne interakcje z sąsiadami, w zależności od pozycji we fraktalu. Proces samoorganizacji jest ewolucyjnie wykorzystywany do regulowania enzymów. Jednak w przypadku fraktalnej molekuły nie wydaje się, by kształt miał tu jakieś znaczenie, mówi biolog ewolucyjny Georg Hochberg. Gdy naukowcy zmanipulowali cyjanobakterie tak, by ich syntaza cytrynianowa nie była fraktalem, bakteriom w żaden sposób to nie przeszkadzało i rozwijały się całkowicie normalnie. Dlatego też badacze wysunęli hipotezę, że pojawienie się fraktala to nieszkodliwy wypadek ewolucyjny. Takie wypadki mogą mieć miejsce, gdy powstająca struktura nie jest zbyt trudna do stworzenia. Naukowcy postanowili przetestować tę hipotezę i wykorzystali metody statystyczne do sprawdzenia, jak wyglądało badane białko przed milionami lat. Następnie w laboratorium stworzyli takie białko i obserwowali jego ewolucję. Okazało się, że w wyniku niewielkiej liczby mutacji fraktalna syntaza cytrynianowa powstała w wielu liniach cyjanobakterii i szybko z nich zniknęła. Przetrwała tylko w pojedynczej linii. Chociaż nigdy nie będziemy całkowicie pewni, jak doszło do pojawienia się takie kształtu, to molekuła ta posiada wszystkie cechy struktury biologicznej, która pojawiła się przypadkiem bez widocznej przyczyny, tylko dlatego, że w łatwy sposób mogła się pojawić, wyjaśnia doktor Georg Hochberg, kierownik zespołu naukowego z Instytutu Mikrobiologii Lądowej im. Maxa Plancka w Marburgu. « powrót do artykułu
  24. Po niespodziewanym ponownym odnalezieniu w 2022 r. badacze opublikowali swoje ustalenia na temat jednego z najrzadszych i najsłabiej poznanych ptaków na świecie - zapylaka kolumbijskiego (Campylopterus phainopeplus). Artykuł naukowców z American Bird Conservancy (ABC), Narodowego Uniwersytetu Kolumbii, a także organizacji SELVA, ProCAT Colombia oraz World Parrot Trust ukazał się w bioRxiv i daje wgląd w nieudokumentowane wcześniej zachowania związane z żerowaniem, śpiewem oraz zalotami krytycznie zagrożonego kolibra. Nasze odkrycia pokazują, że ten wspaniały ptak może być doskonałym przykładem mikroendemizmu. Wydaje się bowiem, że występuje na ograniczonym obszarze w obrębie najważniejszego na świecie ośrodka kontynentalnego endemizmu – podkreśla główny autor badań Esteban Botero-Delgadillo. Naukowiec dodaje, że bardzo się cieszy, że badania mogą być kontynuowane, bo nadal mamy spore braki w wiedzy na temat biologii czy dystrybucji gatunku. Uzupełnienie tych luk pozwoli odpowiednio zaplanować długoterminową strategię ochrony zapylaka kolumbijskiego, który zamieszkuje Sierra Nevada de Santa Marta - masyw górski w północnej Kolumbii. Naukowcy stracili zapylaka z oczu na 64 lata. W roku 2010 został on sfotografowany i znowu zniknął. Odnalazł go w 2022 roku Yurgen Vega. Chwila, w której zobaczyłem zapylaka była niezwykle emocjonalna. Nie mogłem uwierzyć w to, co widzę. Adrenalina, emocje, trudno opisać to, co wówczas czułem, wspomina badacz. Siedem miesięcy później niezależnych obserwacji dokonali profesorowie Carlos Esteban Lara i Andrés M. Cuervo z Narodowego Uniwersytetu Kolumbii (Universidad Nacional de Colombia). Gatunek ten znajduje się na liście „10 najbardziej poszukiwanych zaginionych gatunków ptaków” społecznościowej inicjatywy Search for Lost Birds, która jest wspólnym dziełem BirdLife International, American Bird Conservancy oraz Re:Wild, nic więc dziwnego, że organizacje te natychmiast włączyły się w poszukiwania i badania gatunku. Znalezienie zapylaka kolumbijskiego było możliwe wyłącznie dzięki wspólnemu działaniu lokalnych społeczności, uczelni oraz lokalnych i międzynarodowych organizacji, stwierdza profesor Lara. Współpraca ta zaowocowała prowadzonym przez 16 miesięcy poszukiwaniem zapylaków oraz badaniem ich terytorium i zachowania. Uzyskane dane, w połączeniu z danymi historycznymi wskazują, że gatunek ten nie migruje, jak wcześniej sądzono, na obszary o innej wysokości nad poziomem morza. Żyje na jednym terenie i prawdopodobnie jest ograniczony do południowo-wschodnich stoków Sierra Nevada de Santa Marta wzdłuż basenu rzeki Guatapurí. Badania wskazują również, że terytoria samców, tokowiska i prawdopodobnie gniazda zakładane przez samice są silnie powiązane z obecnością lasów łęgowych i cieków wodnych, więc dla przetrwania gatunku konieczne jest zachowanie tego typu habitatów. « powrót do artykułu
  25. We wrześniu bieżącego roku wystartuje wyjątkowa misja Europejskiej Agencji Kosmicznej. Jej celem jest zademonstrowanie technologii precyzyjnych lotów w formacji, w celu generowania sztucznego zaćmienia Słońca na potrzeby badania jego korony. Jeśli misja się powiedzie, zyskamy nie tylko świetne narzędzie do badania atmosfery naszej gwiazdy, ale również technologię, która pozwoli na prowadzenie jeszcze bardziej ambitnych przedsięwzięć związanych z precyzyjnie pozycjonowanymi formacjami pojazdów w przestrzeni kosmicznej. Misja Proba-3 będzie składała się z dwóch pojazdów – Coronograph i Occulter. Zostaną one umieszczone na eliptycznej orbicie (apogeum 60 530 km, perygeum 600 km) wokół naszej planety. I stamtąd będą badały Słońce. Oba pojazdy będą przemieszczały się w odległości 144 metrów od siebie, pracując jak jedno wielkie urządzenie. Occulter będzie zasłaniał gwiazdę, dzięki czemu Coronograph zyska możliwość badania jej korony. Zaćmienia Słońca to okazja do prowadzenia wielu badań. To właśnie podczas całkowitego zaćmienia, które miało miejsce w 1868 roku w Indiach, francuski astronom odkrył hel w chromosferze Słońca, a podczas zaćmienia w 1919 roku Dyson i Eddington przeprowadzili jeden z pierwszych testów ogólnej teorii względności Einsteina, badając – z Sobral w Brazylii i Wyspy Książęcej w Afryce Zachodniej – różnice w ugięciu światła odległych gwiazd w polu grawitacyjnym Słońca. Skoro więc zaćmienia są tak przydatne dla nauki, dlaczego nie wywołać sztucznego zaćmienia na potrzeby konkretnego instrumentu naukowego? Robi się to od dawna, a teraz ESA spróbuje tej sztuki za pomocą pojazdów latających w formacji. Osiągnięcie tego będzie niezwykle trudne, gdyż najmniejsze odchylenie od wymaganych parametrów spowoduje, że eksperyment się nie uda. Prace nad misją były niezwykle długotrwałe. Podjęło się ich konsorcjum mniejszych państw członkowskich ESA pod kierunkiem Hiszpanii i Belgii, wyjaśnia Dietmar Pilz, dyrektor ds. technologii, inżynierii i jakości ESA. Pomysł na precyzyjne wywołanie sztucznego zaćmienia przez dwa pojazdy w kosmosie nie jest nowy. Próbowano tego już podczas programu Sojuz-Apollo. Celem Probe-3 jest rutynowe przesłanianie Słońca jednorazowo nawet przez 6 godzin w czasie pełnego okrążenia Ziemi, które będzie trwało 19 godzin i 36 minut. Korona słoneczna to bardzo interesujący obszar. Jest ona znacznie cieplejsza (ma ponad 1 milion stopni Celsjusza) niż powierzchnia Słońca (5500 stopni C), powstają w niej wiatry słoneczne, odpowiada za pogodę kosmiczną, to w niej rodzą się koronalne wyrzuty masy. Naukowcy badają ją zarówno z powodów czysto akademickich, jak i praktycznych. Pogoda kosmiczna i wyrzuty masy mają w końcu praktyczny wpływ na nasze życie. Koronę słoneczną bada się za pomocą wyspecjalizowanych teleskopów (koronografów) – zarówno naziemnych jak i kosmicznych – wykorzystujących zamontowane na nich specjalne osłony. Ich efektywność jest jednak ograniczona, gdyż do koronografu dociera rozproszone światło przedostające się przy krawędziach przesłony. Jednym ze sposobów na poradzenie sobie z tym problemem jest znaczne odsunięcie przesłony od koronografu. Oba urządzenia muszą znajdować się w bardzo precyzyjnie ustalonej odległości. Misja Proba-3 będzie ją utrzymywała dzięki technologii nawigacji satelitarnej, radiowej komunikacji pomiędzy oboma pojazdami, kamerom rozpoznającym obraz oraz promieniowi lasera odbijanemu między koronografem a przesłoną. « powrót do artykułu
×
×
  • Dodaj nową pozycję...