Jump to content
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderators
  • Content Count

    36635
  • Joined

  • Last visited

    Never
  • Days Won

    198

Everything posted by KopalniaWiedzy.pl

  1. Opieka nad osobami starszymi w domu jest ważnym zadaniem, które wymaga odpowiedniego przygotowania, zarówno emocjonalnego, jak i praktycznego. Zapewnienie komfortu oraz bezpieczeństwa seniorom pozwala im na zachowanie godności i możliwie największej samodzielności. Poniżej przedstawiamy kilka kluczowych kwestii, które warto rozważyć, organizując opiekę domową dla osób starszych. Ocena potrzeb seniora Pierwszym i fundamentalnym krokiem jest dokładna ocena potrzeb osoby starszej. Warto skonsultować się z lekarzem, który pomoże określić stan zdrowia seniora oraz ewentualne wymagania medyczne. Należy także rozważyć potrzeby psychologiczne i społeczne, takie jak wsparcie w utrzymaniu kontaktów z rodziną i przyjaciółmi czy zainteresowań, które sprawiają, że życie seniora jest pełniejsze. Przystosowanie przestrzeni życiowej Bezpieczeństwo jest priorytetem, dlatego ważne jest przystosowanie domu w sposób, który minimalizuje ryzyko wypadków. Instalacja poręczy, usunięcie progów, zapewnienie odpowiedniego oświetlenia i pozbycie się luźnych dywanów to tylko niektóre z działań, które mogą znacząco zwiększyć bezpieczeństwo. Ponadto, warto zainwestować w sprzęty ułatwiające codzienne czynności, jak podwyższone toalety czy krzesła prysznicowe. Organizacja opieki medycznej i wsparcia Regularne wizyty lekarza są kluczowe, ale równie ważne jest zorganizowanie dostępu do leków i możliwość szybkiego kontaktu z pomocą medyczną w razie nagłych wypadków. Warto rozważyć również zaangażowanie profesjonalnych opiekunów osoby starszej, którzy mogą zapewnić wsparcie w codziennych czynnościach, które senior może już wykonywać z trudem, takich jak mycie się, ubieranie czy przygotowywanie posiłków. Wsparcie emocjonalne Opieka nad osobami starszymi to nie tylko wsparcie fizyczne, ale także emocjonalne. Seniorzy często czują się izolowani, szczególnie jeśli ich stan zdrowia ogranicza możliwości wychodzenia z domu. Regularne rozmowy, wspólne spędzanie czasu, słuchanie ich opowieści i wspomnień może znacząco wpłynąć na ich samopoczucie. Dobrym rozwiązaniem jest zatrudnienie opiekunki nad osobą starszą, która w dużym stopniu zaspokoi potrzebę seniora w tym względzie. Wykorzystanie technologii Nowoczesne technologie mogą znacznie ułatwić opiekę nad seniorami. Systemy monitorujące, które informują o potencjalnych niebezpieczeństwach, aplikacje pozwalające na przypominanie o lekach czy nawet proste rozwiązania umożliwiające video rozmowy z rodziną to tylko niektóre z narzędzi, które mogą być pomocne. Planowanie przyszłości Ważne jest, aby nie tylko skupiać się na bieżących potrzebach seniora, ale także planować przyszłość. Rozmowy na temat opieki długoterminowej, życzenia dotyczące opieki paliatywnej czy nawet sprawy succession powinny być omówione z seniorem, co zapewni, że jego życzenia będą respektowane. Opieka nad osobami starszymi w domu wymaga planowania, empatii i zaangażowania. Kluczem jest stworzenie bezpiecznego, komfortowego środowiska, które umożliwi seniorom jak najdłuższe, samodzielne życie. Ważne jest, aby pamiętać o regularnej ocenie potrzeb i dostosowywaniu opieki w miarę zmieniających się okoliczności. Jeśli nie wiesz jak się do tego zabrać rozważ zatrudnienie opiekunki nad osobą starszą: https://veritas-polska.pl/ « powrót do artykułu
  2. Z ujawnionego właśnie raportu dowiadujemy się, że doktor Ranga Dias, naukowiec z University of Rochester, fałszował wyniki prowadzonych przez siebie badań. O naukowcu stało się głośno przed czterema laty, gdy opublikował na łamach Nature pracę, w której donosił o uzyskaniu nadprzewodnictwa w temperaturze pokojowej. Swoje stwierdzania powtórzył trzy lata później na łamach kolejnego artykułu. Szybko jednak pojawiły się wątpliwości co do uzyskanych wyników i uczciwości Diasa. W związku z tymi wątpliwościami Nature wycofało oba artykuły. Teraz poznaliśmy poufny 130-stronicowy raport ze śledztwa prowadzonego przez macierzystą uczelnię Diasa. Śledztwo, zakończone 8 lutego, prowadzone było przez 10 miesięcy przez doktorów Petera Celliersa i Mariusa Millota z Lawrence Livermore National Laboratory oraz Marcusa D. Knudsona z Sandia National Laboratories, którzy do tego zadania zostali wynajęci przez University of Rochester. Uczelnia zdecydowała się na wszczęcie śledztwa po tym, jak zaczęła otrzymywać od naukowców informacje o prawdopodobnych nieprawidłowościach. W sierpniu 2021 roku skargę taką złożył doktor Jorge Hirsch, profesor na Uniwersytecie Kalifornijskim w San Diego, pół roku później pojawiła się skarga profesora Dirka van der Marela z Uniwersytetu w Genewie, a następnie kolejne informacje od doktora Hirscha. Wszystkie one wskazywały na możliwość fałszowania danych przez Diasa. Śledczy przygotowali poufny raport, który został obecnie ujawniony, gdyż znalazł się w aktach pozwu sądowego wytoczonego przez Diasa jego macierzystej uczelni. Diasowi nie spodobało się, że uniwersytet odsunął go od nauczania i pracy badawczej. Gdy uczelnia nie uwzględniła jego skargi, Dias wystąpił do sądu. Z ujawnionego raportu dowiadujmy się, że w śledztwo włączyła się Narodowa Fundacja Nauki, jeden z głównych sponsorów amerykańskiej nauki, która w ramach programu CAREER przyznała Diasowi grant w wysokości 790 000 USD. Śledczy dowodzą, że Dias sfałszował dane nie tylko na potrzeby dwóch artykułów opublikowanych w Nature, ale również dwóch kolejnych. Jeden z nich ukazał się w Chemical Communications, a drugi w Physical Review Letters. W raporcie opisano, w jaki sposób Dias przez lata oszukiwał współpracowników, naukowców i wydawców pism naukowych. Komitet Śledczy zaleca, by [Diasowi] nie zezwalać na nauczanie studentów, bycie ich mentorem oraz jakiekolwiek nadzorowanie studentów, czy to w sali wykładowej czy laboratorium badawczym, by nie mógł nadzorować badań ani prowadzić niezależnych badań czy to finansowanych przez agendy rządowe, czy instytucje prywatne. Na Uniwersytecie stanowisko adiunkta wiąże się z zaufaniem, adiunkt jest wzorem, mentorem i może stać na czele zespołu badawczego. Ujawnione dowody wskazują, że [Diasowi] nie można ufać, był złym wzorem, złym mentorem i źle kierował zespołem badawczym. Wśród zebranych dowodów są i takie, które wskazują, że [Dias] lekceważył wątpliwości studentów, a jego postępowanie od rozpoczęcia śledztwa wskazuje na pewne zachowania wobec byłych już studentów, które mogą zostać uznane za prześladowanie. [Dias] oszukiwał też innych naukowców i redaktorów oraz wydawców pism naukowych, czytamy w raporcie. Okazało się, że Dias uciszał wątpliwości studentów i współpracowników tłumacząc je skomplikowanym procesem przetwarzania danych, zwlekał bądź odmawiał zaprezentowania surowych danych, kłamał odnośnie miejsca i czasu wykonywania pomiarów. Mimo, że nie było to przedmiotem śledztwa, w raporcie odnotowano liczne przypadki plagiatów, jakich dopuścił się Dias. Okazało się, że we własnym doktoracie przekopiował on fragmenty 18 różnych prac naukowych. Przypomnieli też, że już w 2017 roku, gdy Dias pracował na Uniwersytecie Harvarda, jego praca opublikowana w Science została ostro skrytykowana przez środowisko naukowe i niemal żaden z recenzentów nie zgodził się z wyciągniętymi w niej wnioskami. Obecnie University of Rochester próbuje zgodnie z prawem zwolnić Diasa z pracy jeszcze przed zakończeniem kontraktu podpisanego z nim na rok akademicki 2024/2025. Ma również zamiar wystąpić przeciwko niemu do sądu. « powrót do artykułu
  3. Międzynarodowy zespół naukowy, prowadzony przez ekspertów z Instytutu Maxa Plancka w Marburgu i Uniwersytetu w Marburgu natrafił na pierwszą regularną molekułę w naturze. Molekuła ta to syntaza cytrynianowa wytwarzana przez cyjanobakterie. Spontanicznie łączy się ona we wzór zwany trójkątem Sierpińskiego. Badania sugerują, że ten niezwykły kształt może być ewolucyjnym wypadkiem. W naturze znamy wiele mniej lub bardziej regularnych wzorów. Widzimy je w płatkach śniegu czy kalafiorach romanesco. Pojedyncze ich części przypominając całość. Kształty, które powtarzają się od najmniejszej skali po największą, zwiemy fraktalami. Jednak bardzo rzadko zdarzają się naturalne fraktale, które są niemal identyczne w każdej ze skal. Molekuły też posiadają pewną regularność, jednak tylko w niektórych skalach. Dotychczas nie znaliśmy żadnej molekuły, która byłaby fraktalem. Teraz naukowcy trafili na pierwszą taką molekułę. Zauważyliśmy tę strukturę zupełnie przypadkiem i nie mogliśmy uwierzyć w to, co pokazał nam mikroskop elektronowy. Ta proteina tworzy piękne trójkąty i w miarę jak się powiększa widzimy coraz większe i większe trójkątne wolne przestrzenie. Takiego zjawiska nie widzieliśmy nigdy w przypadku żadnej proteiny, mówi główna autorka badań, profesor Franziska Sendker. Uczeni przystąpili więc do badania, w jaki sposób tak niezwykła struktura mogła powstać. Poprosili o pomoc biologów strukturalnych z Uniwersytetu w Marburgu. To była jedna z najtrudniejszych, ale i najbardziej fascynujących, struktur, nad jakimi pracowałem, mówi Jan Schuller, którego zespół pomógł rozwiązać zagadkę fraktalnej molekuły. Badania pozwoliły określić, w jaki sposób powstał niezwykły kształt. Proces samoorganizowania się białek jest wysoce symetryczny. Poszczególne łańcuchy przyjmują takie samo ułożenie względem łańcuchów sąsiednich. Zawsze prowadzi to do pojawienia się gładkiej struktury w dużej skali. Takie białko nie jest fraktalem, nie ma dużej skali jego charakterystycznej strzępiastej struktury. Kluczem do powstania fraktalnej molekuły było złamanie tej symetrii. W syntazie cytrynianowej cyjanobakterii każdy z indywidualnych łańcuchów wchodził w nieco inne interakcje z sąsiadami, w zależności od pozycji we fraktalu. Proces samoorganizacji jest ewolucyjnie wykorzystywany do regulowania enzymów. Jednak w przypadku fraktalnej molekuły nie wydaje się, by kształt miał tu jakieś znaczenie, mówi biolog ewolucyjny Georg Hochberg. Gdy naukowcy zmanipulowali cyjanobakterie tak, by ich syntaza cytrynianowa nie była fraktalem, bakteriom w żaden sposób to nie przeszkadzało i rozwijały się całkowicie normalnie. Dlatego też badacze wysunęli hipotezę, że pojawienie się fraktala to nieszkodliwy wypadek ewolucyjny. Takie wypadki mogą mieć miejsce, gdy powstająca struktura nie jest zbyt trudna do stworzenia. Naukowcy postanowili przetestować tę hipotezę i wykorzystali metody statystyczne do sprawdzenia, jak wyglądało badane białko przed milionami lat. Następnie w laboratorium stworzyli takie białko i obserwowali jego ewolucję. Okazało się, że w wyniku niewielkiej liczby mutacji fraktalna syntaza cytrynianowa powstała w wielu liniach cyjanobakterii i szybko z nich zniknęła. Przetrwała tylko w pojedynczej linii. Chociaż nigdy nie będziemy całkowicie pewni, jak doszło do pojawienia się takie kształtu, to molekuła ta posiada wszystkie cechy struktury biologicznej, która pojawiła się przypadkiem bez widocznej przyczyny, tylko dlatego, że w łatwy sposób mogła się pojawić, wyjaśnia doktor Georg Hochberg, kierownik zespołu naukowego z Instytutu Mikrobiologii Lądowej im. Maxa Plancka w Marburgu. « powrót do artykułu
  4. Po niespodziewanym ponownym odnalezieniu w 2022 r. badacze opublikowali swoje ustalenia na temat jednego z najrzadszych i najsłabiej poznanych ptaków na świecie - zapylaka kolumbijskiego (Campylopterus phainopeplus). Artykuł naukowców z American Bird Conservancy (ABC), Narodowego Uniwersytetu Kolumbii, a także organizacji SELVA, ProCAT Colombia oraz World Parrot Trust ukazał się w bioRxiv i daje wgląd w nieudokumentowane wcześniej zachowania związane z żerowaniem, śpiewem oraz zalotami krytycznie zagrożonego kolibra. Nasze odkrycia pokazują, że ten wspaniały ptak może być doskonałym przykładem mikroendemizmu. Wydaje się bowiem, że występuje na ograniczonym obszarze w obrębie najważniejszego na świecie ośrodka kontynentalnego endemizmu – podkreśla główny autor badań Esteban Botero-Delgadillo. Naukowiec dodaje, że bardzo się cieszy, że badania mogą być kontynuowane, bo nadal mamy spore braki w wiedzy na temat biologii czy dystrybucji gatunku. Uzupełnienie tych luk pozwoli odpowiednio zaplanować długoterminową strategię ochrony zapylaka kolumbijskiego, który zamieszkuje Sierra Nevada de Santa Marta - masyw górski w północnej Kolumbii. Naukowcy stracili zapylaka z oczu na 64 lata. W roku 2010 został on sfotografowany i znowu zniknął. Odnalazł go w 2022 roku Yurgen Vega. Chwila, w której zobaczyłem zapylaka była niezwykle emocjonalna. Nie mogłem uwierzyć w to, co widzę. Adrenalina, emocje, trudno opisać to, co wówczas czułem, wspomina badacz. Siedem miesięcy później niezależnych obserwacji dokonali profesorowie Carlos Esteban Lara i Andrés M. Cuervo z Narodowego Uniwersytetu Kolumbii (Universidad Nacional de Colombia). Gatunek ten znajduje się na liście „10 najbardziej poszukiwanych zaginionych gatunków ptaków” społecznościowej inicjatywy Search for Lost Birds, która jest wspólnym dziełem BirdLife International, American Bird Conservancy oraz Re:Wild, nic więc dziwnego, że organizacje te natychmiast włączyły się w poszukiwania i badania gatunku. Znalezienie zapylaka kolumbijskiego było możliwe wyłącznie dzięki wspólnemu działaniu lokalnych społeczności, uczelni oraz lokalnych i międzynarodowych organizacji, stwierdza profesor Lara. Współpraca ta zaowocowała prowadzonym przez 16 miesięcy poszukiwaniem zapylaków oraz badaniem ich terytorium i zachowania. Uzyskane dane, w połączeniu z danymi historycznymi wskazują, że gatunek ten nie migruje, jak wcześniej sądzono, na obszary o innej wysokości nad poziomem morza. Żyje na jednym terenie i prawdopodobnie jest ograniczony do południowo-wschodnich stoków Sierra Nevada de Santa Marta wzdłuż basenu rzeki Guatapurí. Badania wskazują również, że terytoria samców, tokowiska i prawdopodobnie gniazda zakładane przez samice są silnie powiązane z obecnością lasów łęgowych i cieków wodnych, więc dla przetrwania gatunku konieczne jest zachowanie tego typu habitatów. « powrót do artykułu
  5. We wrześniu bieżącego roku wystartuje wyjątkowa misja Europejskiej Agencji Kosmicznej. Jej celem jest zademonstrowanie technologii precyzyjnych lotów w formacji, w celu generowania sztucznego zaćmienia Słońca na potrzeby badania jego korony. Jeśli misja się powiedzie, zyskamy nie tylko świetne narzędzie do badania atmosfery naszej gwiazdy, ale również technologię, która pozwoli na prowadzenie jeszcze bardziej ambitnych przedsięwzięć związanych z precyzyjnie pozycjonowanymi formacjami pojazdów w przestrzeni kosmicznej. Misja Proba-3 będzie składała się z dwóch pojazdów – Coronograph i Occulter. Zostaną one umieszczone na eliptycznej orbicie (apogeum 60 530 km, perygeum 600 km) wokół naszej planety. I stamtąd będą badały Słońce. Oba pojazdy będą przemieszczały się w odległości 144 metrów od siebie, pracując jak jedno wielkie urządzenie. Occulter będzie zasłaniał gwiazdę, dzięki czemu Coronograph zyska możliwość badania jej korony. Zaćmienia Słońca to okazja do prowadzenia wielu badań. To właśnie podczas całkowitego zaćmienia, które miało miejsce w 1868 roku w Indiach, francuski astronom odkrył hel w chromosferze Słońca, a podczas zaćmienia w 1919 roku Dyson i Eddington przeprowadzili jeden z pierwszych testów ogólnej teorii względności Einsteina, badając – z Sobral w Brazylii i Wyspy Książęcej w Afryce Zachodniej – różnice w ugięciu światła odległych gwiazd w polu grawitacyjnym Słońca. Skoro więc zaćmienia są tak przydatne dla nauki, dlaczego nie wywołać sztucznego zaćmienia na potrzeby konkretnego instrumentu naukowego? Robi się to od dawna, a teraz ESA spróbuje tej sztuki za pomocą pojazdów latających w formacji. Osiągnięcie tego będzie niezwykle trudne, gdyż najmniejsze odchylenie od wymaganych parametrów spowoduje, że eksperyment się nie uda. Prace nad misją były niezwykle długotrwałe. Podjęło się ich konsorcjum mniejszych państw członkowskich ESA pod kierunkiem Hiszpanii i Belgii, wyjaśnia Dietmar Pilz, dyrektor ds. technologii, inżynierii i jakości ESA. Pomysł na precyzyjne wywołanie sztucznego zaćmienia przez dwa pojazdy w kosmosie nie jest nowy. Próbowano tego już podczas programu Sojuz-Apollo. Celem Probe-3 jest rutynowe przesłanianie Słońca jednorazowo nawet przez 6 godzin w czasie pełnego okrążenia Ziemi, które będzie trwało 19 godzin i 36 minut. Korona słoneczna to bardzo interesujący obszar. Jest ona znacznie cieplejsza (ma ponad 1 milion stopni Celsjusza) niż powierzchnia Słońca (5500 stopni C), powstają w niej wiatry słoneczne, odpowiada za pogodę kosmiczną, to w niej rodzą się koronalne wyrzuty masy. Naukowcy badają ją zarówno z powodów czysto akademickich, jak i praktycznych. Pogoda kosmiczna i wyrzuty masy mają w końcu praktyczny wpływ na nasze życie. Koronę słoneczną bada się za pomocą wyspecjalizowanych teleskopów (koronografów) – zarówno naziemnych jak i kosmicznych – wykorzystujących zamontowane na nich specjalne osłony. Ich efektywność jest jednak ograniczona, gdyż do koronografu dociera rozproszone światło przedostające się przy krawędziach przesłony. Jednym ze sposobów na poradzenie sobie z tym problemem jest znaczne odsunięcie przesłony od koronografu. Oba urządzenia muszą znajdować się w bardzo precyzyjnie ustalonej odległości. Misja Proba-3 będzie ją utrzymywała dzięki technologii nawigacji satelitarnej, radiowej komunikacji pomiędzy oboma pojazdami, kamerom rozpoznającym obraz oraz promieniowi lasera odbijanemu między koronografem a przesłoną. « powrót do artykułu
  6. Na Lizard Island (Jiigurru) u wybrzeży stanu Queensland odkryto najstarszą w Australii ceramikę. Jej znalezienie rzuca wyzwanie przekonaniu, jakoby australijscy Aborygeni nie używali ceramiki aż do nawiązania kontaktu z Europejczykami. Ceramikę znaelziono podczas wykopalisk prowadzonych przez profesora Seana Ulma z Uniwersytetu Jamesa Cooka, który jest głównym badaczem w Australian Research Council Centre of Excellence for Australian Biodiversity and Heritage. Przez dwa lata archeolodzy badali na Jiigurru śmietnisko o głębokości 2,4 metra. Znaleźli tam dowody na istnienie osadnictwa, takie jak pozostałości małży oraz ryb łowionych i zjadanych przez żyjących tu ludzi. Szczątki te liczą sobie ponad 6000 lat. Na głębokości mniej niż metr pod powierzchnią znaleziono dziesiątki fragmentów ceramiki, których wiek oszacowano na 2–3 tysiące lat. To najstarsza ceramika w Australii, mówi profesor Ulm. Analizy ceramiki wykazały, że została ona wyprodukowana lokalnie, z użyciem materiałów pochodzących z wyspy. Czas powstania ceramiki nakłada się na okres, w którym lud Lapita z południa Papui-Nowej Gwinei rónież wytwarzał ceramikę. Odkrycie może więc wskazywać na istnienie długodystansowej wymiany kulturowej i innowacji technologicznych na długo zanim do Australii przybyli Europejczycy. Wszystko bowiem wskazuje na to, że Aborygeni z północnych regionów Queensland mieli kontakty ze społecznościami wytwarzającymi ceramikę na Nowej Gwinei. Odkrycie pokazuje nam, że tutejsze społeczności dysponowały zaawansowaną techniką podróży morskich, a obiekty te pozwalają nam lepiej zrozumieć wymianę kulturową, jaka przed tysiącami lat zachodziła na Jingurru, dodaje Ulm. Obecność ceramiki pokazuje, że lokalne społeczności prowadziły długodystansowy handel morski. O wymianie handlowej oraz kulturowej świadczą podobne ozdoby z muszli i bambusowe fajki, a ceramika pokazuje, że dochodziło też do wymiany technologii. Aborygeni nauczyli się wytwarzania naczyń z gliny i samodzielnie wykonywali je na Jiigurru. « powrót do artykułu
  7. NASA informuje, że dotychczas potwierdzono odkrycie 5602 egzoplanet, a na potwierdzenie czeka kolejnych 10 170 kandydatów na planety. Potwierdzone planety zostały znalezione w 4299 układach planetarnych. Mianem egzoplanety określa się planetę spoza Układu Słonecznego. Większość z nich krąży wokół gwiazd, chociaż są i takie, które samotnie przemierzają wszechświat. Kosmos może być pełen takich planet, które nie są związane grawitacyjne z żadną gwiazdą. Polscy naukowcy są jednymi z odkrywców takich obiektów. Pierwsze egzoplanety odkrył, we współpracy z Dale'em Frailem, polski astronom Aleksander Wolszczan. O odkryciu oficjalnie poinformowano w styczniu 1992 roku. Do końca 1999 roku poznaliśmy w sumie 30 planet pozasłonecznych. W roku 2010 wiedzieliśmy o istnieniu 511 takich obiektów, a do końca 2020 roku potwierdzono istnienie 4373 egzoplanet. Wśród wspomnianych 5602 potwierdzonych planet najwięcej, bo 1919, to obiekty podobne do Neptuna czy Urana. Kolejną grupą są gazowe giganty, które możemy porównać do Saturna oraz Jowisza. Jest ich 1786. SuperZiemi, czyli planet bardziej masywnych od Ziemi, ale lżejszych od Neptuna, które mogą być planetami skalistymi, gazowymi lub połączeniem obu tych typów, jest 1689. Kolejnych 200 egzoplanet to skaliste obietky typu ziemskiego o jądrach bogatych w żelazo. Podobne są do Merkurego, Wenus, Ziemi i Marsa. Najmniejsza grupa 8 planet to takie, których właściwości jeszcze nie określono. Naukowcy zgadzają się co do tego, że w samej tylko Drodze Mlecznej istnieje olbrzymia liczba planet. Niektórzy twierdzą, że jest ich około 100 miliardów, zdaniem innych szacunków ich liczba może sięgać 300 miliardów. Istnieje pięć metod wykrywania planet pozasłonecznych. Najczęściej (3309 przypadków) planety takie były wykrywane metodą tranzytu. Gdy pomiędzy obserwującym gwiazdę teleskopem, a samą gwiazdą, znajdzie się planeta, przesłoni ona część światła swojej gwiazdy. Badając te spadki jasności oraz spektrum docierającego do teleskopu światła, można nie tylko odkryć planetę, ale określić jej wielkość, temperaturę czy skład atmosfery. Drugą z owocnych metod, a wykryto za jej pomocą 1088 planet, jest badanie zmian prędkości radialnej gwiazdy. Mimo, że planety są niewielkie w stosunku do gwiazd, to wywierają na nie wpływ poprzez grawitację. Krążąca wokół gwiazdy planeta może spowodować, że gwiazda będzie się oddalała i przybliżała do obserwatora. To zaś powoduje, że pojawia się efekt Dopplera, zjawisko polegające na zmianie częstotliwości fali w zależności od tego, czy źródło fali przybliża się czy oddala od obserwatora. Efekt ten możemy obserwować na co dzień, słuchając samochodu jadącego na sygnale. Dźwięk syreny zbliżającej się karetki jest coraz wyższy lub coraz niższy, w miarę jak samochód się do nas zbliża i oddala. W przypadku światła jego spektrum przesuwa się w stronę fal czerwonych lub niebieskich. Kolejny sposób na egzoplanetę to mikrosoczewkowanie grawitacyjne. Wykorzystywany jest tutaj fakt, że masywne obiekty zaginają światło. Planeta może więc zagiąć światło odległej gwiazdy w tle, co nasze teleskopy zarejestrują jako pojaśnienie tej gwiazdy. Analiza takich zjawisk pozwoliła na odkrycie dotychczas 210 egzoplanet. Astronomowie potrafią też bezpośrednio obrazować egzoplanety, dzięki czemu odkryto 68 z nich. W tej technice największym problemem jest fakt, że gwiazdy są miliony razy jaśniejsze od planet. Wszelkie światło odbite przez planetę czy wypromieniowywane przez nią ciepło jest przesłaniane przez znacznie jaśniejszą gwiazdę macierzystą. Współczesna technologia pozwala jednak na zasłonięcie światła gwiazdy i obserwowanie dzięki temu emisji z planety. Ostatnią zaś, i najtrudniejszą do wykorzystania, metodą jest astrometria. Jak już wspominaliśmy, planeta wpływa na gwiazdę, powodując zmiany jej położenia w przestrzeni. Astronomowie wykonują więc serię zdjęć interesującej ich gwiazdy oraz gwiazd w jej otoczeniu i sprawdzają na nich odległość pomiędzy badaną gwiazdą a gwiazdami referencyjnymi. Jeśli odległość się zmieniła, analiza tych zmian może wskazać na istnienie planety. Jednak wykorzystywanie astrometrii w celu poszukiwania egzoplanet jest niezwykle trudne, gdyż zmiany położenia gwiazdy są niewielkie. Badania takie wymagają użycia układów optycznych najwyższej jakości, a szczególnie trudne jest ich wykonywanie z powierzchni Ziemi, gdyż sama atmosfera zakłóca obserwacje. Dlatego też dotychczas w ten sposób odnaleziono jedynie 3 planety pozasłoneczne. Tylko 247 spośród znanych nam egzoplanet krąży wokół gwiazd widocznych gołym okiem, a jedynie 96 znajduje się w układach, w których znamy więcej niż 1 planetę. Interesujący jest też sposób nazywania gwiazd i planet. Zwykle stosuje się system numeryczny, niewiele gwiazd i planet ma własne nazwy. Pierwszą część nazwy stanowi zwykle nazwa teleskopu lub projektu badawczego, w ramach którego wykryto egzoplanetę. Następnie mamy cyfrę oznaczającą kolejny numer, pod którym skatalogowano gwiazdę, a później następuje mała litera, oznaczająca planetę. Planeta najbliższa gwieździe zostaje oznaczona jako „b”, gdyż sama gwiazda, wokół której planeta krąży, jest domyślnie uznawana za „A”. Gwiazdy mają duże litery, planety małe, co jest przydatne, gdy znajdziemy układ podwójny czy wielokrotny gwiazd. Tak więc planeta Kepler-16b to planeta najbliższa (b) gwieździe, która jako 16. z kolei została skatalogowana przez Teleskop Keplera. Zgodnie z tą konwencją Ziemię moglibyśmy oznaczyć jako Słońce d (Słońce, czyli nazwa gwiazdy, a „d” to trzecia najbliższa jej planeta, poczynając od Merkurego, który zostałby oznaczony jako „b”). Wśród wszystkich potwierdzonych egzoplanet najbliższa Ziemi jest Proxima Centauri b, położona w odległości 4 lat świetlnych od nas. Najbardziej zaś oddalone, dla których udało się określić odległość, to SWEEPS-4 b i SWEEPS-11 b. Obie położone są w odległości 27727 lat świetlnych. Najlżejsza ze znanych egzoplanet to PSR B1257+12 b o masie 0,02 mas Ziemi, a najbardziej masywna, Kepler-297 d, ma masę 282 razy większą niż masa Jowisza. Z pełnym katalogiem potwierdzonych egzoplanet można zapoznać się na stronie NASA. « powrót do artykułu
  8. Każda kolejna ciąża we wczesnej dorosłości powoduje, że organizm kobiety starzeje się o dodatkowe 2,4–2,8 miesięcy. Naukowcy z Mailman School of Public Health na Columbia University przeprowadzili badania na 1735 młodych mieszkankach Filipin. Wykazali, że organizmy kobiet, które były w ciąży, były biologicznie starsze od organizmów kobiet, które w ciąży nie były, a panie, które miały za sobą więcej ciąż były biologicznie starsze od koleżanek, które rzadziej zachodziły w ciążę. Przyspieszonego starzenia biologicznego organizmu nie zauważono w przypadku mężczyzn, co wskazuje, że przyczyną nie jest samo posiadanie dziecka, ale coś powiązanego z ciążą lub karmieniem piersią. Uczeni z Columbia University zajęli się tym tematem, gdyż chcieli bliżej przyjrzeć się wynikom badań epidemiologicznych, z których wynikało, iż większa płodność może mieć negatywny wpływ na zdrowie i długość życia kobiet. Z badań tych nie można było się jednak dowiedzieć, czy koszty związane z większą płodnością ujawniają się w młodszym wieku, zanim jeszcze pojawią się choroby i inne dolegliwości związane z wiekiem. Naukowcy wykorzystali więc badania metylacji DNA, które pozwalają sprawdzić tzw. zegar epigenetyczny. To pozwala na ustalenie wieku biologicznego tkanek. Pojawienie się zegara epigenetycznego zrewolucjonizowało sposób, w jaki badamy tempo biologicznego starzenia się w czasie życia. Otwiera on przed nami nowe możliwości badania długoterminowych kosztów reprodukcji i innych życiowych wydarzeń, mówi główny autor pracy, doktor Calen Ryan. Nasze badania sugerują, że ciąża przyspiesza biologiczne starzenie się i widać to już u młodych wysoce płodnych kobiet. To również pierwsze badania, w czasie których śledziliśmy te same kobiety przez długi czas, łącząc każdą z ciąż ze zmianami wieku biologicznego, dodaje uczony. Związek pomiędzy ciążą, a przyspieszoną pracą zegara epigenetycznego istniał nawet po uwzględnieniu wielu innych czynników wpływających na przyspieszenie biologicznego starzenia się, takich jak palenie, status społeczno-ekonomiczny czy genetyka. Doktor Ryan przestrzega jednak przed wyciąganiem pochopnych wniosków z badań. Wiele z kobiet, które badaliśmy, zaszło w ciążę w późnym wieku nastoletnim, gdy ich organizmy wciąż się rozwijały. Taka ciąża może stanowić szczególne wyzwanie dla organizmu, zwłaszcza tam, gdzie dostęp do opieki zdrowotnej i innych zasobów jest ograniczony, mówi. Uczony dodaje, że wiele jeszcze nie wiemy o wpływie ciąży i innych aspektów reprodukcji na proces starzenia się organizmu. Nie wiemy też, do jakiego stopnia przyspieszone starzenie się badanych kobiet będzie miało wpływ na ich zdrowie i śmiertelność za kilka dekad. « powrót do artykułu
  9. Uniwersytet w Edynburgu poinformował, że przed dwoma dniami, 8 kwietnia, po krótkiej chorobie zmarł profesor Peter Higgs. Uczony zyskał sławę w świecie nauki po tym, jak w 1964 roku przewidział istnienie nieznanej wówczas cząstki, bozonu Higgsa. Na potwierdzenie istnienia tej cząstki trzeba było czekać 48 lat, a do jej wykrycia konieczne było wybudowanie Wielkiego Zderzacza Hadronów. Bozon został odkryty w 2012 roku, a rok później profesor Higgs otrzymał Nagrodę Nobla za przewidzenie jego istnienia. Peter Higgs urodził się 29 maja 1929 roku w Wielkiej Brytanii. Późniejszy noblista w dużej mierze uczył się w domu. Było to spowdowane z jednej strony astmą, na którą cierpiał, z drugiej zaś pracą jego ojca, który jako inżynier dźwięku BBC często się przeprowadzał. W latach 1941–1946 uczęszczał do Cotham Grammar School w Bristolu, gdzie zainteresowały go prace byłego ucznia tej szkoły, Paula Diraca, jednego z twórców mechaniki kwantowej. Higgs studiował matematykę i fizykę, w 1954 roku uzyskał doktorat z fizyki molekularnej. Podstawą teorii, która przyniosła Higgsowi sławę, były prace japońskiego noblisty z University of Chicago, Yoichiro Nambu. W swojej pierwszej pracy Higgs wykazał niedociągnięcia w teorii Nambu. Następnie napisał drugi artykuł, w którym opisał własny model teoretyczny, ale tekst został odrzucony przez redaktorów Physics Letters, którzy stwierdzili, że nie ma on oczywistych związków z fizyką. Higgs dopisał więc dodatkowy akapit i wysłał go do Physical Review Letters, gdzie artykuł opublikowano. W tym samym mniej więcej czasie do podobnych wniosków co Higgs doszli inni naukowcy (Brout i Englert oraz Guralnik wraz z Hagenem i Kibble'em). W swojej pracy Higgs powołał się na artykuł Brouta i Englerta, a w trzecim artykule Higgs powołał się na swoje dwa poprzednie. Z czasem prace wszystkich wymienionych naukowców uznano za równie ważne dla rozwoju teorii Higgsa. Jednak z sobie tylko znanych powodów Królewska Szwedzka Akademia Nauk przyznała nagrodę Nobla tylko Higgsowi i Englertowi (Brout zmarł w 2011 roku), pomijając Guralnika, Hagena i Kibble'a. Dnia 4 lipca 2012 roku CERN poinformował o odkryciu bozonu Higgsa. Rok później profesor Higgs i François Englert podzielili się Nagrodą Nobla z fizyki za odkrycie mechanizmu Brouta-Englerta-Higgsa, zwanego polem Higgsa. Koncepcja pola Higgsa została wykorzystana do stworzenia Modelu Standardowego. Peter Higgs był niezwykłą indywidualnością. Utalentowanym naukowcem, którego wizje i wyobraźnia wzbogaciły wiedzę o otaczającym nas świecie. Jego pionierskie prace stały się motywacją dla tysięcy naukowców, a jego spuścizna będzie inspirowała przyszłe pokolenia, stwierdził profesor Peter Mathieson, rektor Uniwersytetu w Edynburgu. « powrót do artykułu
  10. Po 9 latach pracy naukowcy i inżynierowie ze SLAC National Accelerator Laboratory ukończyli budowę Legacy Survey of Space and Time (LSST) Camera. Urządzenie o rozdzielczości 3200 megapikseli zostanie zamontowane w Vera C. Rubin Observatory, które ma po raz pierwszy zostać uruchomione w styczniu przyszłego roku. Niezwykły aparat będzie co 20 sekund wykonywał fotografię o czasie ekspozycji 15 sekund i w ciągu 10 lat dostarczy olbrzymią ilość danych, które pozwolą na lepsze zrozumienie ciemnej energii, badanie ciemnej materii, Drogi Mlecznej i Układu Słonecznego. Biorąc pod uwagę przerwy techniczne, nieodpowiednią pogodę i inne przerwy w pracy, LSST powinien dostarczać około 200 000 zdjęć rocznie. Wspomniane 3200 megapikseli to rozdzielczość tak duża, że pozwala na zarejestrowanie piłeczki golfowej z odległości 25 kilometrów. Aparat korzysta z 201 czujników CCD o rozdzielczości 16 megapikseli każdy. Każdy z pikseli ma szerokość około 10 mikrometrów, a całość jest niezwykle płaska. Nierówności nie przekraczają 1/10 grubości ludzkiego włosa. Dzięki tak małym pikselom i tak płaskiej powierzchni, możliwe jest wykonywanie zdjęć w niezwykle wysokiej rozdzielczości. Aparat, w połączeniu z możliwościami lustra teleskopu Vera C. Rubin Observatory, pozwoli na rejestrowanie obiektów, które są 100 milionów razy mniej jasne, niż minimalna jasność wymagana, by zauważyło je ludzkie oko. Przednia soczewka aparatu ma ponad 1,5 metra średnicy, jest największą soczewką jaka kiedykolwiek powstała na potrzeby aparatu astronomicznego. Druga, metrowej średnicy soczewka, ma korygować wszelkie błędy pierwszej i stanowi też zamknięcie komory próżniowej, w której znajdują się czujniki CCD. Będą one pracowały w temperaturze około -100 stopni Celsjusza, co ma pomóc w redukcji zakłóceń. Badania ciemnej materii i ciemnej energii to istotna część współczesnej fizyki. Bardziej niż kiedykolwiek wcześniej lepsze zrozumienie podstawowych praw fizyki wymaga od nas coraz głębszego spoglądania w kosmos. Dzięki LSST Camera Rubin Observatory zajrzy głębiej w przestrzeń kosmiczną i pomoże nam odpowiedzieć na jedne z najtrudniejszych i najważniejszych pytań współczesnej fizyki, stwierdza Kathy Turner, odpowiedzialna w Departamencie Energii za Cosmic Frontier Program. Gdy LSST Camera trafi do Simonyi Survey Telescope na Cerro Pachón w Andach, będzie określał pozycje i mierzył jasność olbrzymiej liczby obiektów na nocnym niebie. Z tych danych naukowcy wyciągną wiele pożytecznych wniosków. Będą przede wszystkim poszukiwali sygnałów słabego soczewkowania grawitacyjnego, które pozwoli lepiej określać rozkład masy we wszechświecie oraz ewolucję tego rozkładu w czasie. To z kolei pomoże zrozumieć, jak ciemna energia napędza rozszerzanie się wszechświata. « powrót do artykułu
  11. Podczas przy projekcie drogowym Oosterweel Link, brakującego odcinka obwodnicy Antwerpii, trafiono na niezwykły zabytek – jedyny zachowany czerwonawo-brązowy kontener kolejowy LNER. Nie wiadomo kto, kiedy i dlaczego zakopał go na betonowym postumencie przy Noordkasteel, XIX-wiecznym forcie, który w 1934 roku został zmieniony w tereny rekreacyjne. Niestety, ku rozpaczy archeologów i miłośników kolejnictwa, kontener nie wytrzymał prac wykopaliskowych. Jego drewniane ściany rozsypały się i po znalezisku pozostały tylko zdjęcia. Jeszcze w XIX wieku brytyjskie koleje woziły towary w zwykłych kwadratowych skrzyniach. Firmy kolejowe dość szybko stworzyły standardowe kontenery, które łatwiej było ładować i załadowywać na wagony. Około 1930 roku powstał pierwszy model kontenera LNER – London North Eastern Railway – jednej z czterech działających w Wielkiej Brytanii firm kolejowych. Był on malowany na kolor czerwonawo-brązowy, który po kilku latach zastąpiono niebieskim. Znaleziony kontener miał numer BK765, dzięki czemu wiemy, że został zbudowany w roku 1935 lub 1936. Litera B oznacza, że to kontener pełnowymiarowy o pojemności 4 ton imperialnych (4064 kg), a K to symbol kontenera do przewozu mebli. Zachowały się na nim fragmenty napisów, jak „...NITURE REMOVAL TO HOUSE” czy „LNER”. Nie wiadomo, kiedy kontener dotarł do Antwerpii i jak znalazł się przy Noordkasteel. Prawdopodobnie kontener został ustawiony na terenie rekreacyjnym, służąc jako magazyn, miejsce sprzedaży biletów lub schronienie przed słońcem. « powrót do artykułu
  12. Na Uniwersytecie Jagiellońskim zidentyfikowano syntetyczny polimer o silnych właściwościach przeciwgrzybicznych i niskiej toksyczności. Jego odkrycie to wynik wieloletniej pracy zespołu doktor Magdaleny Skóry z Collegium Medicum i dra Kamila Kamieńskiego z Wydziału Chemii UJ. Kierowane przez uczonych zespoły badały polimery pod kątem ich zastosowania w przemyśle kosmetycznym i medycynie. Szczególnie interesowały ich substancje, których można by użyć do leczenia grzybicy, gdyż liczba obecnie stosowanych jest ograniczona. Polimer, o którym mowa, dobrze rozpuszcza się w wodzie i alkoholach, może więc być używany w substancjach do stosowania na skórę czy paznokcie. Jest łatwy do wytworzenia i stosunkowo niedrogi. Badany przez nas związek chemiczny jest polimerem kationowym – ma dodatni ładunek. Cecha ta umożliwia oddziaływanie polimeru z ujemnie naładowanymi błonami biologicznymi żywych organizmów. To zapewne jeden z czynników mających wpływ na jego skuteczność. W naszej ocenie polimer wchodzi w interakcję z komórkami grzybów, nie pozwalając im na podziały czy tworzenie strzępek. W badaniach laboratoryjnych obserwujemy zahamowanie wzrostu grzybów w obecności polimeru. Jednocześnie potwierdziliśmy w badaniach na liniach komórkowych, że polimer wykazuje niską toksyczność w stosunku do komórek ssaczych. Ma on więc działanie wysoce selektywne, ukierunkowane właśnie na grzyby, wyjaśnia dr Skóra. Badania in vitro potwierdziły, że związek skutecznie działa na wywołujące zakażenia skóry i paznokci grzyby z rodzaju Trichophyton czy też Fusarium, które wywołują grzybice u ludzi, zwierząt i roślin. Badany polimer jest mniej toksyczny od stosowanych obecnie substancji antymykotycznych. Niska toksyczność w stosunku do komórek ssaczych to nie jedyny walor tego polimeru. Odkryliśmy również, że jest on skuteczniejszy in vitro od niektórych stosowanych obecnie substancji leczniczych, ponieważ efekt przeciwgrzybiczy pojawia się przy kilkukrotnie mniejszych stężeniach, dodaje doktor Skóra. Obecnie naukowcy skupiają się na badaniach nad toksycznością i optymalizacją stężeń w stosunku do różnych gatunków grzybów oraz nad komercjalizacją polimeru. « powrót do artykułu
  13. Naukowcy z University of Cambridge zauważyli warianty genów, które mają największy znany wpływ na rozwój otyłości u dorosłych. Badania, których wyniki opublikowano na łamach Nature Genetics, prowadzone były przez Medical Research Council oraz Institute of Metabolic Science. Wykorzystano podczas nich sekwencjonowanie całoeksomowe (WES) i informacje o BMI u 587 000 osób. Uczeni odkryli warianty genu BSN (Bassoon), które zwiększają ryzyko otyłości aż 6-krotnie i są powiązane ze zwiększonym ryzykiem niealkoholowego stłuszczenia wątroby oraz cukrzycy typu 2. Znaleziono je u 1 na 6500 dorosłych osób, co oznacza, że w Polsce problem może dotyczyć około 5000 osób. Duże ryzyko stwarzają też warianty APBA1. Otyłość ma liczne przyczyny, w tym genetyczne. Są one jednak słabo rozumiane. Już wcześniej odkryto liczne warianty genów, które powiązano z otyłością u dzieci. Geny te powiązane są ze szlakiem leptyna/melanokortyna, który odgrywa kluczową rolę w regulowaniu apetytu przez podwzgórze. Co prawda w mózgu występują białka kodowane przez BSN i APBA1, jednak nic nie wiadomo, by były one powiązane ze szlakiem leptyna/melanokortyna. Ponadto warianty BSN i APBA1 nie są powiązane z otyłością dziecięcą. Dlatego uczeni z Cambridge sądzą, że odkryli nieznany mechanizm powstawania otyłości, odmienny o mechanizmów powiązanych z dotychczas znanymi wariantami genetycznymi. Zidentyfikowaliśmy dwa geny, których warianty wywierają największy wpływ na otyłość ze wszystkich znanych nam czynników genetycznych. Jeszcze ważniejszy jest fakt, że warianty w BSN są powiązane z otyłością u dorosłych, a nie u dzieci. Odkrycie to pozwala nam na nowo docenić związki genetyki, rozwoju układu nerwowego i otyłości, mówi profesor Giles Yeo z MRC Metabolic Diseases Unit. « powrót do artykułu
  14. Jednym z największych problemów, z jakim muszą mierzyć się twórcy komputerów kwantowych, jest olbrzymia liczba błędów, które generują takie maszyny podczas obliczeń. W przeciętnej maszynie kwantowej odsetek błędów wynosi 1:1000 (10-3). W niektórych komputerach jest to aż 1:100, a najlepszy odsetek błędów wynosi 1:10 000 (10-4). To zdecydowanie zbyt dużo. Wielu ekspertów uznaje, że o użytecznym komputerze kwantowym będziemy mogli mówić, gdy odsetek błędów spadnie do 10-12. Odsetek błędów w komputerach klasycznych wynosi 10-18. Jedną z firm, które od dawna pracują nad problemem błędów w komputerach kwantowych, jest Microsoft. Wśród rozwiązań, jakie proponują tamtejsi eksperci, jest tworzenie mniejszej liczby logicznych kubitów, z większej liczby kubitów fizycznych. Powstaje w ten sposób system wirtualizacyjny kubitów. W arXiv udostępniono artykuł, w którym opisano efekty współpracy inżynierów Quantinuum i Microsoftu. Firma Quantinuum dostarczyła komputer kwantowy H2, który korzysta z kubitów w pułapce jonowej, natomiast wkład Microsoftu to oprogramowanie do wirtualizacji kubitów. W ramach testów użyto 30 z 32 dostępnych na H2 kubitów fizycznych i utworzono 4 kubity logiczne. Całość przetestowano uruchamiając 14 000 eksperymentów. Okazało się, że wszystkie wypadły bezbłędnie, nie wykryto żadnego błędu. Kolejne testy wykazały, że odsetek błędów generowanych przez system wynosi 1:100 000 (10-5), jest więc 800-krotnie niższy niż na maszynie H2 pracującej bez oprogramowania Microsoftu. Autorzy eksperymentu twierdzą, że stworzyli komputer kwantowy 2. poziomu, czyli taki, który charakteryzuje dość niski odsetek błędów oraz możliwość dalszego skalowania i poprawiania jakości pracy. « powrót do artykułu
  15. Jeśli to prawda, to mamy tutaj pierwszą od 25 lat prawdziwą wskazówkę odnośnie natury ciemnej energii, mówi astrofizyk Adam Riess, laureat Nagrody Nobla za odkrycie, że tempo rozszerzania się wszechświata jest coraz szybsze. Uczony odniósł się do opublikowanych danych z pierwszego roku obserwacji Dark Energy Spectroscopic Instrument (DESI). Możliwe, że mamy tutaj informacje wskazujące, iż ciemna energia podlega ewolucji, dodaje członek DESI, Dillon Brout. Naukowcy podkreślają, że jest zbyt wcześnie, by mówić o odkryciu. Jednak trzy różne zestawy również sugerują danych, że ciemna energia może nie być stałą kosmologiczną, a to z kolei ma olbrzymie znaczenie dla jednego z najpowszechniej uznawanych modeli kosmologicznych. Teleskop DESI został po raz pierwszy uruchomiony w 2019 roku. Proces kalibracji i weryfikacji działania instrumentu zakłóciła pandemia. Teleskop rozpoczął badania w połowie maja 2021 roku i właśnie opublikowano dane zebrane do czerwca 2022. Tych 12 miesięcy wystarczyło do stworzenia największej trójwymiarowej mapy wszechświata i przeprowadzenia najdoskonalszych pomiarów ciemnej energii. DESI stworzył bardziej szczegółową mapę niż wszystkie dotychczasowe instrumenty razem wzięte i jako pierwszy pozwolił na określenie tempa rozszerzania się wszechświata w okresie od 8 do 11 miliardów lat temu z precyzją lepszą niż 1%. Naukowcy pracujący przy DESI opublikowali i przygotowali do publikacji imponującą liczbę artykułów naukowych. Jesteśmy niesamowicie dumni z uzyskanych przez nas światowej klasy wyników oraz z faktu, że jesteśmy pierwszymi, którzy pokazują dane z badań nowej generacji nad ciemną energią. Jak dotychczas widzimy tutaj potwierdzenie najlepszych modeli kosmologicznych, dostrzegamy jednak potencjalnie interesujące różnice, które mogą wskazywać, że ciemna energia ewoluuje w czasie. W miarę napływu kolejnych danych różnice te mogą się potwierdzić lub zniknąć, dlatego niecierpliwie czekamy na rozpoczęcie analiz z trzyletniego okresu obserwacji, cieszy się dyrektor DESI Michael Levi z Lawrence Berkeley National Laboratory. Podstawowym modelem kosmologicznym jest Lambda CDM. Uwzględnia on ciemną energię (stała kosmologiczna lambda) oraz zimną ciemną materię (cold dark matter, CDM). Materia i ciemna energia wpływają na rozszerzanie się wszechświata, jednak w różny sposób. Otóż materia i ciemna materia spowalniają rozszerzanie, a ciemna energia przyspiesza ten proces. Względna ilość obu czynników wpływa na ewolucję wszechświata. Model ten dobrze wyjaśnia dotychczas uzyskiwane wyniki oraz obecny i przeszły wygląd wszechświata. Jednak gdy przyjrzymy się danym z DESI i porównamy je z danymi z wcześniejszych badań, widzimy pewne subtelne różnice. W tej chwili nie wiemy, czy są to jedynie fluktuacje statystyczne, które znikną wraz z pojawieniem się kolejnych danych, czy też kolejne dane potwierdzą istnienie tych różnic. Dane te powinny też doprecyzować inne informacje dostarczone przez DESI, które dotyczą stałej Hubble'a czy masy neutrina. DESI to wspaniały eksperyment dostarczający niesamowitych danych, zachwyca się Riess. W porównaniu z jednym z najważniejszych przeglądów nieba w historii, Sload Digital Sky Survey, DESI błyskawicznie zbiera dane. Niedawno instrument w ciągu tylko jednej nocy określił lokalizację niemal 200 000 galaktyk. Dotychczas żadne badania spektroskopowe nie dostarczyły nam tylu danych. Co miesiąc zbieramy informacje o ponad milionie galaktyk, mówi Nathalie Palanque-Delabrouille z Berkeley Lab. Dzięki temu już po roku naukowcy byli w stanie zmierzyć tempo rozszerzania się wszechświata w siedmiu różnych przedziałach czasowych. Zrekonstruowali historię rozszerzania się wszechświata w ciągu ostatnich 11 miliardów lat z precyzją wynoszącą 0,5%, a dla najstarszej z badanych epok, 8–11 miliardów lat temu, precyzja wyniosła rekordowe 0,82%. Takie pomiary są niezwykle trudne, a mimo to DESI po roku pracy dostarczył bardziej precyzyjnych wyników dotyczących tej wczesnej epoki niż projekt BOSS/eBOSS (Sloan Digital Sky Survey) po ponad 10 latach badań. Celem DESI jest sprawdzenie, jak wszechświat rozszerzał się w ciągu siedmiu epok swojej historii. Następnie naukowcy sprawdzają, jak dokonane pomiary pasują do modelu Lambda CDM. Z pierwszego roku badań wynika, że dane dostarczone przez DESI bardzo dobrze pasują do tego modelu, ale po uwzględnieniu innych danych, jak np. informacji o mikrofalowym promieniowaniu tła czy mapy supernowych, pojawiają się pewne niezgodności. Pojawia się rozbieżność z przewidywaniami Lambda CDM o 2.5, 3.5 lub 3.9 sigma, w zależności od tego, której z trzech map supernowych użyjemy. Czy jest to dużo? By to sobie uświadomić, posłużmy się przykładem. Gdy rzucamy monetą 100 razy możemy się spodziewać, że 50 razy wypadnie orzeł, a 50 razy reszka. Jeśli reszka wypadnie 60 razy mówimy o odchyleniu 2 sigma od średniej. Prawdopodobieństwo wystąpienia takiego wydarzenia całkowicie przypadkowo wynosi 1:20. Jeśli jednak reszka wypadnie 75 razy to prawdopodobieństwo uzyskania takiego wyniku całkowicie przypadkiem wynosi 1:2 000 000. To wartość 5 sigma, od której w fizyce mówimy o odkryciu. Odchylenie wynikające z badań DESI leży gdzieś pomiędzy wspomnianymi wartościami i w tej chwili nie potrafimy powiedzieć, czy to jedynie fluktuacja wyników czy dowód na to, że ciemna energia zmienia się w czasie. « powrót do artykułu
  16. Naukowcy z University of Cambridge stworzyli największą bazę ludzkich komórek piersi. Udało się dzięki temu określić wczesne mutacje w genach BRCA1 oraz BRCA2. Mutacje w tych genach zwiększają ryzyko nowotworów piersi i jajników. Naukowcy zauważyli, że komórki odpornościowe w tkankach piersi zdrowych kobiet, u których występują mutacje w BRCA1 i BRCA2, wykazują oznaki nieprawidłowego działania znanego jako „wyczerpanie”. Z tego powodu mogą nie być zdolne do oczyszczania organizmu z uszkodzonych komórek, z których może rozwinąć się nowotwór. Nasze badania wskazują, że w sytuacji wystąpienia mutacji BRCA układ odpornościowy nie jest w stanie zabijać uszkodzonych komórek w piersiach, mówi profesor Walid Khaled, jeden z autorów badań. Jesteśmy bardzo podekscytowani tym odkryciem, gdyż otwiera to możliwości działań prewencyjnych innych niż chirurgia u osób z mutacją BRCA. Już w tej chwili istnieją leki, które pozwalają na odblokowanie niedziałających komórek układu odpornościowego, ale dotychczas są one stosowane wyłącznie na późnych etapach choroby. Tak naprawdę nikt nie rozważał używania ich w profilaktyce chorób nowotworowych. Jednym z rozwiązań prewencyjnych jest chirurgiczne usunięcie piersi u osób, u których występuje podwyższone ryzyko rozwoju nowotworu. Profesor Khaled zwraca natomiast uwagę, że najlepszym sposobem  zapobiegania nowotworom jest przede wszystkim zrozumienie, w jaki sposób się one rozwijają. Dopiero dzięki temu będziemy mogli zidentyfikować te wczesne zmiany i podjąć odpowiednie działania. Nowotwory w późnym stadium rozwoju są zwykle bardzo nieprzewidywalne i trudne do opanowania. Opracowujemy coraz to lepsze i lepsze leki, a nowotwory wydają się opracowywać metody radzenia sobie z nimi, mówi Khaled. Autorzy badań pobrali próbki od 55 kobiet w różnym wieku i stworzyli katalog ponad 800 000 komórek, który zawiera wszystkie rodzaje komórek obecnych w piersiach. W ten sposób powstał Human Breast Cell Atlas, który został udostępniony innym badaczom. Atlas zawiera olbrzymią ilość informacji na temat czynników ryzyka rozwoju raka piersi, w tym na temat wpływu BMI, alkoholu, stosowania antykoncepcji itp. itd. Odkryliśmy, że istnieje wiele rodzajów komórek piersi, które się zmieniają. Zmiany zachodzą na przykład podczas ciąży, wraz z wiekiem, wpływają na nie też inne czynniki oraz połączenie tych czynników, a to wpływa na całkowite ryzyko rozwoju nowotworu, dodaje doktorant Austin Reed. Jednym z największych wyzwań odnośnie nowotworu piersi jest fakt, że tak naprawdę nie jest to jedna choroba, a wiele schorzeń. Do pojawienia się nowotworu piersi może prowadzić bardzo wiele mutacji genetycznych, a poszczególne mutacje wchodzą ze sobą w skomplikowane interakcje. Na przykład wiadomo, że ryzyko rozwoju raka piersi rośnie wraz z wiekiem, ale okazuje się, że ryzyko to jest znacznie mniejsze u kobiet, które zaszły w ciążę w młodym wieku. Autorzy nowych badań chcieli zrozumieć, w jaki sposób te czynniki ryzyka wchodzą w interakcje i opisali różne rodzaje komórek znajdujących się w ludzkich piersiach w zależności od stanu fizjologicznego organizmu. « powrót do artykułu
  17. Wbrew temu, co możemy usłyszeć od każdego matematyka, liczby pierwsze można przewidzieć, twierdzą naukowcy z City University of Hong Kong oraz North Carolina State University w USA. Przez tysiące lat – a pierwszym zachowanym studium liczb pierwszych są prace Euklidesa – uważano, że liczby takie pojawiają się przypadkowo, nie można z góry przewidzieć, jaka liczba będzie kolejną liczbą pierwszą. Dlatego też Way Kuo, jeden z autorów najnowszych badań, nazywa je rewolucyjnymi na polu teorii liczb pierwszych. Liczby pierwsze to liczby naturalne większe od 1, które bez reszty dzielą się tylko przez siebie same i przez 1. Kuo i jego koledzy, Han-Lin Li oraz Shu-Cherng Fang poinformowali o stworzeniu tablicy okresowej liczb pierwszych (PTP – Periodic Table of Primes). To metoda dokładnego i szybkiego przewidzenia, w którym miejscu pojawią się liczby pierwsze, mówi Kuo. PTP może zostać wykorzystana między innymi do faktoryzacji (rozkładu na czynniki) liczb całkowitych, identyfikowania liczb bliźniaczych – czyli dwóch liczb pierwszych, których różnica wynosi 2, przewidywania całkowitej liczby liczb pierwszych czy liczb bliźniaczych w konkretnym przedziale liczb. PTP może mieć olbrzymie znaczenie na polu bezpieczeństwa, gdyż liczby pierwsze są podstawą współczesnej kryptografii i bezpiecznego przesyłania danych. Artykuł The Periodic Table of Primes został opublikowany na łamach SSRN Electronic Journal. Dzięki temu każdy może się z nim zapoznać. Pozostaje pytanie, ile osób jest w stanie go zrozumieć, zatem jak długo potrwa weryfikacja i ewentualne potwierdzenie bądź odrzucenie PTP. « powrót do artykułu
  18. Przed tygodniem detektorysta Patryk Chmielewski znalazł na działce we wsi Mikułowice w województwie świętokrzyskim żelazną zbroję husarską. To niezwykle rzadkie odkrycie. Zbroje i ich elementy były cennymi pamiątkami rodzinnymi, trafiały do prywatnych i publicznych kolekcji. W polskich zbiorach muzealnych wyjątkowo trafiają się zbroje wyjęte z grobów. Nie ma prawdopodobnie żadnego przykładu zbroi, która zostałaby celowo zakopana. A tak właśnie było w przypadku zbroi z Mikułowic. Zbroja jest niekompletna. Brakuje w niej kirysu, który składał się napierśnika i naplecznika, czasem zastępowanego przez okrągłe umbo. Znalezisko składa się z półkolistego hełmu, szyszaka, z policzkami (osłonami boków twarzy) oraz częściowo zachowanym nakarczkiem. Jest też dwuczęściowy obojczyk chroniący szyję i kark, lewy naramiennik oraz dwa karwasze chroniące przedramiona. Elementy zbroi złożono jeden na drugim i zakopano na głębokości 60 centymetrów. Specjaliści wykluczają, by trafiły one do ziemi w czasie walk, gdyż po bitwie skrupulatnie zbierano pozostały oręż. W tym przypadku ktoś, z nieznanych nam powodów, zakopał elementy zbroi w wąskiej jamie i już po nie nie wrócił. Niekompletność znaleziska utrudnia jego datowanie, ale kształt szyszaka wskazuje na XVI wiek, prawdopodobnie na jego pierwszą połowę. W zbroi nie ma elementów dekoracyjnych z metali kolorowych, a to wskazuje, że raczej powstała w lokalnym warsztacie dla średnio zamożnego szlachcica. Jej właścicielem z pewnością nie był żaden możnowładca. Husaria, początkowo jazda lekkozbrojna, pojawia się w XVI wieku. W 2. połowie wieku XVII jest już elitarną jednostką ciężkozbrojną. Jako odrębny rodzaj jazdy została zlikwidowana w wojsku polskim w latach 70. XVIII wieku. « powrót do artykułu
  19. Autorzy najnowszych badań zauważyli, że 25% labradorów retriverów jest nosicielami mutacji genetycznej, która powoduje, że ciągle odczuwają głód i spalają mniej kalorii. To zaś oznacza, że są szczególnie podatne na rozwój otyłości. Właściciele takich psów muszą szczególnie zwracać uwagę na ich dietę oraz na poziom ich aktywności fizycznej. Wspomniana mutacja występuje w genie POMC, który odgrywa krytyczną rolę w regulacji głodu i użycia energii. Mutację POMC stwierdzono u 25% labradorów retrieverów i 66% flat coated retrieverów. Nowe badania pokazują, że mutacja ta głęboko zmienia sposób zachowania psów przy jedzeniu. Okazuje się, że psy, mimo iż nie potrzebują więcej jeść, czują się głodne pomiędzy posiłkami. Ponadto podczas odpoczynku zużywają o około 25% mniej energii niż psy bez tej mutacji. Odkryliśmy, że mutacja w genie POMC powoduje, że psy odczuwają głód. Mają więc skłonność do przejadania się, gdyż szybciej niż psy bez mutacji są głodne pomiędzy posiłkami, mówi główna autorka badań, doktor Eleanor Raffan z Wydziału fizjologii, rozwoju i neuronauk University of Cambridge. Psy z tą mutacją zmagają się z dwoma problemami. Nie tylko chcą jeść więcej, ale również potrzebują mniej kalorii, gdyż nie spalają ich tak szybko jak inne psy, dodaje uczona. Takie zwierzęta bez przerwy szukają możliwości zjedzenia czegoś, więc ich właścicielom bardzo trudno jest zadbać o ich prawidłowa wagę. Naukowcy radzą właścicielom, by odwracali uwagę swoich pupili od ciągle dręczącego ich uczucia głodu. Można to zrobić poprzez podzielenie ich dziennych porcji na więcej posiłków i podawanie im ich częściej, wsadzanie żywności do specjalnych zabawek czy chowanie jej w domu lub ogrodzie, by posiłek trwał dłużej. W badaniach wzięło udział 87 dorosłych labradorów. Wszystkie miały prawidłową wagę lub lekka nadwagę. Najpierw psy karmiono co 20 minut, aż same decydowały, że już nie chcą więcej. Wszystkie zjadały olbrzymie ilości pożywienia, ale psy z mutacją POMC wcale nie jadłu więcej, niż te bez mutacji. To wskazywało, że najadają się podobną ilością pożywienia. Następnie, innego dnia, psy otrzymały standardowe śniadanie. Dokładnie trzy godziny później przed zwierzętami położono kiełbasę zamknięta w przezroczystym plastikowym pojemniku z otworami. Psy widziały i czuły smakołyk, ale nie mogły go zjeść. Naukowcy zauważyli, że zwierzęta z mutacją POMC znacznie bardziej intensywnie próbowały zdobyć kiełbasę, co wskazuje, że odczuwały większy głód. W ramach trzeciego eksperymentu psy spały w specjalnych pomieszczeniach, gdzie wykonywano pomiary wydychanych przez nie gazów. Na tej podstawie badacze stwierdzili, że zwierzęta z mutacją POMC spalają w czasie odpoczynku 25% mniej kalorii, niż te bez mutacji. Mutacja genu POMC w podobny sposób wpływa na mózg ludzi i psów. W psim mózgu blokuje ona produkcję dwóch hormonów: β-MSH, odpowiedzialnego za zmniejszenie łaknienia oraz powiązanej z głodem beta-endorfiny. Nie zakłóca natomiast produkcji α-MSH, odpowiedzialnego m.in. za zdobywanie pożywienia oraz homeostazę energetyczną. Przeprowadzone właśnie badania laboratoryjne wykazały, że β-MSH i beta-endorfiny decydują o odczuwaniu głodu i zużyciu energii, a ich rola jest niezależna od obecności α-MSH. To przeczy wynikom uzyskanych na szczurach, na podstawie których wyciągnięto wniosek, że u ludzi otyłość spowodowana mutacją w POMC ma miejsce tylko przy braku α-MSH. Szczury nie wytwarzają β-MSH, natomiast organizmy ludzi i psów wytwarzają zarówno α- jak i β-MSH. To, co zaobserwowano zgadza się z doniesieniami o ekstremalnie silnym uczuciu głodu, jakie odczuwają osoby z mutacją POMC. Osoby takie zwykle są otyłe już w młodym wieku i cierpią na wiele problemów związanych z otyłością. « powrót do artykułu
  20. Uruchomiona właśnie platforma crowdsourcingowa ma za zadanie uratować przed zagładą wyjątkowy język – pontyjski, zwany przez jego użytkowników ρωμαικά, czyli „rzymski”. Przymiotnik „rzymski” nie jest tutaj przypadkowy, gdyż jest to język, który stanowi pomost pomiędzy czasami współczesnymi, a greką, którą mówiono w cesarstwie wschodniorzymskim, zwanym przez nas Cesarstwem Bizantyńskim. Jednak jest to nazwa stworzona przez historiografię nowożytną. Sami mieszkańcy tego państwa zwali je Cesarstwem Rzymian. I właśnie z jego mieszkańcami i językiem łączy nas język pontyjski. Platforma powstała pod kierunkiem profesor Ioanny Sitaridou z Wydziału języków współczesnych, średniowiecznych i lingwistyki Queen's College. Wniesie ona wkład w ogłoszoną przez ONZ Międzynarodową Dekadę Rdzennych Języków (2022–2032), której celem jest zwrócenie uwagi na trudną sytuację wielu rdzennych języków, ich zachowaniem promocję i rozpowszechnienie. Językiem pontyjskim posługuje się kilka tysięcy osób w tureckiej prowincji Trabzon na południu Morza Czarnego. To region, który w przeszłości należał do Cesarstwa Trapezuntu, istniejącego w latach 1206–1461. Rzeczywistą liczbą użytkowników jest jednak trudno ocenić, gdyż językiem tym posługuje się też diaspora, a w samej Turcji wyraźny jest proces porzucania pontyjskiego. Wielu użytkowników ma ponad 65 lat i coraz mniej młodych ludzi zna pontyjski. Na platformie Crowdsourcing Romeyka użytkownicy pontyjskiego mogą nagrać swoje wypowiedzi w tym języku. Pozyskiwanie próbek mowy to nowe narzędzie, które pomaga użytkownikom języka tworzyć bazę danych ich zagrożonego dziedzictwa, a naukowcom ułatwia dokumentowanie języka i zachęcanie użytkowników do docenienie swojego dziedzictwa lingwistycznego. Jednocześnie powstaje żywy pomnik języka, mówi profesor Sitaridou, która bada język pontyjski od 16 lat. Uruchomienie platformy zbiegło się z ogłoszeniem przez Sitaridou ważnych odkryć dotyczących pontyjskiego. Uczona poinformowała, że język ten pochodzi od greki hellenistycznej, a nie średniowiecznej, co czyni go odmiennym od pozostałych dialektów współczesnej greki. Język pontyjski to raczej siostra, a nie córka, greki nowożytnej, mówi uczona. O tym, jak ważna jest nowa platforma, niech świadczy fakt, że w ciągu ostatnich 150 lat jedynie 4 naukowców zbierało w Trabzonie dane dotyczące pontyjskiego. Profesor Sitaridou zgromadziła największą bazę nagrań audio i wideo. Współpracując z lokalnymi społecznościami, głównie z kobietami – bo to przede wszystkim one są nosicielkami tego języka – zebrała ponad 29 gigabajtów informacji i jest autorką 21 artykułów opublikowanych w recenzowanych pismach naukowych. Kluczowym elementem pracy Sitaridou są badania bezokolicznika w języku pontyjskim. Wszystkie inne współczesne dialekty greki przestały używać bezokolicznika występującego samodzielnie, w taki sposób, w jaki używano go w starożytnej grece. Jest on używany wraz ze słowem posiłkowym. Uczona udowodniła w ten sposób, że pontyjski przechował bezokolicznik i jego funkcje pochodzące z greki okresu hellenistycznego. We wszystkich współczesnych dialektach greki samodzielny bezokolicznik zniknął w średniowieczu. Greka zaczęła rozprzestrzeniać się wokół Morza Czarnego w VI wieku p.n.e. Jonowie z Attyki założyli na zachodnim wybrzeżu dzisiejszej Turcji Milet, z kolei koloniści z Miletu założyli na wybrzeżu Morza Czarnego Synopę, a jej mieszkańcy skolonizowali Trapezunt. Pont, czyli południowo-wschodnie wybrzeża Morza Czarnego stały się ważnym centrum języka greckiego. Podboje Aleksandra Wielkiego doprowadziły do utworzenia drugiego centrum, w Kapadocji. Jednak najważniejszym zjawiskiem dla rozszerzenia zasięgu greki stała się chrystianizacja. Mieszkańcy Pontu byli jednymi z pierwszych, którzy przyjęli chrześcijaństwo, są wspomniani w Nowym Testamencie. W 1461 roku Cesarstwo Trapezuntu zostało podbite przez Imperium Osmańskie. Konwersja na islam w Azji Mniejszej zwykle wiązała się z przejściem na język turecki. Jednak mieszkańcy dolin pozostali przy języku pontyjskim. A z powodu islamizacji zachowali niektóre cechy języka starożytnego, podczas gdy greckie społeczności, które pozostały przy chrześcijaństwie, zaczęły używać współczesnej greki. W dużej mierze przyczynił się do tego rozwój szkolnictwa w XIX i XX wieku, wyjaśnia profesor Sitaridou. Niedawno uczona rozpoczęła prace językoznawcze w okręgu Tonya, położonym na zachodzie prowincji Trabzon. Tam nigdy nie dotarł żaden badacz. Sitaridou odnotowała istnienie znaczących różnic gramatycznych wśród mieszkańców poszczególnych dolin. To wskazuje na różny przebieg islamizacji tych terenów. Wkrótce ukaże się jej praca, w której pani profesor argumentuje, że składnia zdań podrzędnych i przeczących w Tonya rozwijała się wedle innego wzorca niż w okręgu Çaykara ze wschodu prowincji Trabzon. W 1923 roku doszło do wymiany ludności pomiędzy Grecją a Turcją. Z Turcji wysiedlono chrześcijan mówiących językiem pontyjskim, pozostali tylko muzułmańscy użytkownicy tego języka. Dwie oddzielne grupy, ze wschodu i zachodu Trabzonu, które do niedawna nie miały pojęcia i swoim istnieniu. Sytuację użytkowników języka pontyjskiego dodatkowo utrudnia fakt, że niechętnie na nich patrzą zarówno nacjonaliści tureccy, jak i greccy. Dla tureckich nacjonalistów posługiwanie się w ich kraju innym językiem niż turecki jest sprzeczne z przynależnością narodową. Dla nacjonalistów greckich język pontyjski jest „zanieczyszczony” i sprzeczny z ideologią jednego języka greckiego używanego nieprzerwanie od starożytności. « powrót do artykułu
  21. W centrum odległej galaktyki nagle rozbłysła supermasywna czarna dziura i okazało się, że ma ona „czkawkę”. To pierwsze znane zjawisko tego typu. Członkowie międzynarodowego zespołu badawczego uważają, że najbardziej prawdopodobnym wyjaśnieniem tego zjawiska jest obecność mniejszej czarnej dziury, która krąży wokół supermasywnego towarzysza, wyrzucając do 8,5 doby materiał z jego dysku akrecyjnego. Taka hipoteza to wyzwanie dla dotychczasowych poglądów na dyski akrecyjne czarnych dziur, które są postrzegane jako dość jednolite skupiska materiału. Nowe badania sugerują, że mogą one być zróżnicowane i zawierać inne czarne dziury czy nawet gwiazdy. Sądziliśmy, że sporo wiemy o czarnych dziurach, ale to pokazuje, że jeszcze wiele musimy się nauczyć. Uważamy, że istnieją inne podobne systemy, potrzebujemy po prostu więcej danych, by je znaleźć, stwierdza Dheeraj Pasham z Kavli Institute for Astrophysics and Space Research. Odkrycia niezwykłego podwójnego układu czarnych dziur dokonano za pomocą ASAS-SN (All Sky Automated Survey for SuperNovae). To zespół 20 automatycznych teleskopów rozmieszczonych na obu półkulach, które codziennie dokonują przeglądu nieboskłonu w poszukiwaniu supernowych i innych przemijających zjawisk. W grudniu 2020 roku teleskopy zarejestrowały rozbłysk w galaktyce oddalonej o 800 milionów lat świetlnych. Galaktyka nagle pojaśniała 1000-krotnie. A stało się to w regionie nieboskłonu, który dotychczas wydawał się dość ciemny i spokojny. Informacja o rozbłysku została automatycznie rozesłana do astronomów i zobaczył ją Pasham. Uczony postanowił przyjrzeć się temu zjawisku za pomocą teleskopu NICER (Neutron star Interior Composition Explorer), umieszczonego na Międzynarodowej Stacji Kosmicznej. NICER monitoruje nieboskłon w poszukiwaniu rozbłysków w paśmie promieniowania rentgenowskiego. Zjawiska takie mogą świadczyć o aktywności gwiazd neutronowych czy czarnych dziur. Był w tym wszystkim łut szczęścia, gdyż powoli dobiegał końca roczny okres, w którym Pasham miał pozwolenie na kierowanie NICAR na wybrane przez siebie obiekty. Mogłem użyć tego teleskopu, albo stracić okazję na obserwację. Okazało się, że to mój najszczęśliwszy zawodowy przypadek, mówi uczony. NICER obserwował odległą galaktykę przez cztery miesiące, zanim jej jasność wróciła do normy. Gdy uczony bliżej przyjrzał się danym zauważył, że w bardzo wąskim zakresie promieniowania rentgenowskiego co 8,5 doby pojawiają się niewielkie spadki jasności. Wzorzec był podobny do tego, co można zaobserwować, gdy planeta przechodzi na tle gwiazdy, na krótko blokując część jej światła. Jednak żadna gwiazda nie byłaby w stanie zablokować rozbłysku całej galaktyki. Nie wiedziałem co to oznacza. Ten wzorzec nie pasował do niczego, co wiedzieliśmy o takich systemach, mówi Pasham. W końcu uczony trafił na artykuł opublikowany niedawno przez fizyków-teoretyków z Czech. Pisali oni, że teoretycznie jest możliwe, by wokół supermasywnej czarnej dziury w centrum galaktyki krążyła druga, znacznie mniejsza czarna dziura. Czescy uczeni stwierdzali, że taka czarna dziura okresowo przebijałaby się przez dysk akrecyjny większej towarzyszki, doprowadzając do rozrzucenia gazu. Potężne pola magnetyczne na południe i północ czarnej dziury powodowałyby, że gaz ten byłby kierowany w górę i w dół od dysku akrecyjnego. Za każdym razem, gdy mniejsza czarna dziura przebijałaby dysk akrecyjny, pojawiałby się strumień gazu. Gdyby zaś ten strumień był skierowany w stronę obserwującego teleskopu, to całe zjawisko wyglądałoby jak okresowe spadki jasności galaktyki – stwierdzali teoretycy z Czech. Byłem niesamowicie podekscytowany ich teorią. Od razu napisałem do nich maila z informacją, że zaobserwowałem to, co opisali, wspomina Pasham. Naukowiec wspólnie z czeskimi kolegami przeprowadzili symulacje z wykorzystaniem danych z NICER i okazało się, że wszystko do siebie pasuje. Symulacje wykazały, że badany przez nich system składa się z galaktyki, której supermasywna centralna czarna dziura ma masę około 50 milionów razy większą niż masa Słońca. Jest więc około 12 razy bardziej masywna niż czarna dziura w centrum Drogi Mlecznej. Wokół tej potężnej czarnej dziury może znajdować się rozproszony słabo widoczny dysk akrecyjny oraz mniejsza czarna dziura o masie od 100 do 10 000 mas Słońca. W grudniu 2020 roku jakiś trzeci obiekt, prawdopodobnie gwiazda, znalazł się zbyt blisko supermasywnej czarnej dziury i został rozerwany przez siły pływowe. Wywołany tym zjawiskiem nagły dopływ materiału do dysku akrecyjnego spowodował gwałtowne pojaśnienie całej galaktyki. Przez cztery miesiące supermasywna czarna dziura wchłaniała dodatkową materię, a mniejsza czarna dziura kontynuowała swą podróż wokół większego towarzysza. Regularnie wyrzucała przy tym materiał dysku akrecyjnego, a jego strumień był skierowany na wprost teleskopu NICER. Mamy tutaj wspaniały przykład, jak szczątki ze zniszczonej gwiazdy mogą rozświetlić wnętrze jądra galaktyki, które w innym przypadku pozostałoby dla nas ciemne. To tak, jakbyśmy wpuścili fluorescencyjny barwnik, by odnaleźć wyciek w rurociągu, mówi Richard Saxton z European Space Astronomy Centre, który nie był zaangażowany w badania. To pokazuje nam, że układy podwójne czarnych dziur mogą powszechnie występować w jądrach galaktyk. Ich poszukiwanie może być zadaniem przyszłych wykrywaczy fal grawitacyjnych, dodaje uczony. « powrót do artykułu
  22. Francuska Komisja Energii Atomowej i Energii Alternatywnych (CEA) zaprezentowała pierwsze skany ludzkiego mózgu wykonane za pomocą najpotężniejszej na świecie maszyny do rezonansu magnetycznego. Iseult MRI wykorzystuje pole magnetyczne o natężeniu 11,4 tesli. Maszyny używane w szpitalach generują pole o natężeniu 1,5 lub 3 tesli. Nowy skaner pozwala bardzo szybko uzyskać obraz o niezwykle dużej rozdzielczości. Dość wspomnieć, że w czasie krótszym niż 4 minuty Iseult MRI wykonuje obrazy o rozdzielczości 0,2 mm i grubości warstwy 1 mm. Standardowe MRI musiałyby pracować przez kilka godzin, by uzyskać tak szczegółowy obraz, wykonanie więc takiego skanowania u pacjenta jest praktycznie niemożliwe. Uzyskanie tak dużej rozdzielczości pozwoli na zdobycie niedostępnych dotychczas informacji o działaniu mózgu, zrozumienie w jaki sposób koduje on informacje czy poszukiwanie neuronalnych sygnatur stanu świadomości. Olbrzymia rozdzielczość nowej maszyny będzie miała wpływ na badania medyczne. Szczegółowe informacje, uzyskane dzięki nowemu skanerowi, wspomogą badania nad chorobami Parkinsona czy Alzheimera. Ponadto Iseult MRI ułatwi wykrywanie w mózgu sygnałów pochodzących z niektórych związków chemicznych, które trudno jest wykryć przy pomocy pola magnetycznego o niższym natężeniu. Mowa tutaj przede wszystkim o licie, który jest wykorzystywany do leczenia zaburzeń dwubiegunowych. Lepsza ocena umiejscowienia tego pierwiastka w mózgu umożliwi lepsze określenie efektywności leczenia. Możliwe będzie też dokładniejsze badanie wpływu molekuł zaangażowanych w metabolizm mózgu, takich jak glukoza czy glutaminianu, a to z kolei pozwoli badać wiele różnych chorób, od nowotworów po choroby neurodegeneracyjne. Dzięki projektowi Iseult otwierają się przed nami całkowicie nowe możliwości. Chcemy je wykorzystać. Wciąż konieczne są kolejne lata prac badawczo-rozwojowych nad metodami gromadzenia danych, musimy się upewnić, że uzyskujemy dane o najwyższej możliwej jakości. W latach 2026–2030 skupimy się na badaniu chorób neurodegeneracyjnych oraz chorób związanych z psychiatrią, jak schizofrenia i zaburzenia dwubiegunowe. Nauki poznawcze również będą w centrum naszych zainteresowań, zapowiada Nicolas Boulant, dyrektor ds. badań w CEA, który kieruje projektem Iseult. Iseult MRI to efekt ponad 20 lat prac badawczo-rozwojowych. Maszyna waży 132 tony, ma 5 metrów długości i 5 metrów szerokości, wykorzystuje 182 kilometry nadprzewodzących kabli, a przez cewkę przepływa prąd o natężeniu 1500 amperów. Wykorzystywany w skanerze magnes został schłodzony do temperatury -271,35 stopni Celsjusza za pomocą 7500 litrów ciekłego helu. « powrót do artykułu
  23. Pozostawianie świadectw archeologicznych in situ to preferowana metoda zachowywania znalezisk dla przyszłych pokoleń, które mogłyby badać je doskonalszymi metodami. Jednak odkrycie dokonane przez naukowców z University of York każe postawić pod znakiem zapytania jej wartość. Okazuje się bowiem, że zanieczyszczenie mikroplastikiem jest tak wielkie, iż jego fragmenty można znaleźć w próbkach archeologicznych pobranych nawet z głębokości 7 metrów. Nie można wykluczyć, że migrujące fragmenty plastiku są w stanie zniszczyć stanowiska archeologiczne. Coś, co dotychczas uznawaliśmy za dziewicze depozyty archeologiczne, gotowe do badań, są zanieczyszczone plastikiem. Dotyczy to również próbek pobranych i przechowywanych od końca lat 80. Przyzwyczailiśmy się już do plastiku w rzekach i oceanach. Tutaj jednak widzimy, że nasze dziedzictwo archeologiczne również zawiera te toksyczne elementy. Spróbujemy się dowiedzieć, na ile zagrażają one stanowiskom archeologicznym, mówi profesor John Schofield z Wydziału Archologii Univeristy of York. To właśnie ta uczelnia, we współpracy z University of Hull i York Archeology przeprowadziła badania, których wyniki opublikowano w Science of the Total Environment. David Jennings, dyrektor York Archeology, dodaje, że myślimy o mikroplastiku jako o współczesnym zjawisku, gdyż tak naprawdę głośno mówi się o nim od około 20 lat, jednak profesor Richard Thompson ujawnił w 2004 roku, że mikroplastik powszechnie pojawił się w oceanach w latach 60., po wielkim powojennym boomie produkcji plastiku. Nowe badania pokazują zaś, że mikroplastik infiltruje glebę, w tym istotne stanowiska archeologiczne. Ich autorzy zidentyfikowali bowiem 16 różnych rodzajów mikroplastiku zarówno we współecznych, jak i archiwalnych próbkach archeologicznych. Jenning wyjaśnia, czego obawiają się autorzy badań. Nasze najlepiej zachowane stanowiska archeologiczne, na przykład stanowisko wikingów w Coppergate, przetrwały do naszych czasów, gdyż przez ponad 1000 lat były pełne wody i panowały tam warunki beztlenowe. Mikroplastik zmienia chemię gleby i może potencjalnie wprowadzać elementy, które spowodują rozkład materii organicznej. Jeśli tak się rzeczywiście dzieje, to zachowywanie stanowisk in situ nie jest już najlepszą metodą. Uczony dodaje, że badania wpływu mikroplastiku na stanowiska archeologiczne powinny stać się priorytetem, gdyż te wytworzone przez człowieka związki chemiczne mogą mieć wpływ na stanowiska archeologiczne. « powrót do artykułu
  24. W nocy z 24 na 25 marca 1944 roku, po niemal roku kopania tunelu, 76 więźniów różnych narodowości uciekło z obozu jenieckiego Stalag Luft III. Wszyscy, z wyjątkiem trzech, zostali schwytani i w ciągu tygodnia – na osobisty rozkaz Hitlera – zamordowano 50 z nich. Z czasem na kanwie tej historii powstał słynny film ze Steve'em McQuinnem. Pracownicy brytyjskich The National Archives odkryli właśnie dokument sugerujący, że uciekinierzy mogli zostać zdradzeni. Kapitan lotnictwa kartograf Desmond Plunkett był 13. z uciekinierów opuszczających tunel. Nikt nie chciał uciekać jako 13., więc Plunkett się zgłosił. Został złapany na granicy z Austrią i spędził osiem miesięcy w więzieniu gestapo, zanim przeniesiono go do Stalag Luft I. W The National Archives znaleziono właśnie jego zeznania, które złożył po uwolnieniu z obozu w maju 1945 roku. Jest dwóch ludzi... to ich działania przyniosły zgubę 50 zamordowanym jeńcom. Trzeba ich znaleźć. To na pewno rodowici Anglicy. Muszą być osądzeni za kolaborację z wrogiem, stwierdził Plunkett w kwestionariuszu, który wypełniał każdy uwolniony jeniec. Doktor William Butler, ekspert ds. wojskowości i dyrektor Zbiorów Współczesnych w The National Archives mówi, że gdy Plunkett został oswobodzony z obozu jenieckiego, trafił do szpitala z powodu zaburzeń psychicznych wywołanych przez pobyt w więzieniu gestapo. Pewne poszlaki wskazują, że obwiniał siebie o śmierć 50 kolegów, gdyż podczas przesłuchania przez gestapo mógł coś przypadkiem powiedzieć. Jednak inni więźniowie zapewnili Plunketta, że nie mógł być winny, gdyż jeńcy zostali zamordowani zanim jeszcze trafił w ręce niemieckiej tajnej policji. W filmie „Wielka ucieczka” na postaci Plunketta wzorowany jest kapitan Colin Blythe grany przez Donalda Plreasence'a. Blythe rysuje dla uciekinierów 2500 map. Pleasence stworzył swoją postać częściowo na własnych doświadczeniach. Był radiooperatorem w bombowcach RAF, został zestrzelony nad Francją w sierpniu 1944 roku i trafił do Stalag Luft I. « powrót do artykułu
  25. Spokojnych Świąt Wielkanocnych. Dużo zdrowia, radości i odpoczynku. Ania, Jacek i Mariusz « powrót do artykułu
×
×
  • Create New...