Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' pomiar' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 9 wyników

  1. Naukowcy z Katedry i Kliniki Chorób Wewnętrznych, Pneumonologii i Alergologii Centralnego Szpitala Klinicznego Uniwersyteckiego Centrum Klinicznego Warszawskiego Uniwersytetu Medycznego (CSK UCK WUM) oraz Instytutu Biocybernetyki i Inżynierii Biomedycznej im. Macieja Nałęcza PAN prowadzą badania nad unikalną metodą monitorowania ciśnienia opłucnowego podczas usuwania płynu z jamy opłucnej. Specjaliści podkreślają, że obecność płynu w jamie opłucnej to dość częsty problem kliniczny. Przyczyną mogą być takie choroby, jak zapalenie płuc, gruźlica, choroby nowotworowe, niewydolność serca czy marskość wątroby. Z szacunkowych danych wynika, że wysięk w jamie opłucnej spowodowany schorzeniami nowotworowymi dotyka w Polsce ok. 20-25 tys. pacjentów/rok. Lekarze pracujący w oddziałach chorób wewnętrznych czy oddziałach chorób płuc spotykają się z takimi pacjentami na co dzień, a punkcja opłucnej (toracenteza), podczas której usuwa się płyn z jamy opłucnej, jest powszechnie stosowanym zabiegiem o charakterze diagnostycznym i terapeutycznym – wyjaśnia prof. Rafał Krenke, kierownik Katedry i Kliniki Chorób Wewnętrznych, Pneumonologii i Alergologii CSK UCK WUM. Cele konsorcjum naukowego W ramach projektu "Wykorzystanie wysokoobjętościowej toracentezy i pomiaru ciśnienia opłucnowego do badania nowo opisanych zjawisk patofizjologicznych u chorych z płynem w jamie opłucnej" konsorcjum naukowe chce zbadać 1) zależności między objętością usuwanego płynu a ciśnieniem opłucnowym oraz 2) możliwości wpływania na tempo spadku ciśnienia podczas zabiegu. Zespół wymienia też cele szczegółowe badania. Specjaliści chcą zweryfikować hipotezę, że kaszel lub zastosowanie ciągłego dodatniego ciśnienia w drogach oddechowych przez maskę twarzową (CPAP) poprawia upowietrznienie płuca. Zamierzają też ocenić, czy spadek utlenowania krwi podczas i po zakończeniu zabiegu ma związek ze zwiększonym przepływem krwi przez nieupowietrzniony fragment płuca. Oprócz tego zbadany ma zostać wpływ obecności płynu na funkcję mięśni oddechowych. Prof. Krenke podkreśla, że badania mają nowatorski charakter. "Wyznaczamy nowe trendy i kierunki badań nad chorobami opłucnej". Elektroniczny manometr - autorskie urządzenie polskich specjalistów W komunikacie WUM podkreślono, że w czasie rutynowo wykonywanej punkcji nie stosuje się pomiaru ciśnienia opłucnowego. Może więc dochodzić do jego gwałtownego obniżenia i rozwoju groźnego stanu zwanego porozprężeniowym obrzękiem płuca. Chcąc temu zapobiec, specjaliści z WUM badają od jakiegoś czasu unikatową metodę monitorowania ciśnienia opłucnowego z wykorzystaniem elektronicznego manometru. Jest to autorskie urządzenie, skonstruowane we współpracy z inżynierami z Instytutu Biocybernetyki i Inżynierii Biomedycznej PAN. Już na etapie wstępnych badań stwierdzono, że dzięki pomiarowi ciśnienia opłucnowego w czasie toracentezy można bezpiecznie usunąć większą objętość płynu niż standardowa zalecana (1-1,5 l) i zakończyć zabieg, gdy dojdzie do nagłego spadku tego ciśnienia. Optymistyczne wyniki wstępnych badań oraz zaobserwowanie wielu ciekawych i nieznanych zjawisk zachęciły nas do kontynuowania prac nad opracowaniem bezpiecznej i skutecznej procedury ewakuacji płynu z jamy opłucnej – zaznacza prof. Krenke. Wpływ kaszlu i dodatniego ciśnienia w drogach oddechowych Na co badacze zwrócili uwagę? Zauważyli, że kaszel pojawiający się podczas toracentezy prowadzi do podwyższenia ciśnienia w jamie opłucnej, co z kolei skutkuje zmniejszeniem tempa spadku ciśnienia w trakcie usuwania płynu. Podczas toracentezy dochodzi do spadku ciśnienia w jamie opłucnej. Okazało się, że kaszel może przeciwdziałać zbyt gwałtownemu obniżeniu tego ciśnienia. W konsekwencji kaszel może być postrzegany jako korzystne zjawisko, pozwalające lekarzowi skuteczniej usunąć płyn - wyjaśnia Krenke. Bazując na tych spostrzeżeniach, zespół zamierza również zbadać wpływ dodatniego ciśnienia w drogach oddechowych na tempo spadku ciśnienia opłucnowego. Dostępne dane wskazują, że jeśli u pacjenta poddanemu toracentezie stosuje się dodatnie ciśnienie w drogach oddechowych, to tempo spadku ciśnienia opłucnowego się zmniejsza, a tym samym zwiększa się bezpieczeństwo zabiegu oraz objętość płynu, którą można usunąć. W naszych badaniach chcemy do tego celu wykorzystać prosty aparat generujący dodatnie ciśnienie i maskę mocowaną do twarzy pacjenta. Sprawdzimy, jak ta procedura wpłynie na skuteczność zabiegu i proces rozprężania się płuca w trakcie usuwania płynu - tłumaczy profesor. Dotąd podobne badania prowadzono na świecie raz, ale były to badania wstępne, sprawdzające wpływ dodatniego ciśnienia. Brakuje zatem większych badań, które pokażą, czy metoda naprawdę jest skuteczna. Zjawisko, którego nikt wcześniej nie opisał Naukowcom zależy także na lepszym poznaniu zależności między wahaniami ciśnienia w jamie opłucnej podczas oddychania i zmianą objętości serca. Prawidłowym warunkiem wentylacji płuca są stałe zmiany ciśnienia w jamie opłucnej, które obniża się w czasie wdechu, a podwyższa się podczas wydechu. W naszych wcześniejszych badaniach, prowadzonych wspólnie z kolegami kardiologami, zauważyliśmy dodatkowe mikrowahania ciśnienia w jamie opłucnej, które prawdopodobnie odpowiadają zmianom objętości serca. W trakcie rozpoczętego właśnie projektu chcemy ustalić znaczenie tych oscylacji oraz sprawdzić, czy wiedza ta może zostać wykorzystana w medycynie klinicznej - objaśnia prof. Krenke. Rola rehabilitacji Istotną częścią badań ma być ocena skuteczności rehabilitacji pacjentów przechodzących toracentezę. Płuco, które było uciśnięte przez płyn, stosunkowo powoli powraca do swoich normalnych objętości. Dlatego realizując obecny projekt, chcemy zbadać, czy intensywna rehabilitacja w okresie okołozabiegowym pozwoli zwiększyć sprawność rozprężania się płuca po usunięciu płynu z jamy opłucnej. « powrót do artykułu
  2. Po raz pierwszy udało się zademonstrować działanie interferometrii atomowej w przestrzeni kosmicznej. Osiągnięcie niemieckich naukowców oznacza, że interferometry atomowe, niezwykle precyzyjne urządzenia pomiarowe, mogą zostać wykorzystane poza Ziemią, np. na Międzynarodowej Stacji Kosmicznej. Posłużyć tam mogą chociażby do pomiarów pola grawitacyjnego Ziemi czy wykrywania fal grawitacyjnych. Stworzyliśmy technologiczne podstawy do wykorzystania interferometrii atomowej na pokładzie rakiety meteorologicznej i wykazaliśmy, że prowadzenie tego typu eksperymentów jest możliwe nie tylko na Ziemi ale i w kosmosie, mówi profesor Patrick Windpassinger z Instytutu Fizyki z Uniwersytetu Jana Gutenberga w Moguncji. Prace prowadzili naukowcy z różnych uczelni i instytucji badawczych, a zespołem kierowali specjaliści z Uniwersytetu Hanowerskiego. W styczniu 2017 roku wystrzelili oni misję MAIUS-1. Jest to pierwsza w historii misja, w czasie której kondensat Bosego-Einsteina był generowany w przestrzeni kosmicznej. Ten specjalny stan materii uzyskuje się schładzając atomy – w tym przypadku atomy rubidu – do temperatur bliskich zeru absolutnemu. Ta ultrazimna materia stała się dla nas obiecującym punktem wyjścia do interferometrii atomowej, mówi Windpassinger. Niskie temperatury odgrywają tutaj kluczową rolę, gdyż pozwalają na prowadzenie bardzo precyzyjnych i dłuższych pomiarów. W czasie eksperymentów wykorzystywano laser do odseparowywania od siebie atomów rubidu i tworzenia ich superpozycji. Możliwe było w ten sposób wytworzenie różnych wzorców interferencji pomiędzy atomami, co z kolei można wykorzystać do badania sił wpływających na atomy, w tym do badania grawitacji. Misja MAIUS-1 przyniosła więc potwierdzenie słuszności opracowanej koncepcji oraz jej technicznej wykonalności. To zaś oznacza, że możliwe będzie wykorzystanie interferometru atomowego utworzonego z kondensatu Bosego-Einsteina do prowadzenia różnych badań i pomiarów. W najbliższym czasie niemieccy naukowcy chcą sprawdzić, czy taki interferometr zda egzamin. W roku 2022 wystartuje MAIUS-2, a w roku 2023 – MAIUS-3. Uczeni chcą użyć interferometrów stworzonych nie tylko z atomów rubidu, ale też potasu. Porównując przyspieszenie podczas spadku swobodnego pomiędzy tymi dwoma typami atomów można będzie przetestować Einsteinowską zasadę równoważności z niedostępną dotychczas precyzją. W przyszłości tego typu eksperymenty można będzie prowadzić na satelitach lub Międzynarodowej Stacji Kosmicznej, gdzie prawdopodobnie uda się do tego wykorzystać planowane właśnie BECCAL czyli Bose Einstein Condensate and Cold Atom Laboratory. W tym wypadku precyzja pomiarów nie będzie ograniczona krótkim czasem swobodnego spadku rakiety, wyjaśnia doktor Andre Wenzlawski z grupy badawczej Windpassingera. Szczegóły badań opisano na łamach Nature Communications. « powrót do artykułu
  3. Najbardziej precyzyjny z dotychczasowych pomiarów wartości stałej struktury subtelnej zarysowuje nowe granice dla teorii mówiących o istnieniu ciemnej materii czy ciemnej energii. Nowa wartość to nie tylko dodatkowy test Modelu Standardowego, ale i wskazówka, gdzie należy poszukiwać ciemnej materii, która wraz z ciemną energią stanowi ponad 90% masy wszechświata. Stała struktury subtelnej to kombinacja trzech stałych fundamentalnych, stałej Plancka, ładunku elektronu oraz prędkości światła. Łącznie określają one siłę oddziaływań elektromagnetycznych, przez co stała struktury subtelnej powszechnie występuje we wszechświecie. Jako, że jest to wielkość bezwymiarowa, niezależna od systemu jednostek, jest w pewnym sensie bardziej podstawowa niż inne stałe fizyczne, których wartość zmienia się w zależności od systemu. Niewielka wartość stałej struktury subtelnej, wynosząca około 1/137 wskazuje, że oddziaływania elektromagnetyczne są słabe. To zaś oznacza, że elektrony znajdujące się na orbitach w pewnej odległości od jądra atomu mogą tworzyć wiązania i budować molekuły. To właśnie ta ich właściwość umożliwiła powstanie gwiazd czy planet. Wielu fizyków twierdzi, że takiej a nie innej wartości stałej struktury subtelnej zawdzięczamy własne istnienie. Gdyby bowiem była ona nieco większa lub nieco mniejsza, gwiazdy nie mogłyby syntetyzować cięższych pierwiastków, takich jak np. węgiel. Życie w znanej nam postaci by więc nie istniało. Dotychczasowe pomiary stałej struktury subtelnej umożliwiły prowadzenie precyzyjnych testów zależności pomiędzy cząstkami elementarnymi. Zależności te są opisane równaniami, tworzącymi Model Standardowy. Każda niezgodność pomiędzy przewidywaniami Modelu a obserwacjami może wskazywać na istnienie nieznanych zjawisk fizycznych. Zwykle stałą struktury subtelnej mierzy się określając siłę odrzutu atomów absorbujących fotony. Energia kinetyczna tego odrzutu pozwala określić masę atomu. Następnie, na podstawie precyzyjnej znajomości stosunku masy atomu do elektronu, obliczamy masę elektronu. W końcu możemy określić stałą struktury subtelnej z masy elektronu oraz siły wiązań atomowych w wodorze. Naukowcy pracujący pod kierunkiem profesor Saidy Guellati-Khelifa z Laboratoire Kastler-Brossel schłodzili atomy rubidu do temperatury kilku stopni powyżej zera absolutnego. Następnie za pomocą lasera stworzyli superpozycję dwóch stanów atomowych. Pierwszy ze stanów odpowiadał atomom odrzucanym w wyniku zaabsorbowania fotonów, drugi zaś, atomom, które nie doświadczają odrzutu. Atomy w różnych stanach różnie propagowały się wewnątrz komory próżniowej. Naukowcy dodali wówczas drugi zestaw impulsów laserowych, który doprowadził do „ponownego połączenia” obu części superpozycji. Im większy był odrzut atomu absorbującego fotony, tym większe przesunięcie fazy względem jego własnej wersji, która nie doświadczała odrzutu. Uczeni wykorzystali tę różnicę do określenia masy atomu, z której następnie wyliczyli stałą struktury subtelnej. W ten sposób określili jej wartość na 1/137,035999206(11). Precyzja pomiaru wynosi 81 części na bilion, jest więc 2,5-krotnie większa niż poprzedni najbardziej precyzyjny pomiar wykonany w 2018 roku na Uniwersytecie Kalifornijskim w Berkeley. Różnica pomiędzy pomiarem obecnym, a tym z Berkeley rozpoczyna się na 7. cyfrze po przecinku. To zaskoczyło francuskich naukowców, gdyż wskazuje, że albo jedne z pomiarów, albo oba, zawierają nieznany błąd. Autor pomiaru z Berkeley, Holger Müller, komentuje, że wynik uzyskany przez Francuzów potwierdza, iż elektron nie posiada mniejszych struktur i rzeczywiście jest cząstką elementarną. Francuzi planują teraz potwierdzić wyniki swoich pomiarów korzystając z innego izotopu rubidu. « powrót do artykułu
  4. Niemieccy naukowcy poinformowali o dokonaniu najbardziej precyzyjnych pomiarów masy jądra deuteru – deuteronu. Pomiary przeprowadzono porównując masę deuteronu do masy jądra węgla 12. To bardzo ważne niezależne sprawdzenie wcześniejszych pomiarów, które dały niejednoznaczne wyniki. Poznanie dokładnej prostego jądra atomowego, jak wodór, deuter, tryt, jonów H2+ i HD+ jest niezwykle ważne z punktu widzenia badań podstawowych. Pozwala to np. przetestować podstawowe teorie fizyczny, jak elektrodynamikę kwantową. Z kolei masa deuteronu może zostać użyta do precyzyjnego określenia masy neutronu, co z kolei ma fundamentalne znaczenie dla metrologii, fizyki atomowej, molekularnej i badań nad neutrinami. Precyzyjnych pomiarów tego typu często dokonuje się za pomocą pułapek Penninga, które wykorzystują silne pola magnetyczne i elektryczne do uwięzienia cząstek. Cząstka taka po uwięzieniu oscyluej w określonej częstotliwości, która zależy od jej masy. Cięższe cząstki oscylują wolniej niż lżejsze. Jeśli więc do tej samej pułapki złapiemy dwa jony o różnych masach, to dzięki pomiarom ich oscylacji możemy poznać stosunek ich mas z bardzo wysoką precyzją (dochodzącą jednej do 8,5 x 10-12). Uczeni z Instytutu Fizyki Jądrowej im. Maxa Plancka, Uniwersytetu Johannesa Gutenberga, GSI Helmholtz Centre for Heavy Ion Research oraz Helmholtz Institute w Moguncji wykorzystali specjalny kriogeniczny spektrometr mas wyspecjalizowany w pomiarach mas lekkich jonów. Urządzenie o nazwie LIONTRAP składa się z serii pułapek Penninga. Jest wśród nich wysoce precyzyjna pułapka korzystająca z siedmiu elektrod oraz dwie przylegające pułapki-magazyny. Całość poddana jest działaniu homogenicznego pola magnetycznego o natężeniu 3,8 tesli, znajduje się w niemal idealnej próżni (o ciśnieniu mniejszym niż 10-17 mbar) i w temperaturze około 4 kelwinów. Deuteron najpierw trafił do pułapki-magazynu, a następnie został umieszczony w wysoce precyzyjnej pułapce. Tam zmierzono jego oscylacje i porównano je z oscylacjami jonu węgla-12. Na tej podstawie stwierdzono, że masa deuteronu wynosi 2.013553212535(17) jednostek atomowych. Liczba w nawiasie oznacza niepewność pomiaru ostatnich cyfr. Masa jonu HD+ określona tą samą metodą została oszacowana na 3.021378241561(61) jednostek atomowych. « powrót do artykułu
  5. Fizycy z MIT opracowali kwantowy „ściskacz światła”, który redukuje szum kwantowy w laserach o 15%. To pierwszy taki system, który pracuje w temperaturze pokojowej. Dzięki temu możliwe będzie wyprodukowanie niewielkich przenośnych systemów, które będzie można dobudowywać do zestawów eksperymentalnych i przeprowadzać niezwykle precyzyjne pomiary laserowe tam, gdzie szum kwantowy jest obecnie poważnym ograniczeniem. Sercem nowego urządzenia jest niewielka wnęka optyczna znajdująca się w komorze próżniowej. We wnęce umieszczono dwa lustra, z których średnia jednego jest mniejsza niż średnica ludzkiego włosa. Większe lustro jest zamontowane na sztywno, mniejsze zaś znajduje się na ruchomym wsporniku przypominającym sprężynę. I to właśnie kształt i budowa tego drugiego, nanomechanicznego, lustra jest kluczem do pracy całości w temperaturze pokojowej. Wpadające do wnęki światło lasera odbija się pomiędzy lustrami. Powoduje ono, że mniejsze z luster, to na wsporniku zaczyna poruszać się w przód i w tył. Dzięki temu naukowcy mogą odpowiednio dobrać właściwości kwantowe promienia wychodzącego z wnęki. Światło lasera opuszczające wnękę zostaje ściśnięte, co pozwala na dokonywanie bardziej precyzyjnych pomiarów, które mogą przydać się w obliczeniach kwantowych, kryptologii czy przy wykrywaniu fal grawitacyjnych. Najważniejszą cechą tego systemu jest to, że działa on w temperaturze pokojowej, a mimo to wciąż pozwala na dobieranie parametrów z dziedziny mechaniki kwantowej. To całkowicie zmienia reguły gry, gdyż teraz będzie można wykorzystać taki system nie tylko w naszym laboratorium, które posiada wielkie systemy kriogeniczne, ale w laboratoriach na całym świecie, mówi profesor Nergis Mavalvala, dyrektor wydziału fizyki w MIT. Lasery emitują uporządkowany strumień fotonów. Jednak w tym uporządkowaniu fotony mają pewną swobodę. Przez to pojawiają się kwantowe fluktuacje, tworzące niepożądany szum. Na przykład liczba fotonów, które w danym momencie docierają do celu, nie jest stała, a zmienia się wokół pewnej średniej w sposób, który jest trudny do przewidzenia. Również czas dotarcia konkretnych fotonów do celu nie jest stały. Obie te wartości, liczba fotonów i czas ich dotarcia do celu, decydują o tym, na ile precyzyjne są pomiary dokonywane za pomocą lasera. A z zasady nieoznaczoności Heisenberga wynika, że nie jest możliwe jednoczesne zmierzenie pozycji (czasu) i pędu (liczby) fotonów. Naukowcy próbują radzić sobie z tym problemem poprzez tzw. kwantowe ściskanie. To teoretyczne założenie, że niepewność we właściwościach kwantowych lasera można przedstawić za pomocą teoretycznego okręgu. Idealny okrąg reprezentuje równą niepewność w stosunku do obu właściwości (czasu i liczby fotonów). Elipsa, czyli okrąg ściśnięty, oznacza, że dla jednej z właściwości niepewność jest mniejsza, dla drugiej większa. Jednym ze sposobów, w jaki naukowcy realizują kwantowe ściskanie są systemy optomechaniczne, które wykorzystują lustra poruszające się pod wpływem światła lasera. Odpowiednio dobierając właściwości takich systemów naukowcy są w stanie ustanowić korelację pomiędzy obiema właściwościami kwantowymi, a co za tym idzie, zmniejszyć niepewność pomiaru i zredukować szum kwantowy. Dotychczas optomechaniczne ściskanie wymagało wielkich instalacji i warunków kriogenicznych. Działo się tak, gdyż w temperaturze pokojowej energia termiczna otaczająca system mogła mieć wpływ na jego działanie i wprowadzała szum termiczny, który był silniejszy od szumu kwantowego, jaki próbowano redukować. Dlatego też takie systemy pracowały w temperaturze zaledwie 10 kelwinów (-263,15 stopni Celsjusza). Tam gdzie potrzebna jest kriogenika, nie ma mowy o niewielkim przenośnym systemie. Jeśli bowiem urządzenie może pracować tylko w wielkiej zamrażarce, to nie możesz go z niej wyjąć i uruchomić poza nią, wyjaśnia Mavalvala. Dlatego też zespół z MIT pracujący pod kierunkiem Nancy Aggarval, postanowił zbudować system optomechaczniczny z ruchomym lustrem wykonanym z materiałów, które absorbują minimalne ilości energii cieplnej po to, by nie trzeba było takiego systemu chłodzić. Uczeni stworzyli bardzo małe lustro o średnicy 70 mikrometrów. Zbudowano je z naprzemiennie ułożonych warstw arsenku galu i arsenku galowo-aluminowego. Oba te materiały mają wysoce uporządkowaną strukturę atomową, która zapobiega utratom ciepła. Materiały nieuporządkowane łatwo tracą energię, gdyż w ich strukturze znajduje się wiele miejsc, gdzie elektrony mogą się odbijać i zderzać. W bardziej uporządkowanych materiałach jest mniej takich miejsc, wyjaśnia Aggarwal. Wspomniane wielowarstwowe lustro zawieszono na wsporniku o długości 55 mikrometrów. Całości nadano taki kształt, by absorbowała jak najmniej energii termicznej. System przetestowano na Louisiana State University. Dzięki niemu naukowcy byli w stanie określić kwantowe fluktuacje liczby fotonów względem czasu ich przybycia do lustra. Pozwoliło im to na zredukowanie szumu o 15% i uzyskanie bardziej precyzyjnego „ściśniętego” promienia. « powrót do artykułu
  6. Każda z ostatnich 4 dekad była cieplejsza od poprzedniej, a obecna najprawdopodobniej nie będzie wyjątkiem, wynika z ostatniego raportu Światowej Organizacji Meteorologicznej (WMO). Oświadczyła ona, że lata 2010–2019 „prawie na pewno” będą najgorętszą dekadą znaną ludzkości. Co więcej, rok 2019 będzie drugim lub trzecim najgorętszym rokiem od 1850 roku. Z raportu WMO dowiadujemy się, że oceany mają najwyższą temperaturę zanotowaną przez człowieka i są o 26% bardziej zakwaszone niż na początku epoki przemysłowej. We wrześniu i październiku bieżącego roku zasięg morskiego lodu w Arktyce był rekordowo mały, a w Antarktyce zanotowano kilka tego typu rekordów w ciągu roku. Średnie tegoroczne temperatury były dotychczas o 1,1 stopnia Celsjusza wyższe niż średnia z lat 1850–1900, a bieżący rok może być najgorętszym rokiem w historii, w którym nie wystąpiło zjawisko El Niño. Pomimo głośnych deklaracji, ludzkość emituje coraz więcej węgla, a jego koncentracja w atmosferze bije kolejne rekordy. Średnia koncentracja dwutlenku węgla wynosiła w październiku 408,53 ppm, czyli była o 2,53 ppm wyższa niż średnia w październiku ubiegłego roku. Jednocześnie, w związku z utratą w Arktyce 329 miliardów ton lodu, październikowy poziom oceanów był rekordowo wysoki. WMO zauważa również, że w pierwszej połowie bieżącego roku zmiany klimatyczne zmusiły ponad 10 milionów osób do przesiedlenia się, a do końca bieżącego roku liczba ta może sięgnąć 22 milionów. Coraz częściej dochodzi do „upałów stulecia” i „powodzi stulecia”. Od Bahamów poprzez Japonię i Mozambik mieliśmy do czynienia z potężnymi tropikalnymi cyklonami, a wielkie pożary wybuchały od Arktyki po Australię, czytamy w raporcie. Wiele wskazuje na to, ludzkość nie powstrzyma globalnego ocieplenia na założonym poziomie 1,5 stopnia Celsjusza w porównaniu z okresem sprzed epoki przemysłowej. By tego dokonać do roku 2030 powinniśmy każdego roku zmniejszać emisję CO2 o 7,6%. Tymczasem wciąż ona rośnie. Częściowo dlatego, że paliwa kopalne są subsydiowane, a w skali świata różnego rodzaju dopłaty do węgla i ropy naftowej mogą sięgać nawet 600 miliardów dolarów rocznie. Wciąż wykorzystujemy atmosferę jako miejsce, do którego pozbywamy się odpadów, mówi Joeri Rogelj, wykładowca w Imperial College London. Nawet jeśli wszystkie kraje dotrzymałyby wszystkich założeń Porozumienia Paryskiego, nie możemy być pewni, czy uchroniłoby to klimat przed ociepleniem się do roku 2100 o 3 stopnie ponad poziom sprzed epoki przemysłowej. Nie ma żadnych oznak spowolnienia globalnego ocieplenia. Jeśli zaś nadal będziemy postępowali tak, jak obecnie, to może być ono nawet wyższe niż zakładane, stwierdza sekretarz generalny WMO, Petteri Taalas. Nie ulega żadnej wątpliwości, że dotychczasowe ocieplenie o 1,1 stopnia Celsjusza to skutek spalania paliw kopalnych, dodaje Friderike Otto, zastępca dyrektora Environmental Change Institute na Uniwersytecie Oksfordzkim. « powrót do artykułu
  7. Naukowcy z Massachusetts General Hospital (MGH) pracują nad metodą, która pozwala badać aktywność mieszków włosowych. Amerykanie podkreślają, że przyda się ona do testowania skuteczności różnych terapii łysienia. Wyniki badań zespołu ukazały się w piśmie Scientific Reports. Technika bazuje na odkryciu, że kiedy skóra głowy jest lekko uciskana w okolicy zawierającej zdrowe mieszki włosowe, powstaje stałe pole magnetyczne, które można zmierzyć. Ponieważ badanie dotyczy włosów, naukowcy postanowili nazywać uzyskany zapis magnetotrychogramem (ang. magnetotrichogram, MTG). Aktywność mieszków włosowych w różnych miejscach skóry mierzono, gdy ochotnicy dociskali głowę do wewnętrznej powierzchni urządzenia (hełm do dcMEG zawiera 102 gradiometry, czyli urządzenia do pomiaru gradientu pola magnetycznego na małym obszarze). Dzięki temu można było stworzyć mapy MTG. Mapy MTG uzyskano dla 15 zdrowych członków grupy kontrolnej (w tym dla 5 kobiet) i dla 2 osób z łysieniem (mężczyzny i kobiety). Mapy osób z łysieniem różniły się od map ludzi zdrowych. U tych pierwszych sygnały aktywności były nieobecne. U ludzi zdrowych mapy wskazywały zaś na aktywność elektryczną o różnym natężeniu; u osób z przerzedzonymi włosami sygnał był słabszy, prawdopodobnie przez mniejsze zagęszczenie mieszków. Akademicy odkryli też 2 "niemieszkowe" źródła stałego pola magnetycznego wykrywanego nad głową. Jednym z nich są cząstki magnetytu w mózgach starszych badanych. Drugie, znaczne mniejsze źródło, daje wzorzec nazywany przez nich "skrzydłami". Ekipa tłumaczy, że bardzo trudno byłoby zmierzyć samą aktywność elektryczną, dlatego sygnały mieszkowe mogą być obserwowane jedynie pośrednio - "magnetycznie". Jak podkreślają Amerykanie, zdarzenia generujące prąd stały (ang. direct current, DC) w ludzkim ciele są nadal słabo zbadane. Większości takich wewnętrznych zdarzeń nie da się bowiem wykryć na powierzchni, bo występują duże zakłócenia związane z potencjałem elektrycznym skóry. [Opisana] metoda zapewnia ilościową i obiektywną ocenę stanu zdrowia mieszków włosowych i może być wykorzystywana jako biomarker terapii utraty włosów - podsumowuje dr Sheraz Khan. « powrót do artykułu
  8. Dzięki kombinacji laserów i wyjątkowej pułapki, w którą schwytano niezwykle zimne atomy, naukowcom z Lawrence Berkeley National Laboratory i University of California Berkeley udało się zmierzyć najmniejszą znaną nam siłę. Wynosi ona... 42 joktoniutony. Joktoniuton to jedna kwadrylionowa (10-24) niutona. Przyłożyliśmy zewnętrzną siłę do centrum masy superzimnej chmury atomów i optycznie zmierzyliśmy jej ruch. […] czułość naszego pomiaru jest zgodna z teoretycznymi przewidywaniami i jest jedynie czterokrotnie mniejsza od limitu kwantowego, który wyznacza granicę najbardziej dokładnego pomiaru - mówi fizyk Dan Stamper-Kurn. Prowadzenie tak dokładnych pomiarów jest niezbędne, jeśli chcemy potwierdzić istnienie fal grawitacyjnych. Dlatego też wiele zespołów naukowych stara się udoskonalać metody pomiarowe. Na przykład naukowcy w Laser Interferometer Gravitational-Wave Observatory próbują zmierzyć przesunięcie zaledwie o 1/1000 średnicy protonu. Kluczem do sukcesu wszelkich superdokładnych pomiarów jest wykorzystanie mechanicznych oscylatorów, które przekładają zewnętrzną siłę, której oddziaływaniu został poddany obiekt, na jego ruch. Gdy jednak pomiary siły i ruchu staną się tak dokładne, że dotrzemy do limitu kwantowego, ich dalsze wykonywanie nie będzie możliwe, gdyż sam pomiar – zgodnie z zasadą nieoznaczoności Heisenberga – będzie zakłócany ruchem oscylatora. Naukowcy od dziesiątków lat próbują przybliżyć się do tego limitu kwantowego. Dotychczas jednak najlepsze pomiary były od niego gorsze o 6-8 rzędów wielkości. Zmierzyliśmy siłę z dokładnością najbliższą limitowi kwantowemu. Było to możliwe, gdyż nasz mechaniczny oscylator składa się z zaledwie 1200 atomów - stwierdził Sydney Schreppler. Oscylatorem wykorzystanym przez Schrepplera, Stampera-Kurna i innych były atomy rubidu schłodzone niemal do zera absolutnego. Pułapkę stanowiły dwa promienie lasera o długości fali wynoszącej 860 i 840 nanometrów. Stanowiły one równe i przeciwstawne siły osiowe oddziałujące na atomy. Ruch centrum masy został wywołany w gazie poprzez modulowanie amplitudy drgań promienia światła o długości fali 840 nanometrów. Gdy do oscylatora przyłożyliśmy siłę zewnętrzną, było to tak, jakbyśmy uderzyli batem w wahadło i zbadali jego reakcję - mówi Schreppler. « powrót do artykułu
  9. Wywiadu udzielił nam profesor Grzegorz Pietrzyński z Obserwatorium Astronomicznego Uniwersytetu Warszawskiego, którego zespół dokonał najbardziej precyzyjnych w historii pomiarów odległości do Wielkiego Obłoku Magellana. 1. Czy astronomia/astrofizyka mają jakieś bezpośrednie przełożenie na życie codzienne? Czy badania kosmosu, poza oczywistymi przykładami satelitów komunikacyjnych i meteorologicznych, mają znaczenie dla ludzi żyjących tu i teraz czy też są przede wszystkim badaniami wybiegającymi w przyszłość (tzn. mogą mieć ewentualnie znaczenie w przyszłości) i poszerzającymi naszą wiedzę, ale nie rozwiązującymi obecnych praktycznych problemów. Astronomia należy do tzw nauk podstawowych, których wyniki nie są bezpośrednio komercjalizowane. Proszę zauważyć, że opracowanie jakiejkolwiek nowej technologii wymaga odpowiedniego postępu w badaniach podstawowych. Dlatego wszystko co dziś mamy zawdzięczamy naukom podstawowym. 2. Co rodzi w umyśle naukowca pytanie "Ciekawe, jaka jest dokładna odległość między Ziemią, a Obłokiem Magellana"? Takie pytanie rodzi kolejne - jak zmierzyć taką odleglość ? 3. Ile czasu zajęło wyznaczenie aktualnej odległości do Obłoku (wliczając w to obserwacje, symulacje, wyliczenia)? Naszej grupie Araucaria zajęło to około 12 lat. W międzyczasie mierzyliśmy odległości do Wielkiego Obłoku Magellana używając innych technik (gwiazd red clump, Cefeid, RR Lyrae, etc). Jednak od początku wiadomo było, że układy zaćmieniowe mają największy potencjał bardzo dokładnego pomiaru odległości do tej galaktyki. 4. Jak wygląda proces i jakie instrumenty zostały wykorzystane? Proces był długi i bardzo złożony. W skrócie: w opariu o dane fotometryczne zgromadzone przez zespół Optical Gravitational Lensing Experiment znaleziono najlepsze kandydatki do dalszych badań. Następnie przez okolo 8 lat w ramach projektu Araucaria obserwowaliśmy widma wybranych systemów za pomoca 6,5-metrowego teleskopu Magellan w Las Campanas Observatory, wyposażonego w spektrograf MIKE oraz 3,6-metrowego teleskopu w La Silla, ESO, wyposażonego w spektrograf HARPS. Dodatkowo wykonaliśmy pomiary jasności naszych układów w bliskiej podczerwieni używając instrumentu SOFI dostępnego na 3,5-metrowym teleskopie NTT, ESO, La Silla. Po obróbce otrzymanych obrazów wykonano odpowiednie pomiary. 5. W jaki sposób dokładniejszy pomiar odległości od najbliższego Obłoku przełoży się na skalę kosmiczną? Wszystkie pomiary odległości do galaktyk wykonuje się względem Wielkiego Obłoku Magellana. Dlatego pomiar odległości do WOM definiuje bezpośrednio punkt zerowy całej kosmicznej skali odległości. 6. Co umożliwi uzyskanie jeszcze dokładniejszego wyniku? Lepszy kandydat (para analizowanych gwiazd podwójnych)? Trudno wyobrazić sobie jeszcze lepsze układy podwójne do pomiaru odleglosci do WOM. Największym źródłem błędu jest zależność pomiędzy temperaturą gwiazdy a jej rozmiarami kątowymi. Jej dokładność wynosi obecnie około 2%. Nasz zespół prowadzi badania mające na celu dokładniejsze skalibrowanie tej zależności. Spodziewamy się, że w niedalekiej przyszłości uda nam się zmierzyć odleglość do WOM z dokładnością około 1%. 7. Zawsze mnie intrygowało to, że w mediach, a i na oficjalnych portalach prezentowane są artystyczne wizje gwiazd i planet, które co prawda spełniają swoje zadanie przed typowym odbiorcą, ale faktycznie przecież często jest to zlepek kilku lub jeden piksel zdjęcia. Nie potrafię sobie wyobrazić jak stąd wyciągnąć informacje o rozmiarze, masie, orbicie, temperaturze takich ciał. Jak dla mnie to daleko trudniejsze niż próba odczytania Hubblem napisu "Made in USA" na Curiosity. W jaki sposób z takich kilku pikseli można cokolwiek powiedzieć o obserwowanym obiekcie? Oczywiście nie jesteśmy w stanie rozdzielić tych obiektów. W przypadku układów zaćmieniowych badając zmiany blasku (zaćmienia to efekt czysto geometryczny) oraz widma (z nich wyznaczymy predkości gwiazd na orbicie) w oparciu o proste prawa fizyczne jesteśmy w stanie wyznaczyć parametry fizyczne gwiazd. Jest to klasyczna metoda stosowana od dawna w astronomii. Aby jej użyć  nie musimy rozdzielać obrazów gwiazd wchodzacych w skład danego układu podwójnego. 8. Czy rodowisko naukowców astronomów ma w naszym kraju problemy z finansowaniem i rozwijaniem projektów? Oczywiscie tak! Z mojego punktu widzenia jest obecnie dużo różnych źródeł finansowania, więc najlepsze projekty mają duże szanse na finansowanie. Dużo gorzej jest z realizacją i rozwojem projektów.Tysiące bezsensownych przepisów, rozdęta do granic absurdu biurokracja, brak wyobraźni i dobrej woli urzędników. To tylko niektóre czynniki, które sprawiają, że wykonanie ambitnego projektu naukowego w Polsce jest niezmiernie trudne. « powrót do artykułu
×
×
  • Dodaj nową pozycję...