-
Liczba zawartości
37640 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Toksyna niebezpiecznej bakterii obiecującym środkiem przeciwbólowym
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Laseczka wąglika, niebezpieczny patogen wykorzystywany m.in. jako broń biologiczna, może stać się nadzieją dla ludzi zmagających się z chronicznym bólem. Nowe badania wykazały bowiem, że wytwarzana przez nią toksyna uśmierza różne rodzaje bólu u zwierząt. Naukowcy informują, że badana przez nich toksyna zmienia szlak sygnałowy w neuronach odpowiedzialnych za odczuwanie bólu i gdy zostanie dostarczona do odpowiednich neuronów w centralnym i obwodowym układzie nerwowym, zmniejsza uczucie bólu u zwierząt. Naukowcy połączyli toksynę z różnymi typami molekularnych „opakowań” i dostarczali je do neuronów. Technika ta może być wykorzystywana do uśmierzania bólu poprzez dostarczenie leków do konkretnych neuronów bez oddziaływania za ich pomocą na cały organizm. Ta molekularna platforma dostarczania substancji do neuronów i zarządzania ich funkcjonowniem to nowy sposób wzięcia na cel neuronów odpowiedzialnych za odczuwanie bólu, mówi profesor Isaac Chiu z Harvard Medical School. To właśnie tak uczelnia, wraz z partnerami z przemysłu i innych uczelni, prowadziła badania, których wyniki opisano na łamach Nature Neuroscience. Ludzkość pilnie potrzebuje nowych skutecznych środków przeciwbólowych. Najbardziej skuteczne z obecnie dostępnych – opioidy – są niebezpieczne i mają liczne skutki uboczne. Mogą prowadzić do uzależnień, istnieje też ryzyko zatrzymania oddechu. Naukowcy poszukują środków równie skutecznych, ale znacznie bardziej bezpiecznych. Nasze eksperymenty pokazały, że – przynajmniej teoretycznie – dobrym tropem może być wzięcie na cel konkretnych neuronów za pomocą toksyn bakteryjnych. Naukowcy z laboratorium Chiu od dawna badają związki pomiędzy mikroorganizmami a układem nerwowym i odpornościowym. Już w przeszłości wykazali, że inne bakterie mogą wchodzić w interakcje z neuronami i zwiększać uczucie bólu. Są też jednymi z niewielu, którzy sprawdzają, czy mikroorganizmy mogą minimalizować lub w ogóle znosić ból. Swoje najnowsze badania rozpoczęli od sprawdzenia, jak neurony odpowiedzialne za odczuwanie bólu różnią się od innych neuronów. Przeanalizowali dane dotyczące ekspresji genów i odkryli, że neurony bólowe posiadają receptory dla toksyn wąglika. Inne neurony ich nie posiadały. Innymi słowy, neurony odpowiedzialne za odczuwanie bólu są zbudowane tak, by wchodzić w interakcje z laseczką wąglika. Uczeni zaczęli zastanawiać się, dlaczego tak się dzieje. Wykazali, że do minimalizowania bólu dochodzi, gdy korzenie grzbietowe nerwu rdzeniowego łączą się z dwoma specyficznymi proteinami wytwarzanymi przez laseczkę wąglika. Okazało się, że antygen wąglika PA łączy się z receptorami komórki i tworzy w ten sposób bramę, przez którą wnikają dwie inne proteiny: EF (edema factor) oraz LF (lethal factor). Dodatkowo uczeni zauważyli, że PA i EF, tworzące razem toksynę toksynę warunkującą występowanie opuchlizny (edema toxin, EdTx), prowadzą do zniesienia bólu. Eksperymenty wykazały, że toksyna wąglika zmieniała szlaki sygnałowe w laboratoryjnych hodowlach ludzkich komórek nerwowych oraz u zwierząt. Wstrzyknięcie tej toksyny do dolnej części kręgosłupa myszy dawało silny skutek przeciwbólowy. Zwierzę nie odczuwało wysokiej temperatury oraz bodźców mechanicznych. Co ważne, środek nie wpływał na tętno, temperaturę i koordynację ruchową myszy. To wskazuje, że działa bardzo selektywnie i nie ma wpływu na cały organizm. Jakby jeszcze tego było mało, środek znosił inne dwa rodzaje bólu u myszy: ból powodowany stanem zapalnym oraz uszkodzeniem komórek nerwowych. Te rodzaje bólu są często obserwowane po różnego typu zranieniach, niektórych infekcjach wirusowych czy jako skutek uboczny leczenia cukrzycy i nowotworów. Bardzo ważny jest również fakt, że komórki nerwowe poddane działaniu toksyny wąglika pozostały nietknięte pod względem fizjologicznym. To wskazuje, że blokowanie bólu nie było związane z ich uszkodzeniem, a raczej ze zmianą sygnałów. Autorzy badań przypominają, że znajdują się na bardzo wczesnym etapie prac. Szczególnie ważne jest tutaj monitorowanie wpływu toksyn na organizm, tym bardziej, że wiadomo, iż białka wąglika mogą uszkadzać barierę krew-mózg. « powrót do artykułu-
- laseczka wąglika
- toksyna
-
(i 2 więcej)
Oznaczone tagami:
-
Naukowcy wciąż szukają nowych metod diagnostycznych, pozwalających na skuteczniejsze leczenie raka piersi. W tym kierunku badania prowadzi również dr Aleksandra Markiewicz, szukając w organizmie chorych źródła informacji, które pozwolą prognozować ich podatność na terapie lekowe. Aleksandra Markiewicz z Zakładu Onkologii Translacyjnej Instytutu Biotechnologii Medycznej i Onkologii Doświadczalnej Uniwersytetu Gdańskiego i Gdańskiego Uniwersytetu Medycznego w ramach pracy zespołu od kilkunastu lat zajmuje się analizą krążących komórek nowotworowych od chorych na raka piersi. W ramach tych badań opracowano już metodę pozwalającą na izolację i analizę krążących komórek nowotworowych na poziomie pojedynczych komórek. Teraz naukowcy - dzięki współpracy z chirurgami, onkologami i patomorfologami - zbiorą materiał od kobiet chorych na raka piersi w trakcie leczenia, wyizolują krążące komórki nowotworowe i krążące DNA nowotworowe, aby przygotować je do analiz genomicznych. O pracach informował Uniwersytet Gdański na swoich stronach internetowych. W prowadzonych badaniach będziemy poszukiwali we krwi chorych na raka piersi krążących komórek nowotworowych oraz krążącego DNA nowotworowego, czyli komórek i ich materiału genetycznego, które zostały uwolnione do krwi z guza pierwotnego bądź przerzutów – tłumaczy w rozmowie z serwisem Nauka w Polsce dr Aleksandra Markiewicz. Zidentyfikowane krążące komórki nowotworowe naukowcy pobiorą i zbadają pod kątem obecności kilkuset zmian (mutacji) w ich DNA, które mogą świadczyć o wrażliwości czy oporności na leczenie. Specjalistyczny sprzęt, który pozwoli sprawniej pobierać pojedyncze komórki od chorych na raka piersi, a także wszystkie materiały i odczynniki niezbędne do izolacji i obróbki molekularnej tych komórek z pobranych próbek, zostanie zakupiony w ramach dofinansowania z programu OPUS 20 + LAP. Naukowcy sprawdzą też, czy podobny profil zmian obecny jest w guzie pierwotnym i krążącym DNA nowotworowym. Te dane chcemy dodatkowo skorelować z identyfikacją mechanizmów oporności nowotworu na leczenie – zapowiada dr Markiewicz. Obecność krążących komórek nowotworowych w organiźmie jest czynnikiem informującym o złej prognozie chorych. Jak tłumaczyła dr Markiewicz, wewnętrzna agresywność krążących komórek nowotworowych może być różna w zależności od ich charakterystyki molekularnej. Ta różnorodność sprawia też, że większość metod nie pozwala na wychwycenie szerokiego spektrum krążących komórek nowotworowych, przez co nasza wiedza na ich temat jest wciąż niewystarczająca – przyznała badaczka. Dlatego naukowcy chcą izolować wiele fenotypów (rodzajów) tych komórek i identyfikować charakterystyczne dla nich zmiany w DNA, które mogą być związane z ich agresywnością, bądź być celami terapii ukierunkowanych molekularnie – tłumaczy. Ponieważ krążące komórki nowotworowe są rzadkie i heterogenne, chcemy je profilować na poziomie każdej pojedynczej zidentyfikowanej komórki, co wymaga bardzo zaawansowanych metod profilowania – powiedziała dr Markiewicz. Badania tego typu są niezbędne, żeby pokazać, jak ewoluuje choroba nowotworowa w trakcie leczenia, i jakie parametry są najbardziej pomocne w ocenie skuteczności leczenia i ryzyka nawrotu - najszybciej, jak to możliwe. Liczymy na to, że uda się ustalić nowe cele terapeutyczne w oparciu o profilowanie właśnie tych krążących markerów (krążących we krwi komórek nowotworowych czy krążącego DNA nowotworowego) a nie tylko guza pierwotnego, który jest analizowany w klasycznym postępowanie diagnostycznym – powiedziała dr Markiewicz. Jak wyjaśniła, nowotwory charakteryzują się dużą heterogennością - w obrębie guza pierwotnego można znaleźć wiele populacji (klonów) komórek nowotworowych, różniących się między sobą profilem molekularnym i tym samym wrażliwością na terapie. Dr Markiewicz mówi, że w badaniach chce iść o krok dalej: nie tylko zbadać molekularną heterogenność guza pierwotnego, ale i komórek nowotworowych z niego uwolnionych, czyli krążących komórek nowotworowych, które mogą stanowić najbardziej agresywną grupę komórek nowotworowych w organizmie. Komórki te izoluje się z próbki krwi pobranej od pacjentki w czasie rutynowych badań. Jak zaznaczyła badaczka, ze względu na małą inwazyjność procedury pobierania krwi, proces ten może być powtarzany, co umożliwia częste monitorowanie zmian profilu molekularnego krążących komórek nowotworowych czy krążącego DNA nowotworowego i tym samym pozwala na bieżąco oceniać efektywność terapii. Możliwość szybkiej oceny rozwijającej się oporności byłaby dla lekarzy narzędziem pozwalającym na szybszą interwencję terapeutyczną, zmiany leczenia na inne, możliwie bardziej dopasowane do konkretnego pacjenta w danym momencie – podkreśliła. Możliwość wykorzystania krążących komórek nowotworowych czy krążącego DNA nowotworowego do monitorowania odpowiedzi na leczenie jest coraz częściej badana. My jednak włączamy do naszych analiz bardzo szerokie profilowanie różnych typów krążących komórek nowotworowych, które trudno uchwycić klasycznymi metodami detekcji. Dzięki temu liczymy na uzyskanie większej ilości informacji na temat choroby nowotworowej – podsumowała dr Markiewicz. Pytana, dlaczego właśnie takimi badaniami się zajęła, mówi, że zafascynowało ją podłoże molekularne i mechanizmy, jakie wykorzystują komórki nowotworowe do tego, żeby rozprzestrzeniać się w organizmie. Mimo że komórki nowotworowe wywodzą się z naszych własnych komórek, potrafią zaskakująco dobrze ukrywać się przed układem odpornościowym, z jednej strony wyłączać, z drugiej wyłączać programy molekularne w celu przeżycia i wzrostu. Wspaniale byłoby poznać, jak można przechytrzyć te komórki w celu ich unicestwienia – powiedziała badaczka. Analiz genomicznych na zebranym przez zespół dr Markiewicz materiale dokona zespół z niemieckiego Uniwersytetu w Ratyzbonie (będący pionierem badań na pojedynczych komórkach) pod opieką dr Zbigniewa Czyż i prof. Christopha Kleina. Współpraca polskich i niemieckich naukowców będzie możliwa w ramach programu OPUS 20 + LAP, na który zespół dr Markiewicz otrzymał dofinansowanie w wysokości 1 154 743 zł. Naukowcy z Uniwersytetu w Ratyzbonie otrzymali równoległe finansowanie z niemieckiej instytucji finansującej (Deutsche Forschungsgemeinschaft) na ten wspólny projekt pt. „Genomiczne profilowanie krążących markerów i sparowanych guzów pierwotnych od chorych na raka piersi". Według prognoz epidemiologicznych nowotwory staną się głównym zabójcą w XXI wieku. Na świecie obserwuje się wzrost zachorowań na raka piersi, dlatego coraz więcej chorych będzie leczonych na raka piersi. Wczesne wykrycie nowotworu wiąże się z lepszym rokowaniem, ale dobór właściwej terapii i monitorowanie odpowiedzi czy możliwych nawrotów choroby jest wciąż bardzo istotny dla kontroli choroby nowotworowej – powiedziała badaczka. « powrót do artykułu
-
Naukowcy z Uniwersytetu w Sewilli prawdopodobnie odnaleźli jedną z najważniejszych świątyń starożytnej Europy. Sanktuarium, które istniało już być może w VIII wieku przed naszą erą było początkowo poświęcone fenickiemu Melkartowi podlegało władzy Tyru, Kartaginy, a gdy przeszło pod władzę rzymską stało się świątynią Herkulesa Gaditanusa. Do świątyni Herkulesa-Melkarta pielgrzymował Hannibal, Scypion Afrykański czy Juliusz Cezar. Świątynia znajdowała się w fenickim Gadir, rzymskim Gades (stąd Gaditanus), znanym obecnie jako Kadyks. Na przestrzeni wieków wiedza o dokładnej lokalizacji legendarnego sanktuarium została utracona. Być może teraz udało się je odnaleźć. Ricardo Belizón Aragón i Antonio Sáez Romero wykorzystali LIDAR i system GIS, dzięki którym zidentyfikowali ślady monumentalnej budowli znajdującej się w Caño de Sancti Petri. To płytki kanał w Zatoce Kadyksu, pomiędzy Isla de Leon z miejscowością San Fernando a głównym lądem. Ricardo Belizón w ramach swojej pracy doktorskiej postanowił zbadać, jak w starożytności mogło wyglądać wybrzeże w pobliżu współczesnego Kadyksu. Chciał określić zmiany, jakim podlegało wybrzeże w ciągu ostatnich 3000 lat. Nie spodziewał się, że jego badania mogą przynieść olbrzymią archeologiczną sensację. Obecnie to podmokłe tereny, ale od ponad 200 lat wiadomo, że nie zawsze tak było. Znaleziono tam bowiem wiele cennych zabytków, w tym duże marmurowe i brązowe rzeźby rzymskich cesarzy czy fenickie statuetki. Wiele wskazywało więc na to, że gdzieś na tym obszarze mogła znajdować się zaginiona legendarna świątynia. Badania Belizóna wskazują na istnienie tam wybrzeża całkowicie zmienionego przez ludzi, z olbrzymim budynkiem, licznymi falochronami, wewnętrznym portem i nadbrzeżami do cumowania. Najbardziej interesujący jest wspomniany budynek. Znajduje się on 3-5 metrów pod wodą, a jego wymiary to 300x150 metrów. Wydaje się, że zarówno rozmiary budynku jak i jego lokalizacja odpowiadają opisowi świątyni, jak i temu, co wiemy o wielkich budowlach fenickich. Z opisów wiemy, że do świątyni wchodziło się pomiędzy dwiema kolumnami, na których przedstawiono prace Herkulesa. W świątyni palił się wieczny ogień. Święty obszar oddzielony był od reszty kanałem, który był dostępny dla statków. Badania w miejscu przypuszczalnej świątyni Herkulesa-Melkarta trwają od dwóch lat, a ich prowadzenie w dużej mierze zależy od stanu wód. Zatopiony obszar jest słabo widoczny. Jednak jak dotychczas postawiona hipoteza o odnalezieniu legendarnego sanktuarium broni się i zyskała poparcie zarówno naukowców z Uniwersytetu w Sewilli, jak i specjalistów z Andaluzyjskiego Instytutu Dziedzictwa Historycznego. Lokalizacja zgadza się też z wieloma wcześniejszymi pracami naukowymi, których autorzy próbowali określić, gdzie mogła znajdować się świątynia. Jednak nie jest zgodna z innymi pracami, w tym z ostatnią z nich, profesora Antonio Monterroro-Checa z Uniwersytetu w Kordobie, który wykluczył Sancti Petri jako możliwą lokalizację świątyni i wskazuje na położone niedaleko wzgórze Martires de San Fernando. « powrót do artykułu
-
Politechnika Białostocka, Uniwersytet Medyczny w Białymstoku, Uniwersytet w Białymstoku i Chrześcijańska Akademia Teologiczna w Warszawie zadeklarowały, że będą wspierać naukowo ochronę unikatowych katakumb Klasztoru Męskiego Zwiastowania Najświętszej Marii Panny w Supraślu. Będące jednym z najcenniejszych zabytków Podlasia katakumby powstały w połowie XVI w. i obejmują 130 nisz. Zabezpieczenie zabytku o dużej wartości historycznej wymaga szeroko zakrojonych badań. Ratowanie wyjątkowego zabytku Nasz wspólny projekt, realizowany przez Klasztor Męski Zwiastowania Najświętszej Marii Panny w Supraślu i teraz wspólnie przez rektorów białostockich uczelni, dotyczy katakumb, czyli wielkiego dziedzictwa historycznego i kulturowego nie tylko klasztoru w Supraślu, nie tylko Kościoła prawosławnego w Polsce, ale też całego regionu i całego naszego kraju – wyjaśnia ihumen Pantelejmon Karczewski. Ihumen Karczewski ma nadzieję, że uda się uratować dla następnych pokoleń dziedzictwo, które wymaga szeroko zakrojonych prac badawczo-konserwatorskich. Od 2014 r. katakumby są ogrodzone i zadaszone. Dr hab. inż. Marta Kosiuk-Kazberuk, rektor Politechniki Białostockiej, uważa, że w realizacji projektu przyda się z pewnością doświadczenie uczelnianych ekspertów, zajmujących się konserwacją zabytków, budownictwem, inżynierią materiałową czy wreszcie zagospodarowaniem terenu. Dr hab. Maciej Karczewski z Uniwersytetu Białostockiego opowiada, że archeolodzy rozpoznają nawarstwienia wokół katakumb. Specjalista liczy też na to, że po podpisaniu listu intencyjnego powstanie naprawdę interdyscyplinarny zespół, który przygotuje dokumentację naukowo-techniczną i zalecenia do prac zabezpieczających. To bardzo paląca potrzeba, bo tak naprawdę to niezwykle cenne dziedzictwo. Katakumby są jedynym tego rodzaju obiektem zabytkowym na obszarze nie tylko Polski północno-wschodniej, ale śmiem twierdzić, że naszej części Europy Środkowo-Wschodniej. One wymagają bardzo pilnego zabezpieczenia. Musimy sprawdzić, czy prace ziemne, które są konieczne dla zabezpieczenia katakumb, nie naruszą pochówków na cmentarzu, który znajduje się wokół katakumb. Naszym zadaniem będzie uratowanie katakumb, poprzedzone wykonanymi z odpowiednim pietyzmem badaniami archeologicznymi [...]. Karczewski dodaje, że zespół powinien również wejść do katakumb, bo w niszach grzebalnych nadal są szczątki i nadal są elementy kultury materialnej, i to bardzo wysokiej kultury materialnej, związanej z klasztorem i z katakumbami. Historia katakumb Jak wyjaśniono na stronie Monasteru Zwiastowania Przenajświętszej Bogurodzicy, kilkadziesiąt lat po osiedleniu się mnichów w Supraślu, gdzieś między 1532 a 1557 rokiem, na południe od budynków monasterskich wzniesiono z pruskiego muru Cerkiew Zmartwychwstania Chrystusa, a pod nią wymurowano obszerne katakumby [...]. W kryptach cerkwi pochowano fundatorów, a na przełomie XVI i XVII w. m.in. wojewodę smoleńskiego Bazylego Tyszkiewicza. W kryptach pod cerkwią chowano mnichów, ale i członków rodzin Olelkowiczów, Słuckich i Wiśniowieckich. Bogaci ofiarodawcy z potężnych rodów dawnej Rzeczypospolitej, ale także mieszczańskie familie, uważały za zaszczyt spocząć po śmierci w pobliżu monasteru. Na początku XIX w. zrujnowaną Cerkiew Zmartwychwstania rozebrano, a katakumby przykryto. W latach osiemdziesiątych katakumby, odsłonięte i źle zabezpieczone - pozostawiono swojemu losowi. Łatwo padły łupem ciekawskich, niepotrafiących uszanować majestatu śmierci, i zwykłych wandali. Mnisi co pewien czas urządzają pogrzeb odnalezionych, przeważnie zbezczeszczonych, kości. Zejścia do przejścia podziemnego, które najprawdopodobniej łączyło katakumby z Cerkwią Zmartwychwstania, są dziś zasypane. « powrót do artykułu
-
Dziesięciolecia rządowych regulacji dotyczących jakości powietrza dają wymierne wyniki, dowodzą naukowcy z Uniwersytetu Harvarda. Informują oni na łamach PNAS (Proceedings of the National Academy of Sciences), że dzięki obniżeniu emisji z silników samochodowych w latach 2008–2017 i związanej z tym poprawie jakości powietrza, zaoszczędzono setki miliardów dolarów oraz uratowano życie tysięcy ludzi. Naukowcy ocenili korzyści, jakie społeczeństwo odniosło ze zmniejszonej emisji pyłu PM2.5 zarówno jeśli chodzi o ludzkie zdrowie, jak i koszty dla środowiska naturalnego. A korzyści te, jak się okazuje, są ogromne. Z szacunków wynika bowiem, że na wszelkich kosztach związanych z zanieczyszczeniem środowiska, w tym z chorobami i zgonami, zaoszczędzono w samym tylko 2017 roku aż 270 miliardów dolarów (rozpiętość szacunków wahała się od 190 do 480 mld). Jednocześnie spadła liczba zgonów, które można przypisać PM2.5 emitowanym przez silniki samochodowe. Jeszcze w roku 2008 w całych Stanach Zjednoczonych z powodu tej emisji zmarło 27 700 osób. W roku 2017 było to 19 800 osób. To jednak nie wszystko. Naukowcy wyliczyli, że gdyby emisja nie uległa zmniejszeniu i w przeliczeniu na każdą przejechaną milę pozostała taka sama, jak w roku 2008, to w roku 2017 z jej powodu zmarłoby 48 200 osób. Wpływ transportu na zdrowie publiczne to jeden z najpoważniejszych problemów w USA. Różne grupy naukowe, stosując różne metody do oceny tego wpływu, szacują, że w ostatnich latach z powodu zanieczyszczenia powietrza spalinami umiera od 17 do 20 tysięcy Amerykanów rocznie. Główną przyczyną zgonów jest zaś właśnie PM2.5. Rządowe regulacje mają znaczący wpływ na poprawę jakości powietrza. Od roku 1970 dzięki odgórnie narzucanym coraz ostrzejszym normom emisja najbardziej powszechnych zanieczyszczeń z z przeciętnego silnika samochodowego zmniejszyła się aż o... 99%. Amerykańska Agencja Ochrony Środowiska (EPA) szacuje, że Clean Air Act Amandements z 1990 roku spowodowała, że w roku 2020 wszystkie sektory gospodarki łącznie zaoszczędziły 2 biliony dolarów, czyli zyski z wprowadzenia tej ustawy były 30-krotnie wyższe niż koszty. Widoczne w badaniach duże rozbieżności dotyczące odniesionych korzyści finansowych, wahające się od 190 do 480 miliardów dolarów, wynikają z niepewności co do wpływu konkretnych wartości koncentracji PM2.5 na zgony, niepewności dotyczącej społecznych kosztów emisji węgla do atmosfery oraz trudności z określeniem współczynnika ekonomicznej wartości uniknięcia zgonu czyli materialnego kosztu uniknięcia śmierci w zależności od okoliczności. « powrót do artykułu
- 2 odpowiedzi
-
- zanieczyszczenie środowiska
- silnik spalinowy
-
(i 1 więcej)
Oznaczone tagami:
-
Zmiana poziomu oceanów spowodowała upadek kultury sambaqui
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Zmiana poziomu oceanu doprowadziła do upadku jednej z najdłużej istniejących prekolumbijskich cywilizacji wybrzeży Ameryki. Hiszpańscy naukowcy z Universitat Autònoma de Barcelona informują na łamach Scientific Reports, że istniejąca na terenie dzisiejszej Brazylii kultura Sambaqui upadła, gdyż doszło do spadku poziomu oceanu. Do takich wniosków doprowadziły uczonych badaniach izotopów w szczątkach ponad 300 osób oraz seria ponad 400 datowań radiowęglowych z południowego wybrzeża Brazylii. W badanym regionie istnieje tysiące kopców – również zwanych sambaqui – budowanych przez społeczności rybackie, istniały tam pomiędzy 7000 a 1000 lat temu. Na każdym z takich cmentarzysk znajdują się zwykle setki ludzkich zwłok, starannie złożonych wśród szczątków ryb i owoców morza. Ich ości i skorupy były wykorzystywane w formie darów podczas uroczystości pogrzebowych. Naukowcy stwierdzili, że przed około 2200 lat doszło do nagłego gwałtownego spadku częstotliwości budowania kopców, co zbiegło się w czasie z poważnymi zmianami w przybrzeżnym środowisku spowodowanym spadkiem poziomu oceanu. Zmiana poziomu oceanu sprzed około 2000 lat prawdopodobnie była punktem zwrotnym. Ekosystem morski, który przez tysiące lat zapewniał utrzymanie przybrzeżnym społecznościom, zmienił się. Zmniejszenie się tego ekosystemu, zaniknięcie zatok i lagun spowodowało, że zasoby morskie skurczyły się i stały się mniej przewidywalne, co zmusiło mieszkającą tam ludność do podzielenia się na mniejsze społeczności, mówi główna autorka badań, Alice Toso. Datowanie radiowęglowe wykazało, że przed około 2000 lat najprawdopodobniej doszło do spadku liczebności ludzkiej populacji na całym brazylijskim wybrzeżu Mata Atlantica. Co interesujące, pozostała populacja, zamiast porzucić rybołówstwo, które stało się mniej przewidywalne, zintensyfikowała połów ryb, skupiając się na gatunkach z górnych pięter łańcucha pokarmowego, takich jak rekiny i płaszczki. Sądzimy, że doszło w tym czasie do znaczących zmian w praktykach zdobywania pożywienia. Ludzie przeszli z łowienia całymi społecznościami na łowienie w grupach rodzinnych, dodaje André Colonese. « powrót do artykułu -
Na podstawie najnowszych wyników badań z obserwatoriów fal grawitacyjnych LIGO/Virgo, naukowcy przeprowadzili testy Ogólnej Teorii Względności (OTW). Zgodność teorii Einsteina z danymi obserwacyjnymi testowano dziewięcioma różnymi metodami. Żadnych niezgodności nie stwierdzono. W badaniach brali udział polscy naukowcy z grupy Polgraw, w tym uczeni z NCBJ. Ogólna Teoria Względności zaproponowana ponad 100 lat temu przez Alberta Einsteina jest obecnie powszechnie przyjętą teorią grawitacji. Jest ona niezwykle elegancka i koncepcyjnie w zasadzie prosta, choć obliczenia wykonywane na jej podstawie do prostych nie należą. Teoria prawidłowo opisuje poznane zjawiska astronomiczne napędzane przez grawitację, a także jest podstawą do budowy scenariuszy kosmologicznych. W miarę postępu badań i obserwacji, w miarę gromadzenia coraz większych, coraz dokładniejszych i coraz lepiej uporządkowanych zbiorów danych, obszar dostępnych nam zjawisk stale się poszerza. W nauce żadnej teorii nie traktujemy jako dogmatu – tłumaczy prof. Marek Biesiada z Zakładu Astrofizyki NCBJ. Dlatego teorie poddajemy testom, stale sprawdzając ich przewidywania. Jak dotąd OTW została potwierdzona bardzo precyzyjnymi obserwacjami w Układzie Słonecznym i w układach podwójnych pulsarów. Fale grawitacyjne emitowane przez zlewające się czarne dziury dostarczają kolejnej możliwości testowania teorii względności. Jest to reżim silnie zakrzywionych czasoprzestrzeni, wcześniej słabo dostępny testowaniu. Są przynajmniej dwie przesłanki nakazujące nam sprawdzać, czy OTW wymaga modyfikacji lub zastąpienia nową teorią. Pierwszą z nich są problemy kosmologiczne znane jako ciemna materia i ciemna energia. Problem ciemnej materii polega na tym, że galaktyki i ich gromady przyciągają silniej niż powinny, gdyby uwzględnić całą znaną nam materię. Problem ciemnej energii to fakt, że Wszechświat przyspiesza swą ekspansję, zamiast zwalniać, jak wydaje się przewidywać OTW. Chociaż robocze nazwy ciemna materia i ciemna energia sugerują odpowiedź w postaci nieznanych składników materialnych, pozostaje możliwość, że OTW wymaga modyfikacji. Drugą przesłanką jest wynikająca z OTW konieczność występowania osobliwości, czyli obszarów, gdzie kończą się historie wszystkich cząstek i fotonów. Wydaje się, że problem ten jest związany z kwantową teorią grawitacji, której nie udało się stworzyć w zadowalającej wszystkich postaci. Tu również fale grawitacyjne emitowane przez zlewające się czarne dziury mogą dostarczyć nam wskazówek. Współprace badawcze LIGO i Virgo opublikowały w tym tygodniu podsumowanie analiz zebranych przez nie danych pod kątem ich zgodności z przewidywaniami OTW. Analizy zebrano w 9 głównych grup stanowiących testy teorii. Pierwszy test dotyczył zgodności rejestrowanego sygnału bazowego (szumu) ze znanym z testów laboratoryjnych szumem detektora. Z OTW wiemy jak sygnał od dwóch zwartych obiektów powinien wyglądać w detektorach fal grawitacyjnych. Jednak to, czym posługujemy się do opisu sygnału jest teorią – jak cała nauka jest pewnym przybliżeniem, najlepszym jakie mamy, opisującym świat, dopóki nie znajdziemy lepszego. Jeśli OTW nie opisywałaby dostatecznie dobrze takich sygnałów to mielibyśmy przewidywanie teoretyczne plus dodatkowy komponent, który wynika z nieuwzględnionych efektów. Aby zobaczyć, czy taki dodatkowy komponent jest obecny, trzeba było sprawdzić, czy po odjęciu przewidywanego sygnału reszta będzie miała charakterystykę normalnego szumu w detektorze. Przeprowadzony test potwierdził słuszność OTW. Przeprowadzono też test zgodności przebiegu (kształtu) fal przed i po zlaniu się dwóch obiektów. Źródłami fal grawitacyjnych, które obserwujemy są układy: dwóch gwiazd neutronowych; dwóch czarnych dziur; układ czarna dziura – gwiazda neutronowa. Zdarzenie zlania się tych obiektów następuje w 3 głównych fazach: moment tuż przed zderzeniem, moment zlania się oraz faza stabilizacji. OTW przewiduje, że fazy sprzed zderzenia oraz po powinny generować podobne fale. Przewidywania OTW są zgodne z obserwacjami dla analizowanej próbki. Kolejne dwa testy dotyczyły zachowania się obiektów w pierwszej fazie zlewania, gdy ciała niebieskie okrążają się wzajemnie. Wzajemne okrążanie zwartych obiektów, takich jak czarne dziury czy gwiazdy neutronowe, zbliżających się do siebie dzięki utracie energii emitowanej w postaci fal grawitacyjnych, można przybliżyć przez powolny ruch w przybliżeniu słabego pola – nazywa się to post-Newtonowskim przybliżeniem OTW. Podejście to opisane jest kilkoma parametrami, których określenie na tej podstawie można porównać z parametrami otrzymanymi przez OTW. Najnowsze obserwacje wraz z już istniejącymi, pozwalają bardzo dobrze określić ograniczenia wartości tych parametrów. Wyniki te są statystycznie spójne z przewidywaniami OTW. Pierwsza faza, przed zlaniem się obiektów, pozwala również na sprawdzenie, czy obserwowany sygnał jest zgodny z przewidywaniami zlania się dwóch rotujących czarnych dziur (czarnych dziur Kerra). Jeśli któryś ze składników (lub oba) będzie rotował – powstały obiekt będzie spłaszczony na biegunach i poszerzony na równiku. Naukowcy są w stanie wyłuskać tę informację z danych obserwacyjnych, dzięki czemu można ustalić, że źródłem fal grawitacyjnych nie są żadne egzotyczne, nieprzewidziane przez OTW, obiekty. Podobne podejście zastosowano do określenia parametrów zdarzenia w trakcie i po zlaniu się obiektów. Czas trwania zlewania się i stabilizacji nowego obiektu jest dużo krótszy od fazy zbliżania się, więc obserwowany sygnał jest dużo silniejszy od widocznego szumu. Oszacowane na tej podstawie parametry dają wartości statystycznie zgodne z przewidywaniami OTW. Kolejnym jest test propagacji fal grawitacyjnych. Według przewidywań OTW fale grawitacyjne nie podlegają dyspersji, czyli prędkość ich rozchodzenia się nie zależy od ich częstotliwości. OTW można zmodyfikować w taki sposób, by własność ta nie była zachowana. W takiej sytuacji fale pochodzące bezpośrednio ze zlania się obiektów, o wyższej częstotliwości, dotarłyby do obserwatora szybciej, niż fale o mniejszej częstotliwości – pochodzące z fazy początkowej. Nie znaleziono dowodów dyspersji fal grawitacyjnych, co jest zgodne z przewidywaniami OTW. Brak zaobserwowanej dyspersji umożliwia nam ograniczenie modeli fizyki cząstek, które zakładają, że grawitony cząstki odpowiadające za oddziaływania grawitacyjne - mają masę (tak zwany model ciężkich grawitonów). W ramach OTW grawitony powinny być bezmasowe i podróżować z prędkością światła. Modele ciężkich grawitonów przewidują jednak istnienie dyspersji w pewnym stopniu, więc obserwacje mogą dać ograniczenie na masę grawitonów. W tych badaniach określono masę grawitonów (o ile ją posiadają) na poniżej 1.3*10-23 eV/c2. Ósmy test dotyczy polaryzacji fal grawitacyjnych. W ramach OTW fale grawitacyjne mogą mieć jedynie dwa typy polaryzacji: typu plusa lub typu X. Bardziej ogólna teoria może prowadzić do nawet sześciu unikatowych typów polaryzacji fal. Przeanalizowano dane obu detektorów LIGO oraz detektora Virgo pod kątem polaryzacji, których OTW nie uwzględnia. Testy nie wykazały możliwości istnienia innych polaryzacji niż przewidywanych przez OTW. Istnieją alternatywne teorie względem istnienia czarnych dziur. Obiekty takie, nazywane są mimikami czarnych dziur ze względu na to, że mają podobne parametry jak czarne dziury, jednak nie są nimi w sensie OTW. Jedną z najbardziej charakterystycznych cech czarnych dziur jest horyzont zdarzeń, czyli obszar, z którego nic nie jest w stanie uciec - nawet światło. W przypadku mimików, powierzchnia taka miałaby albo częściową, albo pełną refleksyjność, co wywołałoby pewnego rodzaju echo w sygnale z trzeciej fazy zlewania się obiektów. Analizy nie wykazały istnienia tego typu ech, co jest zgodne z przewidywaniami OTW. Stawiając się w pozycji przeciwników OTW, naukowcy przeprowadzili 9 testów, które mogłyby wykazać błędność Ogólnej Teorii Względności. Dowodów niezgodności nie znaleziono. Testy z całą pewnością będą kontynuowane, bo taka jest istota badań naukowych. Wszelkie niezgodności jakie ewentualnie wystąpią między obserwacjami, a przewidywaniami OTW, mogą w przyszłości zaowocować poznaniem nowych zjawisk. Nie są to wszystkie testy jakim można poddać teorię grawitacji dzięki badaniu fal grawitacyjnych – wyjaśnia dr Adam Zadrożny z Zakładu Astrofizyki NCBJ, członek polskiej grupy badawczej Polgraw. Bardzo ciekawym przykładem był pomiar stałej Hubble’a dla obserwacji fal grawitacyjnych GW170817 i rozbłysku optycznego AT 2017gfo, które były wynikiem tego samego zdarzenia. Zostało to opisane w czasopiśmie Nature w 2017 roku (vol. 551, p. 85–88). Pomiar stałej Hubble’a wykonany przy użyciu danych z detektorów fal grawitacyjnych był zgodny z wynikami uzyskanymi innymi metodami. Warto też dodać, że prof. Andrzej Królak (IM PAN i NCBJ) razem z prof. Bernardem F. Schutzem (Cardiff University) w pracach w latach 80-tych dali postawy wielu metodom analizy danych z detektorów interferometrycznych takich jak LIGO i Virgo. Polska od 2008 roku jest częścią projektu Virgo. Polscy uczestnicy projektu tworzą grupę Polgraw, której przewodzi prof. Andrzej Królak (IM PAN, NCBJ). Grupa bierze udział zarówno w badaniach naukowych konsorcjum LIGO-Virgo-KAGRA (LVK) jak i w konstrukcji detektora Virgo. Wśród badań naukowych prowadzonych przez grupę Polgraw, w ramach LVK, są między innymi analiza danych, rozwijanie metod statystycznych, modelowanie źródeł fal grawitacyjnych oraz analizy emisji fal elektromagnetycznych towarzyszących emisji fal grawitacyjnych. W skład grupy Polgraw wchodzi 12 instytucji w tym Instytut Matematyczny PAN, CAMK (Warszawa), Obserwatorium Astronomiczne UW, Uniwersytet Zielonogórski, Uniwersytet w Białymstoku, NCBJ, Uniwersytet Wrocławski, CAMK (Toruń), Obserwatorium Astronomczne UJ, AGH, ACK Cyfronet AGH, Centrum Fizyki Teoretycznej PAN. W skład konsorcjum LVK wchodzą ze strony NCBJ prof. Andrzej Królak, dr Orest Dorosh, dr Adam Zadrożny i mgr Margherita Grespan. Prace prowadzone w NCBJ dotyczą metod detekcji sygnałów pochodzących od rotujących gwiazd neutronowych, infrastruktury umożliwiającej szybką detekcję sygnałów grawitacyjnych oraz nowych metod analizy i lokalizacji sygnału opartych o sieci neuronowe. « powrót do artykułu
- 3 odpowiedzi
-
- Narodowe Centrum Badań Jądrowych
- fale grawitacyjne
-
(i 1 więcej)
Oznaczone tagami:
-
Krążący na orbicie Marsa pojazd ExoMars Trace Gas Orbiter odkrył ślady dużych ilości wody w centrum jednego z największych kanionów Układu Słonecznego, Valles Marineris. O ile samo odkrycie wody na Marsie nie jest zaskoczeniem – wiemy, że znajduje się ona w pobliżu biegunów – to jej istnienie tak blisko równika zaskoczyło naukowców. Jeśli odkrycie się potwierdzi, może znakomicie ułatwić załogową eksplorację Czerwonej Planety. Obecność wody została zarejestrowana przez instrument FREND, który bada zawartość wodoru w górnym metrze marsjańskiego gruntu. Naukowcy nie spodziewali się wody tak blisko powierzchni Marsa w okolicach równika, gdyż panują tam zbyt wysokie temperatury, by lód mógł pozostać stabilny. Dzięki Trace Gas Orbiter możemy zajrzeć metr pod powierzchnię planety i zobaczyć, co dzieje się pod nią. Przede wszystkim zaś możemy zidentyfikować bogate w wodę oazy, których wcześniej stosowane instrumenty nie były wstanie zarejestrować, mówi główny autor badań, Igor Mitrofanow z Instytutu Badań Kosmicznych Rosyjskiej Akademii Nauk. Misja ExoMars TGO to wspólne przedsięwzięcie Roskosmosu i Europejskiej Agencji Kosmicznej (ESA). W olbrzymim kanionie Valles Marineris FRED wykrył obszar o niezwykle wysokim poziomie wodoru. Zakładając, że obserwowany wodór stanowi część molekuł wody, widzimy, że woda znajduje się pod 40% powierzchni kanionu, dodaje rosyjski uczony. Valles Marineris ma ponad 4000 kilometrów długości i 200 km szerokości. Jak informuje ESA, bogaty w wodę obszar ma niemal powierzchnię Holandii (ok. 41,5 tysiąca km2). Aleksiej Malachow z Rosyjskiej Akademii Nauk, wyjaśnia, że FREND obserwuje ilość neutronów emitowanych z powierzchni Marsa pod wpływem promieniowania kosmicznego. Obszary bardziej suche emitują więcej neutronów niż bardziej wilgotne. Okazało się, że centralna część Valles Marineris jest pełna wody. Jest im tam znacznie więcej, niż mogliśmy się spodziewać, dodaje uczony. Woda może tam występować w postaci lodu lub być związana z minerałami w glebie. Jednak inne badania Mara wykazały, że tamtejsze minerały zawierają niewiele wody, znacznie mniej niż teraz odkryto. Dlatego też sądzimy, że ta woda jest w postaci lodu, stwierdza Malachow. Naukowcy przyznają, że potrzebne są dalsze badania, by określić, w jakiej formie występuje zaobserwowana woda. Niezależnie jednak od tego, sam fakt, że znajduje się ona tak płytko pod powierzchnią oznacza, że jest łatwo dostępna. « powrót do artykułu
-
Zmiana zwyczajów kulinarnych wśród Chińczyków i spożywanie większej ilości mięsa przyczynia się do 75 000 przedwczesnych zgonów z powodu zanieczyszczenia powietrza w Państwie Środka. Badania naukowców z University of Exeter są pierwszymi, w ramach których przeanalizowano, jak zmiany diety w Chinach w latach 1980–2010 wpłynęły na zwiększenie emisji amoniaku oraz jaki miało to wpływ na ludzkie zdrowie. W ciągu ostatnich 50 lat na całym świecie wzrosła produkcja mięsa, a do największych jej wzrostów doszło w Azji Wschodniej, szczególnie w Chinach. O ile dobrze znamy negatywne skutki zdrowotne wiążące się z rezygnacją z roślin na rzecz mięsa, to znacznie mniej wiemy o tym, jaki wpływ zmiana diety ma na środowisko naturalne i przez to na ludzkie zdrowie. Wiemy za to, że zawarty w powietrzu pył jest szkodliwy dla zdrowia oraz że amoniak (NH3) z gleby przedostaje się do powietrza i wchodzi w reakcje tworząc toksyczne składniki pyłu. Brytyjscy uczeni postanowili więc sprawdzić jak na zdrowie Chińczyków wpłynął zwiększony poziom amoniaku z nawozów i odchodów zwierząt hodowlanych. Naukowcy stwierdzili, że w latach 1980–2010 produkcja mięsa w Państwie Środka zwiększyła się o 433%, z 15 do 80 milionów ton. Jedynie niewielką część, czyli wzrost z 15 do 20 milionów ton można powiązać ze zwiększeniem się populacji. Pozostałych 60 milionów ton dodatkowej produkcji to skutek zmiany przyzwyczajeń dietetycznych Chińczyków. W tym samym czasie emisja NH3 wzrosła niemal dwukrotnie, z czego za 63% wzrostu odpowiada zmiana diety. Każdego roku z powodu zanieczyszczenia powietrza pyłem (PM) przedwcześnie umiera około 1,83 miliona Chińczyków. Na podstawie analizy danych uczeni stwierdzili, że 5% tych zgonów można przypisać zanieczyszczeniu powodowanemu zmianą diety, głównie zaś większym spożyciem mięsa. Naukowcy obliczyli też, że gdyby dieta przeciętnego Chińczyka była zgodna z Chinese Dietary Guideline 2016, które zaleca zmniejszenie konsumpcji mięsa, to emisja amoniaku byłaby o 2,1 miliona ton niższa, co pozwoliłoby uniknąć rocznie 74 805 zgonów. Jeden z badaczy, profesor Xiaoyu Yan, mówi: W latach 80. priorytetem chińskich władz było zaspokojenie podstawowych potrzeb żywnościowych ludności. Jednak obecnie, gdy problem niedożywienia został w Chinach znacząco zmniejszony, Chiny pilnie potrzebują bardziej zrównoważonych metod produkcji żywności. Obecne metody muszą zostać zmienione tak, by wywierały one mniej niekorzystny wpływ na ludzkie zdrowie i środowisko zarówno Chin jak i całego świata. Wykazaliśmy, że zmiana diety nie tylko przyczyni się do poprawy zdrowia poprzez zdrowsze odżywianie się, ale ma też niezwykle ważny pozytywny wpływ na środowisko naturalne oraz – za jego pośrednictwem – na ludzkie zdrowie, dodaje profesor Gavin Shaddick. Naukowcy zauważyli też, że różne grupy dochodowe w różny sposób odczuwają negatywne skutki zmiany diety na zawierającą więcej mięsa. O ile negatywne skutki zdrowotne konsumpcji mięsa spadają na tych, którzy na mięso mogą sobie pozwolić i jedzą go zbyt dużo, o tyle negatywne skutki jego produkcji – związane z zanieczyszczeniem środowiska – odczuwają przede wszystkim ubożsi mieszkańcy głównych regionów rolniczych, jak prowincje Hebei i Henan. Artykuł Dietary shifts can reduce premature deaths related to particulate matter pollution in China został opublikowany na łamach Nature Food. « powrót do artykułu
-
Poczta Polska (PP) i Archiwum Państwowe w Łodzi przygotowały "Wystawę Pocztówek Świątecznych". Ekspozycja składa się z 38 archiwalnych i 17 współczesnych kart pocztowych. Jak podkreślono w komunikacie PP, pocztówki archiwalne pochodzą z kolekcji prywatnych i spuścizn przechowywanych w Archiwum Państwowym w Łodzi, m.in. z Archiwum rodziny Bartoszewiczów, Archiwum Profesora Emila Stanisława Rappaporta, Archiwum Eugeniusza Ajnenkiela czy Archiwum Anatola Gupieńca. Większość kart wytworzono za czasów PRL-u: w latach 50., 60. i 70. Najstarsza pocztówka jest datowana na 1909 r. - wysłano ją z Zakopanego do Krakowa. Wśród wydawców kartek znalazły się m.in. Biuro Wydawnicze "Ruch", Spółdzielczy Instytut Wydawniczy "Kraj", Ars Christiana czy Krajowa Agencja Wydawnicza. Autorami oprawy graficznej pocztówek byli znani i cenieni polscy ilustratorzy, plastycy i fotografowie, tacy jak: Jan Marcin Szancer, Maria Orłowska-Gabryś, Eugeniusz Stec, Maria Mackiewicz, Roman Orszulski, Jerzy Wendołowski. Nadchodzący czas Bożego Narodzenia zainspirował nas jako Archiwum Państwowe w Łodzi do zaprezentowania mieszkańcom Łodzi i regionu, we współpracy z Pocztą Polską Region Sieci w Łodzi, kolekcji kart świątecznych. Z sentymentem można spojrzeć w przeszłość, by zobaczyć, jak wyglądało składanie życzeń, zanim w naszym życiu na dobre zagościł świat cyfrowy – podkreślił Bartosz Górecki, dyrektor Archiwum Państwowego w Łodzi. Oprócz pocztówek, zaprezentowano rys historyczny. Organizatorzy wystawy przypomnieli, że autorem pierwszej kartki świątecznej był prawdopodobnie Thomas Sturrock, który stworzył swoje pierwsze dzieło w 1841 r. W 1842 r. 16-letni wówczas William Maw Egley - późniejszy artysta epoki wiktoriańskiej - wysłał pierwszą kartkę z życzeniami bożonarodzeniowymi. Rok później pojawiły się w Wielkiej Brytanii kartki zrobione na prywatne zamówienie sir Henry'ego Cole'a, pierwszego dyrektora Muzeum Wiktorii i Alberta w Londynie. Z wprowadzenia do wystawy możemy się też dowiedzieć, że w Polsce kartki świąteczne pojawiły się pod koniec XIX w., najwcześniej na obszarze Galicji. Ciekawostką jest to, że w ogłoszonym na łamach "Kuriera Warszawskiego" w 1900 r. konkursie na polską nazwę nazwę "listu otwartego" wygrała propozycja Henryka Sienkiewicza - znana nam dobrze "pocztówka" (inne propozycje, to: liścik, listówka, otwartka i pisanka). Wystawę można oglądać do 10 stycznia w Urzędzie Pocztowym Łódź 4. « powrót do artykułu
-
- Poczta Polska
- Archiwum Państwowe w Łodzi
-
(i 2 więcej)
Oznaczone tagami:
-
W Australii odkryto zwierzę z ponad 1000 odnóży
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Australijscy naukowcy donieśli o odkryciu pierwszego krocionoga, który rzeczywiście zasługuje na swoją angielską nazwę zwyczajową, millipede. Nazwa ta, pochodząca z łaciny, oznacza „tysiąc stóp”. Tymczasem żaden spośród ponad 12 000 opisanych dotychczas gatunków miał tylu odnóży. Dotychczasowy rekordzista, kalifornijski Illacme plenipes, mógł pochwalić się 750 odnóżami. Właśnie stracił palmę pierwszeństwa wśród właścicieli największej liczby odnóży. W stanie Australia Zachodnia znaleziono niedawno czterech przedstawicieli nowego gatunku nazwanego Eumillipes persephone. Pozbawione oczu zwierzęta żyją 60 metrów pod ziemią, a ich długie na niemal 10 centymetrów ciało może składać się nawet z 330 segmentów. Najbardziej jednak imponuje liczba odnóży. Eumillipes persephone mają ich aż 1306. Nazwa nowego gatunku pochodzi od greckiego eu- (prawdziwy), łacińskich mille (tysiąc) i pes (stopa) oraz odniesienia do Persefony, greckiej bogini świata podziemnego. Naukowcy badają teraz DNA nowo odkrytego gatunku, by określić, w jaki sposób jest on powiązany z innymi znanymi gatunkami. Jednak na tym zainteresowanie uczonych się nie kończy. W skład australijsko-amerykańskiej grupy badawczej, która odkryła nowy gatunek, wchodzi tez doktor Juanita Rodriguez z CSIRO (Commonwealth Scientific and Industrial Research Organisation). Odkrycie Eumillipes persephone wpisuje się w większy projekt badawczy prowadzony w ramach Australian National Insect Collection. Badamy związki chemiczne wytwarzane przez krocionogi, szukając wśród nich molekuł, które można będzie wykorzystać przeciwko wysoce zakaźnym antybiotykoopornym patogenom. To bardzo ważne, gdyż coraz więcej patogenów staje się opornych na współczesne antybiotyki. Potrzebujemy więc nowych molekuł do zwalczania gronkowca złocistego czy mikroorganizmów powodujących zapalenia płuc, mówi Rodriguez. « powrót do artykułu- 7 odpowiedzi
-
- krocionóg
- Eumillipes persephone
-
(i 2 więcej)
Oznaczone tagami:
-
Historycy sprzeczają się, co przyczyniło się do upadku społeczności Wyspy Wielkanocnej (Rapa Nui). W ostatnim czasie pojawiają się badania wskazujące, że upadek rozpoczął się po przybyciu Europejczyków, wraz z przeniesionymi przez nich chorobami i konfliktami. Jednak niezależnie od tego kiedy i z jakiej przyczyny upadek się rozpoczął, autorzy najnowszych badań twierdza, że i tak był on nieunikniony. Oliver Chadwick, gleboznawca z Uniwersytetu Kalifornijskiego w Santa Barbara, przedstawił wyniki swoich najnowszych badań podczas jesiennego spotkania Amerykańskiej Unii Geologicznej. Wynika z nich, że niewielkie rozmiary wyspy i jej izolacja skazywały tamtejszą populację na porażkę. Już wcześniej wiedziano, że gleba na Wyspie Wielkanocnej jest mniej żyzna niż na Hawajach. Badania Chadwicka ujawniły zaś, że bardzo ważny nawóz, pył niesiony z wiatrem z Azji, nie docierał do Rapa Nui. Polinezyjczycy, którzy zasiedlili Hawaje przed co najmniej 1000 lat, znaleźli tam żyzne gleby i aktywne wulkany. Istniały tam dobre warunki do rozwoju rolnictwa, więc tamtejsze społeczności rozkwitały. Mniej więcej w tym samym czasie inne grupy Polinezyjczyków dotarły do Wyspy Wielkanocnej. Tam sytuacja wyglądała zupełnie inaczej. Gleba była uboga. Chadwick, Ladefoged i ich koledzy stwierdzili, że do przybycia ludzi na Rapa Nui deszcze pozbawiły glebę większości substancji odżywczych. Badania wykazały również, że w glebie na wyspie nie występują też miki, kwarc i rzadkie minerały, których nie zawierają skały wulkaniczne. Gleba na Hawajach zawiera te składniki, gdyż są one niesione z pyłem znad Azji. Uzyskane przez nas wyniki wskazują, że do Rapa Nui nie dociera pył w wykrywalnych ilościach, mówi Chadwick. Naukowcy zauważyli jednak, że w skalnych ogrodach, tworzonych przez krajowców, gleba jest bardziej żyzna, niż poza nimi. Występowały w nich izotopy fosforu, podobne do tych znajdowanych na Hawajach. Zdaniem naukowców, miejscowa ludność celowo wydobywała skały wulkaniczne, rozbijała je i tworzyła bardziej żyzne obszary uprawne. Spostrzeżenie to zgadza się z innymi badaniami. Niedawno informowaliśmy bowiem, że inna grupa badawcza doszła do wniosku, iż słynne posągi z Wyspy Wielkanocnej mogły służyć właśnie użyźnianiu gleby. Uboga gleba, której nie użyźniał pył z Azji, skazywała więc rolnicze osadnictwo na Rapa Nui na porażkę, ale miejscowa ludność opracowała metodę, która do pewnego stopnia kompensowała brak składników odżywczych w glebie. « powrót do artykułu
- 3 odpowiedzi
-
- Rapa Nui
- Wyspa Wielkanocna
-
(i 2 więcej)
Oznaczone tagami:
-
Dr hab. Roman Kotłowski, prof. PG oraz dr. hab. n. med. Katarzyna Garbacz, prof. uczelni, wraz z dr n. med. Ewą Kwapisz z Gdańskiego Uniwersytetu Medycznego opracowali metodę, która pozwala na określenie gatunku szczepów bakterii z rodzaju gronkowców. Dzięki takiemu precyzyjnemu opisaniu gatunku, zakażonego gronkowcem pacjenta można leczyć skuteczniej poprzez połączenie informacji na temat budowy ściany komórkowej bakterii oraz lekooporności. Bakterie zakwalifikowano do rodzaju gronkowców, jednak lekarze z UCK potrzebowali bardziej szczegółowych informacji na temat gatunku bakterii pozyskanej od pacjenta. Dr hab. Roman Kotłowski, prof. PG, z Katedry Biotechnologii Molekularnej i Mikrobiologii Wydziału Chemicznego Politechniki Gdańskiej wraz z dr hab. n. med. Katarzyną Garbacz, prof. uczelni oraz dr n. med. Ewą Kwapisz z Zakładu Mikrobiologii Jamy Ustnej Gdańskiego Uniwersytetu Medycznego zastosowali nowatorską metodę badań genetycznych, umożliwiającą identyfikację gatunkową bakterii określając ich gatunek jako Staphylococcus succinus subsp. casei. Wyizolowane od pacjentów dwa szczepy bakterii okazały się niezwykle rzadkie w dzisiejszych czasach. Po raz pierwszy taki szczep kliniczny gronkowca zidentyfikowano w 2006 roku w Czechach. Ciekawostką jest to, iż bardzo blisko spokrewniony szczep gronkowca Staphylococcus succinus subsp. nov. wyhodowano z inkluzji w bursztynie na Dominikanie którego wiek powstania szacowany jest w przedziale 25-35 milionów lat. Ponieważ jest to szczep bakterii, która nie wytwarza form przetrwalnikujących, dlatego też można uznać, iż to właśnie bursztynowi zawdzięczała przetrwanie aż tak długiego okresu. Badaniu został poddany gen o nazwie nucH. Choć sama metoda identyfikacji gatunków bakterii za pomocą analizy sekwencji DNA wybranego genu nie jest nowa, po raz pierwszy użyto sekwencję genu nucH jako sposobu diagnostyki do identyfikacji trudnych do określenia szczepów patogennnych gronkowca. W metodzie sekwencjonowania zostaje poddany fragment kodu genetycznego liczący 81 par nukleozydów kodujący prawie cały gen nucH. Alternatywnym etapem badania może być zastosowanie enzymów restrykcyjnych specyficznych wobec cząsteczek DNA. Do analizy używane są enzymy, które potrafią „przecinać” DNA – dla różnych gatunków bakterii inaczej. Pozyskane są dzięki temu różne długości fragmentów DNA – w tym wypadku genu nucH o stosunkowo krótkiej sekwencji nukleotydowej. Jest to metoda znacznie łatwiejsza niż stosowana do tej pory z uwagi na około 10-krotne zmniejszenie analizowanej sekwencji nukleotydowej. Sekwencjonowanie zidentyfikowanego unikalnego fragmentu genu nucH wydaje się obiecującym testem diagnostycznym do identyfikacji gatunków bakterii z rodzaju Staphylococcus – wyjaśnia prof. Roman Kotłowski – Na podstawie naszych wyników możemy założyć, że prawdopodobnie inne gatunki rodzaju Staphylococcus pochodzące z różnych próbek klinicznych można zidentyfikować za pomocą opracowanej przez nas metody sekwencjonowania fragmentu genu nucH. By metoda mogła się rozpowszechnić i zostać zaadaptowana do identyfikacji innych gatunków bakterii potrzebne jest jednak poszerzenie baz genetycznych o znacznie większą liczbę sekwencji genu nucH dla innych gronkowców jak również innych rodzajów bakterii oraz dalsze prace badawcze. « powrót do artykułu
-
- gronkowiec
- Politechnika Gdańska
-
(i 1 więcej)
Oznaczone tagami:
-
Już około 7,5 tys. sekwencji, reprezentujących ponad 1,3 tys. gatunków zwierząt liczy biblioteka barkodów DNA, czyli tzw. genetycznych kodów kreskowych dla Polski, którą tworzą naukowcy z Uniwersytetu Łódzkiego w ramach członkostwa w międzynarodowej sieci badawczej. Sieć ta – International Barcode of Life (iBOL) – zajmuje się badaniem różnorodności gatunkowej zwierząt i roślin na podstawie określonych fragmentów genomu, czyli tzw. genetycznych kodów kreskowych – barkodów DNA. Polska inicjatywa w ramach tej sieci nosi nazwę Polish Barcode of Life (PolBOL) i została zainicjowana, jeszcze przed pandemią COVID-19, przez grupę naukowców z Katedry Zoologii Bezkręgowców i Hydrobiologii UŁ, pod kierownictwem prof. Michała Grabowskiego. Zwierzęta różnią się wyglądem, zachowaniem, środowiskiem i trybem życia. Wszystkie te różnice zapisane są w ich kodzie genetycznym. Dzięki tym różnicom każdemu gatunkowi możemy przypisać określoną sekwencję DNA i użyć jej do identyfikacji tego gatunku, dokładnie w taki sposób, w jaki produkty w sklepach identyfikowane są za pomocą kodów kreskowych – wyjaśnił prof. Grabowski. Jak poinformowała PAP Honorata Ogieniewska z UŁ, badacze rozpoczęli działalność PolBOL od budowy biblioteki referencyjnej kodów kreskowych DNA fauny krajowej, na potrzeby przyszłych standardów biomonitoringu środowiska. Obecnie biblioteka barkodów dla Polski liczy około 7,5 tys. sekwencji, reprezentujących ponad 1,3 tys. gatunków zwierząt. W dalszej kolejności biblioteka ta zostanie rozszerzona również na inne grupy organizmów – podała Ogieniewska. W jednym ze swoich pierwszych projektów zespół skupił się opracowaniu takiej biblioteki dla bioróżnorodności przykładowej rzeki nizinnej i jej doliny. Tą rzeką jest Grabia – płynąca niedaleko Łodzi czysta i naturalna rzeka, której dolina objęta została ochroną w ramach sieci Natura 2000. Jest ona znana łódzkim biologom, którzy badają ją już od prawie 100 lat. W informacji prasowej przypomniano, że kody kreskowe DNA umożliwiają nie tylko identyfikację całych osobników, ale również ich fragmentów (np. włosów, piór), a także śladów biologicznych pozostawionych w środowisku. Ta nowatorska metoda umożliwiająca nowoczesne identyfikowanie i szeregowanie gatunków za pomocą sekwencji nukleotydów DNA została opracowana w 2003 r. przez prof. Paula Heberta z University of Guelph w Kanadzie. Kieruje on obecnie Center for Biodiversity Genomics (CBG), które jest sercem konsorcjum iBOL i zajmuje się opracowywaniem nowych technik szacowania i monitoringu bioróżnorodności na podstawie DNA oraz rozwijaniem i zarządzaniem ogólnoświatowej, publicznie dostępnej biblioteki referencyjnej kodów kreskowych DNA – Barcode of Life Datasystems (BOLD). Sieć iBOL-BIOSCAN obejmuje już ponad 40 krajów. Przed rokiem europejskie instytucje zainteresowane wykorzystaniem barkodingu powołały europejski węzeł iBOL – BIOSCAN Europe. Wydział Biologii i Ochrony Środowiska UŁ jest wśród jego założycieli. « powrót do artykułu
-
U 10 dzieci z epilepsją, którym podawano środki z całych konopi indyjskich, doszło do spektakularnego zmniejszenia liczby napadów drgawek, średnio aż o 86%. Osiągnięcie jest tym bardziej imponujące, że żadne z dzieci nie reagowało na leczenie konwencjonalnymi lekami, a niektóre nie reagowały też na leki zawierające kannabidiol (CBD). Podane im środki wyprodukowano z całych roślin, co oznacza, że zawierały główny czynnik psychoaktywny konopi indyjskich, THC. Nasze badania pokazują, że uzyskane z całych medycznych konopi środki mogą być efektywnymi dobrze tolerowanymi lekami zmniejszającymi częstotliwość napadów drgawkowych u dzieci z niepoddającą się leczeniu epilepsją, mówi jeden z autorów badań, doktor Rayyan Zafar z Imperial College London. Naukowcy poinformowali o wynikach swoich badań na łamach BMJ Paediatrics Open. Już w XIX wieku pojawiały się anegdotyczne opowieści o tym, że konopie indyjskie pomagają dzieciom z epilepsją. Jednak używanie tej rośliny zostało zakazane i badania nad jej medycznymi zastosowaniami praktycznie ustały. W 2018 roku, pod naciskiem rodziców, których dzieci pozytywnie reagowały na środki z całych konopi, ale nie na konwencjonalne leki czy na środki z CBD, w Wielkiej Brytanii wyrażono zgodę na przepisywanie takim dzieciom środków z całych konopi. Na rynku dostępne są zaledwie dwa takie środki, a lekarze je niechętnie przepisywali, gdyż brak było randomizowanych badań klinicznych z podwójną ślepą próbą potwierdzających ich skuteczność. Ostatnio jednak brytyjski National Institute for Health and Clinical Excellence (NICE), który ustala zasady dotyczące laków i terapii, stwierdził, że dane ze studiów przypadku (case study), w tym serie takich danych, są równie akceptowalnym dowodem co testy kliniczne, szczególnie w przypadkach, w których trudno jest przeprowadzić odpowiednie badania kliniczne, a tak dzieje się np. w przypadku leków dla dzieci. Po tym, jak NICE zaakceptowało studia przypadku jako dowód, naukowcy postanowili sprawdzić działanie środków z całych konopi na 10 dzieci z ciężką postacią epilepsji nie reagującą na leczenie. Dwoje z nich nie reagowało też na oczyszczony olej z CBD (Epidyolex) zaakceptowany do leczenia takich dzieci. Dzieci w wieku 1–13 lat rekrutowano w dwóch organizacjach charytatywnych reprezentujących dzieci używające medycznej marihuany w leczeniu ciężkiej padaczki. Dzieciom podawano produkty medyczne bazujące na konopiach (CBMP) takie jak Bedrolite (<1% THC i 9% CBD), Bedica (14% THC i <1% CBD), Celixir 20 (<1% THC i 20% CBD), Sweet Pink CBD (<1% THC i 10.6% CBD) oraz Althea 100 (<1% THC i 10% CBD), czytamy w opublikowanym artykule. Przed rozpoczęciem eksperymentu każde z dzieci próbowało średnio 7 różnych konwencjonalnych leków. Po rozpoczęciu leczenia produktem z konopi średnia ta spadła do 1 leku, a 7 dzieci w ogóle przestało brać konwencjonalne lekarstwa. Średnia liczba przypadków napadów drgawek zmniejszyła się o 86%. Dzieci przyjmowały średnio dziennie 5,15 mg THC i 171,8 mg CBD. Zarówno lekarze jak i rodzice donieśli o znaczącej poprawie zdrowia i jakości życia dzieci. Poprawił się ich sen, zachowanie, procesy poznawcze i lepiej jadły. Zauważono jedynie niewielkie skutki uboczne przyjmowania środków z konopi, takie jak zmęczenie. Średni miesięczny koszt leczenia nowymi środkami wyniósł 874 funty. Naukowcy przyznają, że ich badania mają pewne ograniczenia. Po pierwsze, były to wyłącznie badania obserwacyjne i wzięła w nich udział niewielka grupa dzieci. Brak było grupy kontrolnej, ponadto autorzy zauważają, że do badań mogli zgłosić się rodzice, którzy wiedzieli, że ich dzieci dobrze reagują na produkty z konopi. Dlatego też uczeni stwierdzili, że potrzebne są kolejne badania, przede wszystkim nad określeniem mechanizmu działania testowanych przez nich środków. Badania takie powinny też zawierać porównanie skutków ubocznych środków z konopi i konwencjonalnych leków. « powrót do artykułu
-
- konopie indyjskie
- THC
-
(i 2 więcej)
Oznaczone tagami:
-
Guz mózgu rozrasta się, korzystając z zasad fizyki płynów
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Josef Käs z Uniwersytetu w Lipsku i Ingolf Sack z Charité-Universitätsmedizin Berlin wykazali, że rozprzestrzenianie się komórek nowotworu mózgu zależy zarówno od ich właściwości fizycznych, jak i biomechanicznych. Zdaniem naukowców, niewielka zmiana w elastyczności komórek glejaka – najbardziej niebezpiecznego z nowotworów mózgu – znacząco zmienia jego zdolność do przerzutowania. Sack jest chemikiem, a Käs fizykiem. Obaj specjalizują się w badaniu nowotworów, ale z różnej perspektywy. Sack bada mechaniczne właściwości tkanek, opracował technikę elastografii rezonansu magnetycznego, będącej połączeniem drgań o niskiej częstotliwości i rezonansu magnetycznego. Jest ona wykorzystywana do śledzenia postępów chorób. Z kolei Käs to optycznej pułapki, w której za pomocą laserów można deformować miniaturowe miękkie obiekty, jak komórki, badając ich elastyczność i zdolność do odkształcania się. Już przed dwoma laty obaj naukowcy zauważyli, że komórki glejaka są bardziej miękkie i mniej lepkie niż komórki nowotworowe guzów niezłośliwych. Jako, że glejaka trudno jest usunąć, gdyż wysuwa on niewielkie „macki” do otaczającej go tkanki, naukowcy zdali sobie sprawę, że rozprzestrzenianie się tego nowotworu może być napędzane wyłącznie prawami fizyki. Pojawianie się tego typu „macek” to bowiem dobrze znane zjawisko z fizyki płynów, gdy płyn o niskiej lepkości zostanie wprowadzony do innego płynu. Naukowcom udało się zrekrutować do badań ośmiu pacjentów, czterech z łagodnym guzem mózgu i czterech z guzami złośliwymi, w tym trzech z glejakiem. Wyniki badań zaskoczyły samych badaczy. Niezwykłą rzeczą był fakt, że właściwości mechaniczne pojedynczej komórki były odzwierciedlane we właściwościach mechanicznych całej tkanki, mówi Käs. Uzyskane dane wskazują jednak, na bardziej złożony obraz niż po prostu lepkie komórki tworzące lepki guz. Zgodnie z wcześniejszymi badaniami guzy złośliwe były bardziej miękkie i mniej lepkie niż guzy łagodne. Jednak, i to właśnie było zaskakujące, tworzące je komórki nie były mniej lepkie. Okazało się, że najważniejsza jest zdolność komórek do rozciągania i ich elastyczność. To ona była skorelowana ze zdolnością tkanki do „płynięcia”. Komórki guza, żeby się rozprzestrzeniać, musiały być zdolne do przeciskania się pomiędzy innymi komórkami. Zdaniem naukowców, to właśnie ta elastyczność, a nie lepkość, jest najważniejszym czynnikiem decydującym o zdolności tkanki do rozprzestrzeniania się. Komórki nowotworowe nie muszą dokonywać specjalnych zmian genetycznych, by rozpocząć proces „wysuwania macek”. Wystarczy, że mają odpowiednie właściwości mechaniczne. To wystarcza do bardzo inwazyjnego rozrostu tkanki, stwierdza Käs. Dokonane przez niemieckich uczonych odkrycie to jednocześnie z terapeutycznego punktu widzenia zła i dobra wiadomość. Zła, gdyż właściwości mechaniczne trudniej zaburzyć niż procesy molekularne. Dobrą zaś jest sam fakt, że poznaliśmy ten mechanizm. Jeśli zmiany fizyczne mogą spowodować, że guz staje się bardziej złośliwy, to mogą też doprowadzić do tego, że stanie się bardziej łagodny. Zrozumienie tego procesu może w przyszłości przyczynić się do rozwoju nowych terapii. Więcej na ten temat przeczytamy w piśmie Soft Matter. « powrót do artykułu -
Naukowcy z Politechniki Łódzkiej będą prowadzić badania nad systemem monitorującym wytwarzanie plazmy termojądrowej. Jak podkreślono w komunikacie prasowym uczelni, finansowanie przyznała [doktorantowi Bartłomiejowi Jabłońskiemu] europejska organizacja EUROfusion w konkursie na projekty dotyczące rozwiązania problemów naukowych związanych z fuzją termojądrową. Opiekunami grantu są dr hab. inż. Dariusz Makowski i dr hab. inż. Wojciech Tylman. Projekt będzie realizowany we współpracy z dr. Marcinem Jakubowskim z Instytutu Fizyki Plazmy im. Maxa Plancka w Greifswaldzie, dr. Raphaelem Mitteau z centrum badań jądrowych CEA i specjalistami z International Thermonuclear Experimental Reactor (ITER). W ramach trzyletniego grantu prowadzone będą badania naukowe nad nowymi metodami przetwarzania obrazów w czasie rzeczywistym oraz wykorzystaniem uczenia maszynowego i sieci neuronowych do ochrony i sterowania urządzeniami do wytwarzania plazmy termojądrowej. Głównym celem projektu jest opracowanie metodyki oraz algorytmów sterowania plazmą, jak również zabezpieczenia maszyny, wykorzystując obrazy z kamer termowizyjnych dla wyładowań plazmowych dłuższych niż 30 minut – wyjaśnia dr hab. inż. Dariusz Makowski. Urządzenia, które powstaną dzięki polskim naukowcom zostaną wykorzystane zarówno w niemieckim stellaratorze Wendelstein 7-X, jak we francuskim tokamaku WEST. Wyniki prac urządzeń do obrazowania zachowania plazmy są niezwykle ważne dla rozwoju przyszłych technologii fuzyjnych. Specjaliści mają nadzieję, że dzięki temu lepiej będą rozumieli plazmę i opracują doskonalsze metody jest utrzymania i kontroli. Reakcja termojądrowa (fuzja jądrowa) to zjawisko polegające na łączeniu się lżejszych jąder w jedno cięższe. W jej wyniku powstaje duża ilość energii. Gdyby udało się ją opanować, mielibyśmy do dyspozycji praktycznie niewyczerpane źródło taniej i bezpiecznej energii. Fuzja ma więc wiele zalet w porównaniu z reakcją rozszczepienia jąder cięższych atomów na lżejsze, którą wykorzystujemy w elektrowniach atomowych. Problem w tym, że wciąż nie potrafimy opanować reakcji termojądrowej i uzyskać z niej nadmiarowej energii, gotowej do komercyjnego wykorzystania System monitorujący plazmę będzie zatem przydatny dla rozwoju obu konkurencyjnych technologii reaktorów jądrowych – tokamaka i stellaratora. Bardziej znany z nich jest tokamak, którego koncepcja została stworzona w latach 50. przez radzieckich uczonych. Główna komora tokamaka ma kształt torusa, w którym za pomocą elektromagnesów tworzony jest pierścień plazmy. Przez ostatnich kilkadziesiąt lat świat kładł duży nacisk na rozwój tokamaków. Najbardziej znanym urządzeniem tego typu jest powstający we Francji międzynarodowy ITER. A wspominany tutaj WEST, a konkretnie jego wcześniejsza wersja Tore Supra, to światowy rekordzista pod względem utrzymania plazmy w tokamaku (6 minut 30 sekund). Jedną z alternatyw dla tokamaków są stellaratory. Charakteryzuje je znacznie bardziej skomplikowana budowa, przez co nie wiązano z nimi tak wielkich nadziei jak z tokamakami. Mają jednak liczne zalety, których brak tokamakom. Przykładem stellaratora jest wspomniany tutaj Wendelstein 7-X (W7-X), w który zainwestowała też Polska. Ostatnio informowaliśmy o badaniach, które mogą spowodować, że stellaratory wyjdą z cienia tokamaków i będziemy dysponowali co najmniej dwie rzeczywiście konkurencyjnymi rozwiązaniami reaktora do fuzji jądrowej. « powrót do artykułu
-
- reaktor termojądrowy
- tokamak
-
(i 2 więcej)
Oznaczone tagami:
-
Przed siedmioma miesiącami, 28 kwietnia 2021 o godzinie 9:33 czasu polskiego, Parker Solar Probe stał się pierwszym pojazdem, który dotarł do korony Słońca. Pozostał w niej przez 5 godzin. To pierwszy wysłane przez człowieka urządzenie, które osiągnęło zewnętrzne granice naszej gwiazdy. Wyniki przeprowadzonych wówczas badań zostały właśnie opublikowane na łamach Physical Review Letters. Misja PSP osiągnęła swój główny cel i rozpoczęła nową epokę w rozumieniu fizyki korony Słońca, mówi profesor Justin C. Kasper w University of Michigan, główny autor artykułu. Zewnętrzna krawędź Słońca jest wyznaczana przez powierzchnię krytyczną Alfvéna, miejscem poniżej którego Słońce i jego siły grawitacyjne i magnetyczne bezpośrednio kontrolują wiatr słoneczny. W 2018 roku NASA wystrzeliła Parker Solar Probę, której celem było osiągnięcie korony naszej gwiazdy. W kwietniu bieżącego roku PSP spędziła 5 godzin poniżej powierzchni krytycznej Alfvéna, w obszarze, gdzie ciśnienie i energia pola magnetycznego gwiazdy są silniejsze niż ciśnienie i energia cząstek przezeń emitowanych. Tym samym PSP stała się pierwszym pojazdem kosmicznym, który dotknął atmosfery naszej gwiazdy. Ku zdumieniu naukowców okazało się, że powierzchnia krytyczna Alfvéna jest pofałdowana. Dane sugerują, że największe z tych fałd to skutek oddziaływania tzw. pseudostreamera. O ile streamery to długotrwale istniejące struktury oddzielające od siebie regiony magnetyczne o przeciwnej polaryzacji w koronie słonecznego, to pseudostreamery są przejściowymi strukturami oddzielającymi regiony magnetyczne o tej samej polaryzacji. Obecnie nie jest jasne, dlaczego pseudostreamery miałyby wypychać powierzchnię krytyczną Alfvéna. Zauważono również, że poniżej powierzchni krytycznej tworzy się znacznie mniej fal Alfvéna niż powyżej tego punktu. Może to świadczyć, że nie powstają one w koronie. PSP zarejestrował też pewne dowody wskazujące na istnienie nieznanego mechanizmu fizycznego powodującego zwiększenie produkcji energii w koronie. Od dziesięcioleci obserwujemy Słońce i jego koronę. Wiemy, że zachodzą tam interesujące zjawiska fizyczne związane z ogrzewaniem i przyspieszaniem plazmy. Jednak nie znamy dokładnie tych procesów. Dzięki Parker Solar Probe wlatującemu w koronę zyskaliśmy długo oczekiwany wgląd w wewnętrzne procesy zachodzące w tym regionie, mówi Nour E. Raouafi, jeden z naukowców pracujących przy projekcie. Parker Solar Probe to urządzenie rozmiarów małego samochodu. Jego celem jest atmosfera Słońca znajdująca się w odległości około 6,5 miliona kilometrów od powierzchni naszej gwiazdy. Głównym celem misji jest zbadanie, w jaki sposób w koronie Słońca przemieszcza się energia i ciepło oraz odpowiedź na pytanie, co przyspiesza wiatr słoneczny. Naukowcy wiążą z misją olbrzymie nadzieje, licząc, że zrewolucjonizuje ona rozumienie Słońca, Układu Słonecznego i Ziemi. Pojazd będzie musiał przetrwać temperatury dochodząc do 1370 stopni Celsjusza. Pomoże mu w tym gruba na 11,5 centymetra osłona termiczna (Thermal Protection System) z kompozytu węglowego. Jej celem jest ochrona czterech instrumentów naukowych, które będą badały pola magnetyczne, plazmę, wysokoenergetyczne cząstki oraz obrazowały wiatr słoneczny. Instrumenty mają pracować w temperaturze pokojowej. TPS składa się z dwóch paneli węglowego kompozytu, pomiędzy którymi umieszczono 11,5 centymetra węglowej pianki. Ta strona osłony, która będzie zwrócona w kierunku Słońca została pokryta specjalną białą warstwą odbijającą promieniowanie cieplne. Osłona o średnicy 2,5 metra waży zaledwie 72,5 kilograma. Musiała być ona lekka, by poruszająca się z olbrzymią prędkością sonda mogła wejść na odpowiednią orbitę wokół naszej gwiazdy Co interesujące, Parker Solar Probe jest pierwszym pojazdem kosmicznym NASA nazwanym na cześć żyjącej osoby. W ten sposób uhonorowano profesora astrofizyki Eugene'a Parkera z University of Chicago. Zwykle misje NASA zyskują nową, oficjalną nazwę, po starcie i certyfikacji. Tym razem jest inaczej. W uznaniu zasług profesora Parkera na polu fizyki Słońca oraz dla podkreślenia, jak bardzo misja jest związana z prowadzonymi przez niego badaniami, zdecydowano, że oficjalna nazwa zostanie nadana przed startem. Aby nie ulec potężnej grawitacji Słońca, które stanowi przecież 99,8% masy Układu Słonecznego, PSP musi osiągnąć prędkość nie mniejszą niż 85 000 km/h. Nie jest to łatwe zadanie, dlatego też pojazd aż siedmiokrotnie skorzysta z asysty grawitacyjnej Wenus. W końcu znajdzie się w rekordowo małej odległości 6 milionów kilometrów od powierzchni naszej gwiazdy. Stanie się też najszybszym pojazdem w historii ludzkości. Jej prędkość wyniesie niemal 700 000 km/h. Dotychczas sonda pięciokrotnie skorzystała z asysty grawitacyjnej Wenus. Ostatni, 5. przelot, miał miejsce 16 października. W przyszłym roku PSP zbliży się do Słońca 4-krotnie. Kolejne spotkanie z Wenus zaplanowano na 21 sierpnia 2023 roku. Następnie 5-krotnie pojazd spotka się ze Słońcem. W końcu, po ostatniej asyście, która będzie miała miejsce 6 listopada 2024, PSP kilkukrotnie przeleci w odległości około 6 milionów kilometrów od powierzchni naszej gwiazdy. Ostatni raz minimalną odległość osiągnie 12 grudnia 2025. « powrót do artykułu
- 1 odpowiedź
-
- Parker Solar Probe
- Słońce
-
(i 1 więcej)
Oznaczone tagami:
-
Na Starym Mieście w Oslo archeolodzy odkryli nietypową figurkę. Przedstawia ona osobę w szatach i koronie, na ramieniu której siedzi sokół. Już miałam kończyć. Padał gęsty śnieg, było mi zimno i byłam zmęczona", mówi archeolog Ann-Ingeborg Floa Grindhaug, która pracuje przy wykopaliskach. Wzięła jeszcze do ręki coś, co uznała za dużą rybią ość i mimo tego, że się ściemniało, jej uwagę przykuł nietypowy kształt znaleziska. Gdy odwróciła rzekomą ość na drugą stronę jej oczom ukazała się figurka z uśmiechniętą twarzą, koroną na głowie i ptakiem na ramieniu. Nie ma wątpliwości, że to postać w koronie. Jednak trudniej jest określić, czy to król czy królowa, mówi historyk sztuki i badacz w Norweskim Instytucie Badań nad Dziedzictwem Kulturowym (NIKU), Kjartan Hauglid. Obecność sokoła niczego nie wyjaśnia, gdyż w średniowieczu kobiety również zajmowały się sokolnictwem. Wygląd ubrania wskazuje, że figurka pochodzi z połowy XIII wieku, a datowanie to potwierdza fryzura figurki. Jednak to, co widzimy na głowie, nie musi być sposobem uczesania, a chustką. Jeśli tak, to mamy do czynienia z figurką kobiety, gdyż w tym czasie mężatki nosiły takie chustki na głowach. Jednak najbardziej interesujący jest tutaj sokół. To jedno z najstarszych w Skandynawii przedstawień sokolnictwa. Figurka prawdopodobnie powstała w warsztacie w Oslo i jest jednym z najważniejszych tutejszych odkryć w ostatnich latach. Obecnie z terenów północnej Europy znamy niewiele podobnych przedstawień ludzi z sokołami. Część z nich przedstawia kobiety, mówi Hauglid. Dolna część figurki jest pusta, co sugeruje, ze mogła być ona rękojeścią broni lub narzędzia. Smaczku całemu znalezisku dodaje fakt, że odkrycia dokonano bardzo blisko Kongsgården, królewskiej rezydencji używanej do początku XIV wieku. Figurka/rękojeść mogła więc należeć do bardzo znaczącej osoby, a może nawet do samego władcy. Figurka ma 7,5 centymetra długości i została wykonana z kości lub rogu. Przedstawia uśmiechniętą postać w koronie na głowie, z zaznaczonym uczesaniem lub chustką na głowie. Postać ubrana jest w długą szatę. Na jej prawym ramieniu, prawdopodobnie ubranej w rękawicę, siedzi sokół z głową zwróconą w stronę uniesionej lewej dłoni figurki. Widoczne są pióra ptaka i oko. Sokół był w średniowieczu symbolem zamożności, znaczenia i prestiżu. Na posiadanie takiego ptaka mogli pozwolić sobie naprawdę zamożni ludzie. Archeolog i ekspert od sokolnictwa, Ragner Orten Lie wyjaśnia, że sokół siedzący na ramieniu ma często założony kaptur, który go uspokaja. Kaptury takie wprowadził w Europie Fryderyk II około połowy XIII wieku. Ptaka można było również uspokoić karmiąc go lub uderzając piórem, stwierdza. W XIII-wiecznej Norwegii za najtańszego nieszkolonego sokoła trzeba było zapłacić 240 srebrnych pensów typu longcross. To odpowiadało cenie 4-6 krów lub 1-2 koni. Śmiertelność wśród tych ptaków dochodziła do 70%. Eksperci z NIKU nie potrafią z całą pewnością stwierdzić, czy figurka przedstawia kobietę czy mężczyznę. Zauważają jednak, że datowanie znaleziska przypada na czasy rządów króla Håkona Håkonssona, który rządził Norwegią w latach 1217–1263 i był znaną postacią sokolnictwa europejskiego. Był to wykształcony władca, który duża uwagę przywiązywał do wprowadzenia u siebie europejskiej kultury dworskiej. Król Håkon budował sojusze za pomocą małżeństw i podarków. A najcenniejszym prezentem, jaki można były dostać od norweskiego władcy, był właśnie sokół. Ptaki te trafiały również na dwory poza Europą. Wiemy, że praktyka sokolnictwa pochodzi z Azji Centralnej i Wschodniej. Na terenie dzisiejszych Chin polowano z sokołami już 700 lat przed Chrystusem. Sokołów i orłów używali też do polowań Mongołowie. Pasjonatem sokolnictwa był Czyngis-chan, który posiadał podobno 10-tysięczną armię ludzi, ptaków, łowców i niewolników. W nordyckich sagach znajdziemy wskazówki mówiące, że ptaki drapieżne były hodowane na terenie współczesnej Norwegii już w VIII wieku. Natomiast szczątki ptaka znalezione na okręcie z kurhanu w Gokstad potwierdzają, że wikingowie zajmowali się sokolnictwem już w IX wieku. Sokoły pochodzące z Norwegii są wspomniane w angielskim katastrze gruntowym Domesday Book sporządzonym w 1086 roku na polecenie Wilhelma Zdobywcy. Wiemy, że ważnym dostawcą sokołów na europejskie rynki byli norwescy władcy i miejscowy Kościół. Sokolnictwo było tak ważnym wskaźnikiem statusu społecznego, że Normanowie wprowadzili karę śmierci dla osoby, która nie będąc szlachetnie urodzoną zajmowałaby się sokolnictwem. « powrót do artykułu
-
John Steegh i Harrie Teunissen z Dordrechtu przekazali Bibliotekom Uniwersytetu w Lejdzie (UBL) całą swoją kolekcję map, planów miasta i atlasów. W ciągu niemal 40 lat panowie zebrali ok. 17 tys. map, a także 2300 atlasów i przewodników. W skład zbioru wchodzą mapy z całego świata od XVI w. po czasy współczesne, ze szczególnym naciskiem położonym na wieki XIX i XX. Uważa się, że to najobszerniejsza prywatna kolekcja map w Holandii. Do głównych tematów kolekcji należą zarządzanie zasobami wodnymi, rozwój miast, relacje etniczne oraz konflikty zbrojne. Zbiór obejmuje różne formy kartograficzne, w tym mapy propagandowe czy reklamowe. Steegh i Teunissen kolekcjonują także mapy współczesne. Spośród wyjątkowych egzemplarzy warto wymienić mapy osmańskie, mapy Izraela i Palestyny czy rzadkie mapy nazistowskie i żydowskie z okresu Holokaustu. Prawdziwym unikatem jest tajny niemiecki plan Warszawy z 1939 r., na którym SS zaznaczyło kontury planowanego getta. Ostatni zakup Steegha i Teunissena to sowiecka mapa Berlina, wykorzystywana podczas zdobycia Reichstagu. John Steegh był urzędnikiem państwowym czy radnym miejskim w Lejdzie. Harrie Teunissen, historyk judaizmu oraz islamu, pracował zaś jako asystent naukowy na Uniwersytecie Amsterdamskim. Wspólną pasją obu panów jest historia wytwarzania i wykorzystywania dokumentów kartograficznych. Prowadzą oni wykłady dot. różnych części kolekcji, zorganizowali też kilkanaście wystaw kartograficznych. Nasza kolekcja jest pod wieloma względami unikatowa. Nie chcielibyśmy, by przepadła po naszej śmierci. Nie mamy dzieci i nie chcemy obciążać rodzin tak dużym i trudnym spadkiem. Ponadto kolekcja może mieć duże znaczenie dla edukacji i badań w różnych dziedzinach. Przez dziesięciolecia utrzymywaliśmy owocne kontakty z kuratorami map z UBL - przekonują Steegh i Teunissen i dodają, że ich zbiór stanowi dobre uzupełnienie kolekcji Bodela Nijenhuisa i w pewien sposób pozwala się odwdzięczyć miastu oraz uniwersytetowi. Kolekcjonerzy założyli Fundusz Bodela Nijenhuisa, nazwany tak na cześć wielkiego lejdejskiego kolekcjonera map Johannesa Tiberiousa Bodela Nijenhuisa (1797-1872). Fundusz ma pozwolić na stałe rozbudowywanie kolekcji, a także na udostępnianie jej naukowcom i ludziom zainteresowanym tematem. Początkiem kartograficznych zbiorów UBL była wspomniana wcześniej kolekcja Bodela Nijenhuisa. Z biegiem lat zbiory były rozbudowywane. Obecnie UBL może się pochwalić jedną z największych kolekcji map i atlasów w Holandii. « powrót do artykułu
-
- John Steegh
- Harrie Teunissen
- (i 4 więcej)
-
Fizycy zgadzają się co do tego, że nie istnieje cząstka złożona z samych protonów. Jednak od ponad 50 lat szukają cząstki składającej się z więcej niż 2 neutronów. Naukowcy z Uniwersytetu Technicznego w Monachium poinformowali właśnie, że przeprowadzone przez nich eksperymenty wykazały na możliwość istnienia tetraneutronu, hipotetycznej cząstki złożonej z czterech neutronów. I nie są pierwszymi, którzy na istnienie takiej cząstki wskazują. Już 20 lat temu francuscy naukowcy opublikowali wyniki swoich eksperymentów, a wśród nich sygnał, który zinterpretowali jako pojawienie się długo poszukiwanego tetraneutronu. Później jednak inne grupy badawcze wykazały, że metodologia Francuzów nie mogła dowieść istnienia tetraneutronów. W 2016 roku Japończycy z RIKEN próbowali uzyskać tetraneutron bombartując hel-4 strumieniem helu-8. W wyniku tych badań stwierdzili, że tetraneutron nie istnieje w stanie związanym, a tworzące go neutrony bardzo szybko rozpierzchają się. Rok później fizycy z USA i Francji stworzyli teoretyczny model tetraneutronu, z którego wynika, że jeśli taka cząstka w ogóle istnieje, to bardzo szybko się rozpada. Nie wiemy więc, czy mogą istnieć tetraneutrony, w których dochodzi do oddziaływań pomiędzy ich poszczególnymi elementami. Jeśli jednak tetraneutrony istnieją, może to oznaczać, że fizycy muszą przemyśleć koncepcję oddziaływań silnych. To jedne z czterech oddziaływań podstawowych. Oddziaływania silne to ta siła, która trzyma wszystko razem. Atomy cięższe od wodoru nie mogłyby bez niej istnieć, mówi doktor Thomas Faestermann, który stał na czele grupy badawczej z Monachium. Niemcy przeprowadzili badania, w ramach których lit-7 bombardowali strumieniem jąder atomowych litu-7. Uzyskane w ich wyniku pomiary odpowiadają sygnałowi węgla-10 oraz tetraneutronowi o energii wiązania wynoszącej 0,42 MeV (+/- 0,16 MeV). Wynika z nich również, że tetraneutron powinien być tak stabilny jak samodzielny neutron, a czas jego półrozpadu powinien wynieść 450 sekund. Naszym zdaniem to jedyne zgodne z fizyką wyjaśnienie naszych pomiarów, mówi doktor Faestermann. Pewność pomiaru wynosi ponad 99,7%. Jednak... to za zbyt mało. Pewność statystyczna dla tej wartości to 3σ. Tymczasem w fizyce istnienie cząstki uznaje się za udowodnione, jeśli pewność statystyczna wynosi co najmniej 5σ. Ten poziom oznacza, że ryzyko, iż sygnał jest fałszywy, wynosi 1:3 500 000. Dlatego też naukowcy z Monachium z niecierpliwością czekają, by inny zespół niezależnie potwierdził ich spostrzeżenia. Wyniki badań zostały opublikowane w Physical Letters B. « powrót do artykułu
-
W lipcu bieżącego roku doktor Grzegorz Niedźwiedzki z Uniwersytetu w Uppsali i profesor Grzegorz Pieńkowski z Państwowego Instytutu Geologicznego odkryli w kopalni surowców ilastych interesujące ślady dinozaurów. Gdy we wrześniu wrócili do Borkowic w województwie mazowieckim, by przeprowadzić dodatkowe badania, szybko przekonali się, że trafili na coś wyjątkowego. Ślady znajdowały się na 60 blokach. To jest kilkaset tropów dinozaurów, ale to czubek góry lodowej. Bo tych bloków może być nawet 500. To będzie kilka tysięcy tropów dinozaurów. To może być największa kolekcja tropów dinozaurów w Europie, powiedział PAP doktor Niedźwiedzki. W kopalni ciągle trwa wydobywanie surowca, ale jej właściciel dba o to, by nie uszkodzić cennych śladów i rozglądać się za innymi. Wydobywany surowiec znajduje się tuż poniżej warstwy z tropami dinozaurów. Warstwa z tropami to długa ławica piaskowca. Pracownicy kopalni odsłaniają i transportują bloki w bezpieczne miejsce. Jesteśmy w ciągłym kontakcie. Nauczyliśmy ich patrzeć na to, co odsłaniają. Właściciel kopalni jest niezwykle przychylny. Rozumie, że to skarb, chwali właściciela Niedźwiedzki. Już teraz wiadomo, że odciśnięte w skałach ślady mają około 200 milionów lat. Najdłuższe z nich, ślady dinozaurów drapieżnych, liczą niemal 40 centymetrów długości. Odkryte ślady dorównują jakością najlepiej zachowanym słynnym odkryciom z Grenlandii, Ameryki, Afryki i Chin. Znalezisko jest tym cenniejsze, że jeszcze niedawno sądzono, że w naszym kraju nie uda się znaleźć dużych stanowisk paleontologicznych ze śladami jurajskich dinozaurów. Aby taki stan zachowania był możliwy, musiała nastąpić w krótkim czasie bardzo szczególna sekwencja wydarzeń: ustąpienie z tego obszaru wód laguny, odsłonięcie ilastego dna, wejście dinozaurów na wciąż plastyczny (ale niezbyt grząski) grunt, wyschnięcie podłoża i utrwalenie tropów (na co dowodem są szczeliny z wysychania przecinające niektóre tropy), ponowne szybkie zalanie obszaru i równie szybkie przykrycie powierzchni przez sedymentację ławicy piasku nasuwającej się bariery – przez co ślady zostały utrwalone jako naturalne odlewy, mówi profesor Grzegorz Pieńkowski. Uczeni mówią, że w Borkowicach znajduje się jedno z najbogatszych na świecie stanowisk dolnojurajskich. Jest tym bardziej niezwykłe, że odkryto tam również kości dinozaurów zachowane w formie pustek. Obok nich zidentyfikowano szczątki innych zwierząt lądowych i ryb. Musimy się zastanowić, co zrobić, by zachować to stanowisko dla przyszłych pokoleń. Lokalizacja bloków z tropami jest ściśle określona – to jest bezpośredni nadkład złoża. Rada gminy ma podjąć stosowną uchwałę w sprawie ustanowienia stanowiska dokumentacyjnego. 99 proc stanowisk nie reprezentuje bowiem tak dobrej klasy, jak to stanowisko. Wydaje się, że ustanowienie takiego stanowiska w Borkowicach jest czymś naturalnym, powiedział PAP profesor Pieńkowski. « powrót do artykułu
-
- Borkowice
- ślady dinozaurów
-
(i 2 więcej)
Oznaczone tagami:
-
Przechorowanie i zaszczepienie najlepiej chronią przed COVID-19
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Połączenie łagodnej infekcji i szczepionki wydaje się najbardziej efektywnym czynnikiem chroniącym przed COVID-19, informują naukowcy z Uniwersytetu Kalifornijskiego w Los Angeles (UCLA). Główny wniosek z naszych badań jest taki, że jeśli ktoś zachorował na COVID, a następnie został zaszczepiony, to nie tylko znacząco zwiększa się u niego liczba przeciwciał, ale rośnie ich jakość. To zaś zwiększa szanse, że przeciwciała te poradzą sobie z kolejnymi odmianami koronawirusa, mówi profesor Otto Yang z wydziałul chorób zakaźnych, mikrobiologii, immunologii i genetyki molekularnej. Wydaje się, że kolejne wystawienia układu odpornościowego na kontakt z białkiem kolca (białkiem S) pozwala układowi odpornościowemu na udoskonalanie przeciwciał u osoby, która chorowała na COVID-19. Uczony dodaje, że nie jest pewne, czy takie same korzyści odnoszą osoby, które przyjmują kolejne dawki szczepionki, ale nie chorowały. Grupa Yanga porównała przeciwciała 15 osób, które były zaszczepione, ale nie zetknęły się wcześniej z wirusem SARS-CoV-2 z przeciwciałami 10 osób, które nie były jeszcze zaszczepione, ale niedawno zaraziły się koronawirusem. Kilkanaście miesięcy później 10 wspomnianych osób z drugiej grupy było w pełni zaszczepionych i naukowcy ponownie zbadali ich przeciwciała. Uczeni sprawdzili, jak przeciwciała reagują na białko S różnych mutacji wirusa. Odkryli, że zarówno w przypadku osób zaszczepionych, które nie chorowały oraz tych, które chorowały, ale nie były szczepione, możliwości zwalczania wirusa przez przeciwciała spadały w podobnym stopniu gdy pojawiła się nowa mutacja. Jednak gdy osoby, które wcześniej chorowały na COVID-19, były rok po chorobie już w pełni zaszczepione, ich przeciwciała były zdolne do rozpoznania wszystkich mutacji koronawirusa, na których je testowano. Nie można wykluczyć, że odporność SARS-CoV-2 na działanie przeciwciał może zostać przełamana poprzez ich dalsze dojrzewanie w wyniki powtarzanej wskutek szczepienia ekspozycji na antygen, nawet jeśli sama szczepionka nie jest skierowana przeciwko danemu wariantowi, stwierdzają naukowcy. Przypuszczają oni, że kolejne szczepienia mogą działać podobnie jak szczepienia po przechorowaniu, jednak jest to tylko przypuszczenie, które wymagają weryfikacji. Ze szczegółami badań można zapoznać się w artykule Previous Infection Combined with Vaccination Produces Neutralizing Antibodies with Potency against SARS-CoV-2 Variants. « powrót do artykułu- 2 odpowiedzi
-
- przeciwciała
- COVID-19
-
(i 3 więcej)
Oznaczone tagami:
-
W emiracie Szardża odkryto rzymską figurkę mitycznego gryfa
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Sharjah Archaeology Authority (SAA) poinformowało, że w okolicach miejscowości Mleiha w emiracie Szardża odkryto brązową figurkę mitycznego gryfa; zwierzę ma skrzydła orła, głowę lwa i duże ptasie stopy ze szponami. Figurka datuje się na I w. n.e. i wg archeologów, stanowi świadectwo istnienia sieci handlowej między Mleihą a pobliskimi prowincjami rzymskimi. Dr Sabah Aboud Jassim, dyrektor generalny SAA, wyjaśnił, że figurka była częścią kadzielnicy, w której wykorzystano 3 takie statuetki; były one symetrycznie rozstawione na planie koła. Na górze znajdowało się zdobne naczynie do palenia kadzidła. « powrót do artykułu -
Powstał oscyloskop optyczny. Przyspieszy internet 10 000 razy?
KopalniaWiedzy.pl dodał temat w dziale Technologia
Na University of Central Florida powstał pierwszy w historii oscyloskop optyczny. Urządzenie może zrewolucjonizować technologie komunikacyjne, od smartfonów po internet. Skonstruowane na UCF urządzenie mierzy pole elektryczne światła zamieniając oscylacje światła w sygnał elektryczny. Dotychczas pomiary pola elektrycznego światła były poważnym problemem ze względu na olbrzymie tempo jego oscylacji. Najbardziej zaawansowane techniki pomiarowi, wykorzystywane w urządzeniach elektronicznych i telekomunikacyjnych, pozwalają na pomiar częstotliwości rzędu gigaherców. Pokrywa to spektrum radiowe i mikrofalowe promieniowania elektromagnetycznego. Jednak światło oscyluje ze znacznie większa częstotliwością. Możliwe jest więc upakowanie w nim znacznie większej ilości informacji niż robimy to obecnie. Jednak nie dysponujemy narzędziami, które by to umożliwiały. Obecne oscyloskopy dokonują uśrednionych pomiarów w ramach impulsu światła. Nie potrafią odróżnić poszczególnych dolin i grzbietów fali. Gdybyśmy zaś byli w stanie mierzyć pojedyncze doliny i grzbiety, moglibyśmy kodować w nich informacje Dzięki włóknom optycznym możemy korzystać ze światła do przesyłania informacji, ale wciąż jesteśmy ograniczeni prędkością oscyloskopów, mówi profesor Michael Chini. Nasz oscyloskop optyczny może zwiększyć prędkość przekazywania informacji nawet o około 10 000 razy. Uczeni z Florydy zbudowali swoje urządzenie i zaprezentowali jego możliwości dokonując w czasie rzeczywistym pomiarów pól elektrycznych indywidualnych impulsów światła laserowego. W kolejnym etapie badań będą chcieli sprawdzić, gdzie leży nieprzekraczalna granica prędkości pomiaru przy wykorzystaniu ich techniki. Swoje badania naukowcy opisali na łamach Nature Photonics. « powrót do artykułu-
- oscyloskop optyczny
- dane
-
(i 1 więcej)
Oznaczone tagami: