-
Liczba zawartości
37640 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Naukowcy z Instytutu Geodezji i Geoinformatyki Uniwersytetu Przyrodniczego we Wrocławiu są kluczowymi członkami międzynarodowego konsorcjum, któremu Europejska Agencja Kosmiczna (ESA) przyznała finansowanie na stworzenie koncepcji systemu nawigacji dla misji księżycowych. System taki znakomicie ułatwi zarówno badania samego Księżyca, jak i realizację planów zakładających wykorzystanie Srebrnego Globu jako etapu w załogowej misji na Marsa. Na Ziemi dysponujemy kilkoma satelitarnymi systemami nawigacji, w tym najpopularniejszym GPS-em. Jednak podobne systemy nie istnieją dla Księżyca. Dlatego też misja GRAIL, badająca pole grawitacyjne Srebrnego Globu, mogła świetnie zmapować jego jedną stronę, tę widoczną z Ziemi. Gdy jednak GRAIL znalazł się po przeciwnej stronie Księżyca, tracił kontakt z satelitami nawigacyjnymi, przez co jego możliwości dokładnego określania pozycji znacznie się zmniejszały. W ostatnich latach zarówno państwowe agencje kosmiczne, jak i firmy prywatne, coraz częściej wspominają o eksploracji satelity Ziemi. NASA chce za kilka lat wysłać pierwszą od wielu dekad załogową misję na Księżyc, planuje budowę stacji na orbicie Srebrnego Globu oraz prowadzenie prac na jego powierzchni. Zarówno pracujący tam ludzi, jak i autonomiczne urządzenia, będą potrzebowali skutecznego systemu do określania własnej pozycji. ESA prowadzi program Moonlight, w ramach którego badane są możliwości zapewnienia precyzyjnej nawigacji i komunikacji na całej powierzchni Księżyca. Program jest wieloetapowy, zakłada stopniowe osiągnięcie zamierzonego celu. Najpierw konieczne będzie zapewnienie możliwości pozycjonowania na orbicie transferowej Ziemia-Księżyc, następnie dla satelitów na orbicie wokół Księżyca w końcu dla podejścia do lądowania oraz operacji na powierzchni Srebrnego globu. Projekt zakłada, że w latach 2022–2025 wykorzystywane będą istniejące już konstelacje satelitów nawigacyjnych oraz odbiorniki księżycowe. W fazie II, przewidzianej na lata 2025–2035 na orbitę księżycową ma trafić kilka satelitów, a z powierzchni Księżyca mają być transmitowane dodatkowe sygnały. W końcu fazie III, czyli po roku 2035, ma funkcjonować pełny księżycowy system nawigacyjny. Polscy naukowcy, prof. Krzysztof Sośnica, dr Radosław Zajdel i dr Grzegorz Bury, biorą udział w pracach projektu ATLAS, który otrzymał właśnie od ESA finansowanie w ramach fazy II. Zadaniem ATLAS-a będzie zbadanie różnych rozwiązań technicznych dla księżycowego systemu nawigacyjnego, sprawdzenie możliwości jedno- i dwukierunkowej komunikacji pomiędzy Ziemią a satelitami oraz księżycowymi przekaźnikami i satelitami. Maj powstać też procedury transformacji pomiędzy księżycowymi, ziemskimi i niebieskimi (inercjalnymi) układami odniesienia. Członkowie projektu ATLAS będą musieli też przeprowadzić test jakości pozycjonowania zarówno na Księżycu jak i na jego orbicie. « powrót do artykułu
- 3 odpowiedzi
-
- Uniwersytet Przyrodniczy we Wrocławiu
- ESA
-
(i 3 więcej)
Oznaczone tagami:
-
Specjalistki z Międzyuczelnianego Wydziału Biotechnologii Uniwersytetu Gdańskiego i Gdańskiego Uniwersytetu Medycznego - prof. Krystyna Bieńkowska-Szewczyk, dr Katarzyna Grzyb i mgr Anna Czarnota - pracują nad szczepionką przeciw zakażeniom spowodowanym wirusami zapalenia wątroby typu C i B (HCV i HBV). Urząd wydał już decyzję o przyznaniu patentu na ich wynalazek ("Chimeryczne cząsteczki wirusopodobne eksponujące sekwencje antygenowe wirusa HCV do zastosowania w leczeniu prewencyjnym zakażenia wirusem HCV i/lub HBV"). Szczepionka na wagę złota HCV stanowi poważny problem medyczny. Wg Głównego Inspektoratu Sanitarnego (GIS), szacuje się, że co roku 1,4 mln zgonów jest spowodowanych odległymi następstwami przewlekłych zakażeń wirusami wywołującymi wirusowe zapalenie wątroby B lub C (marskość, rak wątrobowokomórkowy). WZW C [wirusowe zapalenie wątroby typu C] jest główną przyczyną raka wątroby w Europie i USA. W tych regionach świata WZW C jest najczęstszym powodem dokonywania przeszczepów wątroby. Niestety, mimo badań nie ma jeszcze skutecznej szczepionki. Główną przeszkodą jest duża zmienność genetyczna HCV. Z tego powodu idealna szczepionka powinna wzbudzać odpowiedź immunologiczną przeciw najbardziej konserwowanym fragmentom białek wirusowych. Gdański wynalazek Wynalazek dotyczy rekombinowanych cząstek wirusopodobnych eksponujących na swojej powierzchni wybrane sekwencje antygenowe pochodzące z wirusa zapalenia wątroby typu C do zastosowania jako immunogenna szczepionka przeciwko zakażeniom spowodowanym wirusami zapalenia wątroby typu C i/lub B – wyjaśnia prof. Bieńkowska-Szewczyk. Wynalazek powstał w ramach realizacji projektu NCN Preludium 12. Jego szczegóły opisano w pracy eksperymentalnej pt. "Specific antibodies induced by immunization with hepatitis B virus-like particles carrying hepatitis C virus envelope glycoprotein 2 epitopes show differential neutralization efficiency". Dr Grzyb tłumaczy, że cząstki wirusopodobne cieszą się obecnie dużym zainteresowaniem, gdyż są bardzo podobne do wirusów, stąd też wynika ich wysoka immunogenność. Nie są jednak wirusami, bo nie zawierają materiału genetycznego wirusa, a tym samym nie mają zdolności do namnażania. Zdolność tworzenia cząstek wirusopodobnych ma małe białko powierzchniowe wirusa zapalenia wątroby typu B (ang. hepatitis B virus small surface protein, sHBsAg). sHBsAg jest wykorzystywane w szczepionkach chroniących przed zakażeniem wirusem zapalenia wątroby typu B. Jak wyjaśniono w opisie projektu na stronie Narodowego Centrum Nauki, ze względu na obecność w strukturze białka sHBsAg silnie immunogennej, hydrofilowej pętli dobrze tolerującej insercje nawet dużych fragmentów obcych białek, sHBsAg było wielokrotnie proponowane jako nośnik obcych antygenów. W naszym wynalazku wyeksponowanie silnie konserwowanych fragmentów białek wirusa HCV na powierzchni cząstek wirusopodobnych opartych na białku sHBsAg [w hydrofilową pętlę białka sHBsAg wstawiono silnie konserwowane sekwencje glikoproteiny E2 wirusa HCV] pozwoliło na stworzenie biwalentnych immunogenów wzbudzających odpowiedź zarówno przeciwko wirusowi HCV, jak i HBV. W przyszłości nasze rozwiązanie mogłoby być wykorzystane jako skuteczna szczepionka nowej generacji chroniąca przed zakażeniem tymi groźnymi patogenami - podsumowuje mgr Anna Czarnota. « powrót do artykułu
-
- szczepionka
- wirus zapalenia wątroby typu C
- (i 4 więcej)
-
IBM zaprezentował 127-kubitowy procesor kwantowy Eagle
KopalniaWiedzy.pl dodał temat w dziale Technologia
IBM zaprezentował 127-kubitowy procesor kwantowy Eagle. Dzięki niemu, jak zapewnia koncern, klienci firmy będą mogli wykorzystać niedostępne dotychczas zasoby obliczeniowe, co ma się stać krokiem milowym w kierunku wykorzystania obliczeń kwantowych w codziennej praktyce. Eagle ma bowiem wkrótce zostać udostępniony wybranym partnerom IBM-a. Postrzegamy Eagle'a jako krok na drodze technologicznej rewolucji w historii maszyn obliczeniowych. W miarę, jak procesory kwantowe są rozbudowywane, każdy dodatkowy kubit dwukrotnie zwiększa ilość pamięci, jaką potrzebują komputery klasyczne, by symulować taki procesor. Spodziewamy się, że komputery kwantowe przyniosą realne korzyści, gdyż rosnąca złożoność procesów obliczeniowych, jakie są w stanie wykonać, przekroczy możliwości komputerów klasycznych, czytamy w informacji prasowej IBM-a. Inżynierowie Błękitnego Giganta nie mieli łatwego zadania. Prace praktyczne i teoretyczne nad maszynami kwantowymi, opartymi na zasadach mechaniki kwantowej, są prowadzone od dziesięcioleci i od dawna wiemy, że komputery takie są w stanie przeprowadzać obliczenia niedostępne maszynom klasycznym. Jednak ich zbudowanie jest niezwykle trudne. Nawet najmniejszy wpływ czynników zewnętrznych może spowodować dekoherencję kubitów, czyli doprowadzić do stanu, w którym zawarta w nich informacja zostanie utracona. Eagle zawiera niemal 2-krotnie więcej kubitów niż jego poprzednik, 65-kubitowy Hummingbird. Jednak jego powstanie wymagało czegoś więcej, niż tylko dodania kubitów. Inżynierowe IBM-a musieli opracować nowe i udoskonalić istniejące techniki, które – jak zapewniają – staną się podstawą do stworzenia ponad 1000-kubitowego układu Condor. Kolejnym niezwykle ważnym elementem nowego procesora jest wykorzystanie techniki multiplekosowania odczytu, znaną już z procesora Hummingbird R2. We wcześniejszych układach kwantowych każdy kubit wymagał zastosowania osobnego zestawu elektroniki zajmującej się odczytem i przesyłaniem danych. Taka architektura może sprawdzić się przy kilkudziesięciu kubitach, jednak jest zbyt nieporęczna i niepraktyczna przy ponad 100 kubitach, nie wspominając już o 1121-kubitowym Condorze, który ma powstać za 2 lata. Multipleksowanie odczytu polega na łączeniu sygnałów odczytowych z wielu kubitów w jeden, dzięki czemu można znakomicie zmniejszyć ilość okablowania i komponentów elektronicznych, co z kolei pozwala na lepsze skalowanie całości. Najbardziej interesującymi informacjami, których jeszcze nie znamy, są wyniki testów Quantum Volume (QV) i Circuit Layer Operations Per Second (CLOPS). Quantum Volume to stworzony przez IBM-a system pomiaru wydajności kwantowego komputera jako całości. Bierze pod uwagę nie tylko same kubity, ale również interakcje pomiędzy nimi, działania poszczególnych elementów komputera, w tym błędy obliczeniowe, błędy pomiarowe czy wydajność kompilatora. Im większa wartość QV, tym bardziej złożone problemy może rozwiązać komputer kwantowy. Z kolei zaproponowany niedawno przez IBM-a CLOPS to benchmark określający, na ilu obwodach kwantowych procesor jest w stanie wykonać operacje w ciągu sekundy. Maszyna Eagle nie została jeszcze poddana testom wydajnościowym i jakościowym. W ubiegłym roku Honeywell ogłosił, że jego System Model H1, korzystający z zaledwie 10 kubitów, osiągnął w teście QV wartość 128. Nieco wcześniej zaś 27-kubitowy system IBM-a mógł się pochwalić QV 64. Widzimy zatem, że sama liczba kubitów nie mówi jeszcze niczego o wydajności samej maszyny. « powrót do artykułu- 1 odpowiedź
-
- Eagle
- procesor kwantowy
-
(i 3 więcej)
Oznaczone tagami:
-
Wulkany wpływały na zmiany dynastii rządzących w Chinach
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Autorzy interdyscyplinarnych badań dowodzą istnienia związku pomiędzy aktywnością wulkanów a upadkami chińskich dynastii na przestrzeni ostatnich 2000 lat. Erupcje wulkaniczne, które są dominującym w skali globalnej zewnętrznym czynnikiem prowadzącym do krótkoterminowych zmian klimatycznych, miały wpływ na dzieje Państwa Środka, stwierdzają naukowcy z Chin, USA, Szwajcarii, Niemiec i Irlandii. Uczeni wykorzystali zarówno rekonstrukcję aktywności wulkanicznej, jak i informacje o historii społecznej oraz politycznej Chin i stwierdzili, że w czasach dużych napięć społeczno-politycznych do upadku dynastii mogła przyczynić się już niewielka erupcja wulkaniczna, podczas gdy w przypadku braku takich napięć kres chińskiej dynastii mogła położyć duża erupcja. Wykazali również, że walki po upadku dynastii zwykle szybko wygasały, gdyż sam upadek był elementem koncepcji „boskiego mandatu”, na podstawie którego nowa dynastia mogła przejąć władzę, co ułatwiało szybsze przywrócenie porządku społecznego. Jako pierwsi dowiedliśmy, że upadki chińskich dynastii na przestrzeni ostatnich 2000 lat historii były bardziej prawdopodobne w latach następujących po erupcjach wulkanów. Jednak związek przyczynowo-skutkowy nie jest tak oczywisty, gdyż jeśli mieliśmy do czynienia z wojnami i konfliktami, to dynastie były bardziej podatne na upadek, wyjaśnia profesor Alan Robock z Rutgers University. Erupcje wulkaniczne, w zależności od ich siły, w krótkim terminie zmieniają klimat, powodując jego ochłodzenie. To zaś ma wpływ na produkcję rolną. Wpływ ochłodzenia klimatu również zwiększał prawdopodobieństwo pojawienia się konfliktów, co dodatkowo narażało dynastię na upadek, dodaje Robock. Chińskie dynastie posiadały boski mandat na rządzenie. Taki stan rzeczy był akceptowany i przez lud, i przez elity. Napięcia społeczne, konflikty, gorsze zbiory spowodowane chociażby ochłodzeniem się klimatu po erupcji wulkanicznej, mogły być postrzegane jako odebranie mandatu rządzącym. A wyłaniająca się z konfliktu kolejna dynastia mogła uspokoić nastroje społeczne, powołując się na przekazanie boskiego mandatu właśnie w jej ręce. Koncepcja boskiego mandatu została najsilniej wyartykułowana w czasie rządów dynastii Zhou (1046–256 p.n.e.). Co prawda jej znacznie i interpretacja zmieniały się w casie, ale utrzymała się ona przez tysiąclecia. Zgodnie z nią, rządzący, którzy nadużywali władzy lub zawiedli lud, narażali się na cofnięcie ich mandatu do rządzenia. To do pewnego stopnia mogło promować niestabilność, gdyż rywale do tronu, ludowi powstańcy, zbuntowani generałowie, gubernatorzy czy dynastie z sąsiednich państw mogli twierdzić, że ono im został przekazany mandat. Jednak twierdzenia takie nabierały szczególnej wagi, gdy zostały wsparte naturalnymi katastrofami – jak chłodniejsze lata po erupcji wulkanicznej, spadek plonów i związany z tym głód – będącymi jasnym dowodem na odwołanie mandatu dotychczas rządzących. Erupcje wulkaniczne mogły wiązać się nie tylko z gorszą pogodą, ale również z innymi znakami, jak spowodowane zapyleniem atmosfery zmiany kolorów czy jasności Słońca i Księżyca oraz pojawieniem się innych niespotykanych zjawisk atmosferycznych. Naukowcy na podstawie badań poziomu związków siarki w rdzeniach lodowych z Grenlandii i Antarktydy zrekonstruowali 156 eksplozywnych erupcji wulkanicznych, do jakich doszło w latach 1–1915. Przeanalizowali też dokumenty na temat 68 dynastii rządzących Chinami oraz zbadali konflikty, jakie w latach 850–1911 targały Państwem Środka. Za pomocą metod statystycznych dowiedli, że wybuchy wulkanów wpływały na historię Chin. Oczywiście na upadek dynastii składa się olbrzymia liczba czynników, dlatego też związki pomiędzy wulkanami a zmianą dynastii nie są oczywiste i łatwe do wychwycenia. Autorzy badań podkreślają, że np. ani wielka erupcja wulkanu Tambora z 1815 roku, ani wybuch Huaynaputina (1600 r.) czy Samalas (1257) nie wpłynęły na zmianę dynastii, a przynajmniej nie w statycznie prawdopodobnym okresie. Nawet olbrzymia erupcja, do której doszło w 626 roku na obszarach tropikalnych półkuli północnej, a która mogła być jedną z przyczyn upadku tureckiego kaganatu wschodniego, nie miała oczywistego wpływu na politykę dynastyczną Chin. Jednak, jak dowodzą autorzy badań, podczas prac nad historią Państwa Środka należy brać pod uwagę wybuchy wulkanów i ich wpływ na politykę wewnętrzną. Więcej na ten temat można przeczytać na łamach Nature Communications Earth & Environment, w artykule Volcanic climate impacts can act as ultimate and proximate causes of Chinese dynastic collapse. « powrót do artykułu -
Poszukiwanie zjawisk fizycznych wykraczających poza Model Standardowy często wymaga dostępu do potężnych narzędzi, jak Wielki Zderzacz Hadronów, podziemnych wykrywaczy neutrin, ciemnej materii i egzotycznych cząstek. Urządzenia takie są niezwykle kosztowne w budowie i utrzymaniu, ich konstruowanie trwa przez wiele lat i jest ich niewiele, przez co ustawiają się do nich długie kolejki naukowców. Teraz dzięki naukowcom z Holandii może się to zmienić. Opracowali oni bowiem technikę więzienia i badania ciężkich molekuł w warunkach laboratoryjnych. Ciężkie molekuły są świetnym obiektem do badań nad elektrycznym momentem dipolowym elektronu. Jednak dotychczas stosowane metody nie pozwalały na ich uwięzienie w warunkach niewielkiego laboratorium. Standardowe techniki poszukiwania elektrycznego momentu dipolowego elektronu (eEDM) wykorzystują wysoce precyzyjną spektroskopię. Jednak by ją zastosować konieczne jest najpierw spowolnienie molekuł i schwytanie ich w pułapkę laserową lub elektryczną. Problem w tym, że do odkrycia zjawisk wykraczających poza Model Standardowy konieczne może okazać się przechwycenie molekuł zbyt ciężkich, by mogły uwięzić je lasery. Z kolei pułapki elektryczne pozwalają na przechwycenie ciężkich jonów, ale nie obojętnych elektrycznie molekuł. Naukowcy z Uniwersytetu w Groningen, Vrije Universiteit Amsterdam oraz instytutu Nikhef rozpoczęli swoją pracę od stworzenie molekuł fluorku strontu (SrF), które powstały w wyniku reakcji chemicznych zachodzących w kriogenicznym gazie w temperaturze około 20 kelwinów. Dzięki niskiej temperaturze molekuły te mają początkową prędkość 190 m/s, podczas gdy w temperaturze pokojowej wynosi ona ok. 500 m/s. Następnie molekuły wprowadzane są do 4,5-metrowej długości spowalniacza Stark, gdzie zmienne pola elektryczne najpierw je spowalniają, a następnie zatrzymują. Molekuły SrF pozostają uwięzione przez 50 milisekund. W tym czasie można je analizować za pomocą specjalnego systemu indukowanego laserem. Pomiary takie pozwalają badać właściwości elektronów, w tym elektryczny moment dipolowy, dzięki czemu możliwe jest poszukiwanie oznak asymetrii. Model Standardowy przewiduje istnienie eEDM, jednak ma on niezwykle małą wartość. Dlatego też dotychczas właściwości tej nie zaobserwowano. Obserwacja i zbadanie eEDM mogłyby wskazać na istnienie fizyki wykraczającej poza Model Standardowy. Molekuły SrF, którymi zajmowali się Holendrzy, mają masę około 3-krotnie większą niż inne molekuły badane dotychczas podobnymi metodami. Naszym kolejnym celem jest uwięzienie jeszcze cięższych molekuł, jak np. fluorku baru (BaF), który ma macę 1,5 raza większą od SrF. Taka molekuła byłaby jeszcze lepszym celem do pomiarów eEDM, mówi Steven Hoekstra, fizyk z Uniwersytetu w Groningen. Im bowiem cięższa molekuła, tym dokładniejszych pomiarów można dokonać. Jednak możliwość uwięzienia ciężkich molekuł przyda się nie tylko do badania elektrycznego momentu dipolowego elektronu. Można dzięki temu przeprowadzać też zderzenia ciężkich molekuł przy niskich energiach, symulując warunki w przestrzeni kosmicznej. To zaś przyda się podczas badań interakcji na poziomie kwantowym. Hoekstra mówi, że wraz ze swoimi kolegami będą też pracowali nad zwiększeniem czułości pomiarów poprzez zwiększenie intensywności strumienia molekuł. Spróbujemy też uwięzić bardziej złożone molekuły, jak BaOH czy BaOCH3. Dodatkowo wykorzystamy naszą technikę do badania asymetrii w molekułach chiralnych, zapowiada. « powrót do artykułu
- 7 odpowiedzi
-
- Model Standardowy
- laser
-
(i 2 więcej)
Oznaczone tagami:
-
Już w najbliższa sobotę, 20 listopada, startuje 2. międzynarodowa edycja konferencji Neuromania. Zdalnie zgromadzonych uczestników zabierze ona w świat lingwistyki poznawczej. A w trakcie jej przekonamy się, że język to bezcenny zasób, bez którego nasze poznanie i kultura nie byłyby takie same. Zagłębimy się w szczegóły relacji pomiędzy językiem a poznaniem, dowiemy się więcej o poznaniu społecznym oraz o komunikacji jako manifestacji poznania. Konferencja Neuromania organizowana jest przez Toruńskie Koło Kognitywistyczne, którego członkami są studenci Wydziału Filozofii i Nauk Społecznych Uniwersytetu Mikołaja Kopernika w Toruniu. To cykliczna impreza, która odbywa się od 2013 roku. Początkowo miała zasięg krajowy, jednak szybko zdobyła sobie popularność i od 2019 roku jest konferencją międzynarodową. W roku ubiegłym, z powodu pandemii, konferencja się nie odbyła. W bieżącym roku powraca w formie online i po raz 2. jest organizowana jako wydarzenie międzynarodowe. Tegoroczna Neuromania będzie gościła takie znakomitości jak profesorowie Irene Pepperberg z Uniwersytetu Harvarda, Don Lee Fred Nilsen z Arizona State University, Daniel L. Everett z Bentley University, Marianna Bolognesi z Uniwersytetu w Bolonii, Valentina Cuccion z Uniwersytetu w Mesynie oraz Michael Anthony Arbib z Uniwersytetu Kalifonrijskiego w San Diego. A będziemy mogli wysłuchać m.in. wykładu o zdolnościach poznawczych i komunikacyjnych żako, dowiemy się jakie są biologiczne podstawy języka figuratywnego, a Don Nilsen opowie o znaczeniu humoru w psychologii. Oprócz kilku wykładów przewidziano również sesje studenckie. Organizatorzy konferencji zachęcają do odwiedzenia witryny www.neuromania.pl oraz fanpage'a konferencji na Facebooku: https://www.facebook.com/neuromania.conference. « powrót do artykułu
-
Polacy pracują nad nowatorską metodą leczenia bólu nowotworowego
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Specjaliści z Narodowego Instytutu Onkologii w Gliwicach wykorzystują radiochirurgię jako nieinwazyjną metodę leczenia funkcjonalnego, m.in. u chorych z arytmią czy neuralgią nerwu trójdzielnego. Od pewnego czasu [jako jedyni w Polsce i pierwsi w Europie] biorą udział w badaniu klinicznym, którego celem jest zmniejszenie lub eliminacja bólu przy wykorzystaniu radioablacji splotu trzewnego u chorych na zaawansowanego raka trzustki. Radioterapia (in. radiochirurgia) stereotaktyczna polega na podaniu jednej lub kilku (zwykle 1-5) dużych dawek promieniowania na obszar guza z zaoszczędzeniem otaczających go zdrowych tkanek. W Polsce sprzęt do zabiegów radiochirurgii stereotaktycznej posiada wiele ośrodków, a NIO Gliwice jest jednym z najbardziej uznanych. Jak podkreślono w komunikacie prasowym, wykorzystuje do tego celu nowoczesny sprzęt, jakim są przyspieszacze liniowe EDGE, CyberKnife [nóż cybernetyczny, czyli zrobotyzowany system pozwalający na dużą precyzję] oraz TrueBeam. Dopiero od niedawna jednak ta bardzo precyzyjna technika podania wiązki promieniowania jonizującego jest stosowana w Gliwicach w leczeniu przeciwbólowym. Trzy lata temu podczas pilotażowego badania przeprowadzonego przez izraelskie Sheba Medical Center dr Yaacov Richard Lawrence zaobserwował, że u pacjentów cierpiących na silny ból po zastosowaniu wysokodawkowych terapii stereotaktycznych pierwotnego guza trzustki dochodziło do całkowitego lub częściowego ustąpienia tych dolegliwości. Na konferencji ASTRO (American Society for Radiation Oncology) dr n. med. Marcin Miszczyk z NIO w Gliwicach poznał jednego z uczestników wspomnianego badania. Dzięki nawiązanej w ten sposób współpracy nasz ośrodek, jako pierwszy w Europie i jedyny w Polsce, bierze udział w II fazie [...] międzynarodowego, wieloośrodkowego eksperymentu leczniczego "Radiochirurgiczna ablacja splotu trzewnego jako leczenie przeciwbólowe u pacjentów z zaawansowaną chorobą nowotworową" (ang. Celiac Plexus Radio-Surgery for Pain Management/Celiac-Plexus Radioablation). Aktualnie uczestniczą w nim m.in. placówki z Izraela, Stanów Zjednoczonych, Kanady i Portugalii - wyjaśnia dr Miszczyk. Pierwszy zabieg radioablacji splotu trzewnego wykonano w tutejszym Zakładzie Radioterapii we wrześniu 2020 r. Dr Miszczyk przeprowadził go pod nadzorem prof. dr. hab. n. med. Jerzego Wydmańskiego u 61-letniego pacjenta. Od tego czasu zabieg wykonano u kolejnych kilkunastu chorych. Za kwalifikację i przygotowanie do zabiegu odpowiadał kilkuosobowy zespół. Ból występuje na różnych stadiach wielu chorób onkologicznych. U chorych z rakiem trzustki ból odczuwany jest w nadbrzuszu i/lub w dolnej części pleców. Ma związek z uciskiem lub naciekaniem nowotworu na zlokalizowany za trzustką - na wysokości 1. kręgu lędźwiowego - splot trzewny (potocznie jest on nazywany splotem słonecznym). Rak trzustki, podobnie jak inne nowotwory zaawansowane zlokalizowane w jamie brzusznej, może wywoływać ból trzewny, somatyczny i neuropatyczny, wynikający z bezpośredniego uszkodzenia splotu trzewnego, poprzez wnikanie komórek nowotworowych pomiędzy struktury splotu, uszkadzanie komórek nerwowych i tworzenie lokalnego stanu zapalnego. Radioablacja splotu trzewnego pokrywa aż dwa z tych rodzajów bólu – ból trzewny i neuropatyczny – tłumaczy dr Miszczyk. Dotychczas tego typu ból można było zmniejszać za pomocą małoinwazyjnych zabiegów, jak blokada czy neuroliza. Jednak ich dostępność w Polsce jest ograniczona, a część pacjentów nie kwalifikuje się do takich zabiegów z powodu wielkości guza. Dlatego też pojawiła się potrzeba opracowania alternatywnej metody. Uzyskane do tej pory wyniki są bardzo obiecujące. U 1/3 pacjentów uzyskano całkowite zniesienie bólu i mogli oni odstawić większość lub wszystkie środki przeciwbólowe, a u kolejnej 1/3 udało się uzyskać zmniejszenie bólu o co najmniej 2 punkty na 10-punktowej skali natężenia bólu. To zaś oznacza, że korzyści z nowej metody odnosi nawet 70 procent pacjentów. Jeżeli skuteczność radioablacji splotu trzewnego w terapii przeciwbólowej rzeczywiście się potwierdzi, może być ona w przyszłości traktowana również jako leczenie standardowe. Oczywiście nie chodzi o to, by wyparła aktualnie dostępne metody, lecz aby stała się kolejną możliwością terapeutyczną. Z technicznego punku widzenia jest to zupełnie inna metoda niż zabiegowa neuroliza czy blokada splotu trzewnego, mówi doktor Miszczyk. « powrót do artykułu- 2 odpowiedzi
-
- Narodowe Centrum Onkologii
- radioablacja splotu trzewnego
-
(i 1 więcej)
Oznaczone tagami:
-
W dniach 2-3 grudnia dom aukcyjny Christie's organizuje aukcję Finest and Rarest Wines and Spirits. Jej ozdobą będzie wyjątkowa butelka szkockiej whisky single malt. To mający już status legendy Springbank 1919, jedna z najrzadszych whisky na świecie. Oferowana Springbank 1919 to 50-letnia whisky z partii, która składała się zaledwie z 24 butelek. Specjaliści szacują, że jej nabywca zapłaci od 200 do 280 tysięcy funtów. To nietypowa whisky wydestylowana w grudniu 1919 roku, a zabutelkowana w roku 1970 w mocy 38%. Nietypowa, gdyż obecne przepisy pozwalają na butelkowanie szkockiej whisky w mocy minimum 40%. Butelka pochodzi z kolekcji sklepu Le Clos z Dubai International Airport. który posiada jeden z najwspanialszych zbiorów whisky na świecie. Posiadacze grubszych portfeli będą mogli też pokusić się o zakup całej kolekcji Macallanów z lat 1954–1986. W tym przypadku cena może sięgnąć od 80 d0 120 tysięcy funtów. Jednak szkockie produkty to nie jedyne perełki, na które będą mogli zapolować miłośnicy whisky i jej kolekcjonerzy. Na aukcję trafi bowiem rzadka japońska Hibiki 30 Years Old, za którą Christie's spodziewać się osiągnąć cenę nawet 8000 funtów za trzy butelki. Bardzo interesującą ofertą jest też whisky Kuraizawa z niedziałającej już destylarni. Położona na zboczach aktywnego wulkanu Asama destylarnia Kuraizawa rozpoczęła produkcję w 1957 roku. Używano wyłącznie sprowadzanego ze Szkocji jęczmienia Golden Promise i wyłącznie beczek po sherry. Składniki te, połączone z lokalnie pozyskiwaną wodą przepływającą przez skały wulkaniczne, dały wyjątkowy produkt. W 2001 roku destylarnia została zamknięta, a w napełnionych przed zamknięciem beczkach wciąż dojrzewa whisky, która zyskała status rzadkiego przedmiotu kolekcjonerskiego. Butelka tej whisky może osiągnąć cenę nawet 1800 funtów. Jednak na aukcje trafią nie tylko butelki. Można będzie też kupić... przyszłą whisky. A konkretne trzy beczki z niedawno otwartej destylarni Ardross. Do oferty trafiły destylaty w 200-litrowej beczce po burbonie, w 500-litrowej beczce po sherry oraz w 450-litrowej Japanese Mizunara Oak Cask. Jako, że przepisy nie pozwalają na dojrzewanie szkockiej whisky poza Szkocją, co oznacza, iż nie wolno jej też wywozić w drewnianych beczkach, w cenie zakupu Ardross oferuje przechowywanie beczek przez okres do 50 lat. Szacuje się, że beczki osiągną cenę nawet 130 000 funtów. « powrót do artykułu
-
- Springbank 1919
- Macallan
- (i 4 więcej)
-
Naukowcy z MIT ze zdumieniem zauważyli, że ludzkie neurony mają mniejsze niż można by się spodziewać zagęszczenie kanałów jonowych w porównaniu z innymi ssakami. Kanały jonowe wytwarzają impulsy elektryczne, za pomocą których neurony się komunikują. To kolejne w ostatnim czasie zdumiewające spostrzeżenie dotyczące budowy mózgu. Niedawno informowaliśmy, że zagęszczenie synaps z mózgach myszy jest większe niż w mózgach małp. Naukowcy wysunęli hipotezę, że dzięki mniejszej gęstości kanałów jonowych ludzki mózg wyewoluował do bardziej efektywnej pracy, co umożliwia mu zaoszczędzenie energii na potrzeby innych procesów wymaganych przy złożonych zadaniach poznawczych. Jeśli mózg może zaoszczędzić energię zmniejszając zagęszczenie kanałów jonowych, może tę zaoszczędzoną energię użyć na potrzeby innych procesów, stwierdził profesor Mark Harnett z McGovern Institute for Brain Research na MIT. Wraz z doktorem Lou Beaulieu-Laroche'em porównywali neurony wielu gatunków ssaków, szukając w nich wzorców leżących u podstaw ekspresji kanałów jonowych. Badali dwa rodzaje zależnych od napięcia kanałów potasowych oraz kanał HCN neuronów piramidowych w V warstwie kory mózgowej. Naukowcy badali 10 ssaków: ryjówki etruskie, suwaki mongolskie, myszy, szczury, króliki, marmozety, makaki, świnki morskie, fretki oraz ludzkie tkanki pobrane od pacjentów z epilepsją. Przeprowadzili najszerzej zakrojone badania elektrofizjologiczne tego typu. Uczeni odkryli, że wraz ze zwiększeniem rozmiarów neuronów, zwiększa się gęstość kanałów jonowych. Zależność taka istnieje u 9 z 10 badanych gatunków. Gatunki o większych neuronach, a zatem zmniejszonym stosunku powierzchni do objętości, mają zwiększone przewodnictwo jonowe błon komórkowych. Wyjątkiem od tej reguły są ludzie. To było zdumiewające odkrycie, gdyż wcześniejsze badania porównawcze wykazywały, że ludzki mózg jest zbudowany tak, jak mózgi innych ssaków. Dlatego też zaskoczyło nas, że ludzkie neurony są inne, mówi Beaulieu-Laroche. Uczeni przyznają, że już sama zwiększająca się gęstość kanałów jonowych była dla nich zaskakująca, jednak gdy zaczęli o tym myśleć, okazało się to logiczne. W mózgu małego ryjówka etruskiego, który jest upakowany bardzo małymi neuronami, ich zagęszczenie w danej objętości jest większe, niż w mózgu królika, który ma znacznie większe neurony. Jednak jako że neurony królika mają większe zagęszczenie kanałów jonowych, to na daną objętość mózgu u obu gatunków zagęszczenie kanałów jonowych jest takie samo. Taka architektura mózgu jest stała wśród dziewięciu różnych gatunków ssaków. Wydaje się, że kora mózgowa stara się zachować tę samą liczbę kanałów jonowych na jednostkę objętości. To oznacza, że na jednostkę objętości kory mózgowej koszt energetyczny pracy kanałów jonowych jest taki sam u różnych gatunków. Wyjątkiem okazuje się tutaj mózg człowieka. Naukowcy sądzą, że mniejsze zagęszczenie kanałów jonowych w mózgach H. sapiens wyewoluowało jako sposób na zmniejszenie kosztów energetycznych przekazywania jonów, dzięki czemu mózg mógł wykorzystać tę energię na coś innego, na przykład na tworzenie bardziej złożonych połączeń między neuronami. Sądzimy, że w wyniku ewolucji ludzki mózg „wyrwał się” spod tego schematu, który ogranicza wielkość kory mózgowej i stał się bardziej efektywny pod względem energetycznym, dlatego też w porównaniu z innymi gatunkami nasze mózgu zużywają mniej ATP na jednostkę objętości, mówi Harnett. Uczony ma nadzieję, że w przyszłości uda się określić, na co zostaje zużyta zaoszczędzona przez mózg energie oraz przekonamy się, czy u ludzi istnieją jakieś specjalne mutacje genetyczne, dzięki którym neurony w naszej korze mózgowej mogą być bardziej wydajne energetycznie. Naukowcy chcą też sprawdzić, czy zjawisko zmniejszenie gęstości kanałów jonowych występuje również u innych naczelnych. « powrót do artykułu
-
- mózg
- kanał jonowy
-
(i 1 więcej)
Oznaczone tagami:
-
Olej palmowy jest szeroko stosowany w przemyśle spożywczym. Znajdziemy go w słodyczach, margarynach czy żywności dla niemowląt. Europejski Urząd ds. Bezpieczeństwa Żywności ostrzega, że olej palmowy zawiera najwyższe wśród tłuszczów roślinnych stężenie substancji potencjalnie rakotwórczych. Naukowcy z Institute for Research in Biomedicine opisali, w jaki sposób kwas palmitynowy – obecny głównie w oleju palmowym – zwiększa ryzyko rozprzestrzeniania się nowotworów. Co ważne, inne rodzaje kwasów tłuszczowych nie wykazywały takiego działania. Przerzutowanie to główna przyczyna śmierci osób cierpiących na nowotwory. Istnieje wiele czynników wpływających na pojawienie się przerzutów. Metastatyczny rozwój z guzów pierwotnych to zjawisko mające wiele przyczyn, które mogą leżeć w czynnikach pozagenetycznych, w tym w stylu życia, napisali autorzy badań na łamach Nature. Z wielu badań wynika, że do rozprzestrzeniania się nowotworów mogą przyczyniać się nasycone kwasy tłuszczowe spożywane w diecie. Nie znamy jednak dokładnego mechanizmu, za pomocą którego kwasy te wpływają na przerzutowanie, nie wiemy też, czy wszystkie nasycone kwasy tłuszczowe mają taki wpływ. Na pytania te postawili odpowiedzieć naukowcy pracujący pod kierunkiem doktora Salvadora Aznara-Benitaha. Uczeni przeprowadzili serię eksperymentów, w czasie których badali wpływ różnych kwasów tłuszczowych, kwasu palmitynowego, kwasu oleinowego i kwasu linolowego na formowanie się pierwotnego guza nowotworowego i przerzutowanie u myszy. Badania wykazały, że kwas palmitynowy wspomaga przerzutowanie czerniaka i nowotworów szczęki. Nie stwierdzono, by kwas oleinowy czy linolowy działał podobnie. Żaden z kwasów nie miał też wpływu na ryzyko pojawienia się guza pierwotnego. Okazało się, że gdy dieta myszy została wzbogacona w kwas palmitynowy, nie tylko ułatwiał on przerzutowanie nowotworów, ale również miał długotrwały wpływ na genom. Wystarczyło, że komórki nowotworowe zostały przez krótki czas wystawione na działanie kwasu palmitynowego obecnego w diecie, by stały się wysoce metastatyczne. Stan ten utrzymywał się nawet po usunięciu kwasu palmitynowego z diety. Guzy u myszy, które przez krótki czas były karmione dietą z wysoką zawartością oleju palmowego oraz komórki, które w hodowli in vitro przez krótki czas miały styczność z kwasem palmitynowym, pozostawały wysoce metastatyczne, nawet bez dalszej ekspozycji na kwas palmitynowy, stwierdzili badacze. Okazało się, że po kontakcie z olejem palmowym w komórkach nowotworowych dochodzi do zmian epigenetycznych, w wyniku których komórki takie tworzyły wokół guza sieci neuronowe, ułatwiające im komunikowanie się z innymi komórkami i rozprzestrzenianie się. Doktor Helen Rippon, dyrektor wykonawcza w Worldwide Cancer Research, organizacji, która częściowo finansowała powyższe badania, mówi: Odkrycie to jest wielkim przełomem na drodze ku zrozumieniu, w jaki sposób łączą się ze sobą dieta i nowotwory. Być może pozwoli nam ono opracować nowe metody leczenia nowotworów. Zrozumienie, co powoduje, że nowotwór się rozprzestrzenia oraz opracowanie metod zatrzymania tego rozprzestrzeniania się, to krok ku zmniejszeniu liczby zgonów powodowanych przez nowotwory. Ze szczegółami badań nad wpływem oleju palmowego na rozprzestrzenianie się nowotworów można zapoznać się w artykule Dietary palmitic acid promotes prometastatic memory via Schwann cells. « powrót do artykułu
- 42 odpowiedzi
-
- olej palmowy
- nowotwór
-
(i 1 więcej)
Oznaczone tagami:
-
Powierzchnia Księżyca pełna jest kraterów uformowanych przez uderzenia asteroid. Badania skał pokazały, że asteroidy masowo opadały na powierzchnię Księżyca przed około 3,9 miliardami lat. Stworzono więc teorię o Wielkim Bombardowaniu. Jednak dotychczas nie wiadomo było, skąd pochodziły skały, które zbombardowały Księżyc. Naukowcy rozważali dwie hipotezy dotyczące źródła asteroid. Jedna z nich mówiła, że były one pozostałością po głównym okresie formowania się Ziemi. Zgodnie zaś z drugą, przed około 3,9 miliardami lat w wyniku niestabilności orbit gazowych olbrzymów (Neptuna, Urana, Saturna i Jowisza) w wewnętrznych obszarach Układu Słonecznego doszło do gwałtownego zwiększenia liczby komet i asteroid pochodzących z obszarów zewnętrznych. Paleontolodzy z Uniwersytetu w Münster przeprowadzili bardzo precyzyjne pomiary izotopów z księżycowych skał powstałych w wyniku bombardowania. Badania wykazały, że nie doszło do żadnego gwałtownego wzrostu częstotliwości uderzeń, a za zbombardowanie Księżyca odpowiadały pozostałości po formowaniu się Ziemi. Uczeni skupili się przede wszystkim na badaniu rutenu i molibdenu, gdyż pierwiastki te wykazują zmiany w składzie izotopowym zależne od miejsca pochodzenia w Układzie Słonecznym. Nasze badania wykazały, że Księżyc został zbombardowany przez ten sam materiał, z którego powstała Ziemia i Księżyc, mówi główna autorka badań, doktor Emily Worsham. Kratery księżycowe są więc pozostałościami po ciągłym bombardowaniu asteroidami pochodzącymi z okresu formowania się naszej planety. Takie wyniki pozwoliły też wykluczyć hipotezę o nagłym wzroście intensywności bombardowania. Rodzi się więc tutaj pytanie, dlaczego większość materiału w próbkach księżycowych pochodzi sprzed 3,9 miliarda lat. Już wcześniej wskazywano, że badane dotychczas skały księżycowe to materiał pochodzący w większości z jednego basenu uderzeniowego, Mare Imbrium, wyjaśnia Worsham. Z obliczeń wiemy, że w pewnym momencie historii Układu Słonecznego doszło do zmian gazowych olbrzymów, co spowodowało, że do obszarów wewnętrznych Układu trafiło wiele materiału z zewnętrznych części. Wydarzenie to musiało mieć miejsce wcześniej niż dotychczas sądziliśmy. Nie znaleźliśmy bowiem żadnych dowodów na uderzenia komet czy asteroid pochodzących z zewnętrznych obszarów, dodaje profesor Thorsten Kleine. Zmiana orbit olbrzymów miała więc prawdopodobnie miejsce podczas głównego okresu formowania się Ziemi, czyli w ciągu pierwszych 100 milionów lat istnienia Układu Słonecznego. Takie datowanie zgadza się z najnowszymi modelami dynamicznymi. To jednocześnie pokazuje, że planety takie jak Ziemia zostają wzbogacone w wodę z zewnętrznych części układu dość wcześnie. Wcześnie więc powstają warunki do pojawienia się życia, stwierdza Kleine. « powrót do artykułu
-
- Wielkie Bombardowanie
- Księżyc
-
(i 2 więcej)
Oznaczone tagami:
-
Czy mała dziewczynka zginęła, bo zaplątała się gałęzie i nie mogła się z nich wydostać, czy może zabiła ją własna matka? Kto lub co stoi za śmiercią nastolatki w namiocie? Co mogło być przyczyną niezwykle nietypowej śmierci młodego matematyka pracującego dla MI6? Tysiące autopsji przeprowadzonych przez Richarda Shepherda w ciągu całej jego kariery pozwoliło temu niezwykłemu lekarzowi (i zarazem bestsellerowemu pisarzowi) nie ufać najbardziej oczywistym wnioskom wysnuwanym przez policję – a zamiast tego rzetelnie dochodzić nawet najbardziej zaskakującej prawdy lub szczerze przyznać: „Nie wiem”. W nowej książce „Siedem wieków śmierci” Shepherd przedstawia 24 najbardziej intrygujące, pouczające i nigdy wcześniej nieopowiedziane przypadki, które nauczyły go tyle samo o nieuchronności śmierci, co o cudzie życia. Nowa książka autora bestsellerowych „Niewyjaśnionych okoliczności” to przepełniona współczuciem, poruszająca, a przede wszystkim kojąca opowieść o życiu i śmierci – opowieść, na którą składają się misternie skonstruowane rozdziały, które wciągają czytelnika niczym najbardziej zajmujące historie kryminalne. Czasem mimo wielkich wysiłków nie udaje nam się poznać prawdy. Kiedy indziej poznajemy ich kilka. Gdy okazuje się, że w śmierci maczały palce osoby trzecie, liczymy na efekt w postaci skazania winnych, a przynajmniej uczciwego procesu. Bywa, że to, co zaczęło się od sekcji zwłok, kończy się dla mnie spędzeniem wielu godzin (a czasem dni czy wręcz tygodni) na miejscu dla świadka na sali sądowej, gdzie moja opinia jest interpretowana, reinterpretowana i podważana przez obrońców oraz oskarżycieli. Niesamowita opowieść z detektywistycznym zacięciem – opowieść o śmierci, ale i o życiu; szczera, pouczająca i prawdziwie wciągająca. „Siedem wieków śmierci” Richarda Shepherda to genialna książka nie tylko dla fanów true crime.
-
Naukowcy z NCBJ i z Instytutu Geofizyki PAN opublikowali wyniki wieloletnich badań stężeń radionuklidów w regionie polarnym i w Polsce. Zebrane dane wzbogacają wiedzę o ruchu i mieszaniu się mas powietrza w skalach od regionalnej aż do globalnej, oraz o zapyleniu środowiska. Praca, która zostanie opublikowana w grudniowym numerze czasopisma Journal of Environmental Radioactivity, przedstawia wyniki pomiarów koncentracji wybranych radionuklidów gamma-promieniotwórczych (7Be, 210Pb, 40K, 137Cs, 134Cs) występujących w aerozolach przyziemnej warstwy atmosfery. Koncentracja radionuklidów w tych badaniach była rejestrowana w latach 2002-2017 w dwóch stacjach: Polskiej Stacji Polarnej Instytutu Geofizyki PAN w Hornsundzie oraz w Obserwatorium Geofizycznym im. S. Kalinowskiego Instytutu Geofizyki PAN w Świdrze. Od 2002 roku w Hornsundzie działa wysokowydajny układ poboru powietrza AZA-1000 przystosowany do pracy w niskich temperaturach. Polska stacja jest jedną z nielicznych urządzeń zlokalizowanych najbliżej bieguna północnego (77°00’N, 15°33’E). Sprawia to, że wpływ zanieczyszczeń powietrza wytwarzanych przez działalność człowieka jest w tym obszarze znacznie ograniczony. Stacja w Hornsundzie jest również jedyną stacją polarną, w której pomiary prowadzane są przez tak długi okres. Dla porównania, druga stacja wykorzystana do badań to ASS-500, położona w regionie lasów otwockich (52°07’N, 21°15’E). Stacja ta funkcjonuje z małymi przerwami od 1991 roku, a w latach 2002-2009 była częścią ogólnopolskiej sieci monitoringu radiologicznego powietrza. Dzięki zlokalizowaniu w średniej szerokości geograficznej, wpływ człowieka na zanieczyszczenia powietrza jest dużo większy, co stwarza bardzo dobre warunki do porównywania m. in. zmienności zapylenia powietrza czy koncentracji radionuklidów. Próbki przeznaczone do badań były zbierane w obu stacjach w ten sam sposób. Urządzenia wyposażone są w układ wymuszonego przepływu powietrza o wysokiej wydajności. Aerozole były zbierane na tzw. filtrach Petrianowa w tygodniowych odstępach, co dawało około 50000-100000 m3 przepompowanego powietrza. Następnie filtry były dostarczane do stanowiska pomiarowego, znajdującego się w NCBJ. Filtry pochodzące ze stacji w Hornsundzie były dostarczane co pół roku, co powodowało konieczność rekalibracji uzyskiwanych z nich danych. Po odpowiednim przygotowaniu filtrów (suszenie, ocena wagowa ilości aerozolu oraz sprasowanie do postaci dysku o średnicy 4,5 cm) trafiały one na około 22 godziny do stanowiska pomiarów spektrometrycznych wykorzystujących detektory germanowe. Uzyskiwano w ten sposób widma promieniowania gamma, na podstawie których wyznaczano stężenia radionuklidów. Wybór badanych nuklidów nie był oczywiście przypadkowy. Ze względu na znajdujące się w laboratorium NCBJ spektrometry, skupiano się na radionuklidach gamma-promieniotwórczych. Dodatkowym kryterium ich wyboru było pochodzenie z różnych źródeł. W ten sposób wytypowano izotopy pochodzenia naturalnego (210Pb, 40K), jako produkty rozpadu pierwiastków wchodzących w skład litosfery, pochodzenia kosmicznego (7Be), wytwarzane jako skutek oddziaływania promieniowania kosmicznego z atmosferą oraz te będące wynikiem działalności człowieka (137Cs, 134Cs), m. in. jako produkty rozpadu w przemyśle jądrowym. Wyniki badań jednoznacznie wskazały na różnice w koncentracji poszczególnych radionuklidów w ciągu roku. W przypadku 7Be, maksymalne stężenia były obserwowane w regionach polarnych w sezonie zimowym, podczas gdy w średnich szerokościach geograficznych maksimum przypadało na miesiące letnie. Powodem tych różnic są przede wszystkim wymiana mas powietrza w stratosferze i troposferze (STE), pionowe mieszanie się mas powietrza w troposferze (DT), transport poziomy (HT) oraz wychwytywanie cząstek pod wpływem opadów atmosferycznych (WS). Czynniki te powodują również wyższą średnią roczną zawartość 7Be w umiarkowanych szerokościach geograficznych względem obszarów polarnych. Dodatkowo zaobserwowano związek koncentracji tego nuklidu z 11-letnim cyklem aktywności słonecznej – jego stężenie maleje wraz ze wzrostem aktywności Słońca. Ze względu na inne pochodzenie izotopu 210Pb, maksymalne stężenia w obu stacjach przypadały na miesiące zimowe. Jednocześnie wymienione w przypadku berylu zjawiska nie mają dużego wpływu na sezonowy rozkład 210Pb. Jest on jednak silnie związany z wielkością zapylenia, a jego stężenie maleje wraz ze wzrostem szerokości geograficznej. Zgodnie z oczekiwaniami, zaobserwowano także stopniowy spadek zawartości 137Cs w czasie. Jest to związane z względnie krótkim czasem półrozpadu izotopu (około 30 lat). Dodatkowo, w 2011 roku obie stacje wykryły znaczne zwiększenie stężenia radioizotopów cezu, co było związane z katastrofą elektrowni jądrowej w Fukushimie. Stężenie Cs-137 i Cs-134 w Świerku i Hornsundzie w 2011 roku. Widoczny jest wyraźny wzrost trwający około 9 tygodni, związany z incydentem w Fukushimie. Zarówno izotopy 137Cs, 134Cs, jak i 40K nie wykazują związku stężenia z porami roku, jednak istnieje zależność ich koncentracji od wielkości zapylenia. Podobnie jak w przypadku izotopów ołowiu i berylu, obszar polarny charakteryzuje się mniejszym ich stężeniem w porównaniu ze średnimi szerokościami geograficznymi. Jeszcze przed publikacją, badania naukowców NCBJ zostały docenione przez międzynarodowe środowisko naukowe. Dowodem tego jest uzyskana przez jednego z autorów, mgr. Michała Piotrowskiego, nagroda za najlepszą prezentację podczas International Conference on Radioecology and Environmental Radioactivity 2019 w Austrii. Obie stacje pomiarowe działają do dnia dzisiejszego i wciąż zbierane są w nich próbki do dalszych badań długookresowych. Dodatkowo, pojawiają się pomysły rozszerzenia badań w tej tematyce, m. in. analizy radionuklidów alfa-promieniotwórczych zgromadzonych na filtrach czy też dołączenia do badań kolejnych stacji. « powrót do artykułu
-
- radionuklidy
- powietrze
-
(i 1 więcej)
Oznaczone tagami:
-
W przyszłym miesiącu odbędzie się start Teleskopu Kosmicznego Jamesa Webba (JWST), a NASA już myśli o budowie kolejnych wielkich teleskopów kosmicznych. Large Ultraviolet Optical Infrared Surveyor (LUVOIR) oraz Habitable Exoplanet Imaging Mission (HabEX 4-H) to dwie koncepcje, które otrzymały najwyższą rekomendację Narodowych Akademii Nauk USA w ramach przeprowadzonego właśnie Decadal Survey on Astronomy and Astrophysics 2020 (Astro2020). Tym samym Akademie Nauk uznały LUVOIR i HabEX za najbardziej obiecujące projekty naukowe i zarekomendowały bezzwłoczne skierowanie ich do kolejnego etapu prac. Oba teleskopy mają działać w pasmach IR (podczerwień), O (optycznym) oraz UV (ultrafiolet), a ich celem będzie obserwowanie planet znajdujących się w ekosferach gwiazd podobnych do Słońca oraz inne badania astrofizyczne. Zarysowany przez Akademie program „IR/O/UV Large Telescope Optimized for Observing Habitable Exoplanets and General Astrophysics” zakłada, że w ciągu 6 lat koncepcja takiego teleskopu zostanie dopracowana w najmniejszych szczegółach, a koszt wstępnych prac wyniesie 800 milionów USD. Natomiast docelowy koszt całej misji, w cenach z roku 2020, ma zamknąć się kwotą 11 miliardów dolarów. Zarówno LUVOIR jak i HabEX miałyby zostać umieszczone w punkcie libracyjnym L2, a ich celem będzie głównie wykrywanie planet w ekosferach, czyli w takich odległościach od gwiazd, że na planetach tych możliwe byłoby istnienie wody w stanie ciekłym. Oba teleskopy miałyby badać atmosfery takich planet i poszukiwać w nich biosygnatur, świadczących o istnieniu życia. Zespół stojący za projektem LUVOIR przedstawił dwie koncepcje. LUVOIR-A miałby mieć lustro o średnicy 15,1 metra i 4 nadające się do serwisowania instrumenty naukowe, a LUVOIR-B – lustro o średnicy 8 metrów i 3 instrumenty. Dla porównania, Teleskop Hubble'a ma lustro o średnicy 2,4 m, a średnica lustra JWST wynosi 6,5 metra. Akademie Nauk zarekomendowały dalsze prace nad projektem LUVOIR-B. Z przedstawionych dokumentów dowiadujemy się, że koszt tego projektu miałby wynieść 17 miliardów dolarów. Przy założeniu optymalnego finansowania i bezproblemowego przebiegu prac, teleskop mógłby zostać wystrzelony za 20 lat. Znacznie tańszy, bo wyceniony „tylko” na 10,5 miliarda USD, ma być HabEX 4-H. Teleskop ten ma pracować w podobnych zakresach co LUVOIR-B, ale korzystałby z 4-metrowego lustra. Mógłby zostać wystrzelony za 18 lat. Znalezienie podobnych do Ziemi planet, krążących wokół gwiazd jest niezwykle trudne. Ich wykrywanie jest poza możliwościami obecnie planowych misji. Rozwijamy jednak techniki, które to umożliwią i jesteśmy blisko posiadania odpowiednich narzędzi i wysłania ich w przestrzeń kosmiczną. Misje takie jak LUVOIR to narzędzia, których potrzebujemy. Moim zdaniem poszukiwanie życia w naszej galaktyce i poza nią to jedno z najważniejszych zadań nauki, mówi profesor Martin Barstow z University of Leicester, który z ramienia UK Space Agency jest zewnętrznym obserwatorem przy zespole LUVOIR. Barstow to współautor raportu popierającego tę koncepcję. Jest on też przewodniczącym Space Telescope Institute Council, który nadzoruje organizację zarządzającą teleskopem Hubble'a, która będzie też zarządzała JWST. W rekomendacji Narodowych Akademii Nauk czytamy, że po zakończeniu prac nad szczegółową koncepcją teleskopów, NASA powinna skupić się na zrealizowaniu jednej z tych misji. Jej podstawowym celem powinno być przeszukanie około 25 planet pozasłonecznych pod kątem występowania na nich biosygnatur. Prace nad wdrożeniem misji powinny rozpocząć się w drugiej połowie obecnej dekady, a jej wystrzelenie należy zaplanować na pierwszą połowę lat 40. bieżącego wieku. Cele naukowe misji, jeśli zostaną osiągnięte, mogą zmienić to, jak postrzegamy miejsce ludzkości we wszechświecie, stwierdzili specjaliści z Narodowych Akademii Nauk. « powrót do artykułu
-
Ósmego listopada Muzeum Politechniki Opolskiej i Lamp Rentgenowskich obchodziło jubileusz 10-lecia. Z okazji swojego święta dostało wyjątkowy prezent: bliźniaczą wersję lampy pracującej na Marsie w łaziku Perseverance. To jest nasz najcenniejszy eksponat i w dodatku niepowtarzalny, to nie są lampy komercyjnie produkowane, tylko jednostkowo, do określonych celów – podkreśla kierownik dr inż. Grzegorz Jezierski. Lampa firmy Moxtek Malutka lampa waży zaledwie ok. 30 gramów. Pracuje przy mocy 0,5 W. Jak dodaje dr Jezierski, cała technologia związana z jej powstaniem objęta jest tajemnicą. Jedna lampa pracuje na Marsie, ok. 60 mln km stąd, jej wersja bliźniacza została przekazana naszemu Muzeum z okazji jubileuszu 10-lecia. Ta umieszczona na ramieniu łazika ma zbadać ewentualne ślady życia na Czerwonej Planecie (dokonuje analizy składu chemicznego gruntu oraz innych powierzchni). Historia kolekcji Ze względu na znaczącą liczbę eksponatów jest to jedyna tego rodzaju kolekcja na świecie. Początek zbierania lamp rentgenowskich datuje się na 2005 r., kiedy to w moim posiadaniu znalazły się przypadkowo dwie pierwsze lampy rentgenowskie od aparatów przemysłowych (Super Liliput). Kolejne trzy lampy zostały przekazane przez Sławomira Jóźwiaka z firmy NDT System z Warszawy, później przyszły cenne lampy z Uniwersytetu Opolskiego (Roman Szatanik) i Instytutu Spawalnictwa w Gliwicach (Janusz Czuchryj). I tak się zaczęło - napisał na stronie poświęconej projektowi dr Jezierski. Ósmego listopada 2010 r. podczas "Wieczoru z Röntgenem" ówczesny rektor prof. Jerzy Skubis zaproponował, aby przenieść prywatną kolekcję dr. Jezierskiego na uczelnię. Oficjalnie Muzeum Politechniki Opolskiej i Lamp Rentgenowskich zostało utworzone 8 listopada 2011 roku, z okazji 45-lecia uczelni oraz w rocznicę odkrycia promieni X przez Wilhelma Röntgena. Eksponaty, a jest ich obecnie ponad 1400, są przekazywane przez różne instytucje z Polski z zagranicy. Najwięcej eksponatów otrzymaliśmy z Niemiec, Stanów Zjednoczonych, Wielkiej Brytanii, Czech, Słowacji, Australii, a także Japonii, a nawet i z Emiratów Arabskich - wylicza dr Jezierski. Na uwagę zasługuje również fakt, iż eksponaty pozyskuję często od osób prywatnych - zaznacza kustosz. Początkowo zamiarem twórcy było gromadzenie lamp rentgenowskich, kołpaków, głowic czy kompletnych aparatów rentgenowskich, jednak z czasem kolekcja zaczęła się powiększać o inne obiekty, np. [o] kolimatory oraz mierniki i detektory promieniowania rentgenowskiego, układy ogniskujące promieniowanie rentgenowskie, kamery rentgenowskie [...], rentgenowskie wzmacniacze obrazu, zespoły katodowe i anodowe (w tym anody stałe oraz wirujące), wyposażenie ochronne przed promieniowaniem rentgenowskim (okulary, rękawice, fartuchy), a także literaturę dotyczącą promieniowania rentgenowskiego. Warto także wspomnieć o aparatach gammagraficznych (bez źródeł) i innych akcesoriach związanych z badaniami gammagraficznymi oraz źródłami promieniowania gamma (emanator radonu czy farba radowa z Ra-226). Na witrynie placówki znajdziemy m.in. zakładkę z filmami i katalog. Chętni mogą także skorzystać z wirtualnego przewodnika. Zarówno część "rentgenowska", jak i historyczna Muzeum są regularnie wzbogacane. Warto przypomnieć, że w 2019 r., przebywając w Muzeum Marii Skłodowskiej-Curie w Warszawie w związku z planowanym przekazaniem do Opola cennego emanatora radonu z lat 20. XX w., dr Jezierski odkrył, że jedna z dwóch lamp rentgenowskich z MMS-C jest lampą skonstruowana przez mało znanego polskiego fizyka Juliusza Lilienfelda (w muzeum o tym nie wiedziano). « powrót do artykułu
-
- Muzeum Politechniki Opolskiej i Lamp Rentgenowskich
- NASA
-
(i 2 więcej)
Oznaczone tagami:
-
NASA przesuwa termin lądowania ludzi na Księżycu
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
Szef NASA, Bill Nelson, poinformował dziennikarzy, że załogowa misja na Księżyc zostanie zorganizowana „nie wcześniej niż w roku 2025”. Tym samym będzie o co najmniej rok opóźniona w stosunku do terminu wyznaczonego przez administrację prezydenta Trumpa. Misji już wcześniej groziło opóźnienie, gdyż pojawiło się wiele różnych problemów, a na ostateczną decyzję o przesunięciu jej terminu główny wpływ miał spór sądowy pomiędzy NASA a firmą Blue Origin Jeffa Bezosa. Firma Bezosa wystąpiła do sądu po tym, jak NASA zdecydowała, że to SpaceX wybuduje księżycowy lądownik HLS Starship. Straciliśmy niemal 7 miesięcy na spory sądowe i to spowodowało, że musieliśmy przesunąć termin załogowej misji na rok 2025 lub lata późniejsze, stwierdził Nelson. U.S. Court of Federal Claims, który rozpatruje tego typu sprawy, nie dopatrzył się nieprawidłowości w rozstrzygnięciu konkursu i oddalił skargę Blue Origin. Mogliśmy więc powrócić do rozmów ze SpaceX, stwierdził Nelson. Obecnie NASA planuje, że pierwsza misja bezzałogowa, Artemis 1, zostanie wystrzelona w lutym 2022, a pierwsza misja załogowa, Artemis 2, w ramach której astronauci polecą poza orbitę Księżyca, odbędzie się w roku 2024. Pojazd z astronautami ma znaleźć się 65 000 kilometrów za Księżycem. Nigdy wcześniej ludzie nie wybrali się tak daleko w przestrzeń kosmiczną. Misją załogową na Księżyc będzie zaś Artemis 3. Zostanie ona przeprowadzona za pomocą SLS i kapsuły Orion. Orion spotka się na niskiej orbicie okołoziemskiej z HLS Starship. Astronauci przesiądą się do pojazdu SpaceX i polecą na Księżyc. Zanim jednak Artemis 3 wystartuje, SpaceX będzie musiała przeprowadzić bezzałogoty test HLS Starship włącznie z lądowaniem na Księżycu. Nelson poinformował jednocześnie o znaczny wzroście kosztów rozwoju kapsuły Orion. Planowano, że w latach 2012–2024 pochłonie ona 6,7 miliarda USD. Teraz wiemy, że kwota ta wzrosła do 9,3 miliarda. Dodał, że Kongres kongres będzie musiał przyznać NASA dodatkowe fundusze. Chiński program kosmiczny rozwija się coraz szybciej i rośnie prawdopodobieństwo, że chińscy taikonauci będą mogli wylądować na Księżycu wcześniej, niż zakładano. Mamy do czynienia z coraz bardziej agresywnym i coraz lepszym chińskim programem kosmicznym. NASA, a wierzę, że i rząd USA, chcą, byśmy to my jako pierwsi powrócili na Księżyc po przerwie trwającej pół wieku. Państwo Środka, w którym za program kosmiczny odpowiada armia, inwestuje olbrzymie sumy w jego rozwój. Chiny chcą mieć do roku 2022 stację kosmiczną ze stałą obecnością człowieka, wysłały na Księżyc łaziki, z których jeden trafił na niewidoczną z Ziemi stronę Srebrnego Globu. Zapowiadają też wysłanie człowieka na Księżyc w roku 2029. NASA chce wykorzystać Księżyc w roli przystanku dla załogowej misji na Marsa. Na orbicie Księżyca ma powstać niewielka stacja kosmiczna Lunar Gateway, która będzie pełniła rolę huba komunikacyjnego, laboratorium naukowego, tymczasowego miejsca zamieszkania oraz miejsca przechowywania łazików i innych robotów. Stacja będzie stopniowo rozbudowywana, a mieszkający na niej astronauci będą pracowali na powierzchni Księżyca. W końcu w latach 30. Lunar Gateway i infrastruktura zbudowana na powierzchni Księżyca zostaną wykorzystane podczas załogowej misji na Marsa. « powrót do artykułu -
Naukowcy z Uniwersytetu Warszawskiego opracowali nową metodę znakowania mRNA. Pozwoli ona na lepsze monitorowanie cząsteczek mRNA zarówno w komórkach, jak i w całym organizmie. Technologia, stworzona przez zespół pracujący pod kierunkiem prof. Jacka Jemielitego i dr hab. Joanny Kowalskiej, przyspieszy prace nad rozwojem terapii wykorzystujących mRNA. mRNA służą komórkom do produkcji białek. Wytwarzanie białek przez komórki zaczyna się od skopiowania niewielkiego fragmentu DNA, czyli wykonania cząsteczki mRNA. Opuszcza ona jądro komórkowe i przechodzi do cytoplazmy. Tam przechwytują ją enzymy transportujące mRNA do rybosomów. W rybosomach mRNA jest odczytywane i na podstawie zawartych w nim instrukcji produkowane są cząstki białka. Cząstki mRNA są bardzo nietrwałe i szybko ulegają degradacji. Dlatego też naukowcy, pracujący nad wykorzystaniem mRNA w medycynie, musieli przezwyciężyć dwa problemy. Jednym z nich było ustabilizowanie mRNA tak, by zwiększyć jego odporność na obecne w komórkach czynniki degradujące. Z drugiej zaś – konieczne było zwiększenie jego produktywności, zatem by wykorzystywane w terapii mRNA częściej trafiało do rybosomów. Już w 2007 roku obie te trudności udało się przezwyciężyć zespołowi prof. Jemielitego i dr Kowalskiej. Teraz, gdy technologie mRNA zaczynają być stosowane na szeroką skalę – tutaj przykładem są szczepionki przeciwko COVID-19 – i rośnie zainteresowanie tą technologią, pojawiło się kolejne wyzwanie. Naukowcy opracowujący nowe terapie z wykorzystaniem mRNA chcieliby mieć możliwość dokładnego śledzenia losów cząsteczek mRNA podanych do organizmu. Naukowcy z UW dodali właśnie do jednego z końców mRNA, zwanego cap 3', znaczniki fluorescencyjne, pozwalające na monitorowanie cząsteczki w żywych komórkach. Co ważne, zastosowana przez Polaków technologia jest kompatybilna z tą stosowaną do oznaczania drugiego z końców, cap 5'. To zaś oznacza, że dzięki uczonym z Warszawy możliwe jest oznaczanie obu końców mRNA. Co więcej, każdy z nich może zostać oznaczony innym kolorem, a znaczniki mogą wymieniać między sobą energię jeśli znajdą się blisko siebie. Podwójne znakowanie mRNA umożliwia zlokalizowanie tej cząsteczki w żywych organizmach. Nasze badania prowadzone były na organizmie kijanki Danio pręgowanego. W ich trakcie wykazaliśmy, że można prowadzić monitoring, czy i kiedy mRNA ulega degradacji, a także sprawdzać, jak efektywnie powstaje z niego białko. Podwójne wyznakowanie fluorescencyjne utrzymuje w pełni funkcjonalność mRNA, zarówno w liniach komórkowych, jak i żywym organizmie. W naszych badaniach wyznakowane mRNA odpowiadało za produkcję białka GFP. Jest to białko fluorescencyjne, które dawało światło w innym kolorze niż oba znaczniki zastosowane w mRNA. To pozwoliło nam jednocześnie obserwować losy wyznakowanego mRNA i powstającego białka. Co ważne, opracowana przez nas technologia pozwala tworzyć sondy molekularne, które umożliwiają monitorowanie enzymów odpowiedzialnych za metabolizm mRNA w komórkach żywych, stwierdził profesor Jemielity. « powrót do artykułu
- 3 odpowiedzi
-
- mRNA
- Jacek Jemielity
-
(i 2 więcej)
Oznaczone tagami:
-
Polskie Wydawnictwo Muzyczne (PWM) ogłosiło konkurs na napisanie małej monografii o Ignacym Janie Paderewskim. Warunki konieczne: miłość do muzyki, zacięcie badacza i lekkie pióro. Do końca lutego przyszłego roku należy przesłać fragment książki (4 rozdziały, ok. 40 tys. znaków) oraz konspekt całości. Na zwycięzcę czekają atrakcyjne nagrody: 10 tys. zł i podpisanie umowy wydawniczej. W jury konkursowym zasiądą: Danuta Gwizdalanka, Antoni Libera, Małgorzata Małaszko-Stasiewicz, Justyna Szombara i Daniel Cichy. Nadesłane prace będą oceniane anonimowo, co oznacza, że przed ogłoszeniem wyników jury nie będzie miało dostępu do danych osobowych autorów zgłoszonych tekstów. Ogłoszenie wyników ma nastąpić nie później niż 13 maja 2022 r. Na adres mailowy należy przesłać wymagane pliki (fragment monografii i konspekt), a także wypełniony formularz zgłoszeniowy. Ignacy Jan Paderewski był wyjątkową i wielowymiarową postacią. Wydawano wprawdzie prace źródłowe i biografie tego wybitnego człowieka, ale zazwyczaj koncentrowano się na jego działalności politycznej i tylko niekiedy zahaczano o wątki muzyczne. A przecież Paderewski do pewnego momentu w życiu był głównie pianistą i kompozytorem! Naszą ambicją jest przybliżenie zarówno jego dzieł muzycznych, wybitnej aktywności pianistycznej, ale nie chcemy pominąć jego znaczenia dla polskiej historii. Dlatego ogłaszamy konkurs, którego efektem ma być popularna, atrakcyjnie napisana, niewielkich rozmiarów, ale jednak rzetelna monografia Paderewskiego. Zapraszamy do udziału wszystkich ludzi pióra - zachęca cytowany przez RMF Classic dr Daniel Cichy, dyrektor-redaktor naczelny PWM. Do tej pory PWM wydało małe monografie poświęcone Pawłowi Szymańskiemu (jej autorem jest Krzysztof Kwiatkowski), Witoldowi Lutosławskiemu (pióra Danuty Gwizdalanki) i Romanowi Palestrowi (autorstwa Lecha Dzierżanowskiego). « powrót do artykułu
-
- Ignacy Jan Paderewski
- mała monografia
-
(i 2 więcej)
Oznaczone tagami:
-
Dieta jest czynnikiem ograniczającym wielkość społeczności łowiecko-zbierackich. Naukowcy przyjrzeli się wielkości niemal 300 istniejących do niedawna społeczności łowiecko-zbierackich i doszli do wniosku, że wiele z nich jest mniejszych niż mogłoby być biorąc pod uwagę produktywność lokalnego ekosystemu. A czynnikiem ograniczającym wielkość grup jest konieczność polegania na mięsie tam, gdzie zmiany pór roku ograniczają dostępność roślin jadalnych. Krótko mówiąc, jeśli społeczności takie żyją na terenach, gdzie mamy długie pory suche lub zimne, to ich przeżycie jest uzależnione od polowania na bardzo ograniczoną liczbę zwierząt, wyjaśnia profesor Eric Galbraigh z kanadyjskiego McGill University. Mamy tutaj sytuację sezonowego pojawiania się wąskiego gardła ograniczającego liczebność populacji niezależnie od tego, jak dużo żywności jest dostępne w dobrych porach roku. Specjaliści od dawna wiedzieli, że społeczności łowiecko-zbierackie są uzależnione od produktywności pierwotnej netto obszaru, na którym żyją. Obserwacje współczesnych łowców-zbieraczy wykazywały silną zależność pomiędzy produkcją pierwotną netto a zagęszczeniem łowców-zbieraczy na danym terenie. Jednak nie potrafiono wyjaśnić pojawiającej się w badaniach nawet 1000-krotnej różnicy zagęszczenia populacji i produktywności netto na różnych obszarach. Autorzy najnowszych badań, w tym Dan Zhu z Uniwerytetu w Pekinie, Victoria Reyes-García z Universitat Autònoma de Barcelona i Philippe Ciais z Laboratoire des Sciences du Climat et de l’Environnement, stworzyli globalny model populacji łowców-zbieraczy połączony z modelem ziemskiej biosfery. Uzyskane wyniki pokazują silny, nierozpoznany wcześniej, wpływ zmian pór roku na zagęszczenie populacji. Odbywa się on za pośrednictwem zmiany diety. Tam, gdzie okres dostępności roślin jest krótki i łowcy-zbieracze muszą w dużej mierze polegać na mięsie, zagęszczenie populacji jest znacznie mniejsze, gdyż poleganie na mięsie jest nieefektywnym sposobem odżywiania się, czytamy na łamach Nature. Byliśmy zaskoczeni, że to tak silny czynnik, przyznaje Galbraith. Podobnie jak w świecie współczesnym, pozyskanie z mięsa takiej samej ilości kalorii co z roślin wymaga znacznie większego obszaru, dodaje. Naukowcy postanowili zweryfikować wyniki uzyskane ze swojego modelu i przeanalizowali dane etnograficzne. Mimo, iż wcześniej tego nie zauważono, badania etnograficzne – prowadzone czy to na Ache z lasu tropikalnego, Hiwi żyjących na sawannach czy Buszmenów z pustyni Kalahari – potwierdziły wyniki uzyskane z modelu. « powrót do artykułu
-
- łowcy-zbieracze
- populacja
-
(i 3 więcej)
Oznaczone tagami:
-
Moderna prowadzi III fazę testów klinicznych szczepionki mRNA skierowanej przeciwko wirusowi cytomegalii (CMV). W ramach „CMVictory” – bo tak firma nazwala test – zostanie sprawdzone bezpieczeństwo i skuteczność 100-mikrogramowej dawki preparatu mRNA-1647. Badaniom zostaną poddane kobiety w wieku 16–40 lat. Nasze badania koncentrują się na kobietach w tym przedziale wiekowym, gdyż to typowy wiek, w którym kobiety mają dziecko, wyjaśnia doktor Lori Panther, wiceprezes Moderny odpowiedzialna za rozwój leków przeciwko chorobom zakaźnym. Szacuje się, że z wirusem cytomegalii styka się nawet 80% dorosłych. Jest on niegroźny dla osób z prawidłowo funkcjonującym układem odpornościowym. Jest jednak niebezpieczny dla kobiet w ciąży, a szczególnie dla ich dzieci. Gdy w czasie ciąży kobieta jest nosicielką CMV, istnieje duże niebezpieczeństwo, że zakażeniu ulegnie jej dziecko. Jeśli zaś popatrzymy na zagrożenia powodowane przez cytomegalowirusa, jasnym jest, że największe niebezpieczeństwo wisi nad dziećmi kobiet, które w czasie ciąży były zagrożone tym wirusem, dodaje uczona. Z danych Centrów Kontroli i Zapobiegania Chorobom (CDC) wynika, że wirusem cytomegalii zaraża się od swojej matki 1 na 200 nowo narodzonych dzieci. Aż u 20% z takich dzieci pojawiają się poważne problemy, takie jak utrata słuchu, wzroku, małogłowie, wodogłowie czy padaczkę. W wieku 5–6 lat ryzyko, że takie objawy pojawią się u dziecka zarażonego w czasie porodu cytomegalowirusem, rośnie do 33%. mRNA-1647 to jednodawkowa szczepionka, w skład której wchodzi sześć fragmentów mRNA kodujących dwie proteiny obecne na powierzchni CMV. Pięć z nich koduje pentamer dołączony do błony komórkowej wirusa, szósty zaś koduje glikoproteinę B (gB). Wspomniany pentamer oraz glikoproteina są wirusowi niezbędne do wniknięcia do komórki, co rozpoczyna infekcję. Glikoproteina B to dominująca determinanta antygenowa cytomegalii. To ona w głównej mierze prowadzi do produkcji przeciwciał przez układ odpornościowy. Jest ona obecnie wykorzystywana w testach CMV. Zarażenie cytomegalią leczy się objawowo, a obecnie nie istnieje żadna szczepionka chroniąca przed wrodzonym zakażeniem CMV. Specjaliści z Moderny uważają, że połączenie mRNA kodującego gB i pentameru, który również odgrywa ważną rolę podczas wnikania wirusa do komórki, będzie szczególnie efektywne. W II fazie badań klinicznych testowano dawki 50 i 150 mikrogramów mRNA-1647. Po przeanalizowaniu wyników tej fazy zdecydowano się na użycie 100-mikrogramowej dawki w fazie trzeciej. Dotychczas uzyskane wyniki są bardzo zachęcające. W miesiąc po zaszczepieniu części uczestniczek III fazy testów przeprowadzono badania, które wykazały znaczny wzrost liczby przeciwciał w organizmach badanych. U kobiet, które nie były w momencie szczepienia zainfekowane CMV liczba przeciwciał była 20-krotnie większa, niż liczba przeciwciał u kobiet zainfekowanych CMV. Natomiast u kobiet, które w momencie szczepienia były zainfekowane CMV, liczba przeciwciał wzrosła 6,8-krotnie. Testy są prowadzone w standardowym trybie, więc faza CMVictory ma zakończyć się 29 stycznia 2023 roku. Ma w niej wziąć udział około 8000 osób, w tym 6900 kobiet w wieku rozrodczym. Rekrutacja do badań prowadzona jest w około 150 miejscach na całym świecie. « powrót do artykułu
-
Młodzi lekarze związani z Warszawskim Uniwersytetem Medycznym (WUM) przygotowali pierwszą w Polsce aplikację dla pacjentów przechodzących endoprotezoplastykę. Na razie Endopedia dot. operacji stawu biodrowego, ale już wkrótce obejmie także staw kolanowy. Moi najlepsi studenci, obecnie już lekarze, stworzyli aplikację "Endopedia", która ma pomóc pacjentom przygotowującym się do operacji endoprotezoplastyki stawu biodrowego. Aplikacja jest rozwojowa i wkrótce obejmie również staw kolanowy [...]- opowiada opiekun minigrantu sfinansowanego przez WUM, dr hab. Paweł Łęgosz z Katedry i Kliniki Ortopedii i Traumatologii Narządu Ruchu Szpitala Klinicznego Dzieciątka Jezus UCK WUM. Jak wyjaśniono w komunikacie prasowym, wszyscy twórcy [dr n med. Łukasz Pulik, Krzysztof Romaniuk, Nina Grabowska i Nicola Dyrek] związani są ze Studenckim Kołem Naukowym Ortopedii Rekonstrukcyjnej i Onkologicznej WUM, działającym przy Katedrze i Klinice Ortopedii i Traumatologii Narządu Ruchu Szpitala Klinicznego Dzieciątka Jezus UCK WUM. Aplikacja jest już dostępna w wersji na Androida (Google Play). Z odpowiedzi Studenckiego Koła Naukowego Ortopedii Rekonstrukcyjnej i Onkologicznej na Facebooku wiadomo, że w ciągu maksymalnie tygodnia będzie dostępna również w AppStore. Prace nad Endopedią trwały ok. 1,5 roku. Twórcy podkreślają, że każda jej część była dokładnie omawiana z lekarzami (opiekunami), poprawiana i redagowana, tak by do pacjentów dotarły najlepsze informacje. Wszystkie jej wersje (nad Androida, urządzenia Apple'a i dostępna z przeglądarki) zawierają te same treści. Jak wspomniano na początku, będą one rozwijane o informacje nt. stawu kolanowego. Nicola Dyrek odpowiadała za estetykę, Krzysztof Romaniuk za kontakty z podwykonawcami, a Nina Grabowska za dodatkowe sprawdzenie tekstu. Z dietetyczką kliniczną Marią Hall konsultowano kwestie dietetyczne. Aplikację stworzyliśmy z myślą o pacjentach, aby ich świadomość na temat zabiegu, który ich czeka, była większa. Co za tym idzie, zmniejszy się stres przed "niewiadomym" - przed operacją. Nasza aplikacja to także drogowskaz dla pacjenta, jak przygotować się do operacji, czego spodziewać się w szpitalu, a także jak poradzić sobie po zabiegu. Wszystko z myślą o tym, aby pacjent czuł się zaopiekowany na jak najwyższym poziomie - wyjaśnia Dyrek. Staraliśmy się, aby w jednym miejscu znajdowały się wszystkie niezbędne i rzetelne informacje dotyczące przygotowań do zabiegu, pobytu w szpitalu, samej procedury oraz tego, jak będzie wyglądać proces rekonwalescencji pooperacyjnej – dodają twórcy Endopedii. « powrót do artykułu
-
W życiu każdego z nas może zdarzyć się sytuacja, kiedy będziemy potrzebować ekspresowego zastrzyku dodatkowej gotówki, jednak z drugiej strony nie każdy godzi się na weryfikowanie tożsamości czy kont bankowych. Jak tego uniknąć, decydując się na pożyczkę pozabankową? Czym jest pożyczka bez weryfikacji telefonicznej? Dodatkowe formalności w przypadku starania się o pożyczkę niejednokrotnie są niczym rzucane kłody pod nogi tym, którzy dodatkowych pieniędzy po prostu potrzebują. Nic więc dziwnego, że często klienci szukają rozwiązań wykluczających jakąkolwiek potrzebę weryfikacji. A sposobów na weryfikację jest wiele. Firmy pożyczkowe bardzo często korzystają z przelewu na jeden grosz, który należy wykonać na konto bankowe instytucji. Weryfikacja telefoniczna to kolejna metoda sprawdzenia tożsamości klienta oraz prawdziwości jego danych. Niekiedy takiej weryfikacji konta bankowego towarzyszy także sprawdzenie, czy owa osoba nie ma przypadkiem jakichś długów i czy jej nazwisko nie widnieje w bazie dłużników. Weryfikacji zaświadczeń zazwyczaj firmy pożyczkowe dokonują, by wykluczyć ewentualne próby wyłudzenia czy oszustwa. Obecnie do metod weryfikacji stosuje się także weryfikację dzięki specjalnym aplikacjom. Jak widać, pożyczki online również są w jakimś stopniu kontrolowane. Jednak nadal ludzie zadają sobie pytanie, jak wziąć pożyczkę bez weryfikacji telefonicznej i innej? Jak wziąć pożyczkę bez weryfikacji? Jak wiadomo, pożyczka bez weryfikacji jest jak najbardziej możliwa. Mogą się o nią ubiegać osoby, które ukończyły 18. rok życia, mogą potwierdzić swoją tożsamość przy pomocy dowodu osobistego, jest w stałym posiadaniu adresu zameldowania na terenie kraju, posiada polskie obywatelstwo, a także nie widnieje w żadnych bazach dłużników. Stałe dochody to dodatkowy atut, na który instytucje pożyczkowe zwracają uwagę. Pożyczka bez weryfikacji wymaga wykorzystania dowodu osobistego, numeru konta bankowego, zaświadczenia o dochodach oraz dokumentu, który poświadczy, że pracujesz na stałe lub na innych warunkach. Zanim zdecydujesz się na konkretną ofertę, warto dokładnie prześledzić wszystkie najlepsze instytucje finansowe i wybrać tę, w której warunki są najkorzystniejsze. Wszystkie oferty możesz rozpatrywać pod kątem szybkości wypłaty gotówki, formy wypłaty pożyczki, całkowitych kosztów pożyczki, wymaganych dokumentów, dopuszczalnego okresu spłaty oraz posiadanego profilu pożyczkobiorcy. Jakie dokumenty trzeba przygotować? Decydując się na złożenie wniosku, musisz przygotować dowód osobisty, informacje o zatrudnieniu, numer telefonu, adres zamieszkania, adres e-mail, informacje na temat aktualnej sytuacji finansowej, nazwę banku oraz numer rachunku. Składając wniosek trzeba przygotować się na weryfikację telefoniczną, czyli rozmowę z konsultantem firmy pożyczkowej, przelew na konto bankowe, czy też weryfikację poprzez specjalną aplikację. Jak widać, rzadko kiedy można uniknąć sprawdzenia tożsamości. Jednak by nie musieć rozmawiać przez telefon, warto zdecydować się na inne sposoby weryfikacji. Pożyczka bez sprawdzania konta bankowego - czek GIRO lub specjalne aplikacje Jeśli nie masz konta bankowego i nie chcesz rozmawiać przez telefon, swoje czyste intencje możesz zweryfikować na dwa inne sposoby. Pierwszym jest skorzystanie z nowoczesnych aplikacji, które śmiało można zainstalować na swoim telefonie. Drugim sposobem jest skorzystanie z pożyczki poprzez czek GIRO. Jest to kredyt, który realizuje się na poczcie lub w oddziale Banku Pocztowego. Więcej informacji na temat kredytu bez weryfikacji znajdziesz na stronie https://kredyt-dla-zadluzonych.pl/pozyczka-bez-weryfikacji-telefonicznej/. « powrót do artykułu
-
Lampa Bioptron to urządzenie, które znajduje szerokie zastosowanie w dermatologii. Łączy w sobie podczerwień, cechy lasera oraz naturalnego światła słonecznego, jednak bez szkodliwych promieni UV. Jak działa lampa Bioptron na skórę? Fototerapia w medycynie i kosmetologii Fototerapia to różnorodne zabiegi oparte na leczniczym działaniu światła o konkretnej barwie. O terapeutycznych możliwościach światła wiadomo od dawna - promieniowanie słoneczne skutecznie chroni przed zachorowaniem na krzywicę, oprócz tego jest jedynym aktywatorem procesu wytwarzania w skórze niezbędnej do zachowania zdrowia witaminy D. Terapia światłem wykorzystywana jest do leczenia bardzo szerokie spektrum schorzeń - od nadciśnienia, poprzez depresję i chroniczny ból, na chorobach wątroby i zaburzeniach metabolizmu skończywszy. Fototerapia znajduje zastosowanie w gabinetach dermatologicznych, poprawiając estetyczne walory skóry, ale też przywracając jej naturalne właściwości. Dermatologia i fototerapia Zabiegi wykonywane urządzeniami medycznymi do światłoterapii Bioptron są bezbolesne, nieinwazyjne i mogą być wykonywane zarówno w gabinecie lekarskim, jak i w zaciszu własnego domu. To niewielki sprzęt o wielkiej mocy, który może przysłużyć się do odzyskania zdrowia nawet w pozornie bardzo trudnych przypadkach. Fototerapia pobudza fizjologiczne reakcje w komórkach, co wzmaga naturalne procesy regeneracyjne w skórze i w tkankach znajdujących się pod skórą. Dzięki temu poprawia się mikrokrążenie, a wraz z nim, dotlenienie skóry. Fototerapia udrażnia naczynia limfatyczne, zapobiegając zaleganiu limfy, przez co niweluje obrzęki i stymuluje procesy biologiczne. W dermatologii i dermatologii estetycznej fototerapia doceniana jest ze względu na stymulację produkcji kolagenu, usprawnianie przepływu substancji odżywczych w naczyniach włosowatych i ujędrnianie skóry. Fototerapia wykazuje właściwości odmładzające, a jej regularne stosowanie porównywalne jest pod względem efektów do niektórych inwazyjnych zabiegów kosmetologicznych. Co ważne, terapia światłem może być stosowana do nieinwazyjnego leczenia odleżyn, a nawet owrzodzeń - naświetlanie już przez 20 minut parę razy dziennie szybko przynosi ulgę choremu i znacznie skraca czas rekonwalescencji. Rozwiązanie największych problemów dermatologicznych Dermatolodzy są zgodni, że fototerapia jest doskonałym sposobem na przywrócenie równowagi skórze dotkniętej trądzikiem wieku młodzieńczego i trądziku różowatego. Wespół z odpowiednim leczeniem farmakologicznym przynosi spektakularne rezultaty i znacznie skraca proces powrotu do zdrowia. Oprócz tego, leczenie lampą Bioptron okazuje się skuteczne przy łuszczycy, zaostrzeniu się opryszczki, a także różnorodnych infekcjach wirusowych powodujących bolesne stany zapalne. Z tego też względu fototerapia polecana jest przez lekarzy osobom borykającym się z atopowym zapaleniem skóry (AZS) - potrafi łagodzić zmiany, zmniejsza wrażliwość skóry i zwiększa jej naturalne bariery ochronne. Interesują Cię urządzenia medyczne do światłoterapii Bioptron? Zepter.pl to renomowany sklep, w którym dokonasz zakupu tych certyfikowanych lamp. « powrót do artykułu
-
Miasteczko Tangier położone na Tangier Island w stanie Wirginia na szybko traci tereny nadające się do zamieszkania. Podnoszący się poziom oceanu spowodował, że w latach 1967–2019 powierzchnia takich terenów skurczyła się z 32,8 do 12,5 hektara. Postępujący od ponad 100 lat proces wyraźnie przyspieszył po roku 1980, a specjaliści oceniają, że do roku 2051 miasteczko nie będzie nadawało się do zamieszkania. Miasteczko posiada pełną infrastrukturę drogową, przemysłową, kanalizacyjną czy mieszkaniową. Znajduje się tam również cmentarz. Na początku XX wieku było ono zamieszkane przez ponad 1100 osób. W roku 2020 jego populacja wynosiła 436 mieszkańców. Zheao Wu z Biogenic Solutions Consulting i David Schulte z Instytutu Nauk Morskich Wirginii wyliczyli koszt przeniesienia miasteczka oraz koszt jego ochrony. Poziom wody w Zatoce Chesapeake podnosi się bardziej niż globalna średnia, a proces ten przyspiesza w podobnym tempie, jak dla średniej globalnej. Mamy więc do czynienia z coraz szybszą zamianą stałego gruntu w mokradła, wyjaśnia Schulte. Naukowcy wyliczają, że pełna ochrona miasteczka i odzyskanie utraconych przezeń terenów kosztowałyby od 250 do 350 milionów dolarów. Znacznie tańsze będzie jego przeniesienie. Wu i Schulte informują, że przeprowadzka 436 mieszkańców z całym dobytkiem będzie kosztowała od 100 do 200 milionów dolarów. Nasze badania pokazują, że rosnący poziom oceanów już w tej chwili jest poważnym problemem na niektórych obszarach USA, wymuszając nawet przenoszenie się ludzi. Większość Amerykanów nie zdaje sobie z tego sprawy. Z danych wynika, że dla Tangier Island jest już niemal za późno. Podobnie wygląda sytuacja w wielu miejscach na świecie, stwierdzają autorzy badań. Wyliczenia Schultze i Wu mogą posłużyć jako przykład kosztów, które trzeba będzie ponieść by przenieść lub uchronić ludzi przed podnoszącym się poziomem oceanów. Musimy pamiętać, że znaczna część ludzkości mieszka na wybrzeżach i znajdują się na nich największe światowe metropolie. « powrót do artykułu
- 1 odpowiedź
-
- Tangier Island
- koszt
-
(i 3 więcej)
Oznaczone tagami:
-
Detektorystka odkryła miniaturową złotą Biblię sprzed 600 lat
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Podczas przeszukiwania pola uprawnego w Anglii Północnej detektorystka Buffy Winship Bailey odkryła ok. 600-letnią złotą Biblię. Miniatura ma długość zaledwie 1,5 cm. Waży ok. 5 g i jest wykonana z 22- albo 24-karatowego złota. Widnieją na niej wizerunki świętych Leonarda i Małgorzaty Antiocheńskiej, patronów ciąży i porodu. Czterdziestoośmioletnia pielęgniarka i jej 59-letni mąż Ian prowadzili poszukiwania za pozwoleniem właściciela gruntu. W pewnym momencie para usłyszała charakterystyczny sygnał. Małżonkowie sądzili, że to metalowy znacznik na ucho dla zwierząt gospodarskich albo zawleczka od puszki na napoje. Gdy Buffy oczyściła znalezisko, początkowo myślała, że to breloczek ze sklepu z pamiątkami. Po powiększeniu zrobionego telefonem zdjęcia zdała sobie jednak sprawę, że to złoto. [Książeczka] była ciężka i lśniła - coś absolutnie pięknego. Obiekt odkryto w pobliżu posiadłości Ryszarda III (Sheriff Hutton Castle), stąd przypuszczenia, że należał on do kobiety związanej z rodziną królewską. Biblia i Klejnot z Middleham Eksperci łączą artefakt z tzw. Klejnotem z Middleham, złotym wisiorem z szafirem, który w 1985 r. został znaleziony przez detektorystę Teda Seatona ok. 64 km stąd, w pobliżu zamku w Middleham. Należy dodać, że Middleham Castle był domem rodzinnym Ryszarda III. Obecność niebieskiego szafiru (związanego z Marią) i wizerunków świętych kobiet, a także przedstawienie sceny narodzenia Chrystusa sugerują, że klejnot mógł być wykorzystywany w czasie porodu. Prawdopodobnie należał do żony Ryszarda III Anny Neville albo do jej matki bądź teściowej. Dzieło [Biblia] ma charakter ikonograficzny i bardzo przypomina Klejnot z Middleham - istnieje nawet możliwość, że oba artefakty wykonał ten sam artysta. Ktokolwiek je zamówił, musiał być niesamowicie majętny - podkreśla Julian Evan-Hart, wydawca magazynu "Treasure Hunting". Książeczka datuje się na okres między 1280 a 1410 r. Istniejące wówczas prawo stanowiło, że jedynie szlachetnie urodzeni mogą posiadać złoto i złote przedmioty. Ekspertyzy Towarzystwa Ryszarda III i Yorkshire Museum Pani Bailey pokazała znalezisko przedstawicielom Towarzystwa Ryszarda III. Obecnie jest ono badane przez Yorkshire Museum. Ian Winship Bailey podkreśla, że wg muzeum, Biblia jest obiektem o wartości międzynarodowej; interesują się nim eksperci z całego świata. Powiedziano nam, że na miniaturze z pewnością widnieją św. Leonard i Małgorzata [...]. Być może obiekt ten był częścią pasa porodowego [ang. birthing girdle] albo zakładką do Biblii. Pod względem jakości Biblia bardzo przypomina Klejnot. Styl wizerunków także jest podobny - opowiada Matt Lewis, specjalista z Richard III Society. To zbyt wartościowy przedmiot, by został zwyczajnie zgubiony. Właściciel mógł go zakopać podczas reformacji [...]. « powrót do artykułu-
- złota Biblia
- miniatura
-
(i 4 więcej)
Oznaczone tagami: