-
Liczba zawartości
37628 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
246
Zawartość dodana przez KopalniaWiedzy.pl
-
Gdy badacze z Federalnego Instytutu Technologicznego w Zurichu dotarli nad rzekę Ruki, zaniemówili ze zdziwienia. Rzeka, jeden z dopływów Kongo, niesie tak ciemne wody, że nie widać zanurzonej w niej ręki. Zespół Travisa Drake'a, który prowadzi w Afryce badania nad cyklem węglowym rzeki Kongo, postanowił dowiedzieć się, dlaczego wody Ruki są tak ciemne. Ich badania wykazały, że Ruki jest jedną z najciemniejszych rzek na Ziemi, a z pewnością jej wody są znacznie ciemniejsze niż wody słynnej Rio Negro w Amazonii. Wody Ruki są ciemne jak mocna herbata. Rzeka ma szerokość 1 kilometra i wpada do Kongo. Jej zlewnia ma powierzchnię około 160 000 kilometrów kwadratowych i pokryta jest dziewiczym lasem tropikalnym. Szwajcarscy uczeni dowiedzieli się, że wody Ruki są tak ciemne, nie z powodu osadów – tych rzeka niemal w ogóle nie niesie z powodu niewielkiego spadku – ale z powodu rozpuszczonej w wodzie olbrzymiej ilości materii organicznej. Substancje bogate w węgiel trafiają do Ruki głównie dzięki opadom deszczu, wymywającego z dżungli martwą materię z rozkładającej się roślinności. Dodatkowo w porze deszczowej rzeka zalewa las. Może minąć wiele tygodni zanim Ruki, której głębokość zwykle sięga do pasa, powróci do swojego koryta. Gdy zaś wody rzeki całymi tygodniami stoją w leśnym poszyciu, dodatkowo rozpuszcza się w nich materia organiczna. Pomimo tego, że Ruki jest tak unikatowa, nigdy wcześniej nie została naukowo zbadana. Co prawda od lat 30. ubiegłego wieku prowadzona jest dokumentacja wahań poziomu wody, jednak dotychczas nikt jej nie przeanalizował pod względem składu chemicznego. Przeprowadzone analizy potwierdziły wrażenia wizualne. Ruki to jedna z najbogatszych w rozpuszczone związki węgla rzek na świecie. Jest ich tam 4-krotnie więcej niż w Kongo i o 1,5 razy więcej niż w Rio Negro. Analizy izotopów węgla wykazały, że zdecydowana większość tego pierwiastka obecnego w wodzie pochodzi leśnej roślinności, a nie z wielkich mokradeł u brzegów rzeki. Jedynie pod koniec pory deszczowej, na przełomie marca i kwietnia, węgiel z mokradeł przedostaje się do rzeki. "Ogólnie rzecz biorąc, do rzeki dostaje się bardzo mało węgla z mokradeł. To dobra wiadomość, gdyż pokazuje, że mokradła są stabilne", mówi Drake. Obecnie nie istnieje ryzyko uwolnienia węgla z mokradeł, gdyż przez niemal cały rok są one pod wodą i węgiel nie ma kontaktu z tlenem. Jednak firmy wydobywcze już interesują się basenem Ruki, a wycinka lasów może zmienić stosunki wodne. Taka działalność może doprowadzić do wysychania mokradeł i uwolnienia węgla do atmosfery. « powrót do artykułu
-
Rekreacyjne i medyczne użycie marihuany szybko rośnie zarówno w USA, jak i poza granicami, a młodzież jest szczególnie narażona na długoterminowe negatywne oddziaływanie THC. Wiemy, że THC działa psychoaktywnie, jego stężenie w konopiach zwiększyło się 4-krotnie w ciągu ostatnich 20 lat, co stwarza szczególne niebezpieczeństwo dla nastolatków, którzy są genetycznie predysponowani do zaburzeń psychicznych, w tym do schizofrenii, mówi profesor psychiatrii Atsushi Kamiya z Johns Hopkins University School of Medicine. Mikroglej to zestaw wyspecjalizowanych komórek układu odpornościowego występujące w ośrodkowym układzie nerwowym. To makrofagi, których zadaniem jest oczyszczanie tkanki z martwych neuronów i ich pozostałości. W komórkach mikrogleju ma miejsce ekspresja receptorów kannabinoidowe typu 1 (CNR1). Wiemy też, że w dojrzewającym nastoletnim mózgu mikroglej wpływa na kształt połączeń synaptycznych, odgrywa ważną rolę w kształtowaniu się funkcji społecznych i poznawczych. Naukowcy z Johnsa Hopkinsa podejrzewali, że THC może w niekorzystny sposób wpływać na mikroglej rozwijającego się mózgu. Wykorzystali więc myszy, które genetycznie zmodyfikowali tak, by występowały u nich mutacje podobne do tych, które u ludzi wywołują zaburzenia psychiczne. Jako grupę kontrolną wykorzystano myszy niemodyfikowane. Gdy myszy były w wieku odpowiadającym wiekowi nastoletniemu u ludzi, części z nich raz dziennie podawano THC w zastrzyku, a części obojętny roztwór soli. Po 30 dniach injekcje przerwano, a trzy tygodnie później przeprowadzono serię testów behawioralnych, za pomocą których oceniono stopień ich rozwoju psychospołecznego. Testy badały ich wrażliwość na zapachy, zdolność do rozpoznawania obiektów, pamięć oraz interakcje społeczne. Wykorzystano też specjalne barwniki, za pomocą których można było badać liczbę i budowę komórek mikrogleju. Badania wykazały, że u myszy, którym podawano THC częściej występowała apoptoza (programowana śmierć komórkowa) mikrogleju, a u zwierząt ze wspomnianymi mutacjami, którym podawano THC liczba komórek mikrogleju była o 33% mniejsza niż u myszy bez mutacji, którym podawano THC. Zmniejszenie ilości mikrogleju było szczególnie widoczne w korze przedczołowej, która – zarówno u ludzi, jak i u myszy – jest odpowiedzialna za pamięć, zachowania społeczne czy podejmowanie decyzji. Jako że mikroglej jest zaangażowany w dojrzewanie mózgu, jego zmniejszona ilość może mieć wpływ na błędny w komunikacji pomiędzy komórkami. Znajduje to potwierdzenie w wynikach testów. Genetycznie zmodyfikowane myszy, którym podawano THC zdobyły w testach o 40% mniej punktów, niż genetycznie zmodyfikowane myszy, którym podawano roztwór soli. Autorzy badań przypominają, że wyników testów na genetycznie modyfikowanych zwierzętach nie można przekładać wprost na wyniki u ludzi, jednak badania na zwierzętach sugerują, że używanie THC przez nastolatków może mieć długotrwały i negatywny wpływ, stwierdza profesory Kamiya. W kolejnym etapie badań naukowcy będą chcieli dokładnie się dowiedzieć, jak nieprawidłowości w mikrogleju wpływają na funkcjonowanie neuronów. Mają nadzieję, że dzięki swojej pracy będą w stanie określić, w jaki sposób marihuana przyczynia się do schizofrenii i innych zaburzeń psychicznych. « powrót do artykułu
-
Dermatolog Harald Kittler z Uniwersytetu Medycznego w Wiedniu stanął na czele austriacko-australijskiego zespołu, który porównał trafność diagnozy i zaleceń dotyczących postępowania z przebarwieniami na skórze stawianych przez lekarzy oraz przez dwa algorytmy sztucznej inteligencji pracujące na smartfonach. Okazało się, że algorytmy równie skutecznie co lekarze diagnozują przebarwienia. Natomiast lekarze podejmują znacznie lepsze decyzje dotyczące leczenia. Testy przeprowadzono na prawdziwych przypadkach pacjentów, którzy zgłosili się na Wydział Dermatologii Uniwersytetu Medycznego w Wiedniu oraz do Centrum Diagnozy Czerniaka w Sydney w Australii. Testowane były dwa scenariusze. W scenariuszu A porównywano 172 podejrzane przebarwienia na skórze (z których 84 były nowotworami), jakie wystąpiły u 124 pacjentów. W drugim (scenariuszu B) porównano 5696 przebarwień – niekoniecznie podejrzanych – u 66 pacjentów. Wśród nich było 18 przebarwień spowodowanych rozwojem nowotworu. Testowano skuteczność dwóch algorytmów. Jeden z nich był nowym zaawansowanym programem, drugi zaś to starszy algorytm ISIC (International Skin Imaging Collaboration), używany od pewnego czasu do badań retrospektywnych. W scenariuszu A nowy algorytm stawiał diagnozę równie dobrze jak eksperci i był wyraźnie lepszy od mniej doświadczonych lekarzy. Z kolei algorytm ISIC był znacząco gorszy od ekspertów, ale lepszy od niedoświadczonych lekarzy. Jeśli zaś chodzi o zalecenia odnośnie leczenia, nowoczesny algorytm sprawował się gorzej niż eksperci, ale lepiej niż niedoświadczeni lekarze. Aplikacja ma tendencję do usuwania łagodnych zmian skórnych z zaleceń leczenia, mówi Kittler. Algorytmy sztucznej inteligencji są więc już na tyle rozwinięte, że mogą służyć pomocą w diagnozowaniu nowotworów skóry, a szczególnie cenne będą tam, gdzie brak jest dostępu do doświadczonych lekarzy. Ze szczegółami badań można zapoznać się na łamach The Lancet. « powrót do artykułu
- 1 odpowiedź
-
- algorytm
- sztuczna inteligencja
-
(i 2 więcej)
Oznaczone tagami:
-
Trzęsienie ziemi odsłoniło wyjątkowy zabytek z czasów Azteków
KopalniaWiedzy.pl dodał temat w dziale Humanistyka
Przed rokiem, 19 września 2022 roku w mieście Meksyk zatrzęsła się ziemia. Trzęsienie odsłoniło wyjątkowy zabytek z czasów, gdy w miejscu dzisiejszego Ciudad de México znajdowała się stolica Azteków, Tenochtitlán. Spod ziemi wyłoniła się duża kamienna głowa Pierzastego Węża, Quetzalcoatla. Od roku eksperci z INAH (Instituto Nacional de Antropología e Historia) prowadzą prace konserwatorskie. Tym, co czyni zabytek tak wyjątkowym, są zachowane kolory i polichromia obecne na 80% powierzchni. Kamienna głowa znajdowała się na głębokości 4,5 metra. Ma 1,8 metra długości, 1 metr wysokości i 0,85 metra szerokości. Waży około 1200 kilogramów. Ekspertom imponuje już sama jej wielkość, a fakt, że zachowały się kolory stanowi o olbrzymiej wartości rzeźby. Zabytek był przez około 500 lat zagrzebany w błocie i właśnie dzięki temu zachował polichromię oraz barwy: niebieską, czarną, białą, różową i żółtą. Konserwacją zajmuje się specjalnie powołany zespół ekspertów. Rzeźba została uniesiona za pomocą dźwigu, a wokół niej zbudowano specjalne pomieszczenie o odpowiedniej wilgotności, w którym prace będą prowadzone jeszcze przez najbliższe miesiące. Specjaliści starają się wysuszyć zabytek, który przez wieki akumulował wilgoć. Muszą jednak robić to ostrożnie, w kontrolowany sposób, by w procesie suszenia nie utracić kolorów i by nie doszło do niepożądanej krystalizacji minerałów. Jednocześnie prowadzone są szczegółowe analizy barwników i polichromii, co pomoże zarówno w pracach konserwatorskich, jak i odpowie na wiele pytań związanych z technicznym aspektem sztuki Azteków. Historycy analizują zaś ikonografię i użycie kolorów. Quetzalcóatl to jeden z najważniejszych bogów azteckiego – i majańskiego, jako Kukulcán – panteonu. Najstarsze przedstawienia pierzastego węża pochodzą z Teotihuacanu z pierwszych wieków naszej ery. W tym czasie Quetzalcóatl był prawdopodobnie bogiem wegetacji, ziemi i wody powiązany z bogiem deszczu Tlalokiem. Wraz z migracją ludów mówiących językiem nahuatl doszło do znacznych zmian w kulcie Pierzastego Węża. W kulturze Tolteków powiązano z nim wojnę i ofiary z ludzi oraz oddawanie czci ciałom niebieskim. Stał się bogiem gwiazd świtu i zmroku. W czasach Azteckich był czczony jako patron kapłanów, wynalazca kalendarza, ksiąg, obrońca złotników i innych rzemieślników. Identyfikowano go z planetą Wenus. A jako bóg świtu i zmierzchu stał się symbolem śmierci i zmartwychwstania. To on powołał do życia obecnie żyjących ludzi, wybierając się do świata podziemi, Mictlan, skąd przyniósł kości dawnych zmarłych i skropił je własną krwią, tworząc człowieka mieszkającego obecnie na Ziemi. « powrót do artykułu -
Pojedynczy bursztynowy koralik może zmienić naszą wiedzę na temat prehistorycznych szlaków handlowych i kontaktów pomiędzy ludami i kulturami na terenie Europy. Naukowcy z Uniwersytetów w Grenadzie i Cambridge zidentyfikowali najstarszy kawałek bursztynu bałtyckiego na terenie Półwyspu Iberyjskiego. Pochodzi on z IV tysiąclecia przed naszą erą i dowodzi, że bursztyn znad Bałtyku trafił na zachód Europy o co najmniej 1000 lat wcześniej niż sądzono, a handel nim nie rozpoczął się wraz z rozwojem kultury pucharów dzwonowatych. Utrzymywanie sieci handlowych, szczególnie długodystansowych, może dać osobom indywidualnym, grupom czy całym społecznościom uprzywilejowany dostęp do wiedzy, technologii, kultury i relacji społecznych. Pozwala na budowanie statusu i prestiżu, służy pojawianiu się uprzywilejowanych grup czy klas. Sieci handlowe z jednej strony ułatwiają współpracę i udzielania sobie pomocy w razie zagrożenia czy innych trudności, z drugiej strony rodzą zależności i konkurencję. Badanie powiązań handlowych, wymiany towarowej szczególnie obejmującej towary luksusowe, mają duże znaczenie dla opisania procesu zdobywania i utrzymywania wpływów przez poszczególnych ludzi i całe grupy. Szczególnie duże znaczenie ma to dla opisania prehistorii, dla której nie istnieją źródła pisane. Pozostaje więc badanie ludzkiej aktywności poprzez znaleziska archeologiczne. Pod koniec czasów prehistorycznych w Europie doszło do znacznego zwiększenia wymiany rzadkich i egzotycznych materiałów, jak kość słoniowa, jaja strusi, obsydianu, kryształu górskiego czy właśnie bursztynu. Dotychczas wiedzieliśmy, że już w IV tysiącleciu przed Chrystusem na Półwysep Iberyjski dotarł bursztyn z Sycylii. Jako że brak dowodów na bezpośrednie kontakty pomiędzy Sycylią a Półwyspem, a mamy liczne dowody na kontakty pomiędzy Iberią a Afryką Północną, najprawdopodobniej bursztyn ten docierał na teren dzisiejszej Hiszpanii właśnie przez Afrykę. I jeszcze do niedawna uważano, że bursztyn znad Bałtyku dotarł za Pireneje dopiero w II tysiącleciu przed naszą erą. Handel nim miał związek z rozwojem kultury pucharów dzwonowatych i odbywał się prawdopodobnie nie bezpośrednio, a poprzez basen Morza Śródziemnego. Teraz uczeni poinformowali, że bursztynowy koralik znaleziony podczas wykopalisk prowadzonych w latach 70. i 80. w jaskini Cova del Frare w pobliżu Barcelony pochodzi znad Bałtyku. Badania prowadzone metodą spektroskopii w podczerwieni z transformacją Fouriera (FTIR) wykazały, że spektrum bursztynu niemal w pełni odpowiada bursztynowi z Morza Bałtyckiego. Istniejące minimalne różnice w uzyskanym spektrum można wytłumaczyć zaś zużyciem materiału koralika. Zabytek został znaleziony w pochówku datowanym na lata 3634–3363 p.n.e. Mamy tutaj do czynienia zatem z najstarszym bałtyckim bursztynem odkrytym na zachodzie Europy. To jednocześnie dowód, że bursztyn znad Bałtyku docierał na Półwysep Iberyjski już w neolicie. W okresie, gdy koralik trafił na Półwysep, zachodziły tam ważne zmiany kulturowe. Dlatego naukowcy chcieliby się dowiedzieć, czy bursztynem handlowali przedstawiciele chylącej się ku upadkowi katalońskiej kultury dołów grobowych (sepulcros de fosa) czy też ci, którzy byli nosicielami nowych trendów kulturowych, jak kultura Veraza, która objęła Katalonię i południową Francję, mówi główna autorka badań, Mercedes Murillo-Barroso. Bursztyn znad Bałtyku jest prawdopodobnie najlepszym bursztynem na świecie. Stopniowo wyparł z rynku bursztyn z Sycylii. Od dawna wiemy, że był on niezwykle ceniony w czasach rzymskich, kiedy to powszechnie nim handlowano. Teraz dowiedzieliśmy się, że już ponad 5000 lat temu trafił za Pireneje. « powrót do artykułu
-
Wygląda na to, że utraciliśmy kontrolę nad topnieniem lądolodu Antarktydy Zachodniej (WAIS). Jeśli chcieliśmy ją zachować, trzeba był podjąć zdecydowane działania wiele dziesięcioleci temu. Pozytywną strona naszych badań jest zaś rozpoznanie zagrożenia z wyprzedzeniem, więc ludzkość może się przystosować do podniesienia poziomu oceanu. Jeśli będziesz musiał opuścić lub przebudować wybrzeże, to informacja na ten temat podana z 50-letnim wyprzedzeniem jest bezcenna, mówi doktor Kaitlin Naughten z British Antarctic Survey (BAS). Stała ona na czele zespołu, który stwierdził, że topnienie lądolodu Antarktydy Zachodniej będzie przyspieszało niezależnie od działań podjętych przez ludzi. Od kilku lat wiemy, że lądolód ten jest skazany na rozpad oraz że obecne tempo jego topnienia jest najszybsze od co najmniej 5,5 tysiąca lat. Naukowcy z BAS przeprowadzili symulacje za pomocą najpotężniejszego brytyjskiego superkomputera Archer i dowiedzieli się, że lądolód Antarktydy Zachodniej będzie topniał coraz szybciej, niezależnie od tego, ile gazów cieplarnianych wyemitują ludzie. Podczas symulacji brano pod uwagę różne scenariusze rozwoju sytuacji w przyszłości i różne poziomy emisji. Wszystkie wykazały nieuniknione przyspieszanie topnienia lądolodu. Nawet w najbardziej optymistycznym scenariuszu będzie ono 3-krotnie szybsze niż w XX wieku. Lądolód Zachodniej Antarktydy roztapia się z powodu ogrzewających się wód Oceanu Południowego, szczególnie w regionie Morza Amundsena. Zawiera on tyle wody, że po roztopieniu poziom światowego oceanu wzrośnie o 5 metrów. Całkowite roztopienie się lądolodu byłoby katastrofą dla setek milionów ludzi mieszkających na wybrzeżach. Musimy pamiętać, że nad brzegami oceanów znajdują się potężne światowe metropolie. Dlatego naukowcy z BAS przypominają, że pomimo tego, iż rozpad WAIS jest nieuchronny i będzie przyspieszał, powinniśmy redukować emisję gazów cieplarnianych, dzięki czemu proces ten będzie przebiegał wolniej, zatem będziemy mieli więcej czasu, by się dostosować. Dla lodów Antarktydy zagrożeniem nie jest ciepłe powietrze – tutaj wzrost temperatury musiałby być naprawdę dramatyczny – ale ciepłe wody oceaniczne. Masa lądolodu na kontynencie jest tak olbrzymia, że niżej położone warstwy lodu stają się plastyczne pod wpływem zalegającego na nich ciężaru i zaczynają spływać w stronę oceanu. Gdy już tam lód dotrze, unosi się na powierzchni wody, tworząc powiązany z lądem lodowiec szelfowy. Lodowce szelfowe spowalniają spływanie lodowców z lodu do oceanu. Jeśli ich masa maleje, to lodowiec z głębi lądu szybciej zsuwa się w stronę wody. I to właśnie lodowce szelfowe Antarktydy są najważniejszym czynnikiem stabilizującym cały lądolód. Ale też najbardziej wrażliwym, bo coraz cieplejsza woda oceanu coraz skuteczniej je roztapia. Dochodzi wówczas do cofania się tzw. linii gruntowania, granicy pomiędzy tą częścią lodowca, która spoczywa na dnie morza (na przykład na podmorskich grzbietach), a częścią pływającą. Jakby tego było mało, Antarktyda jest specyficznie ukształtowana. W wyniku olbrzymiej masy lodu spoczywającego na skałach oraz erozji, w wyniku której przesuwający się przez miliony lat lód zdzierał kolejne warstwy skał, ponad 40% jej powierzchni znajduje się poniżej poziomu morza. A to powoduje, że woda łatwo dostaje się pod lód i go topi. Tym bardziej, że lód poddany większemu ciśnieniu na większej głębokości, topi się w niższej temperaturze. Dodatkowo zwiększa się też powierzchnia topnienia, więc proces przyspiesza. Mamy tutaj więc do czynienia z nawzajem napędzającymi się mechanizmami. Gdy linia gruntowania się cofa, coraz większy fragment lodowca unosi się na wodzie. W ten sposób zwiększa się powierzchnia styku lodu z wodą, a więc powierzchnia topnienia, jednocześnie większa część lodowca nie ma kontaktu z podłożem, zatem zmniejsza się tarcie hamujące ruch lodowca, lodowiec przyspiesza, topi się coraz bardziej, jest coraz cieńszy i lżejszy, coraz łatwiej odrywa się więc od kolejnych fragmentów dna. « powrót do artykułu
-
W sudańskiej Prowincji Północnej w pobliżu miasta Karima znajduje się stanowisko archeologiczne Ghazali. To stanowisko osadniczo-monastyczne z jednym z najlepiej zachowanych średniowiecznych kompleksów klasztornych w Sudanie. W latach 2012–2018 istniejący tam średniowieczny klasztor (VII-XIII w.) był badany przez polsko-sudańską misję archeologiczną. Naukowcy znaleźli setki inskrypcji i dwie figurki mnichów z wypalanej gliny. Teraz, podczas badania materiału osteologicznego pochodzącego z czterech cmentarzysk, na szczątkach jednej ze zmarłych osób zauważono coś niezwykłego - umieszczony na prawej stopie tatuaż. Badania prowadzi zespół dr. Roberta J. Starka, bioarcheologa z Centrum Archeologii Śródziemnomorskiej Uniwersytetu Warszawskiego (CAŚ UW). Celem naukowców jest odtworzenie zarówno pochodzenia, jak i warunków życia pochowanych tu ludzi. Dzięki fotografii wielospektralnej Kari A. Guilbault z Uniwersytetu Purdue odkryła, że osoba, którą pochowano na cmentarzu 1 w Ghazali, miała na grzbietowej stronie stopy wytatuowany chrystogram Chi Rho, a także dwie greckie litery: alfę i omegę. Co istotne, jest to drugi przypadek tatuowania znany ze średniowiecznej Nubii, krainy historycznej obejmującej dzisiejszy południowy Egipt i północny Sudan. Chi Rho należy do najbardziej znanych chrystogramów. Tworzą go nałożone na siebie dwie pierwsze greckie litery imienia Chrystus. Alfa i omega, pierwsza i ostatnia litera alfabetu greckiego, oznaczają zaś początek i koniec, a dla chrześcijan Bóg jest początkiem i końcem. Guilbault prowadziła opisywane badania w związku ze swoją pracą doktorską. Oto co mówi o swoim odkryciu: to było spore zaskoczenie, gdy nagle podczas dokumentowania kolekcji z Ghazali zobaczyłam coś, co wydało mi się tatuażem. Początkowo nie byłam przekonana, ale kiedy obrazy zostały komputerowo przetworzone, tatuaż stał się wyraźnie widoczny, co rozwiało początkowe wątpliwości. « powrót do artykułu
-
Nasz układ odpornościowy potrafi wytwarzać przeciwciała nie tylko przeciwko bakteriom czy wirusom. Niemieccy uczeni odkryli przeciwciała skierowane przeciwko poli(tlenkowi etylenu) – PEG. Okazuje się, że takie przeciwciała są szeroko rozpowszechnione, a ich obecność może negatywnie wpływać na skuteczność współczesnej medycyny. Takie wnioski płyną z badań przeprowadzonych w Instytucie Badań nad Polimerami im. Maxa Plancka. PEG jest powszechnie używany w przemyśle kosmetycznym. Znajdziemy go w kremach, perfumach czy szminkach. Używany jest też w nanomedycynie. Pokrywa się nimi leki, by były niewidoczne dla układu odpornościowego i dzięki temu dłużej krążyły w krwioobiegu, dzięki czemu pojedyncza dawka może działać dłużej i bardziej efektywnie, co przekłada się też na konieczność podania mniejszej ilości leku. Leki zamknięte w nanokapsułkach mogą być w przyszłości ważnym elementem terapii przeciwnowotworowych. Svenja Morsbach i Katharina Landfester przebadały próbki krwi pobrane w 2019 roku od 500 osób. Okazało się, że przeciwciała przeciwko PEG występowały w 83% próbek. Przeciwciała przeczepiały się do nanokapsułek i w ten sposób niweczyły korzyści z ich stosowania. Kapsułki z lekami stawały się bowiem widoczne dla układu odpornościowego, który je usuwał, zanim wywarły one efekt terapeutyczny, mówi Morsbach. Okazało się również, że obecność i ilość przeciwciał reagujących na PEG jest skorelowana z wiekiem. Im starsza osoba, tym mniej tych przeciwciał. Jest to spowodowane faktem, że dopiero w ostatnich dekadach PEG zaczęło się szeroko rozpowszechniać, zatem to młodsze osoby stykają się z tym związkiem częściej i ich organizmy częściej się przed nim bronią. Badania pokazały, że już teraz rozwijając nowe terapie trzeba zastanowić się, w jaki sposób skompensować fakt, iż organizm potrafi rozpoznać substancje, za pomocą których próbujemy ukryć leki, by działały one dłużej i bardziej skutecznie. « powrót do artykułu
-
Naukowcy z Uniwersytetów w Southampton, Cambridge i Barcelonie wykazali, że jest teoretycznie możliwe, by czarne dziury tworzyły pary istniejące w idealnej równowadze, zachowujące się tak, jak pojedyncza czarna dziura. To pogląd różny od konwencjonalnych teorii dotyczących czarnych dziur, które – opierając się na ogólnej teorii względności (OTW) – wyjaśniają nam istnienie pojedynczych statycznych lub obracających się czarnych dziur. Zgodnie z tym teoriami, czarne dziury istniejące w parach zostałyby przyciągnięte przez wzajemne oddziaływanie grawitacyjne i w końcu połączyłyby się, tworząc jeden obiekt. Zgodnie ze standardowym modelem kosmologicznym wszechświat powstał w wyniku Wielkiego Wybuchu i, około 9,8 miliarda lat temu, został zdominowany przez tajemniczą siłę, nazwaną „ciemną energią”, która przyspiesza rozszerzanie się wszechświata w stałym tempie, mówi profesor Oscar Dias z Uniwersytetu w Southampton. Pojęcie ciemnej energii dominującej we wszechświecie, jest ściśle związane z pojęciem stałej kosmologicznej. W świecie opisanym przez OTW ze stałą kosmologiczną czarne dziury są zanurzone w rozszerzającym się i przyspieszającym tle. Uczeni z Wielkiej Brytanii i Hiszpanii postanowili zbadać, w jaki sposób czarne dziury mogą istnieć i wchodzić w interakcje. Za pomocą złożonych metod obliczeniowych wykazali, że dwie statyczne – nie obracające się – czarne dziury, mogą istnieć w idealnej równowadze. Ich wzajemne oddziaływanie grawitacyjne może być równoważone przez rozszerzanie się wszechświata. I na odwrót, siła rozszerzającego się wszechświata, która próbuje odciągnąć czarne dziury od siebie, jest równoważona przez siły grawitacyjne. Taka para czarnych dziur, oglądana z pewnej odległości, będzie wyglądała jak pojedyncza czarna dziura. Może być trudno rozstrzygnąć, czy mamy do czynienia z jedną czarną dziurą czy z parą znajdującą się w równowadze, dodaje Dias. Udowodniliśmy naszą teorię w odniesieniu do par statycznych czarnych dziur. Sądzimy jednak, że jest ona też prawdziwa dla wirujących czarnych dziur, a wydaje się prawdopodobne, że opisuje też układy trzech lub nawet czterech czarnych dziur, co otwierałoby cały szereg nowych możliwości, mówi profesor Jorge Santos z Uniwersytetu w Cambridge. Z całą pracą można zapoznać się na łamach Physical Review Letters. « powrót do artykułu
-
Tajemnicze szybkie rozbłyski radiowe (FRB) znamy od 2007 roku. W ciągu tych 16 lat zarejestrowaliśmy setki takich wydarzeń. Teraz naukowcy udokumentowali najstarszy i najpotężniejszy z nich. FRB 20220610A był kilkukrotnie potężniejszy niż przeciętny rozbłysk, a gdy zidentyfikowano jego źródło okazało się, że ma ono przesunięcie ku czerwieni z=1. To oznacza, że znajduje sie 8 miliardów lat świetlnych od Ziemi. Rozbłysk niósł ze sobą też gigantyczną ilość energii. W ciągu ułamka sekundy w wyniku rozbłysku uwolniło się tyle energii, ile Słońce wytwarza w ciągu 30 lat. Rozbłysk tak jasny, że jego istnienie może poddawać w wątpliwość niektóre hipotezy dotyczące powstawania FRB. Odkrywcy zbadali też, jak ośrodek międzygalaktyczny wpłynął na rozpraszanie się fal radiowych z rozbłysku i odkryli, że doszło do większego rozpraszania, niż można by się było spodziewać z rozbłysku w tej odległości. Dlatego też wysunęli hipotezę, że sygnał przeszedł przez dodatkowe obszary namagnetyzowanej plazmy, która prawdopodobnie znajdowała się galaktyce macierzystej, w której rozbłysk miał miejsce, a sama galaktyka ma złożoną budowę. Dotychczas najbardziej odległe znane źródło FRB znajdowało się w odległości 5 miliardów lat świetlnych od Ziemi. Znalezienie źródła sprzed 8 miliardów lat wskazuje, że zjawisko szybkich rozbłysków radiowych istniało już, gdy wszechświat był niemal dwukrotnie młodszy niż obecnie. Obserwacja FRB przynosi specjalistom cenne informacje o budowie wszechświata. Niektóre docierające do nas fale są nieco dłuższe, niż inne, gdyż po drodze wchodzą w interakcje ze znajdującym się po drodze ośrodkiem, głównie ze zjonizowanymi wolnymi cząstkami, jak elektrony. Interakcje te spowalniają niektóre z fal, wydłużając je. Obserwując to zjawisko astronomowie mogą badać, na ile równomiernie rozłożona jest materia pomiędzy galaktykami. « powrót do artykułu
-
Jowisz posiada najbardziej przyciągającą uwagę atmosferę w całym Układzie Słonecznym. Dość wspomnieć o Wielkiej Czerwonej Plamie, gigantycznym cyklonie wewnątrz którego zmieściłaby się Ziemia, obserwowanym od niemal 400 lat, w którym wiatry wieją z prędkością do 432 km/h. Ludzkość obserwuje Jowisza za pomocą instrumentów optycznych od setek lat, ale jego atmosfera wciąż skrywa wiele tajemnic. Jedną z nich odkrył właśnie Teleskop Webba. Na zdjęciach wykonanych za pomocą NIRCam (Near-Infrared Camera) naukowcy zauważyli liczne uskoki wiatru, czyli zmiany jego prędkości wraz z wysokością lub odległością. Dzięki temu zidentyfikowali nieznany dotychczas prąd strumieniowy nad równikiem planety. Znajduje się on w dolnych partiach stratosfery Jowisza, na wysokości około 40 kilometrów nad pokrywą chmur i pędzi z prędkością 515 kilometrów na godzinę. Na danych z Webba wyraźnie widać, jak podczas jednego obrotu Jowisza – który trwa około 10 godzin – prąd strumieniowy prowadzi do zaburzeń w atmosferze wokół całego równika. Dzięki temu naukowcy będą mogli lepiej zrozumieć atmosferę Jowisza i interakcje jej poszczególnych warstw. Badania pokazują też, jak wyjątkowym narzędziem jest Teleskop Webba. W najbliższej przyszłości naukowcy chcą go wykorzystać, by sprawdzić, czy z czasem dochodzi do zmian prędkości lub wysokości nowo odkrytego prądu. Nowo zdobyte informacje będą niezwykle przydatne podczas misji Juice (Jupiter Icy Moons Explorer). Wystartowała ona 14 kwietnia bieżącego roku. Jej głównym celem jest zbadanie trzech Galileuszowych księżyców Jowisza – Ganimedesa, Kallisto i Europy. Głównie skupi się na badaniu Ganimedesa. Jednak przy okazji Juice przyjrzy się też z bliska atmosferze Jowisza. « powrót do artykułu
-
Przed dwoma dniami Komisja Kultury, Mediów i Sportu brytyjskiej Izby Gmin usłyszała szokujące wiadomości. Kradzieże kamieni półszlachetnych, złotej biżuterii i bezcennych zabytków szklanych z British Museum rozpoczęły się już 20–25 lat temu. I pozostawały niewykryte przez dziesięciolecia, gdyż w zbiorach muzeum znajdują się miliony nieskatalogowanych lub tylko częściowo skatalogowanych obiektów. Przed kilkoma miesiącami światem muzealników wstrząsnęła informacja, że jedna z najsłynniejszych instytucji kultury, British Museum, była przez lata okradana. Skandal wybuchł, gdy w sierpniu bieżącego roku Muzeum przyznało, że było przez lata okradane i zwolniło podejrzewanego o kradzieże jednego z zasłużonych wieloletnich kuratorów. Kilka dni później z zajmowanego stanowiska zrezygnował dyrektor muzeum i jego zastępca. Pierwsze sygnały o kradzieżach dotarły do muzeum już w 2021 roku. Śledztwo policyjne wykazało, że przez lata z muzealnych zbiorów zniknęło 2000 przedmiotów. Zwolnionemu kuratorowi policja wciąż nie przedstawiła zarzutów, a jego syn utrzymuje, że ojciec jest niewinny. Niedawno przed Izbą Gmin zeznawał George Osborne, były brytyjski kanclerz skarbu, a od kilku lat przewodniczący Rady Nadzorczej British Museum. Poinformował on posłów, że śledztwo wykazało, iż w zbiorach muzeum znajdują się 2 miliony 400 tysięcy nieskatalogowanych lub częściowo skatalogowanych obiektów, które wymagają dokładniejszego opracowania. Złodziej, który dobrze wiedział, które obiekty nie są dobrze udokumentowane, mógł działać przez lata, powoli wynosząc zabytki z magazynu, bez obawy, że ktoś zauważy ich brak. Osborne poinformował, że wśród wspomnianych obiektów aż 1 milion jest w ogóle nieudokumentowanych, 300 tysięcy zostało zarejestrowanych, ale rejestr ten nie został zdigitalizowany, a kolejnych 1 milion 100 tysięcy obiektów znajduje się co prawda w rejestrze cyfrowym, ale same zabytki nie zostały sfotografowane. Muzeum posiada w sumie 8 milionów przedmiotów. Z tego 2 miliony tak naprawdę nie wymagają katalogowania. Jest wśród nich 1 milion fragmentów kamiennych narzędzi z północy Afryki. Mark Jones, który obecnie pełni obowiązki dyrektora British Museum, poinformował posłów, że 2000 skradzionych nieudokumentowanych obiektów było w rzeczywistości znanych tylko jednej osobie i osoba ta postanowiła to wykorzystać. Dotychczas udało się odzyskać 350 z ukradzionych zabytków. Było to możliwe dzięki współpracy duńskiego eksperta i antykwariusza Ittia Gradela. To on przed dwoma laty poinformował Muzeum o swoich podejrzeniach, iż w obiegu zaczęły pojawiać się ukradzione przedmioty. W 2021 roku muzeum otrzymało e-mail od znanego antykwariusza, który poinformował, że zauważył na rynku ukradzione zabytki, kupił je i prawdopodobnie zidentyfikował osobę, która jest odpowiedzialna za kradzież, powiedział Osborne. Eksperci szacują, że skatalogowanie wspomnianych ponad 2 milionów zabytków w zbiorach British Museum będzie kosztowało 10 milionów funtów i potrwa pięć lat. Muzeum nie zwróciło się do skarbu państwa po dodatkowe fundusze. Na razie nie wiadomo, jak prace te zostaną sfinansowane. « powrót do artykułu
-
eSIM, czyli Embedded SIM, jest niefizyczną wersją karty z numerem, którą dostajesz od operatora. Coraz więcej urządzeń umożliwia korzystanie z technologii eSIM, a niektóre z nich mają już tylko taką opcję. Wirtualna karta SIM jest przyszłością telekomunikacji, dlatego warto już teraz przekonać się o jej zaletach. Na eSIM możesz przesiąść się już dziś i zobaczyć, jakie korzyści daje ta rewolucyjna technologia. Dlaczego warto używać eSIM? Jak działa wirtualna karta eSIM? Na początek wyjaśnijmy różnice między tradycyjną SIMką a jej wirtualnym odpowiednikiem. Klasyczna SIM to karta mikroprocesorowa z wbudowaną pamięcią. To ten malutki kawałek plastiku, który umieszczamy w smartfonie. Służy do rozpoznawania konkretnego użytkownika i przechowuje niewielką ilość danych. Te informacje dotyczą: operatora, abonenta, numeru telefonu. Bez takiej karty nie możesz dzwonić, SMS-ować ani korzystać z sieci. eSIM to natomiast w 100 procentach wirtualna karta SIM. Użytkownik otrzymuje ją od operatora drogą cyfrową. Trwa to zaledwie kilka sekund! eSIM zapisze się na module, który jest na stałe wbudowany w Twoje urządzenie. Tylko Ty masz dostęp do danych na karcie. Poza tym eSIM działa dokładnie tak samo, jak jej klasyczny odpowiednik. Urządzenie w ten sam sposób łączy się z siecią i ma te same możliwości. Co ważne, taki wirtualny moduł znajdziesz nie tylko w telefonie, ale i w innych sprzętach. Dlaczego warto korzystać z eSIM? Zalety Cyfrowa karta SIM to prawdziwa rewolucja na rynku usług telekomunikacyjnych. Jakie są zalety eSIM? Możesz z niej korzystać na wielu urządzeniach. Mowa nie tylko o smartfonach, ale też zegarkach, tabletach i routerach! Moduł eSIM jest dodatkowym zabezpieczeniem na wypadek kradzieży telefonu. Złodziej nie wyjmie karty z urządzenia i nie dostanie się do Twoich danych bez znajomości kodu PIN. Szybka aktywacja wirtualnej karty SIM to jedna z jej największych zalet, zwłaszcza dla miłośników załatwiania spraw przez internet. Możesz już zmienić operatora online - bez wyprawy do punktu obsługi klienta, jednak w przypadku tradycyjnej karty wciąż musisz zaczekać na kuriera, który dostarczy Ci nową SIMkę. eSIM rozwiązuje ten problem i pozwala błyskawicznie przełączyć się na nowe usługi. Nie zmieniasz operatora, ale wymieniasz telefon? Prosta i szybka aktywacja eSIM oznacza łatwą przesiadkę na nowy sprzęt. Nowoczesne technologie w Orange Flex – eSIM Do zalet eSIM należy prosta instalacja i aktywacja. Jak to zrobić? Nie martw się! W Orange Flex eSIM łatwo pobierzesz, dzięki wskazówkom z aplikacji mobilnej. Ściągnięcie apki jest pierwszym krokiem do aktywacji wirtualnej karty. Potem musisz potwierdzić swoją tożsamość i opłacić wybrany Plan Komórkowy. Na koniec kliknąć w odpowiedni przycisk, by aktywować kartę, i gotowe! Apka przeprowadzi Cię krok po kroku przez cały proces, więc nie musisz martwić, że zagubisz się na którymś etapie. Jak pisaliśmy wyżej, w Orange Flex eSIM możesz zainstalować nie tylko na smartfonie, ale też na smartwatchu, tablecie czy w routerze. Fajnie, co? No to teraz hit: możesz korzystać z kilku urządzeń z tym samym numerem jednocześnie. Po co? Kiedy idziesz biegać, nie musisz brać telefonu – połączenia odbierzesz za pomocą smart zegarka. Chcesz korzystać z danych mobilnych na wielu urządzeniach jednocześnie? Aktywuj dodatkową kartę eSIM w routerze, wybierz pakiet UNLMTD i ciesz się dostępem do Internetu . Opcji jest wiele, a ogranicza Cię tylko pomysłowość. Jak aktywować eSIM jako dodatkową kartę? Wystarczy wejść w apkę, dodać kartę dodatkową, wybrać eSIM i podążać za instrukcjami aplikacji. Banalnie proste, prawda? Pobierz apkę Flex i ciesz się zaletami eSIM! « powrót do artykułu
-
Czy konsolidacja chwilówek pomaga w ucieczce z pętli zadłużenia?
KopalniaWiedzy.pl dodał temat w dziale Artykuły
Chwilówki mogą być bezpiecznymi i użytecznymi produktami finansowymi… jeśli jednak sytuacja finansowa dłużnika nagle się pogorszy, nietrudno o wpadnięcie z ich powodu w pętlę zadłużenia, z której trudno się wydostać. W takiej sytuacji warto rozważyć konsolidację chwilówek. Jak w praktyce działa łączenie chwilówek? Zyskująca w ostatnich latach na popularności konsolidacja chwilówek pełni dwie podstawowe funkcje. Po pierwsze, łączy posiadane zobowiązania w jedną całość. Dzięki temu łatwiej jest planować domowy budżet i zadbać o to, aby na czas dokonać niezbędnych płatności. Po drugie, zamienia chwilówki, a więc z zasady zobowiązania krótkoterminowe i nieratalne, na tradycyjne zobowiązanie spłacane w częściach rozłożonych w czasie. Krótki okres spłaty jest często największą przeszkodą na drodze do spłaty chwilówki. Z reguły wynosi od kilkunastu do kilkudziesięciu dni. Kiedy zbliża się jego koniec, dłużnik może zdecydować się na zaciągnięcie kolejnych chwilówek na spłatę poprzednich, jedynie nieznacznie odsuwając w czasie płatność i zwiększając wysokość zadłużenia. W ramach konsolidacji chwilówek bieżące długi są spłacane w całości, więc dotychczasowi wierzyciele nie mogą już wysuwać w związku z nimi żadnych roszczeń. W zamian powstaje jedno zobowiązanie ratalne. Nawet bardzo wysoka kwota kredytu nie musi oznaczać problemów z terminową spłatą, jeśli jej zwrot zostanie rozłożony na odpowiednio długi okres, dlatego pożyczki i kredyty ratalne charakteryzują się wyższym poziomem bezpieczeństwa i pewności. W zależności od okoliczności nowy kredytodawca lub pożyczkodawca przekaże swoim poprzednikom środki samodzielnie, bądź przeleje je na konto klienta, który sam dokona niezbędnych rozliczeń. Dokładne warunki konsolidacji i jej przebieg są zawsze indywidualnie uzgadniane z każdym kredytobiorcą, tak, aby najlepiej odpowiadały jego unikalnej sytuacji. Czy warto konsolidować pożyczki krótkoterminowe? Pętla zadłużenia wynikająca z problemów ze spłatą chwilówek może wiązać się z zadłużeniem rzędu kilkunastu lub kilkudziesięciu tysięcy złotych, a niekiedy nawet wyższym. Z każdym kolejnym dniem i kolejną chwilówką zaciągniętą na spłatę poprzedniej narastają odsetki i inne opłaty. Jednocześnie z uwagi na wspomniany niezwykle krótki okres spłaty tego typu pożyczek, trudno jest uzyskać odpowiednio wysoką kwotę, aby móc na własną rękę spłacić je w całości i pozbyć się zadłużenia. Szczególnie biorąc pod uwagę fakt, że wpadnięcie w pętlę zadłużenia może być spowodowane niefortunnymi zdarzeniami losowymi, takimi jak choroba lub utrata pracy. Konsolidacja chwilówek pozwala oddalić od siebie widmo zaciągania kolejnych chwilówek w celu przedłużenia okresu spłaty o zaledwie kilka tygodni, a nawet opóźnienia w spłacie i problemów z komornikiem. Zobowiązanie ratalne zaciągane w ramach konsolidacji zazwyczaj charakteryzuje się długim maksymalnym okresem spłaty. Kredytobiorca może więc dopasować go do swoich preferencji i możliwości finansowych, tak aby ostatecznie uzyskać niską, bezproblemową do spłacania w wyznaczonym terminie ratę. Dłużnik może odetchnąć i odzyskać wolność finansową. Zrzucenie z barków ciężaru nadmiernego zadłużenia pozwoli uniknąć takich uciążliwości, jak naliczanie odsetek za opóźnienie, wpisy na listę dłużników, a także liczne listy, połączenia telefoniczne oraz wizyty windykatorów. Gdzie najlepiej przeprowadzić konsolidację chwilówek? Każdy dłużnik może różnić się między innymi w zakresie tego, ile chwilówek posiada, w jakich instytucjach i na jakie kwoty. W poszczególnych przypadkach odmienne są także sytuacje finansowe kredytobiorców. Ciężko w związku z tym jednoznacznie wskazać, jaka instytucja zaoferuje najlepsze warunki konsolidacji. Do każdego przypadku trzeba podejść indywidualnie. Trzeba jednak mieć na uwadze fakt, że konsolidacja wiąże się dla instytucji finansowych ze sporym ryzykiem. Klienci poważnie zadłużeni chwilówkami charakteryzują się zazwyczaj niską zdolnością kredytową, miewają także negatywne wpisy w BIK-u. Pozyskanie przez nich kredytu konsolidacyjnego, a zwłaszcza na korzystnych warunkach, wymaga więc pomocy specjalistów. Doświadczeni doradcy Habza Finanse dokładnie analizują sytuację klienta i szukają dla niego najlepszego możliwego rozwiązania. Pomagają także w załatwieniu wszelkich formalności i przejmują na siebie zadanie prowadzenia negocjacji z potencjalnym kredytodawcą. Dzięki temu można być pewnym, że połączy się chwilówki bezpiecznie, bezstresowo i bez przepłacania. « powrót do artykułu -
Podczas prac archeologicznych prowadzonych przy okazji rozbudowy Harwell Science and Innovation Campus w hrabstwie Oxfordshire w Anglii odsłonięto pozostałości eksperymentalnej katapulty dla bombowców z czasów II wojny światowej. Specjaliści z MOLA (Museum of London Archaeology) przygotowali nawet model 3D, który pozwala naukowcom i pasjonatom eksplorować konstrukcję. Urządzenie nigdy nie wysłało w powietrze żadnego samolotu i szybko zostało porzucone. Teraz, dzięki wykopaliskom, możemy poznać szczegóły prototypu. Projektowanie katapulty rozpoczęto w 1935 roku, a trzy lata później w Harwell ruszyły prace konstrukcyjne. Royal Aircraft Establishment (RAE) Mark III Catapult miała pomóc wzbić się samolotom w powietrze z krótszego pasa startowego i z większą ilością paliwa. Centralną częścią struktury była platforma obrotowa, pozwalająca ustawić bombowiec na jednym z dwóch 82-m betonowych pasów startowych. Samolot przyczepiano do znajdującego się poniżej tłoka. Pod platformą ukryto 12 silników lotniczych Rolls-Royce Kestrel, które kompresowały powietrze napędzające tłok. Ten miał gwałtownie nadawać samolotowi przyspieszenie, wyrzucając go w powietrze. Realizacja eksperymentu napotkała na parę problemów. Po pierwsze, silniki szybko się zużywały. Po drugie, konstrukcja nie pasowała do typu samolotów, jakie miała obsługiwać. Niewykorzystana w praktyce katapulta została w końcu porzucona. Mechanizm rozmontowano, konstrukcję zasypano, a do 1941 przez jedną z „odnóg” poprowadzono zwykły pas startowy. Projekt nie przepadł jednak całkowicie. Zdobyte przy nim doświadczenia przydały się podczas tworzenia CAM (ang. catapult armed ship), statków handlowych wyposażonych w katapultę lotniczą, co miało zapewnić ochronę alianckim konwojom. Niedawno archeolodzy odsłonili betonowe pozostałości katapulty. O jej istnieniu wiedziano co prawda z dokumentów historycznych, ale dopiero dzięki tym pracom można było poznać wszelkie detale. Ta fascynująca struktura przypomina nam o okresie wzmożonych działań eksperymentalno-wynalazczych w międzywojniu i u progu II wojny światowej. Zasadniczo odnotowanie położenia i wyglądu każdego centymetra służy zachowaniu opisu katapulty dla przyszłych pokoleń - podkreśla Susan Porter z MOLA. Na podstawie fotografii oraz badań odsłoniętej struktury powstał trójwymiarowy cyfrowy model urządzenia. Podczas wykopalisk znaleziono też pozostałości późniejszego pasa startowego, w tym oświetlające go reflektory oraz miejsce, w którym znajdowało się stanowisko działa przeciwlotniczego (o jego istnieniu wcześniej nie wiedziano, musiało zostać zbudowane między 1941 a 1945 r.). Historyczna katapulta zostanie w najbliższym czasie całkowicie rozebrana, by umożliwić dalsze prace nad rozbudową Harwell Science and Innovation Campus. « powrót do artykułu
-
Chiny planują wybudowanie na dnie morskim największego na świecie wykrywacza neutrin. Niedawno na łamach Nature Astronomy zaprezentowano projekt urządzenia TRopIcal DEep-sea Neutrino Telescope (TRIDENT), zwanego po chińsku Hailing, Oceaniczny Dzwon. Ma to być nie tylko największy, ale najbardziej zaawansowany i najbardziej czuły teleskop rejestrujący neutrina. Będzie ważnym uzupełnieniem już działających urządzeń, w tym obecnie największego detektora IceCube, który znajduje się do 2,5 kilometra pod lodem Antarktydy i ma objętość 1 km3. Neutrina to, po fotonach, najbardziej rozpowszechnione cząstki subatomowe we wszechświecie. W każdej sekundzie samo Słońce emituje setki biliardów tych cząstek, które przenikają wszystko, w tym nasze ciała czy Ziemię. Istnienie neutrin przewidziano w 1930 roku, a po raz pierwszy zarejestrowano je w roku 1954. Od tamtej pory za badania nad nimi przyznano cztery Nagrody Nobla. Wiedza na ich temat zrewolucjonizowała fizykę, jednak neutrina wciąż skrywają wiele tajemnic. Cząstki te mogą pochodzić nie tylko ze Słońca, ale również z eksplozji supernowych czy z czarnych dziur. Są więc idealnymi posłańcami i nośnikami danych, za pomocą których można nie tylko badać wszechświat i najbardziej intensywne zjawiska w nim zachodzące, ale również dają wgląd w podstawy fizyki. W latach 60. XX wieku radziecki fizyk Markow zaproponował, by wykorzystać promieniowanie Czerenkowa do badania neutrin. To zainspirowało fizyków do budowania teleskopów wykrywających neutrina. Obecnie największym z nich jest ukończony w 2010 roku IceCube. Niedługo po uruchomieniu wykrył zidentyfikował on wysokoenergetyczne neutrina pochodzące z głębi kosmosu, a kilka lat później zidentyfikował ich źródło. Badanie neutrin jest niezwykle trudne, gdyż niemal nie wchodzą one w interakcje. Materia jest dla nich przezroczysta. Przelatują z równą łatwością przez nasze ciała, jak i planety. Czasem jednak, w olbrzymiej masie neutrin, zdarzy się takie, które zderzy się z molekułą wody. Dochodzi wówczas do emisji światła. I właśnie tę emisję wykrywają teleskopy neutrin. TRIDENT, który ma zostać ukończony w 2030 roku, zostanie wybudowany na Pacyfiku, w pobliżu równika, na głębokości około 3,5 kilometrów. W ostatnich latach chińscy naukowcy szukali odpowiedniego miejsca, gdzie dno będzie płaskie, ruch wody niewielki, jej radioaktywność nie będzie odbiegała od standardowej wody morskiej, a przejrzystość odpowiednio duża. Miejsce takie znaleźli około 540 kilometrów na południe od Hongkongu, w odległości 200 kilometrów do Yongxing, największej z Wysp Paracelskich. Przejrzystość wody jest tam tak duża, że sygnał świadczący o obecności neutrina można będzie rejestrować z odległości od 27 do 63 metrów. Dla porównania, przejrzystość wody z kranu pozwoliłaby zarejestrować go z odległości zaledwie 2 metrów. TRIDENT będzie składał się z 1200 pionowo ustawionych lin o długości 700 metrów każda, znajdujących się w odległości 70–100 metrów od siebie. Na każdej z lin umieszczonych zostanie 20 cyfrowych modułów optycznych o wysokiej rozdzielczości. Cała instalacja będzie miała średnicę 4 kilometrów i obszar 12 kilometrów kwadratowych. Teleskop będzie monitorował 8 km3 wody w poszukiwaniu śladów neutrin. Urządzenie ma być znacznie bardziej czułe od IceCube. Jego twórcy wyliczają, że powinno ono odkryć neutrina z aktywnej galaktyki NGC 1068 w ciągu pierwszych 12 miesięcy pracy, podczas gdy IceCube potrzebuje 10 lat rejestrowania neutrin, by zarejestrować takie pochodzące ze wspomnianej galaktyki z poziomem ufności wynoszącym 4,2 sigma. Tymczasem o odkryciu można mówić przy poziomie 5 sigma. Z kolei dla krótkotrwałych źródeł neutrin, takich jak blazar TXS 0506+056, TRIDENT będzie w stanie wykryć sygnał z poziomem ufności wynoszącym 10 sigma, podczas gdy w roku 20018 poziom ufności wykrycia przez IceCube wyniósł 3,5 sigma. « powrót do artykułu
-
Dnia 4 maja 2022 misja InSight zarejestrowała najpotężniejsze znane nam trzęsienie na Marsie. Miało ono magnitudę 4,7, a wstrząsy przechodziły przez planetę przez co najmniej 6 godzin. Sygnał sejsmiczny podobny był do wcześniej zarejestrowanych trzęsień spowodowanych upadkiem meteorytu, więc naukowcy sądzili, że i to wydarzenie – oznaczone jako S1222a – było spowodowane upadkiem. Rozpoczęły się poszukiwania świeżego krateru. Po raz pierwszy w historii wszystkie pojazdy krążące wokół Marsa wzięły udział w tym samym projekcie badawczym. Mars jest co prawda mniejszy od Ziemi, ale ma podobną powierzchnię lądów, gdyż nie występują na nim oceany. Do przeszukania były 144 miliony kilometrów kwadratowych. W międzyczasie InSight zarejestrowała kolejnych 8 wstrząsów spowodowanych upadkiem meteoroidów. Dwa największe z nich utworzyły kratery o średnicy 150 metrów. Zatem krater powstały po S1222a powinien mieć co najmniej 300 metrów średnicy. Naukowcy szukali świeżego krateru tej wielkości. I po wielu miesiącach poszukiwań stwierdzili, że krateru takiego nie ma. Doszli więc do wniosku, że wydarzenie S1222a to wynik uwolnienia wielkich sił tektonicznych wewnątrz Marsa. A to wskazuje, że planeta jest bardziej aktywna, niż sądzono. Nadal uważamy, że obecnie na Marsie nie zachodzi żadna tektonika płyt, zatem wydarzenie to zostało prawdopodobnie wywołane uwolnieniem naprężeń w skorupie Marsa. Naprężenia te to wynik miliardów lat ewolucji, w tym schładzania się i kurczenia w różnym tempie różnych części planety. Wciąż nie wiemy, dlaczego w niektórych częściach Marsa naprężenia wydają się większe, niż w innych. Dzięki badaniu takich wydarzeń możemy lepiej zrozumieć, które części Marsa są bezpieczne dla ludzi, a których lepiej unikać, mówi doktor Benjamin Fernando z Uniwersytetu Oksfordzkiego. Szczegóły badań zostały opublikowane w artykule A tectonic origin for the largest marsquake observed by InSight, który ukazał się w Geophysical Research Letters. « powrót do artykułu
-
Kotik antarktyczny został niemal całkowicie wytępiony przez człowieka. Gdy ustały polowania, gatunek odrodził się. Teraz zaś ponownie notuje się szybki spadek jego populacji, a przyczyną znowu jest działalność człowieka. Badania populacji kotika antarktycznego, która niemal w całości żyje na Georgii Południowej, wykazały, że liczebność gatunku osiągnęła szczyt w 2009 roku, kiedy to na Ziemi żyło 3,5 miliona tych zwierząt. To bezpieczna liczba, chociaż i tak znacznie niższa od wcześniejszych szacunków. Teraz jednak specjaliści obawiają się, że liczba kotików gwałtownie spada. Naukowcy z British Antarctic Survey (BAS) przeprowadzili szczegółowe badania kotików żyjących na Bird Island, jednej z wysp w pobliżu Georgii Południowej. Wynika z nich, że ich liczba szybko spada, a ma to prawdopodobnie związek ze zmniejszonym dostępem do pożywienia. Nasze badania przynoszą i dobre i złe wieści. Dobra jest taka, że po wprowadzeniu zakazu polowań w XX wieku doszło do imponującego wręcz odrodzenia gatunku. Zła zaś jest taka, że w XXI wieku zaczęło dochodzić do zmian dostępności kryla na Oceanie Południowym, co ponownie sprowadziło zagrożenie na ten gatunek, mówi Jaume Forcada z BAS. Po niemal całkowitym wytępieniu przez człowieka gatunek odradzał się przez cały XX wiek. Jeszcze pod koniec ubiegłego stulecia liczebność kotika antarktycznego szacowano na 4,5–6,2 miliona osobników. Później okazało się, że szacunki były zbyt optymistyczne i w roku 2009 żyło 3,5 miliona kotików. Jednym z miejsc, gdzie gatunek odradzał się najszybciej, była Bird Island. Przeprowadzone niedawno badania wykazały, że od 2009 roku liczba zwierząt spada tam w tempie 7% rocznie. Obecnie jest ich tyle, co w latach 70. XX wieku, gdy gatunek się odradzał. Jeśli czynnik, który powoduje spadek populacji na Bird Island działa na wszystkie populacje Georgii Południowej, to również tam prawdopodobnie dochodzi do spadku populacji. To, co dzieje się na Bird Island może wskazywać, że cały gatunek znowu ma kłopoty, dodaje Forcada. Początkowo naukowcy sądzili, że problemem może być komercyjny połów kryla przez człowieka. Obecnie ludzie wyławiają rocznie około 500 000 ton kryla, co pozbawia niektóre gatunki zwierząt dostępu do wystarczających ilości pożywienia. Jednak okazało się, że nie to jest problemem w przypadku kotika. Wstępne analizy wskazują, że przyczyną jest spadek dostępności kryla, ale spowodowany jest on ogrzewaniem się oceanu. Tymczasem kryl stanowi do 80% diety kotika. Jego mniejsza dostępność oznacza, że na świat przychodzi mniej młodych, a rodzice mają coraz większe problemy, by je wykarmić. « powrót do artykułu
-
Neandertalczycy odziedziczyli co najmniej 6% swojego genomu od przedstawicieli nieznanej linii rozwojowej rodzaju Homo, donoszą uczeni z USA, Etiopii, Botswany, Tanzanii, Kamerunu i Chin. Wykazali oni, że przed 250 000 lat do Eurazji emigrowali przedstawiciele nieznanej linii człowieka i tam krzyżowali się z neandertalczykami. Ludzie ci wymarli, pozostawiając po sobie potomków z większością neandertalskich genów. Znaleźliśmy ślady, które świadczą o przepływie genów pomiędzy przodkami człowieka współczesnego a neandertalczykami. Grupa ta opuściła Afrykę 270–250 tysięcy lat temu. Byli oni w pewnej mierze kuzynami wszystkich współcześnie żyjących ludzi. Bardziej przypominali nas, niż neandertalczyków, mówi jeden z głównych autorów badań, Alexander Platt z Perelman School of Medicine. Naukowcy wyciągnęli powyższe wnioski porównując genom neandertalczyków do genomów współczesnych populacji żyjących w Afryce subsaharyjskiej. Obecnie uważa się, że krzyżowanie się pomiędzy H. neanderthalensis a H. sapiens zachodziło przede wszystkim na terenie Eurazji, dlatego też u mieszkańców Afryki nie powinno występować zbyt wiele genów neandertalczyków. Przed dwoma laty okazało się jednak, że mieszkańcy Afryki mają zadziwiająco dużo wspólnego z neandertalczykami. A obecne badania potwierdziły większy niż sądzono wpływ neandertalczyków na genom Afrykanów. Profesor Sarah Tishkoff z Penn University, postanowiła dowiedzieć się, jak bardzo rozpowszechnione jest neandertalskie DNA w Afryce Subsaharyjskiej. Przebadała ze swoim zespołem genom 180 osób z 12 populacji żyjących w Kamerunie, Botswanie, Tanzanii i Etiopii. W każdym z genomów uczeni skupili się na poszukiwaniu neandertalskiego DNA. Następnie porównali te dane z genomem neandertalczyka, który żył 120 000 lat temu. Na potrzeby badań uczeni stworzyli metodę statystyczną, dzięki której byli w stanie określić źródło neandertalskiego DNA w genomie subsaharyjskich populacji. Okazało się, że u wszystkich badanych osób znaleziono DNA przypominające DNA neandertalczyków, co pokazało, że jest to szeroko rozpowszechnione zjawisko. W większości przypadków było to DNA odziedziczone po dawnej linii ewolucyjnej człowieka współczesnego, która przekazała neandertalczykom swoje geny przed około 250 000 laty, po migracji z Afryki do Eurazji. Na tej podstawie można było stwierdzić, że około 6% neandertalskiego genomu pochodziło od człowieka współczesnego. U niektórych populacji subsaharyjskich zauważono dowody, że H. sapiens, który krzyżował się z neandertalczykami na terenie Eurazji, powrócił o Afryki. Obecnie najwięcej śladów tego powrotu występuje u Amharów w Etiopii i Fulanów w Kamerunie. Aż 1,5% genomu odziedziczyli oni po neandertalczykach. Badacze postanowili też sprawdzić, czy domieszka genomu H. sapiens była dla neandertalczyka korzystna czy też niekorzystna. Odkryli, że większość DNA H. sapiens znajdowała się w niekodujących regionach DNA neandertalczyków. To zaś wskazuje, że genom naszych przodków był usuwany z regionów kodujących genomu neandertalczyków, gdyż prawdopodobnie miał niekorzystny wpływ na ich przetrwanie. Podobny proces obserwujemy zresztą u współczesnych ludzi. Selekcja naturalna powoli usuwa DNA neandertalczyków z naszego genomu. Neandertalskie wersje genów działały świetnie u neandertalczyków. Ale gdy zostały wstawione do genomu H. sapiens, wywołały problemy. Zarówno H. sapiens jak i H. neanderthalensis stopniowo pozbywali się aleli drugiego gatunku. W ciągu 500 000 lat, kiedy to przodek neandertalczyka oddzielił się od przodka człowieka współczesnego i kiedy to genom człowieka został wprowadzony do genomu neandertalczyka, staliśmy się tak różnymi gatunkami, że – pomimo łatwości w krzyżowaniu się – hybrydy powstałe z połączenia H. sapiens i H. neanderthalensis nie radziły sobie zbyt dobrze. A to oznacza, że już wtedy zaszliśmy daleko na drodze ku utworzeniu różnych gatunków, mówi Platt. « powrót do artykułu
-
Naukowcy z założonego przez Uniwersytet Warszawski i Uniwersytet Oksfordzki Centrum Optycznych Technologii Kwantowych QOT zbudowali urządzenie, które dokonuje konwersji informacji kwantowej pomiędzy pojedynczymi fotonami mikrofalowymi a fotonami optycznymi. Nowa technologia może znaleźć zastosowanie podczas budowy kwantowego internetu i astronomii mikrofalowej. Przyszłe kwantowe systemy informatyczne będą potrzebowały możliwości konwersji informacji pomiędzy różnymi urządzeniami. Na przykład takimi pracującymi z fotonami optycznymi, a takimi pracującymi z fotonami z zakresu mikrofal. Operacje na pojedyncznych fotonach są trudne. Urządzenia, które je wykonują muszą działać z olbrzymią precyzją i nie powinni podczas konwersji informacji wprowadzać do niej zakłóceń. Dodatkowym problemem jest fakt, że fotony optyczne mają 10 000 razy większą energię niż fotony mikrofalowe. Niewiele ośrodków może jednocześnie pracować z jednymi i drugimi. W przyszłości możemy zaś mieć komputery kwantowe wykorzystujące mikrofale, a informacje pomiędzy nimi będą przesyłane za pomocą fotonów optycznych, gdyż przesyłanie na duże odległości fotonów kwantowych stanowi problem. Zatem potrzebne będzie tutaj urządzenie konwertujące informacje z fotonów mikrofalowych na optyczne i z powrotem. Z fotonami optycznymi i mikrofalowymi mogą oddziaływać atomy rydbergowskie. Można je uzyskać poprzez wzbudzenie elektronu walencyjnego za pomocą lasera. W ten sposób np. atom rubidu zwiększa swój rozmiar tysiąckrotnie i staje się bardzo czuły na promieniowanie mikrofalowe. Już wcześniej specjaliści pokazywali, jak dokonać konwersji mikrofalowo-optycznej w atomach rydbergowskich, jednak zaprezentowane techniki działały jedynie w niskich temperaturach dla laserowo schładzanych atomów w skomplikowanych pułapkach magnetooptycznych. Polscy uczeni jako pierwsi dowiedli, że konwersja taka może zajść również w temperaturze pokojowej dla swobodnego gazu atomowego zamkniętego w szklanej komórce. W ten sposób znacząco uprościli budowę całego układu, co pozwoli na jego miniaturyzację. Zaprezentowany przez nich system charakteryzuje się ponadto wyjątkowo niskim poziomem zakłóceń, dzięki czemu można pracować na pojedynczych fotonach. Jakby tego było mało, wynalazek z Uniwersytetu Warszawskiego może pracować bez przerwy. Nie wymaga bowiem specjalnego przygotowania atomów, co w innych technikach zabierało nawet 99% czasu pracy urządzenia. Ze szczegółami badań można zapoznać się na łamach Nature Photonics. « powrót do artykułu
-
Pewien detektorysta odkrył w niedługim odstępie czasu po dwóch stronach tej samej drogi w pobliżu Frinton-on-Sea w hrabstwie Essex dwa cenne obiekty - złoty pierścionek z mottem po francusku, a także zawieszkę z haczykiem z czasów Tudorów, która stanowiła ozdobę kobiecego stroju. Pierścionek z napisem „Je desir vous Ceruir” (Pragnę ci służyć) pochodzi z ok. 1400-1500 r. Poszczególne słowa rozdzielono motywem roślinnym. Po wewnętrznej stronie nie umieszczono żadnych zdobień. Pierścionek ma średnicę 19,4 mm i waży 2,13 g. Zawieszka datuje się na nieco późniejszy okres - ok. 1500-1600 r. Za jej pomocą rozdzielano prawdopodobnie warstwy spódnicy, tak by obie - wierzchnia i spodnia - były widoczne. Cytowana przez BBC historyczka Lori Rogerson tłumaczy, że choć pierścionek jest tak drobny, że pasuje wyłącznie na jej mały palec, był prawdopodobnie noszony przez mężczyznę. W tym okresie pierścionki były noszone na różnych stawach wszystkich palców, można je więc było [również] wkładać na staw międzypaliczkowy dalszy. Hasła w rodzaju „pragnę ci służyć” wpisywały się w późnośredniowieczną ideę „miłości dwornej” (fr. amour courtois, ang. courtly love). Trzeba zauważyć, że ktoś, kto mógł sobie pozwolić na złoty pierścionek, należał z pewnością do elity, która znała francuski. Rogerson podejrzewa, że pierścionek i zawieszka, znalezione przez detektorystę w odległości 50 m od siebie, zostały zgubione przez osobę, która chciała je ponownie wykorzystać. Obie ozdoby były bowiem w jakiś sposób uszkodzone - na zewnętrznej stronie pierścionka widnieje, na przykład, pęknięcie. Zakupem artefaktów jest zainteresowane muzeum z Essex. « powrót do artykułu
-
Rozwój najnowszych technologii bezprzewodowych, takich jak 5G czy LTE ludzie mogą w dużej mierze zawdzięczać masztom BTS. Nazywane również stacją bazową (ang. base transceiver station, BTS), są powszechnie wykorzystywane w systemach łączności bezprzewodowej, a także w telefonii mobilnej. To właśnie one w dużej mierze odpowiadają za to, że telefon może łączyć się z sieciami w sposób bezprzewodowy. Czym w takim razie są te konstrukcje, z czego się składają oraz w jaki sposób można sprawdzić, czy maszt BTS znajduje się w danej okolicy? Maszty BTS — czym są? Maszty BTS to elementy infrastruktury telekomunikacyjnej, które pełnią kluczową rolę w sieciach komórkowych. Maszty BTS są umieszczane na wieżach, budynkach lub innych strukturach i służą do przekazywania sygnałów radiowych między urządzeniami mobilnymi a centralnym systemem sieci komórkowej. Swoje skuteczne działanie zawdzięczają emisji fal elektromagnetycznych. Maszty BTS składają się z kilku istotnych komponentów, które razem tworzą niezawodny system komunikacji. Jednym z podstawowych elementów masztu BTS jest antena radiowa. To część masztu BTS, która emituje i odbiera sygnały radiowe. Anteny są zwykle mocowane na szczycie masztu i kierowane w różnych kierunkach, aby zapewnić szeroki zasięg komunikacji. Wnętrze masztu BTS zawiera urządzenia radiowe, które przetwarzają sygnały radiowe do i od urządzeń mobilnych. Te urządzenia sterują również mocą sygnału i zapewniają jego jakość. Maszty BTS posiadają również systemy kontroli i zarządzania, które monitorują działanie masztu oraz kontrolują ruch w sieci komórkowej. Te systemy pomagają w alokacji pasma szerokości radiowej dla różnych użytkowników. Nie można zapominać o zasilaniu. Maszty BTS są zasilane elektrycznie, dlatego mają systemy zapasowe, takie jak generatory lub baterie, aby utrzymać komunikację w przypadku awarii zasilania. Te wszystkie elementy sprawiają, że użytkownik może bez problemu połączyć się z siecią komórkową oraz korzystać z internetu w sposób bezprzewodowy. Jakie funkcje pełnią maszty BTS? Maszty BTS pełnią kluczowe funkcje w każdej sieci komórkowej - sprawiają, że połączenia za pomocą telefonu są możliwe i niezawodne. Maszty BTS odbierają sygnały radiowe od telefonów komórkowych, tabletów i innych urządzeń mobilnych, które się do nich podłączają. Po odebraniu sygnałów od urządzeń mobilnych, maszty BTS przekazują te sygnały do centrali operatora sieci komórkowej. Urządzenia te kontrolują również ruch w swoim obszarze działania. Zapewniają dostęp do sieci i zarządzają dostępnym pasmem szerokości radiowej, aby zapewnić równoczesną obsługę wielu użytkowników. Co równie istotne, maszty BTS umożliwiają zarówno rozmowy telefoniczne, jak i transmisję danych. Dzięki nim można dzwonić, wysyłać wiadomości tekstowe, przeglądać internet i korzystać z aplikacji mobilnych. Rozmieszczone na całym świecie, pozwalają utrzymywać połączenie z bliskimi, pracować zdalnie i pozostawać w kontakcie z resztą świata, co jest tak ważne w dzisiejszym świecie. Jak sprawdzić maszty BTS w okolicy? Aby mieć pewność, że rozmowa telefoniczna lub też połączenie za pomocą transmisji danych będzie w ogóle możliwe, warto wiedzieć, gdzie znajdują się te urządzenia. Jest to również niezwykle istotne podczas wybierania potencjalnego operatora. Z tego też powodu wiele osób zadaje sobie pytanie, jak sprawdzić maszty BTS w okolicy. W tym celu w 2016 roku powstała wyszukiwarka UKE, która jest dostępna dla każdego użytkownika sieci. Dodatkowo została ona zmodernizowana w 2018 roku. Jej głównym celem jest udostępnianie informacji o infrastrukturze telekomunikacyjnej, w tym również stacjach BTS. Dużo informacji na temat tego, jak znaleźć maszty BTS w okolicy, można znaleźć na stronie https://isportal.pl/maszty-bts-mapa-lokalizacji/. Witryna ta udostępnia popularne wyszukiwarki stacji BTS, dzięki czemu użytkownik może dowiedzieć się, czy w jego okolicy dany operator udostępnia swoje usługi. Ponadto na portalu IS Portal można znaleźć znacznie więcej aktualności ze świata technologii, sieci komórkowych oraz wielu innych zagadnień. « powrót do artykułu
-
Insulinooporność: Kluczowe Badania dla Twojego Zdrowia
KopalniaWiedzy.pl dodał temat w dziale Artykuły
Insulinooporność jest stanem, w którym komórki organizmu przestają reagować na insulinę, co może prowadzić do wzrostu poziomu cukru we krwi. To poważne schorzenie może mieć wpływ na nasze zdrowie, dlatego ważne jest szybkie rozpoznanie i odpowiednie leczenie. W jaki sposób można to zrobić? Przeczytaj, aby dowiedzieć się o kluczowych badaniach, które mogą pomóc zidentyfikować insulinooporność. Badanie poziomu glukozy na czczo: To podstawowe badanie, które mierzy stężenie cukru we krwi na czczo. Jest to pierwszy krok w diagnostyce insulinooporności. Pomiaru można dokonać z krwi włośniczkowej przy użyciu glukometru w warunkach domowych lub z krwi żylnej w laboratorium. Warto jednak zaznaczyć, że glukometry cechują się pewnym poziomem błędu dlatego każdy wynik poza normą należy potwierdzić badaniem z krwi żylnej. Wartości powyżej lub poniżej normy mogą wskazywać na problemy z glukozą i insuliną. Badanie insuliny na czczo: Pomaga w ocenie, jak organizm wytwarza i wykorzystuje insulinę. Wykonywanie jest w laboratoriach analitycznych z krwi żylnej. Wzrost poziomu insuliny może sugerować insulinooporność. Doustny test obciążenia glukozą (OGTT): Polega na podaniu glukozy doustnie po wcześniejszym pomiarze poziomu glukozy na czczo. Następnie mierzone są poziomy glukozy po określonym czasie. OGTT dostarcza informacji o reakcji organizmu na glukozę. W tym samym czasie można mierzyć poziomy insuliny, aby ocenić reakcję insuliny na podaną dawkę glukozy. Pomiar insuliny w teście OGTT nie jest wymagany, aczkolwiek jest zalecany, gdyż takie badanie dostarcza więcej informacji o zdrowiu pacjenta. Hemoglobina A1c (HbA1c): To badanie pokazuje średni poziom glukozy we krwi przez ostatnie 2-3 miesiące. Jest bardzo przydatne w monitorowaniu długoterminowej kontroli cukrzycy. Według najnowszych danych PTD wynik HbA1c > 6,5% upoważnia do rozpoznania cukrzycy. Badanie lipidogramu: Ocenia poziomy cholesterolu i triglicerydów. Insulinooporność często idzie w parze z zaburzeniami lipidowymi, co zwiększa ryzyko schorzeń sercowo-naczyniowych. Pomiar obwodu talii i bioder: To proste badanie, które pozwala ocenić rozkład tkanki tłuszczowej w organizmie. Nadmiar tłuszczu w okolicach brzucha może wskazywać na insulinooporność. Ocena stanu hormonalnego: Badania hormonalne mogą dostarczyć informacji na temat innych ewentualnych problemów, takich jak zespół policystycznych jajników (PCOS), które mogą być związane z insulinoopornością. Badania przesiewowe innych schorzeń metabolicznych: Insulinooporność może być częścią szerszego spektrum zaburzeń metabolicznych. Warto rozważyć badania, które wykluczą inne schorzenia, takie jak niedoczynność tarczycy. Warto pamiętać, że interpretację wyników powinien przeprowadzić lekarz lub specjalista, który na podstawie kompleksowej analizy pomoże w ustaleniu dalszego planu leczenia. Pamiętaj, że wczesne rozpoznanie insulinooporności jest kluczowe dla skutecznego leczenia i utrzymania zdrowia. BIBLIOGRAFIA: Solnica B., Dembińska-Kieć A., W. Naskalski J. (2017) Diagnostyka laboratoryjna z elementami biochemii klinicznej. Wrocław: Edra Urban & Partner Current Topics in Diabetes 2022 | Curr Top Diabetes, 2022; 2 (1): 1–134 Dong XL, Liu Y, Sun Y, Sun C, Fu FM, Wang SL, Chen L. Comparison of HbA1c and OGTT criteria to diagnose diabetes among Chinese. Exp Clin Endocrinol Diabetes. 2011 Jun;119(6):366-9. doi: 10.1055/s-0030-1267183. Epub 2010 Nov 19. PMID: 21104578. « powrót do artykułu -
Epoka podboju kosmosu pozostawia ślady w jednej z najbardziej odizolowanych części atmosfery, stratosferze. A ślady te mogą mieć wpływ na klimat oraz warstwę ozonową. Takie wnioski płyną z badań prowadzonych za pomocą samolotów latających na wysokości 19 kilometrów na Ziemią. W znajdujących się tam aerozolach naukowcy znaleźli duże ilości metali, które prawdopodobnie pochodzą z coraz częstszych startów oraz powrotów na Ziemię pojazdów kosmicznych. Metale te prowadzą do zmian procesów chemicznych zachodzących w atmosferze, a to może mieć wpływ zarówno na samą atmosferę, jak i na warstwę ozonową. W obszarze, który uznawaliśmy za dziewiczy, znaleźliśmy metale pochodzące z działalności człowieka. A jeśli coś się zmienia w stratosferze, która jest bardzo stabilnym regionem atmosfery, to należy się temu bliżej przyjrzeć, mówi profesor Dan Cziczo, dyrektor Wydziału Ziemi, Atmosfery i Nauk Planetarnych na Purdue University. Cziczo od dziesięcioleci specjalizuje się w badaniu atmosfery. Zespół naukowy, na którego czele stał profesor Dan Murphy z Purdue i NOAA, odkrył w stratosferze ponad 20 pierwiastków, a ich wzajemny stosunek do siebie odzwierciedla stosunek pierwiastków wykorzystywanych w stopach służących do budowy pojazdów kosmicznych. Okazało się też, że ilość litu, aluminium, miedzi i ołowiu pochodzących z pojazdów, które powracają w ziemską atmosferę, znacznie przewyższa naturalne ilości tych pierwiastków w pyle kosmicznym. Niemal 10% cząsteczek kwasu siarkowego, które chronią warstwę ozonową, zawierało aluminium i inne metale pochodzące z pojazdów wysyłanych przez nas w kosmos. Liczba takich pojazdów będzie gwałtownie rosła w najbliższych dekadach, dlatego też naukowcy szacują, że aż połowa cząsteczek kwasu siarkowego będzie zawierało metale. Nie wiadomo, jaki będzie to miało wpływ na warstwę ozonową, a w konsekwencji na życie na Ziemi. Naukowcy od dawna podejrzewali, że loty kosmiczne mogą mieć wpływ na górne warstwy atmosfery, jednak ich badanie jest bardzo trudne. W ramach prowadzonego przez NASA projektu Airborne Science Program Murphy i jego zespół latali samolotem na wysokości 19 kilometrów nad Alaską, a Cziczo i jego grupa prowadzili takie same badania nad kontynentalnymi USA. Stratosfera to odległa od powierzchni Ziemi, stabilna część atmosfery. Zawiera ona również warstwę ozonową, chroniącą planetę przed szkodliwym promieniowaniem. Powodem, dla którego postanowiono bliżej przyjrzeć się temu, co dzieje się w stratosferze, były... meteory. Bardzo często meteor całkowicie spala się w atmosferze, więc nie zostaje nawet meteorytem [pozostałością, która spadła na Ziemię – red.]. Zatem materiał, z którego zbudowany był meteor pozostaje w atmosferze w formie jonów. Tworzą one bardzo gorący gaz, który zaczyna się schładzać i kondensować w molekuły, a one opadają do stratosfery. Molekuły te łączą się ze sobą, tworząc coś, co nazywamy dymem meteorowym. W ostatnich czasach naukowcy zaczęli zauważać, że sygnatury chemiczne tych pozostałości po meteorach zaczęły się zmieniać. To spowodowało, że zapytaliśmy się, „Co się zmieniło”, gdyż skład meteorów pozostaje ten sam. Okazało się, że zmieniła się liczba wysyłanych przez ludzi pojazdów kosmicznych, wyjaśnia Cziczo. Obecnie ludzkość wystrzeliwuje tak wiele pojazdów w przestrzeń kosmiczną, że o zdecydowanej większości startów w ogóle media nie wspominają. Wszystkie te pojazdy wystrzeliwane są za pomocą rakiet nośnych, które następnie opadają do atmosfery i tam płoną. Do atmosfery trafiają też stare i uszkodzone satelity. By wysłać coś na orbitę, potrzebujemy dużych ilości paliwa oraz różnych urządzeń. Obecnie tak wiele rakiet leci w górę i opada w dół, tak wiele satelitów opada w kierunku Ziemi, że staje się to widoczne w stratosferze w postaci cząsteczek aerozoli, wyjaśnia Cziczo. Masa tych wszystkich pojazdów jest już tak duża, że zaczyna rywalizować z masą naturalnego materiału trafiającego do atmosfery z przestrzeni kosmicznej. Zmiany w atmosferze są trudne do badania i zrozumienia. Jednak nasze badania pokazują, że wpływ działań człowieka i lotów kosmicznych na planetę może być znaczący. Być może bardziej znaczący niż jeszcze sobie wyobrażamy. Zrozumienia naszej planety to jedno z najważniejszych zadań nauki, podsumowuje uczony. « powrót do artykułu
-
Nowe prawo ewolucji obejmuje nie tylko organizmy żywe
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Dziewięciu uczonych z Carnegie Institution of Science, California Institute of Technology, Cornell University oraz filozofów z University of Colorado, zaproponowało istnienie nowego prawa ewolucji. Obejmuje ono nie tylko układy biologiczne. Zdaniem badaczy, ewolucja jest czymś powszechnie występującym w złożonych systemach, które: - składają się z różnych elementów jak atomy, molekuły czy komórki i mogą być stale porządkowane w różny sposób; - podlegają procesom naturalnym, co oznacza, że można je porządkować na nieskończoną liczbę sposobów; - jedynie niewielka część z tych porządków może przetrwać, gdyż służą jakiemuś celowi. Niezależnie od tego, czy mamy do czynienia z systemem żywym czy nieożywionym, gdy jego nowa konfiguracja dobrze działa i poprawia funkcjonowanie całości, zachodzi ewolucja. Jak mówią autorzy nowej koncepcji, system ewoluuje, gdy wśród wielu różnych konfiguracji wybierana jest jedna lub więcej ze względu na spełniane funkcje. Ważnym elementem naszej tego nowego prawa naturalnego jest selekcja ze względu na funkcję mówi Michael Wong. Darwin, w dziedzinie biologii, uznał, że funkcją tą jest przetrwanie gatunku, a to oznacza zdolność osobnika do przeżycia na tyle długo, by mieć potomstwo. Autorzy nowych badań zauważyli, że w naturze występują co najmniej trzy rodzaje funkcji. Najbardziej podstawowa z nich to stabilność – stabilne układy atomów i molekuł są „selekcjonowane” do dalszego działania. Pozytywnej selekcji ulegają też dynamiczne systemy z zapewnionymi ciągłymi dostawami energii. W końcu trzecią – i najbardziej interesującą funkcją – jest wybór systemów ze względu na to, że są nowe. Oznacza to, że istnieje ewolucyjna tendencja do badania nowych konfiguracji systemów, co czasem może prowadzić do niezwykłych zachowań i pojawienia się zaskakujących cech. Dysponujemy wieloma przykładami takich nowości ewolucyjnych. Fotosynteza na dobre zagościła się w biologii, gdy komórki nauczyły się korzystać z energii światła. Życie wielokomórkowe zaczęło ewoluować, gdy pojedyncze komórki nauczyły się współpracy, a gatunki pojawiły się, gdy pojawiły się nowe zachowania, jak pływanie czy chodzenie. Podobną ewolucję widzimy w świecie minerałów. Najstarszymi minerałami są te, które wykazują najbardziej stabilne ułożenie atomów. Te pierwotne minerały stanowiły podstawę do pojawienia się kolejnych pokoleń minerałów, a te z kolei brały udział w postaniu życia. Ewolucja minerałów jest splątana z ewolucją systemów biologicznych. W końcu organizmy żywe wykorzystują minerały do budowy skorup, kości czy zębów. Tworzącą się Ziemię budowało zaledwie około 20 minerałów. Obecnie znamy ich niemal 6000, a powstawały one przez ostatnich 4,5 miliarda lat w wyniku złożonych procesów fizycznych, chemicznych i biologicznych. Uczeni zwracają też uwagę na gwiazdy. Pierwsze z nich powstały wkrótce po Wielkim Wybuchu i składały się z helu oraz wodoru. Pierwiastki te zostały wykorzystane do stworzenia około 20 cięższych pierwiastków, dzięki czemu kolejne pokolenie gwiazd mogło wytworzyć już 100 pierwiastków. Karol Darwin wyjaśnił nam, jak ewoluują rośliny i zwierzęta poddane selekcji naturalnej. Doszliśmy do wniosku, że teoria ewolucji Darwina to szczególny, bardzo ważny przypadek w znacznie szerszym zjawisku. Zauważyliśmy, że wybór ze względu na funkcję napędza w różnym stopniu ewolucję gwiazd, atomów, minerałów i wiele innych systemów, gdzie różne konfiguracje poddawane są presji selekcyjnej, dodaje Robert Hazen. Artykuł opublikowany na łamach PNAS, pozwala lepiej zrozumieć, jak mogą ewoluować różne systemy. Za miarę stopnia zdolności do ewolucji autorzy proponują „potencjalną złożoność” czy „przyszłą złożoność”. Daje też wgląd w to, w jakim stopniu można sztucznie wpłynąć na ewolucję różnych systemów. Sugeruje, że tempo ewolucji można przyspieszyć na co najmniej trzy sposoby: zwiększając liczbę lub różnorodność czynników napędzających zmiany, zwiększając liczbą różnych konfiguracji systemu i/lub zwiększając presję selekcyjną. Na przykład w przypadku układów chemicznych można wpływać na ich ewolucję manipulując częstością cykli ogrzewania/chłodzenia czy moczenia/suszenia. Badania pozwalają też na lepsze zrozumienie sił stojących za powstawaniem złożonych zjawisk we wszechświecie. W końcu autorzy zwracają uwagę, że pewne elementy ewolucji organizmów żywych są podobne do ewolucji materii nieożywionej, a celem przyszłych badań powinno być rozstrzygnięcie kwestii, czy pomiędzy systemami żywymi a nieożywionymi istnieje różnica w przetwarzaniu informacji dotyczących funkcjonalności. W poszukiwaniu życia pozaziemskiego z pewnością pomoże odpowiedź na pytanie, czy istnieje jakaś zasadnicza różnica pomiędzy ewolucją organizmów żywych, a świata nieożywionego i czy będziemy potrafili zidentyfikować różnice pomiędzy warunkami ewolucji świata nieożywionego, a tymi niezbędnymi do ewolucji organizmów żywych. « powrót do artykułu