Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36955
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Powszechną praktyką jest leczenie ostrego bólu za pomocą leków przeciwzapalnych i sterydów. Najnowsze badania wskazują jednak, że może być to bardzo krótkowzroczne i szkodliwe podejście. Badania przeprowadzone przez międzynarodowy zespół wskazują bowiem, że stan zapalny zapobiega pojawieniu się chronicznego bólu. Zatem jego zwalczanie może doprowadzić do tego, że ulżymy pacjentowi w chwilowym bólu, ale pojawi się u niego ból chroniczny. Od dziesięcioleci standardową praktyką medyczną jest leczenie bólu za pomocą środków przeciwzapalnych. Odkryliśmy, że takie pozbycie się bieżącego bólu może prowadzić do długoterminowych problemów, mówi profesor Jeffery Mogil z McGill University. Naukowcy z Kanady, Włoch, Holandii, Szwajcarii i USA zbadali mechanizmy bólu u ludzi i myszy. Stwierdzili, że neutrofile, komórki układu odpornościowego pomagające w zwalczaniu infekcji, odgrywają kluczową rolę w walce z bólem. Przeanalizowaliśmy geny osób cierpiących na bóle krzyża i zauważyliśmy zachodzące z czasem zmiany w genach u ludzi, którzy bólu się pozbyli. Wydaje się, że najważniejszymi zmianami były te zachodzące we krwi, szczególnie w neutrofilach, mówi profesor Luda Diatchenko. Neutrofile dominują we wczesnych etapach stanu zapalnego i przygotowują grunt pod naprawę uszkodzonej tkanki. Stan zapalny pojawia się z konkretnego powodu i zakłócanie tego procesu wydaje się niebezpieczne, dodaje profesor Mogil. Gdy naukowcy w ramach eksperymentów zablokowali działanie neutrofili u myszy, ból trwał nawet 10-krotnie dłużej niż wówczas, gdy pozwolono neutrofilom działać. Gdy leczono u nich ból za pomocą środków przeciwzapalnych i sterydów, jak diklofenak czy deksametazon, uzyskano podobne wyniki, chociaż ból ustępował wcześniej. Wyniki badań na myszach potwierdzono następnie analizą danych o 500 000 mieszkańców Wielkiej Brytanii. Okazało się, że osoby, które przyjmowały środki przeciwzapalne w celu likwidowania bólu z większym prawdopodobieństwem doświadczały bólów 2 do 10 lat później, niż osoby nie przyjmujące leków przeciwzapalnych czy sterydów. Wyniki naszych badań powinny skłonić nas do przemyślenia sposobów radzenia sobie z ostrym bólem. Na szczęście ból można likwidować w inny sposób, niż zakłócając przebieg procesu zapalnego, stwierdza Massimo Allegri z Policlinico di Monza. Naukowcy mówią, że należy przeprowadzić testy kliniczne, podczas których trzeba dokonać bezpośredniego porównania skutków przyjmowania środków przeciwzapalnych ze środkami, które znoszą ból, ale nie zakłócają stanu zapalnego. Szczegółowy opis badań znajdziemy na łamach Science Translational Medicine. « powrót do artykułu
  2. Po raz pierwszy udało się zsyntetyzować i jednocześnie przeanalizować materiał poddany ciśnieniu przekraczającemu terapaskal (1000 gigapaskali). Tak gigantyczne ciśnienie, trzykrotnie większe niż ciśnienie w jądrze Ziemi, możemy spotkać np. w jądrze Urana. Naukowcy z Uniwersytetu w Bayreuth we współpracy z badaczami z Niemiec, Szwecji, Francji i USA opisali na łamach Nature metody uzyskania i analizy materiału poddanego tak wysokiemu ciśnieniu. Analizy teoretyczne przewidują pojawianie się niezwykłych struktur i właściwości w materiałach poddanych bardzo wysokiemu ciśnieniu. Jednak dotychczas przewidywania te udawało się eksperymentalnie zweryfikować przy ciśnieniu nie przekraczającym 200 megapaskali. Niemożność przekroczenia granicy 200 GPa wynikała z jednej strony z dużej złożoności technicznej procesu uzyskiwania wysokich ciśnień, z drugiej zaś – z braku metod jednoczesnej analizy materiału poddanego tak wysokiemu ciśnieniu. Opracowana przez nas metoda pozwala – po raz pierwszy – na syntetyzowanie nowego materiału przy ciśnieniu przekraczającym terapaskal i analizowaniu go in situ, to znaczy w czasie trwania eksperymentu. W ten sposób widzimy nieznane dotychczas stany, właściwości i struktury krystaliczne, które mogą znacząco poszerzyć nasze rozumienie materii jako takiej. Możemy uzyskać w ten sposób wiedzę przydatną w eksploracji planet typu ziemskiego oraz przy syntezie materiałów, które wykorzystamy w technologiach przyszłości, mówi profesor doktor Leonid Durovinsky z Uniwersytetu w Bayreuth. Naukowcy uzyskali mieszankę renu z azotem i zsyntetyzowali azotek renu (Re7N3). Związki te uzyskali w dwustopniowej komorze diamentowej podgrzewanej za pomocą laserów. Do pełnego scharakteryzowania materiałów wykorzystano metodę rozpraszania rentgenowskiego. Dwa i pół roku temu byliśmy bardzo zaskoczeni, gdy udało się nam uzyskać supertwardy metaliczny przewodnik z renu i azotu, który mógł wytrzymać niezwykle wysokie ciśnienie. jeśli w przyszłości będziemy mogli wykorzystać krystalografię wysokociśnieniową w zakresach terapaskali, możemy dokonać kolejnych zadziwiających odkryć. Otworzyliśmy szeroko drzwi do kreatywnych badań nad materiałami, które pozwolą na stworzenie i zwizualizowanie niezwykłych struktur pod ekstremalnym ciśnieniem, dodaje profesor doktor Natalia Dubrovinskaia z Uniwersytetu w Bayreuth. « powrót do artykułu
  3. Dr Paweł Krzyżek z Katedry i Zakładu Mikrobiologii Uniwersytetu Medycznego im. Piastów Śląskich we Wrocławiu zbada, co powoduje antybiotykooporność Helicobacter pylori, a więc patogenu odgrywającego kluczową rolę w rozwoju stanów zapalnych żołądka, wrzodów żołądka i dwunastnicy, a także nowotworów żołądka. Ważną częścią projektu będzie analiza biofilmu. Jak podkreśla dr Krzyżek, rosnąca oporność H. pylori jest wynikiem niewłaściwego stosowania środków przeciwdrobnoustrojowych. Z drugiej strony do problemów związanych z leczeniem zakażeń tą bakterią przyczyniają się 1) jej zdolność do tworzenia biofilmu (wielokomórkowej struktury otoczonej grubą warstwą macierzy), 2) możliwość zmiany morfologii z typowej dla H. pylori formy spiralnej w mniej wrażliwą na antybiotyki formę sferyczną oraz 3) wydzielanie pęcherzyków błonowych, czyli struktur pozakomórkowych, które aktywnie usuwają substancje przeciwdrobnoustrojowe z wnętrza komórek i stabilizują architekturę biofilmu. W ramach swojego projektu dr Krzyżek chce prześledzić dynamikę zmian adaptacyjnych (przystosowawczych) szczepów H. pylori podczas ekspozycji na najważniejsze stosowane obecnie antybiotyki: klarytromycynę, metronidazol i lewofloksacynę. Na potrzeby badań naukowiec sformułował dwie hipotezy główne: 1) produkcja biofilmu przy wystawieniu na działanie antybiotyków jest intensywniejsza u szczepów wielolekoopornych H. pylori niż u szczepów wrażliwych lub z pojedynczą opornością; 2) wystawienie szczepów H. pylori na podprogowe stężenia antybiotyków przyczynia się do szeregu zmian przystosowawczych zależnych od użytego antybiotyku. W pierwszym etapie naukowiec będzie prowadził hodowle mikrobiologiczne i analizował tworzenie biofilmu w warunkach stacjonarnych. W kolejnym chce potwierdzić uzyskane wyniki w warunkach przepływowych. W tym celu zastosuje automatyczny system Bioflux; pozwoli on na badanie wzrostu bakteryjnego w warunkach kontrolowanego przepływu medium i antybiotyków. Co ważne, przypomina to warunki panujące w naszym organizmie. W tym miejscu warto nadmienić, że badania nad tworzeniem biofilmu przez H. pylori w warunkach przepływu medium mają charakter wysoce innowacyjny i po raz pierwszy na świecie zostały wykonane przez zespół badawczy pod moim kierownictwem - przypomniał dr Krzyżek. Zespół Krzyżka wykona analizy biofilmu stosując wiele selektywnych barwników, dzięki którym można będzie wizualizować poszczególne komponenty oraz przeprowadzi oceny jego parametrów fizycznych. Dzięki temu możliwa będzie ocena zmian zachodzących w biofilmie pod wpływem stresu powodowanego przez obecność antybiotyków. W kolejnym etapie badań zespół zajmie się oceną jakościowo-ilościową pęcherzyków błonowych. Badania te będą prowadzone we współpracy z zespołem doktor Rosselli Grande z Uniwersytetu „Gabriele d'Annunzio” we Włoszech. To jeden z dwóch zespołów na świecie, który specjalizuje się w tematyce pęcherzyków błonowych H. pylori. Głównym celem doktora Krzyżka jest poszerzenie wiedzy na temat mechanizmów adaptacyjnych H. pylori oraz nabywania antybiotykooporności przez ten patogen. Dzięki temu możliwe będzie opracowanie lepszych terapii do walki z tą bakterią. « powrót do artykułu
  4. Zdania na temat zaszycia alkoholowego są podzielone, nawet wśród specjalistów. Jedni uważają tą metodę za skuteczne wsparcie leczenia alkoholizmu, z kolei inni uważają ją za przeżytek. Gdzie leży prawda? Okazuje się, że zaszycie alkoholowe może rzeczywiście bardzo ułatwić uzyskanie długotrwałej abstynencji, jednak muszą być ku temu spełnione pewne warunki. Jakie? Tego dowiesz się czytając nasz artykuł, w którym omawiamy podstawowe informacje na temat zaszycia alkoholowego. Wszywka alkoholowa – metoda z wieloletnią tradycją Czy wiesz, że od odkrycia właściwości disulfiramu, czyli substancji aktywnej wszywki, mija już prawie 80 lat? Lek ten został odkryty w 1948 roku przez duńskiego lekarza Erika Jacobsena, a już kilka lat później używany był w wielu krajach Europy, jako lek wspomagający leczenia choroby alkoholowej. Popularność zaszycia alkoholowego była ogromna – w końcu metoda ta uniemożliwiała spożycie alkoholu nawet przez kolejne 10 miesięcy. Na czym dokładnie polega jej działanie? Wszywka alkoholowa to nic innego, jak jałowe tabletki zawierające disulfiram, które przeznaczone są do zaszycia pod skórą. Umieszczane są one w obrębie tkanki łącznej, gdzie powoli uwalniają lek do krwiobiegu. Sam disulfiram oddziałuje na metabolizm alkoholu, hamując go w najważniejszym etapie. Lek ten uniemożliwia rozkład aldehydu octowego przez dehydrogenazę alkoholową. Sprawia to, że spożycia nawet niewielkiej ilości alkoholu skutkuje nagłym wzrostem stężenia aldehydu octowego we krwi, co wywołuje szereg objawów związanych z lekkim zatruciem. Nieprzyjemne dolegliwości trwają nawet kilka godzin po kontakcie z alkoholem i obejmują zazwyczaj: •     uderzenia gorąca i nadmierną potliwość; •     zaczerwienienie twarzy; •     bóle i zawroty głowy; •     nudności i wymioty; •     lęk i niepokój; •     spadek ciśnienia tętniczego; •     przyspieszenie pracy serca. Czy zaszycie alkoholowe to metoda dla każdego? Masz problemy z alkoholem i wydaje Ci się, że wszywka alkoholowa to idealne rozwiązanie? Nie tak szybko! Zaszycie alkoholowe nie jest tak cudownym lekiem na alkoholizm, jak niegdyś uważano. Metoda ta nie wpływa na przyczyny rozwoju choroby alkoholowej, a jej działanie skupia się głównie na wytworzeniu w chorym lęku przed negatywnymi skutkami sięgnięcia po kieliszek. Oznacza to, że chory, po minięciu aktywności wszywki alkoholowej, nierzadko wraca do swojego nałogu. Czy zatem zaszycie alkoholowe ma jakiś sens? Specjaliści wskazują, że metoda ta dobrze sprawdza się jako element wspierający terapię uzależnień. Wszywka alkoholowa jest pomocna szczególnie w początkowych etapach leczenia, gdy chorzy mają duży problem z utrzymaniem abstynencji. Osoby decydujące się na zaszycie alkoholowe powinny podejmować tą decyzję samodzielnie, posiadać świadomość swojej choroby, a także motywację do walki z nią. Zaszycie alkoholowe w Warszawie – postaw na profesjonalną pomoc Podejmujesz samodzielne próby walki ze swoim uzależnieniem? Nie warto, pomoc specjalistów daje Ci o wiele większą szansę na sukces. To Twoje pierwsze kroki ku trzeźwości i jest Ci wyjątkowo ciężko? Jeśli myślisz, że zaszycie alkoholowe ułatwi Twoje leczenie, możesz zgłosić się do KacDoktora. To firma z wieloletnim doświadczeniem zarówno we wszywaniu esperalu, jak i detoksie alkoholowym. Pracujący w niej lekarze i ratownicy medyczni dbają nie tylko o bezpieczeństwo pacjentów, ale także miłą i komfortową atmosferę. Jak można skorzystać z usług KacDoktora? Zaszyć się możesz w nowoczesnym gabinecie w centrum Warszawy, gdzie zajmie się Tobą doświadczony chirurg. Jeśli jednak nie masz czasu bądź siły na wizytę stacjonarną, zawsze możesz skorzystać z opcji wizyty domowej. Wystarczy, że skontaktujesz się z firmą telefonicznie lub za pośrednictwem formularza internetowego, a specjalista przyjedzie pod wskazany przez Ciebie adres na terenie Warszawy i okolicznych miejscowości. Nie musisz się przy tym martwić zaciekawionymi spojrzeniami czy złośliwymi plotkami – pracownik KacDoktora zadba o pełną dyskrecję. Nie czekaj aż nałóg zniszczy Twoje życie! Zaszycie alkoholowe pomoże Ci postawić pierwsze kroki ku trwałej trzeźwości! « powrót do artykułu
  5. Wiele gatunków zwierząt podszywa się pod inne gatunki, na przykład po to, by odstraszyć potencjalnych drapieżników. Zwykle w ten sposób przekazują sygnały wizualne. Na przykład wąż z gatunku Lampropeltis elapsoides jest – jak wszystkie lancetogłowy – niejadowity. Jednak ubarwieniem i wzorem przypomina jadowitą koralówkę arlekin. Teraz naukowcy odkryli pierwszy przypadek ssaka, który wydaje dźwięki podobne do owadów, by uniknąć ataku ze strony drapieżnika. Gdy myślimy o mimikrze, pierwsze co przychodzi do głowy, jest kolor. Jednak w tym przypadku główną rolę odgrywa dźwięk, mówi Danilo Russo, ekolog z Uniwersytetu Neapolitańskiego im. Fryderyka II. Jest on współautorem badań, w ramach których zauważono, że nocek duży wydaje odgłosy podobne do odgłosów szerszenia, by odstraszyć sowy. Nocki nie tylko używają echolokacji podczas polowań, ale też komunikują się między sobą za pomocą szerokiego wachlarza dźwięków. Russo, który badał je na potrzebny pewnego projektu naukowego, zauważył, że schwytane nietoperze wydają pod wpływem stresu dźwięk podobny do brzęczenia szerszenia. Uczony wraz z kolegami rozpoczął więc nowy projekt badawczy, w ramach którego porównał dźwięki wydawane przez szerszenie z dźwiękami wydawanymi przez zestresowane nocki. Większość częstotliwości nie była do siebie zbyt podobna. Jednak gdy naukowcy porównali tylko te częstotliwości, które słyszą sowy – jedne z głównych wrogów nocków – okazało się, że dźwięki są bardzo do siebie podobne. Chcąc sprawdzić swoje podejrzenia, naukowcy odtwarzali trzymanym w niewoli sowom dźwięki wydawane zazwyczaj przez nietoperze. Ptaki zbliżały się wówczas do głośników. Gdy jednak z głośników dobiegały dźwięki wydawane przez szerszenie, sowy zwykle się odsuwały. wiele sów odsuwało się również wtedy, gdy z głośników płynęły dźwięki zestresowanych nocków. Obserwacja taka potwierdza podejrzenie, że nocki – naśladując szerszenie – próbują odstraszyć sowy. Akustyczne podszywanie się przez nocki pod szerszenie ma sporo sensu. Jako, że latają one w nocy mimikra za pomocą kolorów zapewne by nie zadziałała. Wydawanie odpowiednich dźwięków może zaś uratować nockowi życie, gdyż wiadomo, że sowy starają się unikać szerszeni. « powrót do artykułu
  6. Zdolność kredytowa to jeden z terminów, z którymi można się zetknąć, starając się o kredyt czy pożyczkę z firmy pożyczkowej. Czym jest zdolność kredytowa i jak ją wyliczyć? Podpowiadamy też, co zrobić, gdy zdolność kredytowa jest powodem odrzucenia wniosku. Zdolność kredytowa 2022 – jak liczą ją banki? Podmioty z sektora finansowego udzielające pożyczek czy kredytów są zobowiązane do sprawdzenia zdolności kredytowej klienta, który złożył wniosek o taki produkt. Jak należy rozumieć termin „zdolność kredytowa”? Z ustawy Prawo bankowe wynika, że jest to zdolność do spłaty zaciągniętego kredytu wraz z odsetkami w terminach zapisanych w umowie. Aby ocenić zdolność kredytową klienta, bank bierze pod uwagę jego aktualną sytuację finansową. To, jak wnikliwa będzie ta procedura, zależy od kilku czynników – m.in. wysokości kwoty, o jaką klient wnioskował oraz tego, czy jest on klientem danego banku. Jeżeli kwota jest drobna lub bank prowadzi dla klienta rachunek bankowy, to dostarczenie dodatkowych dokumentów może nie być konieczne. Zdolność kredytowa 2022 – co podlega sprawdzeniu przez instytucję finansową: •    Dochód netto •    Koszty utrzymania •    Zobowiązania finansowe (np. posiadane już kredyty) •    Dotychczasowa historia kredytowa •    Sytuacja rodzinna •    Wykształcenie, wykonywany zawód •    Posiadany majątek Jednocześnie banki mogą mieć różne procedury wewnętrzne. Aby możliwe było szybkie udzielenie odpowiedzi klientowi, proces ustalania zdolności kredytowej jest zautomatyzowany – do jej obliczenia wykorzystywany jest kalkulator zdolności kredytowej. Kalkulator zdolności kredytowej – jak sprawdzić swoją zdolność kredytową? Przed złożeniem wniosku o kredyt lub pożyczkę chcesz orientacyjnie sprawdzić swoją zdolność kredytową? Służy do tego kalkulator zdolności kredytowej. Proste w obsłudze narzędzie znajdziesz pod tym adresem: https://www.czerwona-skarbonka.pl/zdolnosc-kredytowa/. Jak skorzystać z kalkulatora zdolności kredytowej? To proste – wystarczy, że udzielisz odpowiedzi na pytania o miesięczny dochód netto, miesięczne zobowiązania, wysokość rat kredytów, limit na posiadanych kartach kredytowych i liczbę osób na utrzymaniu. W odpowiedzi kalkulator zdolności kredytowej wyliczy Twoją przybliżoną zdolność do zaciągnięcia różnych kredytów (gotówkowego, samochodowego, hipotecznego). Wynik będzie szacunkowy, bo każdy z banków stosuje inny wzór, przez co mogą pojawić się rozbieżności. Znając swoją orientacyjną zdolność kredytową, będziesz w stanie ocenić, na jaką kwotę możesz złożyć wniosek w banku lub firmie pożyczkowej. Jak można zwiększyć swoją zdolność kredytową? W odpowiedzi na pytanie o zdolność kredytową, kalkulator zdolności kredytowej może wskazać, że chwilowo nie masz szansy na kredyt czy pożyczkę. Co wówczas? Być może błędnie zakładasz, że nie masz wpływu na swoją zdolność kredytową. Tymczasem wystarczy wykonać kilka czynności, które korzystnie wpłyną na wynik, jaki wyliczy kalkulator zdolności kredytowej. Sposobów na to, jak zwiększyć zdolność kredytową, jest co najmniej kilka. Zdolność kredytowa 2022 – sposoby na jej poprawę: •    Obniżenie kosztów życia. Przyjrzyj się dotychczasowym wydatkom – bardzo możliwe, że będzie można je zredukować. Nie chodzi jednak o to, aby obniżyć jakość życia, ale wyeliminować zbędne koszty. •    Spłata zobowiązań. Zostały Ci ostatnie raty do spłaty? Nie czekaj – w tym przypadku wcześniejsze uregulowanie posiadanych kredytów czy pożyczek zadziała na Twoją korzyść. Jeżeli masz długoterminowe zobowiązania, rozważ refinansowanie lub konsolidację zadłużenia. •    Pozbądź się karty kredytowej. Rezygnacja z tego produktu również może pomóc w podwyższeniu zdolności kredytowej. Wykorzystując kalkulator zdolności kredytowej, możesz sprawdzić, jak wzrośnie Twoja zdolność po zmianie tego jednego parametru. Twoim celem jest kredyt hipoteczny? Niska zdolność kredytowa, którą pokazuje kalkulator zdolności kredytowej, nie musi być przeszkodą w uzyskaniu finansowania. Warunkiem może być jednak przedstawienie dodatkowego zabezpieczenia, np. w postaci innej nieruchomości. Kolejnym rozwiązaniem może być zaciągnięcie kredytu hipotecznego wraz z rodzicami. « powrót do artykułu
  7. Uniwersytet Przyrodniczy we Wrocławiu (UPWr) organizuje zbiórkę nasion warzyw do uprawy w przydomowych ogródkach. Jak podkreśla uczelnia, nasiona trafią do starszych osób [z Ukrainy], które mimo trwającej wojny zostały w swoich domach lub nie były w stanie z niego wyjechać. Rektor UPWr, prof. Jarosław Bosy, dodaje, że choć, oczywiście, UPWr organizuje też inne zbiórki, ta jest bodaj najbardziej „przyrodnicza”. I pyta retorycznie, kto, jak nie my, ma pomagać w uprawie warzyw? Akcja jest koordynowana przez pracowników Katedry Architektury Krajobrazu. Mamy kontakt z pracownikami uniwersytetu w Kijowie i wielu z nich mówiło nam, że na wioskach, gdzie trafia pomoc z Polski, starsze osoby pytają o nasiona warzyw. To dla nich nie tylko szansa na własną żywność w najbliższych miesiącach, ale rodzaj terapii. Zajmą głowę uprawą, podlewaniem... czymś innym niż myślenie o tym, co dzieje się w ich kraju – tłumaczy dr inż. Monika Ziemiańska. Nasiona jakich roślin zbierają naukowcy z UPWr? Chodzi o nasiona popularnych warzyw, które nie wymagają specjalnych warunków uprawy, czyli ogórków, buraków, marchwi, kapusty, fasoli, dyni, cukinii, pietruszki, kopru, bobu czy cebuli dymki. Słonecznik jest również mile widziany. Nasiona można przekazywać na dwa sposoby: zostawiając w specjalnych pojemnikach na portierni albo wysyłając pocztą na adres UPWr z dopiskiem Biuro Promocji (ul. Norwida 25; 50-375 Wrocław). Zbiórka trwa do 19 maja. Dzień później zebrane nasiona wyruszą w podróż. « powrót do artykułu
  8. W jaki sposób mózg decyduje, jak najlepiej poruszać naszym ciałem? Okazuje się, że dla układu nerwowego to spore wyzwanie, gdyż mamy setki mięśni, które muszą być koordynowane setki razy na sekundę, a liczba możliwych wzorców koordynacji, z których musi wybierać mózg, jest większa niż liczba ruchów na szachownicy, mówi profesor Max Donelan z kanadyjskiego Simon Fraser University. Donelan i jego zespół badali, w jaki sposób ciało adaptuje się d nowych ruchów. A ich badania mogą mieć znaczenie zarówno dla treningu sportowców, jak i rehabilitacji niepełnosprawnych. Naukowcy zauważają, że bardzo często doświadczamy zmian zarówno w naszym organizmie, jak i w środowisku zewnętrznym. Być może lubisz biegać w niedzielę rano, Twoje mięśnie będą tym bardziej zmęczone im dłuższy dystans przebiegniesz. A może w czasie wakacji biegasz po plaży, gdzie podłoże jest luźne i nierówne w porównaniu z chodnikiem, po którym codziennie chodzisz. Od dawna jesteśmy w stanie rejestrować zmiany w sposobie poruszania się, ale dotychczas chyba nie docenialiśmy, w jaki sposób nasz organizm do takich zmian się adaptuje, stwierdza Donelan. Chcąc przyjrzeć się tym zmianom kanadyjscy neurolodzy podjęli współpracę z inżynierami z Uniwersytetu Stanforda, którzy specjalizują się w tworzeniu egzoszkieletów. Badania kanadyjsko-amerykańskiego zespołu przyniosły bardzo interesujące wyniki. Okazało się, że system nerwowy, ucząc się wzorców koordynacji nowych ruchów, najpierw rozważa i sprawdza wiele różnych wzorców. Stwierdzono to, mierząc zmienność zarówno samego ruchu ciała jako takiego, jak i ruchów poszczególnych mięśni i stawów. W miarę, jak układ nerwowy adaptuje się do nowego ruchu, udoskonala go, a jednocześnie zmniejsza zmienność. Naukowcy zauważyli, że gdy już nasz organizm nauczy się nowego sposobu poruszania się, wydatek energetyczny na ten ruch spada aż o 25%. Z analiz wynika również, że organizm odnosi korzyści zarówno z analizy dużej liczby możliwych wzorców ruchu, jak i ze zmniejszania z czasem liczby analizowanych wzorców. Zawężanie poszukiwań do najbardziej efektywnych wzorców pozwala bowiem na zaoszczędzenie energii. Zrozumienie, w jaki sposób mózg szuka najlepszych sposobów poruszania ciałem jest niezwykle ważne zarówno dla ultramaratończyka, przygotowującego się do biegu w trudnym terenie, jak i dla pacjenta w trakcie rehabilitacji po uszkodzeniu rdzenia kręgowego czy wylewu. Na przykład trener, który będzie wiedział, w którym momencie organizm jego podopiecznego zaadaptował się do nowego programu treningowego, będzie wiedział, kiedy można wdrożyć kolejne nowe elementy. A twórcy egzoszkieletów pomagających w rehabilitacji dowiedzą się, w którym momencie można przed pacjentem postawić nowe zadania, bo dobrze opanował wcześniejsze. « powrót do artykułu
  9. Płeć oraz metoda przygotowania kawy mogą być kluczowymi elementami, które decydują o związku spożycia kawy ze zwiększonym poziomem cholesterolu we krwi. Kawa zawiera związki chemiczne, o których wiadomo, że podnoszą poziom cholesterolu. Autorzy najnowszych badań chcieli sprawdzić, czy sposób przygotowania kawy ma jakiś wpływ na poziom cholesterolu. Norwescy naukowcy przyjrzeli się danym 21 083 osób, które w latach 2015–2016 wzięły udział w Tromsø Study. To trwające od 1974 roku długoterminowe badania populacyjne mieszkańców miasta Tromsø. Uczestników badań pytano m.in. o to ile kawy piją dziennie oraz w jaki sposób ją przygotowują. Pobierano od nich też próbki krwi, ważono ich i mierzono. Naukowcy sprawdzali również inne czynniki podniesionego poziomu cholesterolu, takie jak dieta, styl życia, spożywanie alkoholu, aktywność fizyczną i inne. Okazało się, że kobiety piły średnio mniej niż 4 filiżanki kawy dziennie, a mężczyźni niemal 5 filiżanek. Szczegółowa analiza danych wykazała istnienie związku pomiędzy spożyciem kawy a poziomem cholesterolu we krwi, ale związek ten zależał od płci i sposobu przygotowania kawy. Spożywanie 3–5 filiżanek kawy dziennie było silnie związane z podwyższonym poziomem cholesterolu, szczególnie u mężczyzn. W porównaniu z osobami, które w ogóle nie piły kawy, średni poziom cholesterolu i wypijających 3–5 filiżanek espresso był u kobiet wyższy o 0,09 mmol/l, a u mężczyzn o 0,16 mmol/l. Z kolei w przypadku kawy z zaparzacza French Press zaobserwowano, że przy spożyciu 6 lub więcej filiżanek dziennie poziom cholesterolu wzrastał o 0,30 mmol/l u kobiet i 0,23 mmol/l u mężczyzn. Jeszcze inaczej wyglądały pomiaru cholesterolu wśród osób pijących kawę z ekspresu przelewowego. W takim przypadku u kobiet pijących co najmniej 6 filiżanek kawy średni poziom cholesterolu rósł o 0,11 mmol/l. U mężczyzn nie zanotowano zaś wzrostu. Okazało się również, że kawa instant również zwiększa poziom cholesterolu u obu płci, ale nie jest on zależny od ilości wypijanej kawy. Naukowcy zwracają tez uwagę, że Norwegowie – a to oni byli brani pod uwagę – piją kawę z większych filiżanek niż np. Włosi. Autorzy badań sądzą, że różne rodzaje kawy również w różny sposób będą wpływały na wzrost poziomu cholesterolu. Kawa zawiera ponad 1000 różnych związków chemicznych. Poziom każdego z nich zależy od gatunku kawy, sposobu jej palenia, sposobu zaparzania oraz ilości spożytego napoju, stwierdzają autorzy badań. Przypominają też, że inne badania pokazały, iż te same związki chemiczne, które zwiększają poziom cholesterolu we krwi, jednocześnie mają działanie przeciwzapalne, chronią wątrobę i zmniejszają ryzyko nowotworów oraz cukrzycy. To pokazuje, że zawarte w kawie związki mogą jednocześnie działać na różne sposoby, dodają. « powrót do artykułu
  10. W danych zebranych dotychczas przez Teleskop Hubble'a „ukrywało się” około 1700 asteroid. Autorzy najnowszych badań – zawodowi astronomowie oraz naukowcy – połączyli siły i przeanalizowali dane zebrane przez słynny teleskop. Projekt ruszył 30 czerwca 2019 roku w Międzynarodowym Dniu Asteroid. Na popularnej platformie croudsourcingowej nauki, Zooniverse, uruchomiono wówczas „Hubble Asteroid Hunter”. Celem analizy było znalezienie informacji o nieznanych asteroidach w archiwalnych danych Hubble'a. Trzeba było wyłowić je z danych, które badaczom z innych projektów naukowych wydawały się bezwartościowe. To, co jest śmieciem dla jednego astronoma, może być skarbem dla drugiego, stwierdza lider badań, Sandor Kruk z Instytutu Fizyki Pozaziemskiej im. Maxa Plancka. Uczony zauważa, że ilość danych, które archiwizują astronomowie rośnie w olbrzymim tempie i warto zaglądać do tego, co inni odrzucili. Analizie poddano informacje zebrane pomiędzy 30 kwietnia 2002 roku a 14 marca 2021. Jako, że typowy czas obserwacyjny instrumentów Hubble'a wynosi 30 minut, asteroidy pojawiają się na zdjęciach w formie smug. Jednak systemy komputerowe mają problemy z wyłowieniem tych smug, dlatego do ich wykrywania zaprzęgnięto ludzi. Ze względu na orbitę i ruch samego Hubble'a smugi te są zakrzywione, przez co trudno jest stworzyć algorytm komputerowy, który byłby w stanie je wykryć. Dlatego potrzebowaliśmy ochotników, którzy je klasyfikowali, a dopiero później na tej podstawie uczyliśmy algorytm ich rozpoznawania, mówi Kruk. W projekcie wzięło udział 11 482 naukowców-amatorów, którzy przeanalizowali tysiące zdjęć. Dzięki temu udało się wykryć 1488 prawdopodobnych asteroid. Obiekty takie znajdowały się na około 1% analizowanych fotografii. Później wytrenowany na tym zbiorze danych algorytm zauważył kolejnych 999 kandydatów na asteroidy. Wtedy do pracy przystąpił Kruk i jego koledzy.naukowcy przyjrzeli się obiektom zauważonym przez amatorów oraz algorytm komputerowy i stwierdzili, że mamy do czynienia z 1701 rzeczywistymi asteroidami. Wyniki poszukiwań porównano następnie z bazą danych Minor Planet Center, w której znajdują się informacje o obiektach w Układzie Słonecznych. okazało się, że około 1/3 z tych asteroid została już wcześniej odnotowana. Teraz naukowcy chcą obserwować odkryte asteroidy, by określić ich orbity oraz odległość od Ziemi. « powrót do artykułu
  11. Szanghajskie Obserwatorium Astronomiczne zaproponowało umieszczenie w przestrzeni kosmicznej teleskopu, którego zadaniem byłoby poszukiwanie egzoplanet. Jeśli propozycja zostanie zaakceptowana – a decyzja ma zapaść latem bieżącego roku – Chiny rozpoczną budowę swojego pierwszego teleskopu kosmicznego wykrywającego egzoplanety. Zgodnie z propozycją Earth 2.0 Telescope miałby zostać umieszczony w punkcie libracyjnym L2 – tym samym w którym znajduje się Teleskop Webba – gdzie miałby spędzić cztery lata. Uczeni z Szanghaju chcą, by Earth 2.0 obserwował część kosmosu w kierunku centrum Drogi Mlecznej poszukując tam tranzytu planet na tle ich gwiazd macierzystych. Głównym celem zainteresowania teleskopu miałyby być egzoplanety wielkości Ziemi, krążące wokół gwiazd podobnych do Słońca po orbicie podobnej do orbity Ziemi. To oznacza, że teleskop musi być bardzo czuły oraz zdolny do długotrwałej obserwacji tych samych gwiazd, by odnotować tranzyty mające miejsce raz na kilkanaście miesięcy. Ge Jian, profesor z Szanghaju mówi, że Earth 2.0 nie byłby w stanie samodzielnie rozpoznawać planet bliźniaczych Ziemi. Zadaniem urządzenia byłoby odnalezienie planety, określenie jej wielkości i czasu obiegu wokół gwiazdy. Dane te byłyby następnie wykorzystywane podczas kolejnych obserwacji za pomocą innych urządzeń. I dopiero te obserwacje powiedziałyby nam, czy Earth 2.0 Telescope znalazł planetę podobną do naszej, która znajduje się w ekosferze swojej gwiazdy. Tacy kandydaci na planety byliby obserwowani za pomocą teleskopów naziemnych, dzięki którym określilibyśmy ich masę oraz gęstość. Następnie niektóre z nich można by dalej śledzić za pomocą naziemnych i kosmicznych spektroskopów w celu określenia widma światła pochodzącego z planety, co pozwoli na zbadanie składu ich atmosfery, mówi uczony. Chiński teleskop skupiłby się na tym samym obszarze, który badał słynny Teleskop Keplera. jednak miałby znacznie większe pole widzenia, zatem mógłby obserwować większy obszar i więcej gwiazd. Pole widzenia Keplera wynosi 115 stopni kwadratowych. Teleskop obserwował ponad pół miliona gwiazd, odkrył około 2600 egzoplanet, a drugie tyle czeka na potwierdzenie. Earth 2.0. Telescope miałby mieć 500-stopniowe pole widzenia. Warto nadmienić, że cały nieboskłon to około 41 000 stopni kwadratowych. Chiński teleskop byłby zdolny do monitorowania 1,2 miliona gwiazd. Mógłby też obserwować bardziej odległych i mniej jasnych gwiazd niż Teleskop Keplera. Profesor Ge mówi, że z obliczeń jego zespołu wynika, iż taki teleskop mógłby odkryć około 30 000 nowych planet, z czego około 5000 byłoby podobnych do Ziemi. Zgodnie z projektem Earth 2.0 Telescope składałby się z 6 teleskopów poszukujących planet podobnych do Ziemi i 1 szukającego zimnych lub swobodnych planet wielkości Marsa. Decyzja odnośnie ewentualnego sfinansowania projektu ma zapaść w czerwcu. Jeśli zostanie wydana zgoda na przeprowadzenie misji, Earth 2.0 Telescope mógłby zostać wystrzelony już w 2026 roku. « powrót do artykułu
  12. Od 8 do 10 czerwca w Szczecinie odbywać się będzie międzynarodowa konferencja epigenetyczna. Zjedzie się czołówka światowych badaczy w tej dziedzinie. Jak podkreśla pomysłodawca, a zarazem organizator wydarzenia dr hab. n. med. Tomasz K. Wojdacz, będzie to najważniejsze tegoroczne światowe wydarzenie w epigenetyce. Tomasz K. Wojdacz, profesor nadzwyczajny Uniwersytetu w Aarhus, kierownik Samodzielnej Pracowni Epigenetyki Klinicznej Pomorskiego Uniwersytetu Medycznego (PUM) w Szczecinie, mówi, że zaproszenie przyjęło wielu najwybitniejszych światowych ekspertów. Są to specjaliści zarówno z dziedziny epigenetyki klinicznej, jak i podstawowej. Na witrynie CLEPIC (od Clinical Epigenetics International Conference) można się zapoznać z pełną listą prelegentów. Do udziału organizatorzy zachęcają też polskich studentów, doktorantów i młodych badaczy (tu znajduje się formularz rejestracji). Chcemy zainteresować ich tą dziedziną, pokazać jej olbrzymi potencjał i pomóc nawiązać kontakty naukowe. Tylko tak epigenetyka ma szansę zacząć prężnie rozwijać się także w naszym kraju. Udział w tego typu spotkaniach to szansa na wyrobienie sobie kontaktów w środowisku, co potem bardzo pomaga w karierze. Bo nauka, tak jak inne dziedziny, opiera się na sieci wzajemnych kontaktów - podkreśla cytowany przez PAP naukowiec. Mimo że w nazwie konferencji pojawia się słowo „clinical”, wydarzenie nie będzie miało charakteru tylko i wyłącznie medycznego. Gościć będziemy np. polskiego profesora z Australii - Ryszarda Maleszkę - który jest światowym liderem w badaniach epigenetycznych pszczoły miodnej. Dr Wojdacz liczy na to, że dzięki konferencjom takim jak ta epigenetyka zacznie się prężniej rozwijać również w Polsce. Choć przeszkód nie brakuje; badania epigenetyczne są bowiem trudne i kosztowne. Chciałbym, aby w przyszłości było coraz więcej ośrodków, które otwierają swoje pracownie epigenetyczne, aby coraz więcej młodych naukowców specjalizowało się w tej dziedzinie. Bo potencjał tkwi w niej naprawdę ogromny. I w medycynie, i w innych naukach - podsumowuje ekspert. Lokalny komitet organizacyjny CLEPIC tworzą: Tomasz K. Wojdacz (PUM), Filip Machaj (PUM), Aneta Mirecka (PUM), Katarzyna Sokołowska (PUM), Izabela Kuczyńska (PUM), Renata Jurkowska (Cardiff University) oraz Renata Olejnik (PUM). Zespół ma nadzieję, że pierwsza edycja wydarzenia okaże się sukcesem i odtąd konferencja będzie organizowana cyklicznie. « powrót do artykułu
  13. Krwawienie z naczyń krwionośnych podczas operacji neurochirurgicznych to poważny problem. Krew zasłania pole widzenia i konieczne jest jej usuwanie. Dlatego pole operacyjne, w którym nie pojawiałaby się krew czyniłoby cały zabieg bardziej precyzyjnym i bezpiecznym. Naukowcy z University of Texas w Austin i University of California, Irvine, opracowali właśnie laserową platformę do bezkrwawej resekcji tkanki mózgowej. Obecnie podczas zabiegów neurochirurgicznych, by zapewnić dobre pole widzenia, wykorzystuje się ultradźwiękowe aspiratory, po których stosuje się przyżeganie (elektrokauteryzację). Jako jednak, że obie metody stosowane są jedna po drugiej, wydłuża to operację. Ponadto przyżeganie może prowadzić do uszkodzenia części tkanki. Specjaliści z Teksasu i Kalifornii wykazali podczas eksperymentów na myszach, że ich nowy laser pozwala na bezkrwawą resekcję tkanki. Ich system składa się z urządzenia do koherencyjnej tomografii optycznej (OCT), które zapewnia obraz w mikroskopowej rozdzielczości, bazującego na iterbie lasera do koagulacji naczyń krwionośnych oraz wykorzystującego tul lasera do cięcia tkanki. Maksymalna moc lasera iterbowego wynosi 3000 W, a urządzenie pozwala na dobranie częstotliwości i długości trwania impulsów w zakresie od 50 mikrosekund do 200 milisekund, dzięki czemu możliwa jest skuteczna koagulacja różnych naczyń krwionośnych. Laser ten emituje światło o długości 1,07 mikrometra. Z kolei laser tulowy pracuje ze światłem o długości fali 1,94 mikrometra, a jego średnia moc podczas resekcji tkanki wynosi 15 W. Twórcy nowej platformy połączyli oba lasery w jednym biokompatybilnym włóknie, którym można precyzyjnie sterować dzięki OCT. Opracowanie tej platformy możliwe było dzięki postępowi w dwóch kluczowych dziedzinach. Pierwszą jest laserowa dozymetria, wymagana do koagulacji naczyń krwionośnych o różnych rozmiarach. Wcześniej duże naczynia, o średnicy 250 mikrometrów i większej, nie poddawały się laserowej koagulacji z powodu szybkiego wypływu krwi. Mój kolega Nitesh Katta położył podstawy naukowe pod metodę dozymetrii laserowej pozwalającej na koagulowanie naczyń o średnicy do 1,5 milimetra, mówi główny twórca nowej platformy, Thomas Milner. Drugie osiągnięcie to odpowiednia metodologia działań, która pozwala na osiągnięcie powtarzalnej i spójnej ablacji różnych typów tkanki dzięki głębiej penetrującym laserom. Jako, że laserowa ablacja jest zależna od właściwości mechanicznych tkanki, cięcia mogą być niespójne, a w niektórych przypadkach mogą skończyć się katastrofalną niestabilnością cieplną. Nasza platforma rozwiązuje oba te problemy i pozwala na powtarzalne spójne cięcie tkanki miękkiej jak i sztywnej, takiej jak tkanka chrzęstna. Na łamach Biomedical Optics Express twórcy nowej platformy zapewniają, że w polu operacyjnym nie pojawia się krew, jakość cięcia jest odpowiednia i obserwuje się jedynie niewielkie uszkodzenia termiczne tkanki. « powrót do artykułu
  14. Polskie Towarzystwo Brachyterapii realizuje unikatowy projekt onkologiczny #BrachyCares. Za jego pomocą chce uświadomić ludziom, że jakość środowiska wpływa na liczbę zachorowań na nowotwory złośliwe. Stąd pomysł, by na tegoroczną konferencję Europejskiego Towarzystwa Radioterapii (ESTRO) w Kopenhadze nie lecieć samolotem, a popłynąć jachtem. Dzięki temu nasz ślad węglowy będzie mniejszy – wyjaśnia cytowany przez portal Zwrotnik Raka dr n. med. Piotr Wojcieszek, prezes Polskiego Towarzystwa Brachyterapii, kierownik Zakładu Brachyterapii Narodowego Instytutu Onkologii im. Marii Skłodowskiej-Curie w Gliwicach. Warto dodać, że wypożyczony jacht stał się też bazą mieszkalną ekipy. Brachyterapia jest metodą radioterapii kontaktowej lub śródtkankowej działającej dzięki wykorzystaniu promieniowania jonizującego izotopów promieniotwórczych. Są one czasowo umieszczane w bezpośrednim otoczeniu guza. Wiedząc o tym, jak ważne jest działanie lokalne, radioterapeuci chcieliby przełożyć taki sposób myślenia na grunt edukacji ekologiczno-onkologicznej. Projekt #BrachyCares jest więc wyrazem troski o klimat, świat i szeroko pojęte zdrowie. By od czegoś zacząć i wdrożyć idee w życie, zespół udający się na coroczną konferencję ESTRO zrezygnował ze zwykłego środka transportu, samolotu. Naukowcy wyczarterowali jacht „Passie”. To 14-metrowa jednostka typu Bavaria 44. Wybór padł na ten sposób podróży, by – jak mówi doktor Wojcieszek zwrócić uwagę na to, że latanie samolotem na krótkie odległości generuje dużo większe zanieczyszczenie powietrza. [...] Na 8 osób jest to 12 razy mniej dwutlenku węgla. Oczywiście wybór środka transportu to tylko jeden z wielu codziennych wyborów, jakie dokonujemy, a które wpływają zarówno na mniejsze lub większe zanieczyszczenie środowiska, jak i na nasze zdrowie. Specjaliści planują uświadomić społeczeństwu, że zmiany klimatyczne i choroby nowotworowe się ze sobą wiążą, a zanieczyszczenie środowiska jest udziałem nas wszystkich. Ziemi mogą zaś pomóc nawet drobne zmiany dot. codziennego życia. Ekipa wypłynęła 3 maja z Kołobrzegu, by po 2 dniach dotrzeć do Kopenhagi. Jak tłumaczy pomysłodawca akcji dr n. med. Piotr Wojcieszek, który ma patent sternika, załogę stanowią wyłącznie lekarze radioterapeuci-onkolodzy. Wczoraj po południu „Passie” wyszła z Kopenhagi i załoga płynie do Polski. Doktor Wojcieszek już planuje kolejne działania. Obecnie zbiera grupę naukowców, nie tylko onkologów, ale np. oceanografów czy klimatologów, z którymi chce stworzyć poradnik z którego przeciętny człowiek będzie mógł dowiedzieć się, jak różne zanieczyszczenia wpływają na środowisko naturalne i ludzki organizm oraz co każdy z nas może zrobić, by zanieczyszczeń tych uniknąć. Głównym celem doktora Wojcieszka jest połączenie edukacji środowiskowej z onkologiczną i uświadomienie nam, do jakiego stopnia zmiany środowiskowe mają wpływ na zdrowie nasze i przyszłych pokoleń. « powrót do artykułu
  15. Poczta Polska (PP) zapoczątkowała nową serię filatelistyczną „Piękno Polski”. Pierwsze znaczki są poświęcone atrakcjom województwa podlaskiego. Zobaczymy na nich Pałac Branickich w Białymstoku, meczet w Kruszynianach, prawosławny monastyr w Supraślu, zabytkowy kościół w Tykocinie, rezerwat żubrów w Białowieskim Parku Narodowym i panoramę Drohiczyna z Bugiem w tle. Kolejne znaczki będą prezentować Lubelszczyznę. Znaczki weszły do obiegu 28 kwietnia, a ich uroczysta prezentacja odbyła się 6 maja w Muzeum Ikon w Supraślu. Jak podkreślono w komunikacie PP, Podlasie jest wyjątkowym regionem, który przyciąga przyrodą i fascynującą kulturą, w której, jak w tyglu, różne oblicza słowiańskości mieszają się z tradycjami tatarskimi i żydowskimi. Pierwszy bloczek ze znaczkami serii „Piękno Polski” zdecydowaliśmy się poświęcić Podlasiu. Ten region może poszczycić się zarówno piękną przyrodą i urokliwymi krajobrazami, jak również ciekawą architekturą i perełkami dziedzictwa kulturowego – podkreślił Tomasz Zdzikot, prezes Poczty Polskiej. Autorem projektu jest Jarosław Ochendzan. Na 3 kopertach FDC - Pierwszego Dnia Obiegu - można podziwiać pejzaże okolic Bugu i cerkiew prawosławną w Puchłach. « powrót do artykułu
  16. Światowa Organizacja Zdrowia opublikowała długo oczekiwane szacunki dotyczące nadmiarowych zgonów w czasie pandemii COVID-19. Zdaniem WHO w ciągu dwóch lat pandemii dodatkowo zmarło około 15 milionów osób. To niemal 3-krotnie więcej niż oficjalna łączna liczba zgonów z powodu COVID-19 raportowana przez poszczególne kraje. Szacunkowe dane WHO uwzględniają te zgony, których nie zawarto w raportach krajowych. Problem z uzyskaniem dokładnej liczby osób zmarłych z powodu pandemii wynika z faktu, że ponad 100 krajów albo w ogóle nie dostarcza wiarygodnych statystyk, albo też dostarcza je bardzo nieregularnie. Wiele krajowych systemów statystycznych zawiera też błędy, przekładające się na błędy w danych. Ponadto różne kraje w różny sposób zbierają informacje. Na przykłd na początku pandemii w Holandii w statystykach zgonów z powodu COVID-19 uwzględniano tylko osoby, które zmarły w szpitalach, a u których test na SARS-CoV-2 dał wynik pozytywny. Zaś w sąsiedniej Belgii uwzględniano każdy zgon po objawach choroby, nawet jeśli nie postawiono diagnozy. Demografowie, statystycy, specjaliści ds. zdrowia publicznego i epidemiolodzy starają się więc zmniejszyć tę niepewność, opierając się nie tylko na raportach poszczególnych krajów, ale prowadząc też własne badania. Dane uściślane są w różny sposób, od analiz zdjęć satelitarnych cmentarzy, poprzez ankiety wśród ludności po wykorzystywanie komputerowych modeli maszynowego uczenia. Wpływ pandemii na nasze zdrowie jest znacznie szerszy niż tylko zachorowania na COVID-19 i zgony. Poza zgonami, które można bezpośrednio przypisać infekcji SARS-CoV-2 mamy też dużą liczbę zgonów spowodowanych warunkami, jakie panowały podczas pandemii. Mowa tutaj zarówno o przeładowaniu systemów opieki zdrowotnej, które w mniejszym stopniu zajmowały się innymi chorobami, jak i zachowaniu samych pacjentów, którzy zaczęli unikać placówek służby zdrowia. Nadmiarowe zgony to, według WHO, zgony ponad to, czego można by się spodziewać w danej populacji w standardowych warunkach, nie objętych kryzysem. Specjaliści WHO musieli uwzględnić nie tylko czynniki, które prowadziły do zwiększenia liczby zgonów – jak np. przeładowanie systemów opieki zdrowotnej – ale i takie, prowadzące do jej zmniejszenia. W czasie pandemii poprawiła się jakość powietrza, zmniejszył ruch drogowy, a z powodu narzucenia obowiązku noszenia maseczek zmniejszyła się zachorowalność na wiele chorób zakaźnych. Nasze szacunki nie tylko wskazują na wpływ pandemii, ale pokazują również, że wszystkie kraje powinny więcej zainwestować w służbę zdrowia odporną na zakłócenia w czasie kryzysów, powiedział dyrektor generalny WHO Tedros Adhanom Ghebreyesus. WHO szacuje, że w latach 2020-2021 z powodu pandemii zmarło 14,9 miliona osób. Aż 84% zgonów miało miejsce w Azji Południowo-Wschodniej, Europie i Amerykach, a za ponad 2/3 odpowiada zaledwie 10 krajów. Z opublikowanych danych wynika, że w Polsce liczba nieuwzględnionych w statystykach zgonów z powodu COVID-19 za lata 2020–2021 wynosi od 74 883 do 82 069. Średnio jest to 78 665 osób. Zatem w tym czasie pandemia mogła zabić w naszym kraju nie 116 000, a około 195 000 osób. Zdaniem WHO do największej liczby nadmiarowych zgonów doszło w Indiach. Z szacunków wynika, że zmarło tam od 3,3 do 6,5 miliona osób. Tymczasem oficjalne dane indyjskiego rządu mówią o 481 000 zmarłych. W reakcji na te informacje przedstawiciele rządu Indii stwierdzili, że metodologia WHO budzi ich zastrzeżenia. Jednak Shahid Jameel, wirusolog i były szef indyjskiego zespołu odpowiedzialnego za sekwencjonowanie genomu SARS-CoV-2 mówi, że bardziej wierzy WHO niż własnemu rządowi. Liczba około 500 000 zmarłych podawanych w oficjalnych statystykach rządowych jest z pewnością bardzo zaniżona. Ci, którzy byli w Indiach i widzieli przebieg pandemii wiedzą, że to zbyt niska liczba. A teraz mamy badania, które to potwierdzają. « powrót do artykułu
  17. Okolice Gabal El Haridi w egipskiej prowincji Sauhadż znane są z obecności tam materiału archeologicznego pochodzącego z okresu od VI Dynastii (ok. 2345 – ok. 2181 p.n.e.) aż po okres rzymski i koptyjski. Podczas najnowszego sezonu wykopalisk znaleziono tam 85 grobów, wieżę strażniczą i świątynię. Wieża, która strzegła bezpieczeństwa ruchu na Nilu i służyła jako punkt poboru podatków, została wybudowana za czasów Ptomeleusza III Euergetesa, którego panowanie przypada na lata 246–221 p.n.e. Z mniej więcej tego samego okresu pochodzi świątynia Izydy. Budynek o rozmiarach 33x14 metrów jest zorientowany na linii północ-południe. Składał się on z otwartego kwadratowego holu na środku którego znajdowała się seria kolumn. Podłoga wyłożona była płytami piaskowca. W północnej części świątyni znaleziono pozostałości basenu do obmywania się oraz wotywną plakietkę. Odkryto też 5 ostrakonów z inskrypcjami zapisanymi pismem demotycznym, 38 monet z czasów rzymskich i kości zwierzęce. Badania wykazały, że kości były resztkami posiłków spożywanych przez kapłanów. Archeolodzy trafili też na dom jednego z nadzorców robotników oraz pozostałości notatek zawierających imiona robotników, ich zadania oraz zarobki. Trafiono też na 85 pochówków, których datowanie rozciąga się od czasów końca Starego Państwa (ok. 2200 p.n.e.) po koniec rządów Ptolemeuszów (I w. p.n.e.). Niektóre z nich to proste pochówki robotników, inne są bardziej złożonymi grobowcami zawierającymi liczne korytarze na wielu piętrach, prowadzące do komory grobowej. W grobach z epoki Ptolemeuszów znaleziono 30 mumii oraz pozwolenia na pochówek zapisane w języku greckim pismem hieratycznym i demotycznym. Pozwolenia takie, obok modlitw, zawierały zwykle imię zmarłego, imię matki lub ojca, miejsce zamieszkania, zawód i wiek. « powrót do artykułu
  18. Podwyższony poziom enzymu PHGDH we krwi starszych osób może być wczesną oznaką rozwoju choroby Alzheimera, stwierdzają naukowcy z Uniwersytetu Kalifornijskiego w San Diego. Analiza  tkanek mózgu wydaje się potwierdzać to spostrzeżenie, gdyż poziom ekspresji genu kodującego PHGDH był wyższy u osób z chorobą Alzheimera, nawet u tych, u których nie wystąpiły jeszcze negatywne objawy poznawcze. Wyniki badań to jednocześnie ostrzeżenie przed używaniem suplementów diety zawierających serynę. Suplementy te, przyjmowane przez starsze osoby, mają zapobiegać rozwojowi alzheimera. Tymczasem PHGDH jest głównym enzymem biorącym udział w produkcji seryny. Zwiększona ekspresja tego enzymu u chorujących na alzheimera może sugerować, że w mózgach tych osób już dochodzi do zwiększonej produkcji seryny, zatem jej dodatkowe dawki mogą nie przynosić korzyści. Autorzy najnowszych badań, profesorowie Sheng Zhong z UC San Diego Jacobs School of Engineering i Xu Chen z UC San Diego School of Medicine bazowali na swoich wcześniejszych badaniach. Wówczas po raz pierwszy zidentyfikowali poziom PHDGD we krwi jako potencjalny biomarker choroby. Zaczęli się wówczas zastanawiać, czy znajduje to swoje odbicie w tkance mózgowej. I rzeczywiście, odkryli istnienie takiego związku. Jesteśmy niezwykle podekscytowani faktem, że nasze wcześniejsze odkrycie dotyczące biomarkera we krwi znajduje swoje potwierdzenie w danych z badań mózgu. Mamy teraz silny dowód, że zmiany, jakie obserwujemy we krwi są bezpośrednio powiązane ze zmianami z mózgach osób cierpiących na chorobę Alzheimera, mówi profesor Zhong. Naukowcy przeanalizowali dane genetyczne z pośmiertnego badania tkanki mózgowej z czterech kohort. W skład każdej z nich wchodziły tkanki pobrane od 40–50 osób w wieku 50 lat i starszych. Kohorty składały się z osób ze zdiagnozowaną chorobą Alzheimera, osób asymptomatycznych, czyli takich u których nie występowały żadne objawy, nie zostały zdiagnozowano jako chorzy, ale w których tkance mózgowej stwierdzono wczesne zmiany wskazujące na chorobę, oraz osoby zdrowe. Wyniki badań jednoznacznie wskazały, że zarówno u osób ze zdiagnozowanym alzheimerem jak i u osób asymptomatycznych występował podwyższony poziom ekspresji PHGDH w porównaniu z osobami zdrowymi. Co więcej, im bardziej zaawansowana choroba, tym wyższa ekspresja PHGDH. Uczeni zaobserwowali ten trend również w dwóch różnych mysich modelach choroby alzheimera. Naukowcy porównali też poziom ekspresji PHGDH z wynikami dwóch testów klinicznych. Pierwszy z nich, wykonano przed śmiercią osób, których tkankę mózgową badano. To Dementia Rating Scale, pozwalający na ocenę pamięci i zdolności poznawczych badanego. Drugi – Braak staging – to test oceniający stopień zaawansowania choroby Alzheimera na podstawie badań patologicznych tkanki mózgowej. Porównanie wykazało, że im gorszy wynik obu testów, tym wyższe ekspresja PHGDH w mózgu. Znaczący jest fakt, że poziom ekspresji tego genu jest bezpośrednio skorelowany zarówno ze zdolnościami poznawczymi, jak i stopnie rozwoju patologii tkanki mózgowej. Możliwość oceny dwóch tak złożonych elementów za pomocą pomiaru poziomu pojedynczej molekuły we krwi może znakomicie ułatwić diagnostykę i monitorowanie choroby, wyjaśnia Zhong. Tutaj pojawia się wątek suplementów seryny, reklamowanych jako środki poprawiające pamięć i funkcje poznawcze. Seryna to aminokwas endogenny, czyli wytwarzany przez organizm, a kluczowym enzymem biorącym udział w jej powstawaniu jest właśnie PHGDH. Niektórzy specjaliści sugerowali, że w chorobie Alzheimera ekspresja PHGDH jest ograniczona, więc dodatkowe zażywanie seryny może pomóc w zapobieganiu alzheimerowi. Obecnie trwają testy kliniczne, które mają sprawdzić wpływ przyjmowania seryny na starsze osoby, u których doszło do zmniejszenia funkcji poznawczych. Teraz Zhong i Chen zauważyli, że – w przeciwieństwie do tego, co wcześniej sugerowano – u chorych na alzheimera ekspresja PHGDH jest zwiększona, co może też prowadzić do zwiększenia produkcji seryny. Każdy, go myśli o przyjmowaniu suplementów seryny, by zapobiec chorobie Alzheimera, powinien dobrze się zastanowić, mówi współautor artykułu opisującego wyniki badań, Riccardo Calandrelli. Naukowcy przygotowują się teraz do rozpoczęcia nowych badań, w ramach których chcą sprawdzić, jak zmiany w ekspresji PHGDH wpływają na rozwój choroby. Tymczasem założony przez Zhonga startup Genemo zaczyna prace nad testem diagnostycznym wykorzystującym pomiary PHGDH we krwi. « powrót do artykułu
  19. Znajdź dobrego pracodawcę i pracuj w dziedzinie, która Cię motywuje, radzi Walter Orthmann, który niedawno pobił swój własny rekord długości pracy zawodowej w jednej firmie. Pan Orthmann wie, co mówi. Od 84 lat pracuje w przedsiębiorstwie produkującej tekstylia, ReneauxView. Niedawno skończył 100 lat i ani myśli udać się na emeryturę. Walter urodził się 19 kwietnia 1922 roku w miasteczku Brusque w Brazylii, licznie zamieszkanym przez emigrantów z Niemiec. Gdy miał 14 lat matka powiedziała mu, że jako najstarszy z 5 synów powinien wspomóc rodzinę i znaleźć pracę. Dzięki świetnej znajomości niemieckiego nie miał problemów ze znalezieniem zajęcia. Dnia 17 stycznia 1938 roku rozpoczął pracę w dziale logistyki firmy Industrias Renaux S.A. Z entuzjazmem uczył się nowych rzeczy, był zaangażowanym pracownikiem. Bardzo szybko przeniesiono go do działu sprzedaży. Okazało się to strzałem w dziesiątkę. Walter bardzo lubił kontakt z klientami. I szybko zaczął odnosić pierwsze sukcesy. Pojechałem do São Paulo i w czasie krótszym niż tydzień przywiozłem zamówienia na całą trzymiesięczną produkcję firmy, wspomina. W latach 50. jeździł już po całym kraju, zbierając zamówienia na firmowe produkty. Wtedy też został awansowany na stanowisko dyrektora ds. sprzedaży, które piastuje do dzisiaj. W czasie imponującej 84-letniej kariery odbierał pensję w 9 walutach. Tyle razy bowiem przeprowadzano w Brazylii denominację. Gdy rozpoczynał pracę walutą obowiązującą od niemal 120 był real. Wkrótce jednak wymieniono go na cruzeiro w stosunku 1000:1. Później były kolejne cruzeiro novo i cruzeiro, a obecnie znowu – od 1994 roku – pobiera pensję w realach. Mimo swoich 100 lat Walter cieszy się dobrym zdrowiem, pamięcią i jasnością umysłu. Bardzo ceni sobie rutynę. Każdego dnia budzi się, ćwiczy, przygotowuje do pracy i idzie do swojego ulubionego miejsca – biura. Nie planuję zbyt wiele. Nie dbam zbytnio o jutro. Liczy się tu i teraz. Więc... do roboty!, mówi. « powrót do artykułu
  20. Ostatnie postępy w technologii fotowoltaicznej, pojawienie się wydajnych i lekkich ogniw słonecznych i duża elastyczność tej technologii powoduje, że fotowoltaika może dostarczyć całość energii potrzebnej do przeprowadzenia długotrwałej misji na Marsie, a nawet do zasilenia stałej osady – twierdzą naukowcy z University of California, Berkeley. Dotychczas większość specjalistów mówiących o logistyce misji na Czerwonej Planecie zakładała wykorzystanie technologii jądrowej. Jest ona stabilna, dobrze opanowana i zapewnia energię przez 24 godziny na dobę. To rozwiązanie na tyle obiecujące, że NASA od kilku lat prowadzi projekt Kilopower, którego celem jest stworzenie na potrzeby misji kosmicznych reaktora jądrowego o mocy do 10 kilowatów. Problem z energią słoneczną polega zaś na tym, że w nocy Słońce nie świeci. Ponadto na Marsie wszechobecny pył zmniejsza efektywność paneli słonecznych. Przekonaliśmy się o tym w 2019 roku, gdy po 15 latach spędzonych na Marsie zasilany panelami słonecznymi łazik Opportunity przestał działać po wielkiej burzy pyłowej. W najnowszym numerze Frontiers in Astronomy and Space Sciences ukazał się artykuł opisujący wyniki analizy, w ramach których porównano możliwości wykorzystania na Marsie energii ze Słońca z energią jądrową. Naukowcy z Berkeley analizowali scenariusz, w którym marsjańska misja załogowa trwa 480 dni. To bowiem bardzo prawdopodobny scenariusz misji na Marsa uwzględniający położenie planet względem siebie. Analiza wykazała, że na ponad połowie powierzchni Marsa panują takie warunki, iż – uwzględniając rozmiary i wagę paneli słonecznych – technologia fotowoltaiczna sprawdzi się równie dobrze lub lepiej niż reaktor atomowy. Warunkiem jest przeznaczenie części energii generowanej za dnia do produkcji wodoru, który zasilałby w nocy ogniwa paliwowe marsjańskiej bazy. Na ponad 50% powierzchni Marsa technologia fotowoltaiczna połączona z produkcją wodoru sprawdzi się lepiej niż generowanie energii z rozpadu jądrowego. Przewaga ta jest widoczna przede wszystkim w szerokim pasie wokół równika. Wyniki naszej analizy stoją w ostrym kontraście do ciągle proponowanej w literaturze fachowej energii jądrowej, mówi jeden z dwóch głównych autorów badań, doktorant Aaron Berliner. Autorzy analizy wzięli pod uwagę dostępne technologie oraz sposoby ich wykorzystania. Pokazują, najlepsze scenariusze ich użycia, rozważają ich wady i zalety. W przeszłości NASA zakładała krótkotrwałe pobyty na Marsie. Takie misje nie wymagałyby np. upraw żywności czy tworzenia na Marsie materiałów konstrukcyjnych lub pozyskiwania środków chemicznych. Jednak obecnie coraz częściej rozważne są długotrwałe misje, a w ich ramach prowadzenie działań wymagających dużych ilości energii byłoby już koniecznością. Trzeba by więc zabrać z Ziemi na Marsa komponenty do budowy źródeł zasilania. Tymczasem każdy dodatkowym kilogram obciążający rakietę nośną to olbrzymi wydatek. Dlatego też konieczne jest stworzenie lekkich urządzeń zdolnych do wytwarzania na Marsie energii. Jednym z kluczowych elementów marsjańskiej stacji, którą takie źródła miałyby zasilać, będą laboratoria, w których genetycznie zmodyfikowane mikroorganizmy wytwarzałyby żywność, paliwo, tworzywa sztuczne i związki chemiczne, w tym leki. Berliner i inni autorzy analizy są członkami Center for the Utilization of Biological Engineering in Space (CUBES), które pracuje nad tego typu rozwiązaniami. Naukowcy zauważyli jednak, że cały ich wysiłek może pójść na marne, jeśli na Marsie nie będzie odpowiednich źródeł zasilania dla laboratoriów. Dlatego też przeprowadzili analizę porównawczą systemu Kilopower z instalacjami fotowoltaicznymi wyposażonymi w trzy różne technologie przechowywania energii w akumulatorach i dwie technologie produkcji wodoru – metodą elektrolizy i bezpośrednio przez ogniwa fotoelektryczne. Okazało się, że jedynie połączenie fotowoltaiki z elektrolizą jest konkurencyjne wobec energetyki jądrowej. Na połowie powierzchni Marsa było to rozwiązanie bardziej efektywne pod względem kosztów niż wykorzystanie rozpadu atomowego. Głównym przyjętym kryterium była waga urządzeń. Naukowcy założyli, że rakieta, która zabierze ludzi na Marsa, będzie zdolna do przewiezienia ładunku o masie 100 ton, wyłączając z tego masę paliwa. Obliczyli, jaką masę należy zabrać z Ziemi, by zapewnić energię na 420-dniową misję. Ku swojemu zdumieniu stwierdzili, że masa systemu produkcji energii nie przekroczyłaby 10% całości masy ładunku. Z obliczeń wynika, że dla misji, która miałby lądować w pobliżu równika, łączna masa instalacji fotowoltaicznej oraz systemu przechowywania energii w postaci wodoru wyniosłaby około 8,3 tony. Masa reaktora Kilopower to z kolei 9,5 tony. Ich model uwzględnia nasłonecznienie, obecność pyłu i lodu w atmosferze, które wpływają na rozpraszanie światła słonecznego. Pokazuje też, jak w różnych warunkach optymalizować użycie paneli fotowoltaicznych. Uczeni zauważają, że mimo iż najbardziej wydajne panele słoneczne są wciąż drogie, to jednak główną rolę odgrywają koszty dostarczenia systemu zasilania na Marsa. Niewielka masa fotowoltaiki i elastyczność jej użycia to olbrzymie zalety tej technologii. Krzemowe panele na szklanym podłożu zamknięte w stalowych ramach, jakie są powszechnie montowana na dachach domów, nie mogą konkurować z najnowszymi udoskonalonymi reaktorami. Ale nowe, lekkie elastyczne panele całkowicie zmieniają reguły gry, stwierdzają autorzy analizy. Zwracają przy tym uwagę, że dzięki niższej masie można zabrać więcej paneli, więc będzie możliwość wymiany tych, które się zepsują. System Kilopower dostarcza więcej energii, zatem mniej takich reaktorów trzeba by dostarczyć, ale awaria jednego z urządzeń natychmiast pozbawiłaby kolonię znacznej części energii. « powrót do artykułu
  21. Serwisy Apple zatrudniają w swoich szeregach wyłącznie posiadających odpowiednie kwalifikacje specjalistów, za sprawą których urządzenia Apple doprowadzane są do użyteczności. Większość spośród użytkowników, nie umie eliminować powstałych usterek w domowych warunkach. Lepiej samemu tego nie robić, gdyż nieodpowiedni zakres działań może prowadzić do jeszcze poważniejszego uszkodzenia. Warto udać się do autoryzowanego serwisu, dzięki czemu zyska się pewność, iż z urządzeniem nie stanie się nic nieodpowiedniego. Wymiana uszkodzonej szybki w iPhonie Jak pokazują statystyki, jednym z najczęściej kupowanym produktów firmy Apple, są iPhony. Wzbudzają one spore emocje i stały się symbolem bycia wyjątkowym. Posiadają własny system, który ma zwolenników oraz przeciwników, niemniej jednak patrząc na to obiektywnie, iOS to system działający bardzo sprawnie. Konieczność wymiany szybki w iPhonie, jest nierzadkim problemem - wystarczy trochę nieuwagi i telefon znajdzie się na ziemi. To kłopot wielu użytkowników, ponieważ pojedynczy upadek przynosi zwykle przykre efekty, niemniej jednak serwis Apple w Poznaniu, na pewno sobie z tym poradzi (zakres usług serwisu sprawdzisz na stronie https://flixapple.com/serwis-poznan/. Zalanie Macbooka Popularny Macbook jest komputerem znacznie różniącym się od reszty. Wykorzystuje się go nierzadko do pracy albo wykonania projektów graficznych. Nierzadko jest to urządzenie użytkowane przez artystów, którzy nie chcą pracować na systemie Windows, niemniej mają zaufanie do Macbooka. Możemy powiedzieć na jego temat całkiem sporo, ale prawda będzie taka, iż awarii nie da się uniknąć. Zalanie Macbooka jest jedną z najczęściej występujących awarii poza koniecznością wymiany klawiatury albo baterii. Kwestia jego naprawy wygląda identycznie, jak w wypadku smartwatcha - najlepszym rozwiązaniem będzie udanie się do dedykowanego serwisu. Konieczność wymiany baterii w smartwatchu Smartwatche są zegarkami, z których korzysta się coraz częściej. Nie można się temu dziwić, gdyż ułatwiają nam one monitorowanie aktywności, a poza tym są po prostu zwykłymi czasomierzami. Nie dość, iż są to nowoczesne produkty łączące się z telefonami, to także za ich sprawą możemy podnosić swój sportowy poziom. Niemniej jednak, jak w każdym zegarku, zaistnieć może konieczność wymiany jego baterii. Taka wymiana winna być przeprowadzona w zatrudniającym odpowiednich fachowców serwisie Apple. Jest to sprzęt o sporej wartości, zatem oddanie go w nieodpowiednie ręce, w tym także do zwykłego salonu, może zakończyć się przykrymi konsekwencjami. « powrót do artykułu
  22. Młodzi mężczyźni o dość wysokich dochodach są grupą najbardziej podatną na manipulacje za pomocą pseudoprofesjonalnego pustosłowia dotyczącego finansów. Badamy proces decyzyjny dotyczący spraw finansowych. Wiele osób uważa, że ekonomia i rynki kapitałowe są trudne do zrozumienia. Mamy tam do czynienia z pozornie imponującą terminologią, pełną żargonu i sloganów, których w pełni nie rozumiemy, mówi profesor Gustav Tinghög z Uniwersytetu w Linköping. Obiektem badań były manipulacje za pomocą profesjonalnie brzmiącego pustosłowia. Niekoniecznie jest ono nieprawdziwe, ale składa się z luźno powiązanych terminów, które brzmią profesjonalnie i znacząco. W rzeczywistości takie pustosłowie nic nie znaczy. Służy ono jedynie zmyleniu słuchacza. Już wcześniejsze badania wykazały, że osoby podatne na takie pustosłowie mają mniej analityczne umysły i niższą inteligencję słowną. Takie osoby często wierzą w nieprawdziwe informacje i teorie spiskowe. Badania wykazały też, że osoby potrafiące dobrze wylewać z siebie takie pustosłowie są postrzegane jako bardziej inteligentne od innych. To akurat najczęściej jest prawdą. Gustav Tinghög. Daniel Västfjäll i Mario Kienzler skupili się na pustosłowiu dotyczącym finansów. Na przekazach brzmiących profesjonalnie, które jednak są całkowitym nonsensem. Wyniki swoich badań opublikowali właśnie w Journal of Behavioral and Experimental Finance. Uczeni skonstruowali specjalną skalę, na której badani mieli oceniać znaczenie zdań będących zarówno całkowitym nonsensem, jak i cytatami ze zdobywców Nagrody Nobla z dziedziny ekonomii. W ten sposób naukowcy sprawdzali zdolność badanych do odróżnienia sensownego przekazu ekonomicznego od pustosłowia. Badania przeprowaono na ponad 1000 osobach, a każda z nich miała ocenić wypowiedzi dotyczące produktów i usług finansowych, takich jak inwestycje, pożyczki czy zarządzanie pieniędzmi. Uczestników pytano m.in. czy oceniane przez nich zdania zawierają prawdę czy kłamstwo. Okazało się, że grupą najbardziej podatną na manipulacje dotyczące finansów są młodzi dobrze zarabiający mężczyźni. Przeceniają oni bowiem swoją wiedzę na temat finansów. Z kolei grupą, która najlepiej potrafiła wyłapać manipulacje i pustosłowie dotyczące finansów były starsze kobiety o niższych dochodach. One bowiem nie przeceniały swojego doświadczenia w finansach. « powrót do artykułu
  23. Francuska policja wszczęła śledztwo po tym, gdy okazało się, że odkryty przed kilku laty świetnie zachowany starożytny statek handlowy został splądrowany. Statek, nazwany Fort Royal 1 zatonął u wybrzeży Cannes w II wieku przed naszą erą. Jednostka została odkryta w 2017 roku. Gdy teraz przystąpiono do pierwszych prac archeologicznych okazało się, że w międzyczasie statek został splądrowany. Złodzieje zabrali część amfor, w których transportowano wino. Specjaliści mówią, że dokonane przez złodziei straty materii historycznej i naukowej są prawdopodobnie znaczne. "Dobrze zachowane statki z tego okresu to wielka rzadkość. Dlatego też możliwość zbadania samej jednostki i jej ładunku jest wyjątkową okazją", czytamy we wspólnym oświadczeniu francuskiego Ministerstwa Kultury i lokalnej policji. Policja w Marsylii rozpoczęła śledztwo, a obszar wokół wraku został wyłączony z żeglugi. UNESCO ocenia, że na dnie światowych mórz i oceanów spoczywa około 3 milionów wraków. "Wrak z samej swojej natury jest świadectwem wymiany handlowej i kulturowej. Jest też kapsułą czasu, w której zapisane zostało życie na pokładzie w momencie zatonięcia jednostki", uważają przedstawiciele UNESCO. Fort Royal 1 został odkryty przez znaną parę archeologów Annę i Jean-Pierre'a Joncheray, którzy od dziesięcioleci przeczesują dno Morza Śródziemnego. Jean-Pierre zmarł w 2020 roku w wieku 79 lat. « powrót do artykułu
  24. W uruchomionym ponownie po trzech latach Wielkim Zderzaczu Hadronów rozpoczęto nowe testy modelu, który ma wyjaśnić masę neutrina. Zgodnie z Modelem Standardowym te cząstki, których nie można podzielić na mniejsze składowe – jak kwarki czy elektrony – zyskują masę dzięki interakcji z polem bozonu Higgsa. Jednak neutrino jest tutaj wyjątkiem. Mechanizm interakcji z bozonem Higgsa nie wyjaśnia jego masy. Dlatego też fizycy badają alternatywne wyjaśnienia. Jeden z modeli teoretycznych – mechanizm huśtawki, seesaw model – mówi, że znane nam lekkie neutrino zyskuje masę poprzez stworzenie pary z hipotetycznym ciężkim neutrinem. Żeby jednak ten model działał, neutrina musiałyby być cząstkami Majorany, czyli swoimi własnymi antycząstkami. Naukowcy pracujący w Wielkim Zderzaczu Hadronów przy eksperymencie CMS postanowili mechanizm huśtawki, poszukując neutrin Majorany powstających w bardzo specyficznym procesie zwanym fuzją bozonów wektorowych. Przeanalizowali w tym celu dane z CMS z lat 2016–2018. Jeśli model huśtawki by działał, w danych z kolizji powinny być widoczne dwa miony o tym samym ładunku elektrycznym, dwa oddalone od siebie dżety cząstek o dużej masie oraz żadnego neutrino. Uczeni nie znaleźli żadnych śladów neutrin Majorany. To jednak nie znaczy, że ich praca poszła na marne. Udało im się bowiem ustalić nowy zakres parametrów, które określają zakres poszukiwań ciężkiego neutrino Majorany. Wcześniejsze analizy w LHC wskazywały, że ciężkie neutrino Majorany ma masę powyżej 650 GeV. Najnowsze badania wskazują zaś, że należy go szukać w przedziale od 2 do 25 TeV. Teraz naukowcy z CMS zapowiadają zebranie nowych danych i kolejne przetestowanie modelu huśtawki. « powrót do artykułu
  25. Naukowcy z Politechniki Wrocławskiej stoją na czele międzynarodowej grupy badawczej prowadzącej wraz z partnerami biznesowymi projekt, którego celem jest sprawdzenie możliwości pozyskiwania cennych metali z wód podziemnych. Uczeni zbadają solanki  znajdujące się na terenie Polski, Czech, Słowacji, Węgier, Hiszpanii i Portugalii. Projektem BrineRIS kieruje dr Magdalena Worsa-Kozak z Wydziału Geoinżynierii, Górnictwa i Geologii PWr. Uczeni przeprowadzą analizy 12 wybranych źródeł i będą badali możliwość pozyskiwania z nich np. litu jedną z trzech rozwijanych właśnie technologii. Lit jest tutaj szczególnie pożądanym metalem. Wykorzystuje się go m.in. do budowy akumulatorów samochodowych. W związku z rosnącą popularnością samochodów elektrycznych popyt na lit może do końca dekady wzrosnąć nawet pięciokrotnie. Obecnie znaczną część litu pozyskuje się ze zbiorników solankowych na wysoko położonych obszarach Boliwii, Argentyny czy Chile. Najpierw bogate w lit wody są pompowane do stawów ewaporacyjnych, tam przez kilka miesięcy woda odparowuje, następnie z osadu pozyskiwany jest węglan litu, który poddaje się kolejnym obróbkom. Jednak taki sposób pozyskiwania litu ma negatywny wpływ na środowisko naturalne. Stawy zajmują olbrzymie powierzchnie, prowadzi to też do obniżenia poziomu wód gruntowych z powodu wypompowywania solanek. Kolejnym problemem są środki chemiczne używane w tej metodzie. Dlatego też w wielu miejscach prowadzi się prace nad technologiami bezpośredniej ekstrakcji litu. Są one niezależne od pogody, ale problem stanowi cena energii elektrycznej używanej w tej metodzie. Rozwiązaniem może być sięgnięcie do solanek geotermalnych. Można by z nich uzyskiwać lit, a cały proces byłby zasilany energią pozyskiwaną z samej solanki. W ramach projektu BrineRIS analizowane będą dane dotyczące występowania solanek oraz ich składu, ze szczególnym uwzględnieniem litu, strontu i baru. Obecnie te dane są bardzo rozproszone. Nie ma jednego miejsca, w którym zainteresowany przedsiębiorca mógłby przejrzeć przekrojowo takie informacje. Do tego część np. badań składu chemicznego solanek została przeprowadzona w ramach projektów naukowych czy inwestycyjnych związanych z innymi tematami i te dane nie zostały nigdy przeanalizowane pod kątem odzysku pierwiastków, ani w jakiejkolwiek formie upublicznione, mówi dr Worsa-Kozak. Ponadto przeprowadzona zostanie analiza solanek pod kątem pozyskania z nich litu za pomocą jednej z trzech technologii. Elektrolitycznymi metodami pozyskiwania tego pierwiastka zajmą się naukowcy z Uniwersytetu Gandawskiego, technologią adsorbcyjną specjaliści z fińskiej służby GTK, a ekstrakcją rozpuszczalnikową GTK we współpracy z Politechniką Wrocławską. Będziemy także analizować te solanki, które mają niższe temperatury, czyli np. około 40 czy 60 stopni C. i w związku z tym nie nadają się do produkcji energii elektrycznej. Mogą natomiast być odpowiednie do produkcji ciepła i dlatego naukowcy z TU Freiberg będą klasyfikować te solanki, z których ciepło można byłoby wykorzystywać do poprawy samego procesu technologicznego, np. do podgrzania chłodniejszej wody i poprawy efektywności testowanych technologii, zmniejszając ich koszty, dodaje kierująca projektem. « powrót do artykułu
×
×
  • Dodaj nową pozycję...