Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36957
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    225

Zawartość dodana przez KopalniaWiedzy.pl

  1. Po lewej czy po prawej stronie? Obecnie nie mamy tego dylematu i w większości krajów na świecie jeździmy po prawej. Jednak jeszcze niedawno liczba państw, w których obowiązywał ruch lewostronny była znacznie większa, niż obecnie. Po lewej stronie jeżdżono w Szwecji czy Danii, a w Austrii w pierwszej połowie XX wieku w części kraju obowiązywał ruch lewo-, a w części prawostronny. Teraz wszyscy Austriacy jeżdżą po prawej. Kto jednak ma rację i który sposób poruszania się jest bardziej właściwy czy uzasadniony? Tego droga, kto silniejszy Przez większość historii ludzkość nie potrzebowała przepisów dotyczących ruchu na drogach. Nawet w tak rozwiniętych państwach jak Imperium Rzymskie, z jego rozbudowaną siecią dróg, nie istniały odgórnie narzucone zasady poruszania się. Większość dróg było wąskich, więc wprowadzanie obowiązku jazdy po konkretnej stronie i tak mijało się z celem. Nawet na szerokich drogach jeżdżono środkiem, po koleinach, a pierwszeństwo miał ten, kto je wymusił. Większy, silniejszy czy znaczniejszy mógł więc zostać w wygodnych bezpiecznych koleinach, a mniejszy musiał zjechać wozem na bok i liczyć na to, że nie ugrzęźnie na poboczu. Jedynie na kilku szerokich mostach wprowadzono zasady mijania się po konkretnych stronach. Badania kolein na drogach w ruinach Pompejów sugerują, że w mieście tym jeżdżono po prawej stronie. Jednak była to preferencja kulturowa, a nie odgórny nakaz. Co nie znaczy, że rządzący w Imperium nie zajmowali się ruchem drogowym. Wiemy, że już w I wieku przed naszą erą ruch kołowy w Rzymie stanowił tak wielki problem, iż Juliusz Cezar wydał zakaz poruszania się powozów i rydwanów przed godziną 15. Wyjątek wprowadzono dla wozów z materiałami budowlanymi na potrzeby świątyń lub innych robót publicznych. Zarządzenie miało ułatwić ruch pieszy w mieście. Ruch może i ułatwiło, ale miało to swoje konsekwencje. Ponad 100 lat później poeta Juwenalis w jednej ze swoich satyr narzeka, że hałas czyniony przez wozy w nocy nie pozwala ludziom spać. Pierwsze zasady Najstarszy zapis zasad poruszania się po drodze znajdziemy prawdopodobnie w Zhou Li (Obyczaje Zhou) z II w. p.n.e. Dzieło opisuje organizację państwa zachodniej dynastii Zhou (1046 p.n.e. – 771 p.n.e.). W księdze czytamy, że na drogach mężczyźni zajmują prawą stronę, kobiety lewą, a wozy jadą środkiem. Jednak były to nie tyle przepisy ruchu drogowego, co opis struktury społecznej. Gdy zaś trzeba było się minąć, o tym, kto którą stronę zajmie, decydował przypadek lub obyczaj, nie nakaz prawny. I takie zwyczajowe zasady nie dotyczyły całości ruchu, a określały, kto komu ma ustąpić z drogi.  W niektórych miejscach władze dość wcześnie regulowały pewne zasady poruszania się. Sachsenspiegel, saksońskie prawo z początków XIII wieku, mówiło, że pieszy ma ustąpić konnemu, konny wozowi, a wóz pusty wozowi pełnemu. Taki sposób pojmowania ruchu utrzymał się przez wiele wieków. Jeszcze w 1930 roku w raporcie australijskiego rządu znalazło się zalecenie, by na wąskich brukowanych drogach pierwszeństwo miał pojazd cięższy, nawet gdyby oznaczało to, że pojazd lżejszy musi częściowo zjechać z drogi. Obyczaj najważniejszy Dla osób pieszych bardziej naturalnym jest trzymanie się prawej strony. Niektórzy twierdzą, że dzieje się tak, gdyż większość ludzi jest praworęczna, więc żołnierz niosący tarczę na lewym ramieniu, wolał mieć ewentualnego napastnika po swojej lewej stronie, zatem w niespokojnych czasach mijał idącego z naprzeciwka człowieka wybierając prawą stronę drogi. W sytuacji, gdy zbrojny nie miał tarczy, to mając przypasaną broń po lewej stronie mógł się nią szybciej zasłonić, gdy potencjalny napastnik również był po lewej. Mijając się z nim wybierał więc prawą stronę drogi. To jednak tylko dywagacje. Pewnym jest zaś, że wybór prawej strony jest jest naturalny podczas prowadzenia zwierząt. Trzymamy je prawą ręką, więc wygodniej jest iść z lewej strony zwierzęcia, wybierając prawą stronę drogi. W Japonii zaś savior-vivre wymagał, by mijać się tak, aby przypasany u boku miecz był dalej od mijanej osoby. Tym bardziej, że na wąskich uliczkach miast mijający się samurajowie, idąc prawą stroną, mogli przypadkiem zderzyć się mieczami co mogło zostać uznane za obrazę i powód do pojedynku. Rozsądnie więc było zejść na lewą stronę, by uniknąć przypadkowego zderzenia i nieporozumienia towarzyskiego. Zwyczaj ten został sformalizowany, gdy powstawała japońska sieć kolejowa.Była ona budowana przez Brytyjczyków, więc tutaj nałożyły zwyczaj obu krajów i pociągi jeździły lewym torem. Ostatecznie przepisy z 1924 roku uregulowały kwestię ruchu lewostronnego. Do dzisiaj Japonia jest jednym niewielu państw nie będących w przeszłości brytyjską kolonią, w których obowiązuje ruch lewostronny. Po drugiej stronie oceanu koloniści mieszkający na terenie dzisiejszych Stanów Zjednoczonych przywieźli ze sobą różne zwyczaje, więc brytyjskie kolonie w Ameryce Północnej nie zostały zdominowane przez brytyjski zwyczaj poruszania się lewą stroną. Co więcej, wszystkie dostępne dowody wskazują, że w kolonialnej Ameryce Północnej poruszano się zwykle po prawej stronie drogi. Wozy przesądziły sprawę Historycy zgadzają się co do tego, że najważniejszym impulsem utrwalenia ruchu prawostronnego było pojawienie się wozów typu Conestoga. Conestoga był ciężkim wozem, prototypem dla słynnych szkunerów prerii, zdolnym do przewożenia nawet do 6 ton ładunku i był ciągnięty przez 4-6 zwierząt. Po raz pierwszy wozy tego typu były używane do transportu pszenicy pomiędzy doliną Conestoga w Pennsylwanii a pobliskimi miastami. Wozy nie miały specjalnego siedziska. Woźnica albo szedł po lewej, albo siedział lub stał na tzw. lazy board umieszczonej z lewej strony pomiędzy osiami wozu, gdzie znajdował się hamulec, albo też jechał na oklep na ostatnim zwierzęciu po lewej. Lewa strona była naturalnym wyborem, gdyż większość ludzi jest praworęczna, więc lejce trzymali w prawej ręce. A skoro woźnica znajdował się po lewej, to naturalnym wyborem było mijanie się wozów na wąskich drogach po prawej stronie, dzięki czemu powożący mogli pilnować, by nie zahaczyć się wystającymi osiami. Wozy Conestoga pojawiły się około 1750 roku i sposób powożenia nimi miał tak wielki wpływ na obyczaj poruszania się po drogach, że prawostronny ruch przyjęto w najwcześniejszych amerykańskich przepisach regulujących tę kwestię. W 1792 roku władze Pennsylwanii nakazały, by wozy mijające się na Pennsylvania Turnpike pomiędzy miastami Lancaster i Filadelfia, wybierały prawą stronę drogi. Pierwsze prawo regulujące ruch na wszystkich drogach stanowych zostało przyjęte w Nowym Jorku w 1804 roku i nakazywało ono ruch prawostronny. W roku 1813 takie samo rozwiązanie przyjął stan New Jersey. Z czasem podobne zasady wprowadziły inne stany, gdy więc w USA zaczęły powstawać pierwsze samochody, ich twórcy umieszczali kierownice po lewej strony, by – podobnie jak w przypadku wozów Conestoga – kierowcy mogli mijać się jadąc po prawej stronie drogi. W Meksyku podróżowano głównie po prawej stronie, jeszcze zanim kraj uzyskał niepodległość od Hiszpanii. A prawostronną zasadę poruszania się tylko wzmocnił import samochodów z USA. Miały one kierownice z lewej strony, więc jeżdżono po prawej. Amerykańskie samochody prawdopodobnie miały też wpływ na kształtowanie się prawostronnego ruchu w Kanadzie, ale tam był to długotrwały proces. W prowincji Ontario jeżdżono po prawej stronie już w 1812 roku, ale na przykład w Nowej Szkocji jeszcze w roku 1922 poruszano się po lewej. W Europie sytuacja nie była tak klarowna. We Francji na przełomie XVIII i XIX wieku stosowano wozy dostawcze podobne do Conestoga. Woźnica siedział na ostatnim koniu po lewej. Zatem mijające się wozy zjeżdżały na prawo. Zasadę tę zaczęli stosować też i cywile. Wraz z podbojami Napoleona zasada ruchu prawostronnego zaczęła rozpowszechniać się w Europie. W 1852 roku wydano we Francji dekret, dotyczący głównych dróg i ulic miejskich, w którym nakazano ruch prawostronny. Reguły takie przyjmowały też inne kraje. W Rosji ruch prawostronny wprowadzono jeszcze za caratu, na Bliskim Wschodzie rozpowszechnił się on za czasów Imperium Osmańskiego, a w Chinach wprowadzono ją pod rządami Kuomintangu w 1946 roku. Przy zasadzie ruchu lewostronnego pozostała Wielka Brytania i jej kolonie. Ruch lewostronny Dlaczego więc Brytyjczycy jeżdżą inaczej niż reszta Europy? Poruszanie się lewą stroną drogi było na Wyspach powszechnym zwyczajem. A został on wzmocniony konstrukcją brytyjskich wozów z XVIII i XIX wieku. Były one mniejsze niż Conestoga i... miały z przodu ławkę. Ławka zaś dawała woźnicy więcej swobody. I zwykle woźnica siadał po prawej stronie koni, by móc swobodnie prawą dłonią operować batem, bez obawy, że zahaczy o ładunek z tyłu. Mijając inny wóz zjeżdżano więc na lewo. W powozach przewożących pasażerów woźnica również siadał po prawej, a obok niego siedział pomocnik, który mógł szybko zeskoczyć i pomóc pasażerom przy wysiadaniu. Pierwsze na Wyspach prawo nakazujące korzystanie z konkretnej strony drogi pojawiło się już w 1669 roku. I przepis ten mógł stać się prekursorem wszystkich brytyjskich praw dotyczących organizacji ruchu. Nakazano wówczas, by na London Bridge wozy trzymały się lewej strony. W 1772 roku Szkocja nakazała ruch lewostronny na wszystkich swoich drogach. A zasada ta została ostatecznie przypieczętowana w 1835 roku, kiedy to Highway Act narzucił ruch lewostronny na wszystkich drogach Wielkiej Brytanii. Gdy więc na Wyspach zaczęto produkować samochody, kierownice montowano z prawej strony. Zasada ruchu lewostronnego trafiła też do brytyjskich kolonii. Obecnie obowiązuje ona w ponad 60 państwach i terytoriach zależnych, głównie w Wielkiej Brytanii i części jej byłych kolonii. Z kolei na dwóch brytyjskich terytoriach zależnych – Gibraltarze i Brytyjskim Terytorium Oceanu Indyjskiego (BIOT) – obowiązuje ruch prawostronny. Gibraltar wybrał tę zasadę ze względu na granicę lądową z Hiszpanią. Z kolei BIOT składa się z niewielkiej wyspy Diego Garcia i tysięcy miniaturowych niezamieszkanych wysepek. Na Diego Garcia jest duża amerykańska baza wojskowa, więc wprowadzono tam ruch prawostronny. « powrót do artykułu
  2. Niejednokrotnie informowaliśmy, że rosnąca antybiotykooporność – wywołana nadmiernym używaniem antybiotyków w medycynie, hodowli zwierząt czy kosmetykach – stanowi coraz poważniejsze zagrożenie. Na łamach The Lancet ukazały się właśnie wyniki pierwszej kompletnej ogólnoświatowej analizy skutków antybiotykooporności. Wynika z niej, że w 2019 roku patogeny oporne na działanie antybiotyków zabiły 1,24 miliona osób i przyczyniły się do śmierci 4,95 miliona kolejnych. Autorzy analizy oszacowali liczbę zgonów w 204 krajach i terytoriach spowodowanych przez 23 antybiotykooporne szczepy bakterii oporne na co najmniej jeden z 88 antybiotyków. Dane zebrano ze specjalistycznej literatury, szpitali, systemów ochrony zdrowia i innych źródeł. Objęły one w sumie 471 milionów rekordów. Następnie wykorzystano modele statystyczne, by oszacować wpływ antybiotykoopornych szczepów na poszczególne państwa. Autorzy badań szacowali liczbę zgonów, w których infekcja odgrywała rolę, proporcję zgonów w stosunku do liczby infekcji, proporcję zgonów przypisywanych konkretnemu patogenowi, rozpowszechnienie antybiotykoopornego szczepu konkretnego patogenu oraz nadmiarowe ryzyko zgonu powiązane z występowaniem na danym terenie takiego patogenu. Na tej podstawie udało się oszacować zarówno liczbę zgonów powodowanych bezpośrednio przez antybiotykooporne bakterie, jak i liczbę zgonów powiązanych z ich występowaniem. Najbardziej dotknięte problemem antybiotykooporności są kraje o niskich i średnich dochodach. A Afryce Subsaharyjskiej liczba ofiar antybiotykoopornych bakterii wynosiła w 2019 roku średnio aż 27,3 na 100 000. Na przeciwnym biegunie znajduje się Australazja z liczbą 6,5 zgonu na 100 000. Ludzi na całym świecie zabijają przede wszystkim antybiotykooporne szczepy Escherichia coli, Staphylococcus aureus, Klebsiella pneumoniae, Streptococcus pneumoniae, Acinetobacter baumannii i Pseudomonas aeruginosa. Z analiz wynika, że bezpośrednio zabiły one łącznie 929 000 osób oraz przyczyniły się do 3,57 miliona zgonów powiązanych z antybiotykoopornymi bakteriami. Najwięcej, bo ponad 100 000, ofiar ma na koncie oporny na metycylinę gronkowiec złocisty (MRSA), który spowodował zgon ponad 100 000 osób. Inne wymienione patogeny zabijały od 50 do 100 tysięcy osób. Wbrew pozorom liczby sumują się do wspomnianych 900 tysięcy, gdyż naukowcy liczyli nie gatunki, a szczepy, zatem na przykład policzono zarówno ofiary opornej na karbapenemy K. pneumonie jak i ofiary K. pneumoniae opornej na cefalosporyny trzeciej generacji. « powrót do artykułu
  3. W połowie stycznia do jednego z oddziałów księgarni Waterstones (przy Gower Street w Londynie) dotarł nietypowy list. Nadawca przesłał pieniądze za książki, za które zapomniał ponoć zapłacić w 1974 r. Droga załogo Waterstones. W 1974 r. zapomniałem zapłacić za parę książek. Minęło sporo czasu. Biorąc poprawkę na inflację, kosztowałyby one ok. 100 funtów. By zrekompensować brak płatności, przesyłam zatem 120 funtów - napisał anonimowy nadawca. Księgarnie to niesamowite miejsca z fantastycznymi klientami, zarówno obecnymi, jak i byłymi - napisano na profilu placówki z Gower Street na Twitterze. Księgarnia docenia gest i przekazuje tę drobną kwotę BookTrust, brytyjskiej organizacji charytatywnej promującej czytanie wśród dzieci. Mamy nadzieję, że anonimowy klient to zaaprobuje i że być może znowu się u nas pojawi! « powrót do artykułu
  4. Niedawno firma Caladan Oceanic pochwaliła się znalezieniem wraku okrętu USS Johnson, zatopionego w 1944 roku. Jednak zanim trafiono na okręt, zauważono coś, co poruszyło nie historyków, a biologów. A odkrycia dokonano przypadkiem, gdy podczas poszukiwania okrętu batyskaf kierowany przez Victora Vescovo zboczył o kilka kilometrów z kursu. Vescovo i jego kolega płynęli batyskafem przez głębiny Rowu Filipińskiego, a ich podróż była rejestrowana przez kamerę. Film trafił d Alana Jamiesona z University of Western Australia, który specjalizuje się w badaniu głębin oceanicznych. Jamieson przeglądał nagranie w nadziei, że znajdzie na nim coś interesującego. Nagle, na kilku sekundach nagrania, pojawił się kształt, którego uczony się nie spodziewał. Przewinął i obejrzał jeszcze raz. Naukowiec szybko rozpoznał kształt widoczny w reflektorach batyskafu. Jamieson oglądał kałamarnicę. Nie byłoby w tym nic dziwnego, gdyby nie fakt, że nagrania dokonano na głębokości 6200 metrów. Zwierzę pływało o 1500 głębiej niż jakakolwiek inna wcześniej zauważona kałamarnica. Australijski naukowiec wysłał fragment filmu do zoologa Mike'a Vecchione ze Smithsonian Institution. Ten zidentyfikował zwierzę jako należące do rzadko spotykanego i słabo znanego rodzaju Magnapinna. To bardzo dziwne zwierzęta. Dryfują z rozłożonymi ramionami, a pod nimi zwisają długie, podobne do spaghetti struktury. Zawierają one mikroskopijne przyssawki, za pomocą których kałamarnica łapie ofiary. Zwierzę, które zarejestrowano było nieduże. Długość jego płaszcza wynosiła ok. 10 cm, czyli trzykrotnie mniej niż płaszcz największych znanych Magnapinna. Nie widać też długich ramion. Zdaniem specjalistów, oznacza to, że Vescovo spotkał młodego osobnika. Eksperci mówią, że to fascynujące odkrycie. Kałamarnice znajdują się bowiem na szczycie morskiego łańcucha pokarmowego, ich istnienie zależy od złożonej sieci powiązań ekologicznych. Odkrycie kałamarnicy na głębokości 6212 metrów oznacza, że musi tam istnieć wiele innych form życia, umożliwiających kałamarnicom na przetrwanie na tak znacznych głębokościach. Oznacza to też, że jeśli na różnych etapach rozwoju kałamarnice przebywają na takich głębokościach, to aktywność człowieka może być dla nich większym zagrożeniem, niż sądzono. Osady wzbijane przez ludzi podczas działalności wydobywczej mogą mieć wpływ na populację tych zwierząt, mówi Bruce Robinson z Monterey Bay Aquarium Research Institute. Obawy te potwierdziły się, gdy w końcu odkryto wrak USS Johnson. Mimo, że opadł on na dno i wbił osady przed niemal 80 laty, okolica wygląda tak, jakby było to wczoraj, mówi Robinson. W dalszej odległości od wraku widać ślady życia, ale w jego pobliżu, tam, gdzie doszło do największego przemieszczenia osadów, nie zauważono żadnych istot żywych. To sugeruje, że jeśli dojdzie do zaburzenia dna na tak dużych głębokościach – na przykład w wyniku działalności wydobywczej – to życie znika stamtąd na całe dekady. « powrót do artykułu
  5. Białowieski Park Narodowy przygotowuje się do dorocznej inwentaryzacji żubrów żyjących na wolności w polskiej części Puszczy Białowieskiej. Jeśli zimowa pogoda się nie zmieni, liczenie tych zwierząt chce przeprowadzić w najbliższych dniach. Doroczne liczenie żubrów w Puszczy Białowieskiej jest przeprowadzane zawsze zimą. Pracownicy parku narodowego, leśnicy i naukowcy wykorzystują wtedy fakt – przy założeniu, że jest mróz i śnieg – że zwierzęta zbierają się w większe grupy w miejscach dokarmiania i przez dłuższy czas nie oddalają się stamtąd, a pojedyncze sztuki można wtedy wytropić np. po śladach na śniegu. Mieliśmy je w minionym tygodniu liczyć, ale pogoda sprawiła, że żubrów nie było widać, więc liczenie przesunęliśmy na ten tydzień. Była odwilż i nie było śniegu, żubry wówczas słabiej się trzymają przy tych miejscach dokarmiania, a zależy nam na tym, żeby zobaczyć jak największą część populacji - powiedziała PAP dr Katarzyna Daleszczyk z ośrodka hodowli żubrów BPN. Przyznała, że przy dużym rozproszeniu zwierząt liczenie jest bardzo trudne, bo utrudniona jest ich obserwacja. Nie jesteśmy w stanie przeczesać całej puszczy – dodała Daleszczyk, zaznaczając że monitoring zwierząt trwa już od kilku tygodni. Przyznała, że tej zimy również sytuacja na polsko-białoruskiej granicy wpływa na zachowania żubrów, które są częściej płoszone czy niepokojone tam, gdzie zwykle bytują. Czasami pojawiają się w miejscach, albo wychodzą z miejsc, o których wcześniej nawet nie wiedzieliśmy, że tam chodzą – powiedziała, wskazując na takie miejsca w rezerwacie ścisłym. Podczas inwentaryzacji stada przeprowadzonej poprzedniej zimy, doliczono się w polskiej części Puszczy Białowieskiej 715 żubrów, w tym 70 młodych urodzonych w 2020 roku. Obserwacje prowadzono – jak zwykle – nie tylko w Białowieskim Parku Narodowym, ale także w nadleśnictwach wokół parku: Białowieża, Bielsk, Browsk, Hajnówka, Nurzec i Rudka. Na razie dokładnie nie wiadomo, ile młodych urodziło się w 2021 roku. Tzw. upadków, czyli przypadków śmierci z powodów naturalnych lub po atakach drapieżników, było ok. dwudziestu, siedem osobników zostało w ub. roku wyeliminowanych w ramach odstrzałów selekcyjnych, a jednego żubra odłowiono. Sześć młodych samców zostało wypuszczonych na wolność z tzw. hodowli wolnej, by wzbogacić pulę genetyczną populacji w Puszczy Białowieskiej. « powrót do artykułu
  6. Po trwającej miesiąc podróży Teleskop Kosmiczny Jamesa Webba (JWST) trafił właśnie na orbitę wokół punktu Lagrange'a L2. Przez pięć kolejnych miesięcy Webb będzie przygotowywany do pracy, a rozpoczęcie badań naukowych zaplanowano na czerwiec. Wcześniej opisywaliśmy budowę teleskopu i jego cele naukowe oraz dlaczego wybrano punkt L2 i dlaczego JWST będzie wokół niego krążył, a nie został umieszczony dokładnie w nim. Zwierciadła i instrumenty naukowe Webba jeszcze nie osiągnęły wymaganej stabilnej temperatury pracy. Muszą się jeszcze nieco chłodzić. A schładzać zaczęły się, i to bardzo szybko, gdy tylko teleskop rozwinął osłonę termiczną. Procesu tego nie pozostawiono jednak całkowicie naturze. Jest on ściśle kontrolowany poprzez umieszczenie w strategicznych miejscach teleskopu elektrycznie podgrzewanych pasków. Dzięki nim można było zarówno kontrolować równomierne kurczenie się całej struktury teleskopu, jak i upewnić się, że zabrana w Ziemi wilgoć odparuje i nie zamarznie na elementach optycznych czy czujnikach, co mogłoby negatywnie wpłynąć na prowadzone badania naukowe. Teraz, gdy Webb jest już w miejscu swojego przeznaczenia, centrum kontroli wykorzysta Fine Guidance Sensor do nakierowania teleskopu na jedną z jasnych gwiazd i sprawdzenie, czy obserwatorium jest w stanie wybrać taki cel, skupić się na nim i śledzić go w miarę, jak będzie podróżowało po swojej orbicie. Weryfikacja prawidłowej pracy zostanie przeprowadzona głównie za pomocą urządzenia NIRCam. Jednak, jako że zwierciadło główne teleskopu nie jest jeszcze odpowiednio ustawione, otrzymamy do 18 rozmazanych obrazów obserwowanej gwiazdy. Po potwierdzeniu, że Webb jest w stanie śledzić wybrany cel rozpocznie się żmudny kilkumiesięcznych proces ustawiania wszystkich 18 segmentów zwierciadła głównego tak, by całość działała jak jedno wielkie lustro. Poszczególne segmenty zwierciadła będą poruszały się z dokładnością liczoną w nanometrach, a cały proces zajmie trzy pełne miesiące. W międzyczasie zakończy się proces schładzania Webba i wszystkie urządzenia będą miały najniższą temperaturę możliwą do osiągnięcia w sposób pasywny. Osłona termiczna zapewni teleskopowi stabilną temperaturę pracy poniżej -223,15 stopni Celsjusza. Wówczas włączy się aktywny system chłodzenia, którego zadaniem jest zapewnienie optymalnej temperatury pracy jednemu z czterech instrumentów Webba, MIRI. Mid-Infrared Instrument to niezwykle czuła kamera i spektrograf działające w zakresie średniej podczerwieni (5–28 nm). Urządzenie jest tak czułe, że mogłoby dostrzec z Ziemi świeczkę zapaloną na jednym z księżyców Jowisza. By jednak pokazać pełnię swoich możliwości potrzebuje bardzo niskich temperatur. Dlatego też potrzebny był innowacyjny dwustopniowy system chłodzenia aktywnego, który zapewni MIRI temperaturę pracy wynoszącą -266,16 stopni Celsjusza. Od tej pory Webb będzie zdolny do uzyskania wysokiej jakości obrazów odległych gwiazd czy galaktyk. Piąty i szósty miesiąc od startu to czas kalibracji wszystkich czterech instrumentów naukowych i testowania różnych ich trybów pracy na reprezentatywnych celach w kosmosie. Sprawdzona zostanie też zdolność teleskopu do śledzenia „poruszających się” pobliskich obiektów, takich jak asteroidy, komety, planety czy księżyce w Układzie Słonecznym. Wkrótce potem NASA podzieli się wynikami swoich testów i pochwali pełnymi możliwościami teleskopu.   « powrót do artykułu
  7. To im zawdzięczamy twórczość Tolkiena, Camusa i Faulknera w polskich przekładach... - opowieść o wybitnych polskich tłumaczkach: Joannie Guze, Annie Trzeciakowskiej-Przedpełskiej i Marii Skibniewskiej. „Trzy tłumaczki” to opowieść o Marii Skibniewskiej, Joannie Guze i Annie Przedpełskiej-Trzeciakowskiej – trzech wielkich i wybitnych polskich tłumaczkach. To także opowieść o warsztacie tłumaczy, ich wyborach, walkach – nie tylko o przekład, zlecenie czy o autora, ale także o przetrwanie. Historie tych, którzy zazwyczaj pozostają – niesłusznie – w cieniu. Joanna Guze „Poniedziałek – on. Wtorek – on. Środa – on. […] Joanna Guze po cichu robiła to samo, co Witold Gombrowicz czynił z hukiem i pompą: wprowadzała ego do literatury polskiej. Tyle że było to ego (a właściwie ega) cudze. O sobie milczała”. Anna Trzeciakowska-Przedpełska „Z jednej strony jej bibliografię wypełniają klasycy, z drugiej – tabuny zwierząt. Biały Kieł, Lassie, menażeria z książek Geralda Durrella, konie u Faulknera [...]”. Maria Skibniewska „Rozziew między astronomicznym dorobkiem przekładowym Skibniewskiej a znikomością śladów, jakie po niej pozostały, poraża. Trudno przez chwilę nie pomyśleć, że coś jest na rzeczy. Że chciała zniknąć, rozpuścić się w przekładzie”. Trzy tłumaczki. Im właśnie zawdzięczamy dostęp do dużej części klasyki francuskiej i anglosaskiej, ich nazwiska widnieją w polskich wydaniach Baudelaire’a, Faulknera, Salingera, a bibliografie liczą po sto pozycji. Ich losy splatały się z historią życia literackiego w Polsce i z działalnością potężnych wydawnictw, jakimi za czasów PRL-u były Czytelnik i PIW; ich praca kształtowała wyobraźnię i gusty dużej części powojennej inteligencji. Krzysztof Umiński z wielką wnikliwością wydobywa z cienia osoby zwykle ukryte za stosem cudzych książek. Prezentuje ich warsztat, ale także ich niebanalne życiorysy, w różny sposób wplątane w historię dwudziestego wieku, od armii Berlinga po powstanie warszawskie. A wreszcie poznajemy doświadczenia trzech tłumaczek związane już bezpośrednio z ich pracą: cenzuralne perypetie Joanny Guze z esejami Camusa, bezbłędne wyczucie stylu przedwiktoriańskiego przez Annę Przedpełską-Trzeciakowską w przekładach powieści Jane Austen, jawne i ukryte zasadzki trylogii Tolkiena, jakie musiała pokonać Maria Skibniewska. Autor, sam tłumacz, mozolną sztukę przekładu potrafił przedstawić jako przygodę i wyzwanie; dość powiedzieć, że dalsze losy polskiej wersji „Władcy Pierścieni” czyta się właściwie jak kryminał. Małgorzata Szpakowska Krzysztof Umiński (ur. 1984) – debiutował relacjami z podróży po Bliskim Wschodzie drukowanymi w prasie turystycznej. Później publikował recenzje, eseje i wywiady (w „Bluszczu”, „Dwutygodniku”, „Literaturze na Świecie”, „Nowych Książkach”, „Przeglądzie Politycznym”) i pisywał scenariusze („Kamper”, „Córka trenera”). Tłumaczył książki m.in. Alberta Cohena, Sorena Gaugera, Rohintona Mistry'ego, Arundhati Roy i George'a Saundersa oraz francuskie komiksy. Jego przekład reportażu „Masakra w El Mozote” Marka Dannera znalazł się w finale Nagrody Kapuścińskiego. Trenuje tajski boks, stoczył kilka walk, m.in. na Mistrzostwach Polski i Pucharze Polski. „Trzy tłumaczki” to jego debiut książkowy.
  8. Międzynarodowy zespół naukowy pracujący przy projekcie GNOME, w skład którego wchodzą uczeni z Polski, Niemiec, Serbii, Izraela, Korei Południowej, Chin, Australii i USA, ogłosił pierwsze wyniki poszukiwań ciemnej materii za pomocą ogólnoświatowej sieci magnetometrów optycznych. We wspomnianych 8 krajach znajduje się 14 magnetometrów, a do obecnie opublikowanej analizy wykorzystano dane z 9 z nich. GNOME to skrót od Global Network of Optical Magnetometers for Exotic Physics Searches. Celem projektu jest wykrycie charakterystycznego sygnału, który powinien być generowany przez pola ciemnej materii. Właśnie opublikowano dane z miesiąca nieprzerwanej pracy GNOME. Co prawda sygnał z ciemnej materii nie został wykryty, jednak pomiary pozwoliły na ściślejsze określenie, w jakich zakresach należy sygnału poszukiwać. Obecnie wiemy, że wiele obserwowanych zjawisk, jak np. prędkość obrotową gwiazd w galaktykach czy spektrum promieniowania tła, można wyjaśnić przyjmując istnienie ciemnej materii. Jednak samej ciemnej materii nie udało się dotychczas wykryć. Niezwykle lekkie cząstki bozonowe to najbardziej obiecujący kandydaci na ciemną materię. Są wśród nich cząstki podobne do aksjonów (ALP). Można je rozpatrywać jako klasyczne pole oscylujące w określonej częstotliwości. Cechą szczególną takich pól bozonowych jest – wedle jednego z teoretycznie możliwych scenariuszy – że mogą tworzyć one pewne wzorce i struktury. To zaś powoduje, że ciemna materia może mieć różną gęstość w różnych miejscach, tworząc na przykład rodzaj ścian mniejszych niż galaktyka, ale większych niż Ziemia, mówi profesor Dmitry Budker z Uniwersytetu Gutenberga z Moguncji. Jeśli taka ściana napotka Ziemię, będzie się przez nią przesuwała i będzie po kolei wykrywana przez poszczególne magnetometry sieci GNOME, generując w nich charakterystyczne sygnały. Co więcej, sygnały te będą ze sobą skorelowane, w zależności od tego, jak szybko ta ściana będzie się przesuwała i kiedy dotrze do poszczególnych magnetometrów, wyjaśnia jeden ze współautorów badań, doktor Arne Wickenbrock. Sygnał w magnetometrach powinien powstać w wyniku interakcji ciemnej materii ze spinem atomów w urządzeniach. Zgromadzone w nich atomy są wzbudzane za pomocą lasera o określonej częstotliwości, dzięki czemu ich spiny zwrócone są w tym samym kierunku. Przechodzące przez magnetometr pole ciemnej materii powinno zaburzyć ułożenie spinów, co można zmierzyć. Hector Masia-Roig, doktorant pracujący w grupie profesora Budkera, porównuje atomy do chaotycznie tańczących osób. Gdy jednak „usłyszą” odpowiednią częstotliwość lasera, atomy koordynują swój taniec. Ciemna materia może wytrącić je z równowagi, a my możemy bardzo precyzyjnie zmierzyć te zaburzenia. Możliwość skorzystania z ogólnoświatowej sieci magnetometrów pozwoli na określenie, co zaburzyło spiny atomów. Gdy bowiem Ziemia będzie przechodziła przez ścianę ciemnej materii, atomy w poszczególnych stacjach będą stopniowo zaburzane. Dopiero gdy porównamy ze sobą sygnały ze wszystkich stacji, będziemy mogli stwierdzić, co je zaburzyło. Wracając do analogii z tańczącymi – będziemy mogli powiedzieć, czy do zaburzenia doszło dlatego, że pojawił się tancerz, który wypadł z rytmu i przeszkadzał innym, czy też było to zjawisko globalne, spowodowane przez ciemną materię. Wspomniane na wstępie pomiary całego miesiąca pracy GNOME pozwoliły na stwierdzenie, że statystycznie znaczący sygnał nie pojawia się w badanym zakresie masy od 1 do 100 000 femtoelektronowoltów (feV). To zaś oznacza, że naukowcy mogą zawęzić obszar poszukiwań masy cząstek ciemnej materii. W przyszłości naukowcy chcą skupić się na udoskonaleniu magnetometrów i metod analizy danych. Głównym celem ich pracy będzie zwiększenie stabilności działania magnetometrów, by mogły pracować dłużej bez przerw. Ponadto wykorzystywane obecnie atomy metali z grupy litowców zostaną zastąpione atomami gazów szlachetnych. Tak udoskonalony Advanced GNOME ma pozwolić na zwiększenie precyzji pomiarów. « powrót do artykułu
  9. Polscy specjaliści podejmą się opublikowania w opracowaniu krytycznym wszystkich udokumentowanych co do autorstwa utworów Henryka Sienkiewicza. Projektem „Pisma Henryka Sienkiewicza. Edycja krytyczna pierwsza. Z okazji 100. Rocznicy Odzyskania Niepodległości” pokieruje prof. Jolanta Sztachelska z Uniwersytetu w Białymstoku (UwB). Jak podkreślono w komunikacie prasowym uczelni, edycji poddana zostanie nowelistyka, powieści, podróżopisarstwo, publicystyka społeczna i literacka, pisma polityczne, wywiady, ankiety i inne utwory – poza korespondencją prywatną pisarza, która została opracowana i opublikowana. Plan na lata Wg badaczki, realizacja zamierzenia zajmie kilkanaście lat. Pierwszy etap ma potrwać 60 miesięcy; na ten cel przyznano finansowanie w ramach Narodowego Programu Rozwoju Humanistyki (moduł „Dziedzictwo narodowe”). W ciągu tych 60 miesięcy naukowcy chcą opracować i opublikować przynajmniej 10 tomów dzieł noblisty. Kolejne dwa powinny zaś zostać przygotowane do druku. Jeśli projekt będzie kontynuowany i zostaną wdrożone kolejne etapy, planowane jest także opracowanie 1) koncepcji cyfrowej publikacji wybranych utworów pisarza i 2) portalu prezentującego jego warsztat. Koniec końców naukowcy chcieliby opublikować 36 tomów oryginalnych dzieł Sienkiewicza. Jest na co czekać, gdyż zespół wspomina o nowoczesnym opracowaniu edytorskim, z komentarzem, przypisami oraz historią tekstu czy odmianami tekstowymi. Suplementem miałyby być 4 tomy tłumaczeń utworów mających kluczowe znaczenie dla światowego odbioru Sienkiewicza („Ogniem i mieczem”, „Quo vadis” itp.). Skład zespołu Sekretarzem projektu będzie dr Karolina Szymborska z UwB. W skład zespołu wchodzi też kilkunastu badaczy z całego kraju. Są to wybitni znawcy literatury XIX w., sienkiewiczolodzy i osoby, które dopiero rozpoczynają karierę naukową. Prof. Sztachelska chce bowiem wykształcić grupę edytorów zarówno ze średniego, jak i młodszego pokolenia. Czeka ich nie lada wyzwanie, ponieważ problemem mogą być same źródła - niepełne czy niesprawdzone - mnogość wersji oraz wydań poszczególnych utworów i rozproszenie druków (np. w przypadku pism politycznych). Zobaczyć w anachronicznej postaci Sienkiewicza na miarę XXI w. Chcielibyśmy przywrócić dziełu Sienkiewicza stosowną mu pozycję w kulturze współczesnej. Pierwszemu polskiemu laureatowi Nagrody Nobla należy się uwaga i zainteresowanie głębsze niż to, którym obdarza się go obecnie. W naszej ocenie edycja krytyczna może wpłynąć na zmianę wizerunku autora Trylogii. Może być szansą, byśmy w przemienionej w mit, anachronicznej postaci z przeszłości, zobaczyli wreszcie Sienkiewicza na miarę XXI wieku - człowieka zainteresowanego modernizującym się światem, wsłuchanego w swój czas, mającego własny, nieraz bardzo krytyczny stosunek do wielu przejawów życia politycznego i społecznego, nade wszystko zaś - zatroskanego przedłużającą się niewolą, projektującego przyszłość wolnej Polski [...] - podkreśla prof. Sztachelska. Co wpływa na przeinaczenie wizerunku XIX-wiecznego pisarza? Specjalistka wskazuje na 2 powody: bezkrytyczną recepcję popularną, w której pomija się niewygodne wątki niepasujące do wytworzonych mitów i brak źródeł. « powrót do artykułu
  10. Dzisiaj około godziny 20:00 czasu polskiego kontrola naziemna Teleskopu Webba wyda mu polecenie uruchomienia silników i wprowadzi JWST na orbitę wokół punku libracyjnego L2 (punkt Lagrange'a). Teleskop pozostanie w tym miejscu przez co najmniej 10 lat. Jednak już teraz wszystko wskazuje na to, że misję Webba będzie można wydłużyć. Obecnie Teleskop Kosmiczny Jamesa Webba (JWST) znajduje się w odległości mniej niż 6000 km od swojej docelowej orbity i porusza się w jej kierunku z prędkością ok. 200 metrów na sekundę. Najwyższa temperatura po jego gorącej stronie wynosi 55 stopni Celsjusza, a najniższa po stronie zimnej to -210 stopni. Punkt libracyjny (punkt Lagrange'a) to taki punkt w przestrzeni w układzie dwóch ciał powiązanych grawitacją, w którym trzecie ciało o pomijalnej masie może pozostawać w spoczynku względem obu ciał układu. Tutaj mówimy o układzie Słońce-Ziemia i o Teleskopie Webba, czyli trzecim ciele, tym o pomijalnej masie. W układzie takich trzech ciał występuje pięć punktów libracyjnych, oznaczonych od L1 do L5. Na linii Słońce-Ziemia znajdują się trzy z nich. L3 leży za Słońcem z punktu widzenia Ziemi, L1 znajduje się pomiędzy Słońcem a Ziemią, a L2 to miejsce za Ziemią z punktu widzenia Słońca. Zatem L2 był jedyny możliwym do osiągnięcia punktem, w którym osłona termiczna Webba mogła chronić jego zwierciadła i instrumenty naukowe jednocześnie przed ciepłem emitowanym i przez Słońce i przez Ziemię. Teleskop nie zostanie umieszczony w samym punkcie L2, a będzie wokół niego krążył po orbicie, której promień będzie większy od orbity Księżyca. Będzie on wynosił nawet 800 000 kilometrów, a przebycie pełnej orbity zajmie Webbowi pół roku. Dlaczego jednak nie ustawić Webba dokładnie w L2? Punkty libracyjne przemieszczają się wraz z ruchem Ziemi wokół Słońca. Webb musiałby za L2 podążać. L2, podobnie jak L1 i L3 są punktami metastabilnymi. Jeśli narysujemy siatkę przedstawiającą gradient zmian grawitacji w tych punktach, będzie ona miała kształt siodła. Tak jakby punkty te znajdowały się na krawędzi łączącej dwa wystające ponad nią górskie szczyty. W kierunku obu szczytów nasze punkty (L1, L2 i L3) są stabilne. Kulka pchnięta w kierunku jednego ze szczytów, wróci do punktu wyjścia. Jednak po bokach naszej krawędzi opadają doliny i w tych kierunkach punkty te są niestabilne. Znacznie łatwiejszą i bardziej efektywną alternatywą wobec umieszczenia Webba dokładnie w L2 jest wprowadzenie go na orbitę wokół tego punktu. Ma to i tę zaletę, że orbitujący Webb będzie równomiernie oświetlany przez Słońce, nie doświadczy zaćmienia Słońca przez Ziemię. A to bardzo ważne zarówno dla ładowania paneli słonecznych teleskopu jak i utrzymania równowagi termicznej, niezbędnej do precyzyjnej pracy jego instrumentów. Napęd Webbowi na orbicie L2 będą nadawały same oddziałujące siły grawitacyjne. Natomiast, jako, że L2 jest metastabilny, Webb będzie miał tendencję do opuszczenia jego orbity i zajęcia własnej orbity wokół Słońca. Dlatego też co mniej więcej trzy tygodnie odpali silniki, korygując swój kurs. W punktach L4 i L5 tego problemu nie ma. To punkty stabilne, a nasza siatka ze zmianami grawitacji ma tam kształt miski. Zatem obiekty krążące wokół tych punktów, samodzielnie pozostają na orbitach. Dlatego też znamy asteroidy krążące wokół L4 i L5, ale nie wokół pozostałych punktów libracyjnych. Jako że Webb będzie musiał korygować swoją orbitę, czas jego misji jest ograniczony ilością paliwa. Przewidziano, że teleskop będzie pracował przez 10 lat. Już teraz jednak wiemy, że prawdopodobnie uda się ten czas wydłużyć. A to dzięki niezwykle precyzyjnemu wystrzeleniu rakiety Ariane, które wyniosła go w przestrzeń kosmiczna. Ta precyzja spowodowała, że podczas dwóch korekt kursu, jakie Webb wykonał, zużyto mniej paliwa niż planowano. Pozostało go więc na tyle dużo, że prawdopodobnie teleskop pozostanie w L2 znacznie dłużej niż planowano. Musimy bowiem pamiętać, że nie jest planowana żadna misja serwisowa do teleskopu. Więc nie będzie można uzupełnić jego paliwa. Umieszczenie pojazdu w punkcie L2 to dość proste zadanie. Pozostaje więc pytanie, po co były zużywające cenne paliwo korekty kursu? Odpowiedź tkwi w samej architekturze Webba. Teleskop musiał dwukrotnie w czasie lotu odpalić silniki, gdyż rakieta Ariane nadała mu na tyle rozpędu, by mógł przebyć odległość dzielącą go od L2, jednak zbyt mało energii, by mógł całkowicie uciec z pola grawitacyjnego Ziemi. Co prawda tę dodatkową energię Ariane mogłaby mu nadać podczas startu, jednak istniało wówczas ryzyko, że będzie jej nieco za dużo i Webb będzie poruszał się zbyt szybko, by wejść na orbitę wokół L2. Mógłby ją minąć. Problem ten można by rozwiązać wyhamowując teleskop. Jednak manewr hamowania za pomocą silników Webba zużyłby więcej paliwa, niż na korekty kursu. Jednak nie to było głównym problemem, a fakt, że silniki Webba są umieszczone po jego gorącej stronie, tej zwróconej w kierunku Słońce. Zatem Webb, żeby wyhamować, musiałby wykonać obrót o 180 stopni wokół własnej osi. Wówczas jego optyka i instrumenty naukowe, które wymagają bardzo niskich temperatur, zostałyby wystawione na bezpośrednie oddziaływanie Słońca, doszłoby do ich rozgrzania i... roztopienia kleju, którym są spojone. Gdy Webb znajdzie się na swojej orbicie rozpocznie pięciomiesięczny proces testowania i kalibrowania zwierciadeł oraz instrumentów naukowych. Naukowcy etap misji rozpocznie się w czerwcu.   « powrót do artykułu
  11. Naukowcy z Politechniki Rzeszowskiej opracowali program komputerowy do wykrywania i oceny zaburzeń mowy w chorobie Parkinsona. Aplikacja ma też umożliwić spowolnienie procesu degradacji mowy. Choroba Parkinsona jest drugą, pod względem częstości występowania, chorobą neurodegeneracyjną, w przebiegu której następuje uszkodzenie i zanik neuronów w ośrodkowym układzie nerwowym. Jednym z następstw jest stopniowa utrata zdolności komunikacji z otoczeniem za pomocą mowy. Naukowcy z rzeszowskiej politechniki opracowali program komputerowy, który ma pomóc w walce z tą chorobą. Jak poinformowała dr inż. Barbara Wilk, lider zespołu projektowego, rozwiązanie rzeszowskich naukowców umożliwia przede wszystkim przeprowadzenie obiektywnej oceny zaburzeń mowy na podstawie analizy sygnału mowy z uwzględnieniem jego złożonej struktury czasowo-częstotliwościowej, tj. w dziedzinie czasu, częstotliwości oraz czas-częstotliwość. Różne parametry wyznaczone przez program można wykorzystać w diagnostyce medycznej do obiektywnej oceny procesu fonacji, artykulacji i prozodii [brzmieniowe właściwości mowy - PAP] oraz do wykrycia drżenia głosu, charakterystycznego w chorobie Parkinsona – tłumaczy dr Wilk. Program komputerowy naukowców z Politechniki Rzeszowskiej ułatwi logopedzie wykonanie badania oraz umożliwi archiwizację wyników – w postaci plików dźwiękowych oraz protokołów zawierających wyniki testów logopedycznych. Jednym z elementów tego rozwiązania będzie też moduł programu przeznaczony dla pacjenta do ćwiczeń logopedycznych. Będzie on stymulować chorego do wykonywania regularnych ćwiczeń w domu, w celu spowolnienia procesu degradacji jego mowy. Jak podkreśliła dr Wilk, komputerowa analiza sygnału mowy zarejestrowanego podczas badania logopedycznego za pomocą mikrofonu umożliwia przeprowadzenie obiektywnej i ilościowej oceny procesu zarówno fonacji, jak i artykulacji u badanego mówcy. Natomiast raporty, zawierające wyniki z okresowych badań, pozwolą na określenie wpływu leczenia farmakologicznego i terapii mowy na progres choroby – wyjaśniła. Projekt programu komputerowego do wykrywania i oceny zaburzeń mowy w chorobie Parkinsona został zrealizowany dzięki dofinansowaniu w kwocie ponad 80 tys. zł w ramach II naboru do programu grantowego Podkarpackiego Centrum Innowacji (PCI). Obecnie trwają prace nad komercjalizacją tego projektu, a według specjalistów ds. technologii PCI, program ma duży potencjał. Jak zaznaczył Radosław Krajewski z PCI, cyfryzacja opieki zdrowotnej nad pacjentami cierpiącymi na choroby neurodegeneracyjne umożliwia dokładniejszą diagnostykę oraz precyzyjne śledzenie postępów choroby. Tym samym umożliwia dobór skuteczniejszych metod terapeutycznych. Komercjalizacja tej technologii pozwoli poprawić jakość życia pacjentów i ich rodzin, usprawni działanie gabinetów logopedycznych i lekarzy specjalistów – stwierdził. « powrót do artykułu
  12. Występujący w konopiach kannabidiol jest silnym inhibitorem replikacji wirusa SARS-CoV-2, informują naukowcy z Uniwersytetów w Chicago i Louisville. Przeprowadzone przez nich badania na myszach i hodowlach komórek wykazały, że CBD i jego metabolit 7-OH-BCD blokują namnażanie się SARS-CoV-2 w komórkach nabłonka płuc. Pozytywnego działania nie zaobserwowano w przypadku THC i innych testowanych składników konopi. Z badań, których omówienie opublikowano na łamach Science Advances, dowiadujemy się, że CBD o wysokiej czystości zaczyna działać po przedostaniu się wirusa do komórki. Hamuje ekspresję genów patogenu i powstrzymuje wirusa przed wykorzystaniem gospodarza do transkrypcji genów. Blokowanie replikacji SARS-CoV-2 odbywa się częściowo przez wzmacnianie reakcji na stres siateczki śródplazmatycznej oraz szlaku sygnałowego interferonu. Uzyskane wyniki wskazują, ze CBD i 7-OH-CBD mogą blokować infekcję SARS-CoV-2 na wczesnym stadium, a nawet na jej późniejszych etapach. Jest to – przynajmniej częściowo – powodowane poprzez wpływanie na stres retikulum śródplazmatycznego oraz szlak sygnałowy interferonu. Badania na myszach, którym podawano CBD wykazały, że zarówno w wymazach z nosa jak i tkance płucnej miały one mniejszą liczbę wirionów SARS-CoV-2. Co więcej, analizy baz danych dotyczących pacjentów zażywających przepisane przez lekarzy dzienne dawki CBD (100 mg/ml) wykazały, że wśród osób tych testy na COVID-19 rzadziej dają pozytywny wynik. Ten związek pomiędzy zażywaniem CBD a mniejszą liczbą pozytywnych testów na COVID utrzymywał się niezależnie od metod analizy, co daje silne podstawy do rozpoczęcia badań nad potencjalnym wykorzystaniem CBD do walki z infekcją SARS-CoV-2. Można je przeprowadzić analizując wielkie zestawy danych lub planując odpowiednie eksperymenty, stwierdzają autorzy artykułu. CBD ma wiele zalet jako potencjalny środek zapobiegający infekcji SARS-CoV-2. CBD jako dodatek do żywności, zwierający  poniżej 0,3% THC, jest szeroko stosowany. Po opracowaniu odpowiedniej formuły i zachowaniu kontroli jakości CBD mógłby być – w przeciwieństwie do leków antywirusowych – używany profilaktycznie. Tym bardziej, że możliwe jest wiele różnych dróg podawania CBD, w tym przez drogi oddechowe. Jako, że CBD blokuje replikowanie się wirusa już po jego wniknięciu do komórki, prawdopodobnie będzie efektywny również przeciwko wersjom wirusa ze zmienionym białkiem szczytowym. W przeciwieństwie do takich leków jak remdesivir czy przeciwciała przeciwwirusowe, CBD nie musi być wstrzykiwane w szpitalu. Ponadto CBD powoduje tylko niewielkie skutki uboczne, czytamy w podsumowaniu badań. Naukowcy podkreślają też, że obecność innych kannabinoidów, jak THC, może zmniejszać przeciwwirusowe działanie CBD, dlatego też palenie marihuany nie chroni przed SARS-CoV-2. « powrót do artykułu
  13. Intel potwierdził, że kosztem ponad 20 miliardów dolarów wybuduje nowy kampus w stanie Ohio. W skład kampusu wejdą dwie supernowoczesne fabryki półprzewodników, gotowe do produkcji w technologii 18A. To przyszły, zapowiadany na rok 2025 proces technologiczny Intela, w ramach którego będą powstawały procesory w technologii 1,8 nm. Budowa kampusu rozpocznie się jeszcze w bieżącym roku, a produkcja ma ruszyć w 2025 roku. Intel podpisał też umowy partnerskie z instytucjami edukacyjnymi w Ohio. W ich ramach firma przeznaczy dodatkowo 100 milionów dolarów na programy edukacyjne i badawcze w regionie. "To niezwykle ważna wiadomość dla stanu Ohio. Nowe fabryki Intela zmienią nasz stan, stworzą tysiące wysoko płatnych miejsc pracy w przemyśle półprzewodnikowym", stwierdził gubernator Ohio, Mike DeWine. To największa w historii Ohio inwestycja dokonana przez pojedyncze prywatne przedsiębiorstwo. Przy budowie kampusu zostanie zatrudnionych 7000 osób, a po powstaniu pracowało w nim będzie 3000osób. Ponadto szacuje się, że inwestycja długoterminowo stworzy dziesiątki tysięcy miejsc pracy w lokalnych firmach dostawców i partnerów. Kampus o powierzchni około 4 km2 powstanie w hrabstwie Licking na przedmieściach Columbus. Będzie on w stanie pomieścić do 8 fabryk. Intel nie wyklucza, że w sumie w ciągu dekady zainwestuje tam 100 miliardów dolarów, tworząc jeden z największych na świecie hubów produkcji półprzewodników. Tak olbrzymia inwestycja przyciągnie do Ohio licznych dostawców produktów i usług dla Intela. Będzie ona miała daleko idące konsekwencje. Fabryka półprzewodników różni się od innych fabryk. Stworzenie tak wielkiego miejsca produkcji półprzewodników jest jak budowa małego miasta, pociąga za sobą powstanie tętniącej życiem społeczności wspierających dostawców usług i produktów. [...] Jednak rozmiar ekspansji Intela w Ohio będzie w dużej mierze zależał od funduszy w ramach CHIPS Act, stwierdził wiceprezes Intela ds. produkcji, dostaw i operacji, Keyvan Esfarjani. Nowe fabryki mają w 100% korzystać z energii odnawialnej, dostarczać do systemu więcej wody niż pobiera oraz nie generować żadnych odpadów stałych. « powrót do artykułu
  14. Organizacja Save the Elephants (STE) poinformowała, że w zeszły weekend jedna ze słonic z Rezerwatu Samburu - Bora z rodziny Winds - urodziła niezwykle rzadkie bliźnięta: syna i córkę. Wypatrzyli je przewodnicy z Elephant Watch Camp; to oni poinformowali badaczy. Kilkudniowe młode poznają otoczenie pod czujnym okiem matki i pierwszego dziecka Bory, które przyszło na świat w 2017 r. Bliźnięta są rzadko spotykane w populacjach słoni i stanowią ok. 1% narodzin - podkreśla dr Iain Douglas-Hamilton, założyciel i dyrektor STE. Losy słoniowych bliźniąt układają się różnie. Poprzednia para z Samburu, która urodziła się w 2006 r., przeżyła zaledwie kilka dni. Dość często matki nie mają wystarczająco dużo mleka, by wykarmić dwoje dzieci - tłumaczy Douglas-Hamilton. Ostatnio jednak padało, co korzystnie wpłynęło na roślinność. Kolejne dni młodych Bory są niepewne, ale trzymamy kciuki, by wszystko ułożyło się dobrze. Ciąża u słoni afrykańskich trwa ok. 22 miesięcy. To najdłużej ze wszystkich ssaków. Samica może rodzić młode co cztery lata.   « powrót do artykułu
  15. Książka wypożyczona ponad 65 lat temu wróciła do biblioteki. Niedawno podczas porządków w domu nadającym się do rozbiórki pewien suwalczanin znalazł III tom „Potopu” Henryka Sienkiewicza. Wypożyczono go z Powiatowej Biblioteki Publicznej w Suwałkach, którą zlikwidowano w związku z przekształceniami pod koniec 1956 r. To zaś oznacza, że pozycję wypożyczono co najmniej 65 lat temu. Jak ujawniła w wypowiedzi dla Radia 5 Suwałki dyrektorka Biblioteki Publicznej im. Marii Konopnickiej w Suwałkach Maria Kołodziejska, skruszony i przerażony znalazca bał się naliczenia kary za przetrzymanie książki. Bibliotekarze odstąpili od tego, zaznaczając, że minęło tyle lat, że zwyczajnie cieszą się z powrotu książki do zbiorów. W końcu nawet najstarsi pracownicy nie pamiętają już tamtych czasów... Pani Kołodziejska dodaje jednak, że nie wszyscy czytelnicy mogą liczyć na takie ulgi. Obecnie biblioteka wysyła upomnienia, także internetowo, i nie można się tłumaczyć, że nie miało się pojęcia o upływie terminu zwrotu. Oddany po latach tom III „Potopu” trafi prawdopodobnie do zbiorów specjalnych i będzie prezentowany jako swego rodzaju ciekawostka. Mówi się o dołączeniu książki do dokumentów historycznych, które pokazują, co działo się w suwalskiej placówce na przestrzeni lat. Ona zostanie już w bibliotece, nie będziemy jej nikomu wypożyczać i nikt nie będzie mógł tak długo jej przetrzymać - powiedziała PAP-owi pani dyrektor. Książkę wydano w 1949 r. Zachowała się oryginalna oprawa, ale dodatkowo została ona oprawiona przez introligatora. « powrót do artykułu
  16. Za niecałe 2 miesiące, 12 marca, ma wystartować misja Artemis I, znana do niedawna jako EM-1 (Exploration Mission-1). Będzie to pierwszy, bezzałogowy, test Space Launch System oraz kapsuły Orion MPCV, które w przyszłości mają umożliwić powrót człowieka na Księżyc i załogową wyprawę na Marsa. Jednak Artemis I wyniesie też satelitę – NEA Scout – którego zadaniem będzie przetestowanie żagla słonecznego i dotarcie do najmniejszej asteroidy, jaką kiedykolwiek badano. Celem wyprawy Near-Earth Asteroid Scout jest obiekt 2020 GE. To bliska Ziemi asteroida o średnicy mniejszej niż 18 metrów. Dotychczas żadna z misji na asteroidę nie badała obiektu o średnicy mniejszej niż 100 metrów. NEA Scout przyjrzy się asteroidzie za pomocą kamery, określając jej kształt, wielkość, tempo obrotu i właściwości powierzchni. Poszuka też pyłu i szczątków, które mogą otaczać 2020 GE. Kamera o rozdzielczości poniżej 10 cm na piksel pozwoli stwierdzić, czy asteroida jest pojedynczym obiektem czy też składa się ze zlepionych ze sobą skał i pyłu, jak niektóre z dużych asteroid, np. Bennu. Dzięki naziemnym obserwatoriom badającym asteroidy bliskie Ziemi, mogliśmy zidentyfikować wiele potencjalnych celów misji NEA Scout. Asteroidę 2020 GE wybraliśmy, ponieważ należy do klasy obiektów, o których niewiele wiemy, mówi Julie Castillo-Rogez z Jet Propulsion Laboratory. NEA Scout to nieduży satelita wielkości sześciu standardowych mikrosatelitów CubeSat. Jest jednym z 10 satelitów, które zostały umieszczone w adapterze łączącym SLS z Orionem. Satelity te mają własne systemy napędowe i zostaną wystrzelone przy okazji misji Artemis I. Każdy z nich ma do wykonania osobną misję. NEA Scout ma dwa zadania: przyjrzeć się asteroidzie oraz przetestować żagiel słoneczny. Po uwolnieniu z adaptera pojazd rozwinie żagiel o powierzchni 86 m2. Cieńszy od ludzkiego włosa żagiel wykonany jest z aluminium pokrytego tworzywem sztucznym. Będzie on generował napęd dzięki odbijającym się od niego fotonom emitowanym przez Słońce. Dodatkowo pojazd wyposażono w niewielkie silniki manewrowe. NASA chce przetestować możliwość przygotowywania i prowadzenia tanich misji w głębszych obszarach przestrzeni kosmicznej. Satelity CubeSat wyposażone w żagle słoneczne mogłyby z czasem osiągać spore prędkości i latać w odległe regiony Układu Słonecznego. To nie pierwszy i ostatni test żagla słonecznego. Po raz pierwszy koncepcję żagla słonecznego przetestowano w praktyce przed 14 laty. Jeszcze w bieżącym roku ma wystartować Advanced Composite Solar Sail System, której celem będzie sprawdzenie nowej metody rozwijania żagla słonecznego. A w 2025 roku ruszy Solar Cruiser, który wykorzysta żagiel o powierzchni 1700 m2 i poleci w stronę Słońca. Na stronie Eyes on Asteroids można śledzić obecne i przyszłe trasy interesujących asteroid oraz związanych z nimi misji badawczych. « powrót do artykułu
  17. Fitosterole, roślinne sterole wchodzące w skład błon komórkowych, zwiększają ryzyko rozwoju miażdżycy i innych chorób układu krążenia, donoszą naukowcy z Uniwersytetu w Lipsku. Wyniki ich badań, przeprowadzonych we współpracy z innymi europejskimi grupami naukowymi, zostały opublikowane na łamach Nature Communications. Fitosterole są składnikiem naszej codziennej diety. Czasami są sztucznie dodawane do takich produktów jak jogurty czy margaryny, gdyż obniżają poziom cholesterolu, w związku z czym uważa się, że pozytywnie wpływają na nasze zdrowie. Z drugiej jednak strony są one podobne do cholesterolu i, podobnie jak on, mogą odkładać się na ścianach naczyń krwionośnych. Dlatego też od dawna są przedmiotem zainteresowania naukowców, którzy próbują zbadać ich związek z miażdżycą czy chorobą niedokrwienną serca. Naukowcy z Uniwersytetu w Lipsku i innych europejskich ośrodków badawczych przeprowadzili genetyczną analizę fitosteroli w próbkach krwi pobranych od niemal 10 000 osób. Wykorzystując metodę pozwalającą na ocenę wpływu różnych czynników ryzyka na rozwój chorób, byli w stanie określić związek pomiędzy fitosterolami, cholesterolem a chorobą niedokrwienną serca. Wydaje się, że fitosterole mają bezpośrednie i niebezpośredni negatywny wpływ na ryzyko rozwoju niedokrwiennej choroby serca, a mediatorem tego wpływu jest cholesterol. Nasze badania to ważny głos dyskusji, która od wielu lat toczy się w środowisku medycznym. Mimo że jest jeszcze zbyt wcześnie, by mówić o wpływie fitosteroli dodawanych do żywności, to już teraz możemy powiedzieć, że wysoka koncentracja fitosteroli jest czynnikiem ryzyka i należy brać ją pod uwagę, mówi główny autor badań, profesor Markus Scholz. Naukowcy zidentyfikowali siedem obszarów DNA powiązanych ze stężeniem fitosteroli we krwi. Z tego pięć regionów dotychczas nie znano. Uczeni wykonali analizy bioinformatyczne, na podstawie których wyodrębnili geny, które prawdopodobnie mają wpływ na metabolizm steroli. Badania te znacznie zwiększają naszą wiedzę odnośnie czynników genetycznych wpływających na regulację poziomu fitosteroli we krwi. Geny te, ich produkty i funkcje, mogą w przyszłości stać się celem terapeutycznym, dodaje Scholz. Ze szczegółami badań można zapoznać się w artykule Genome-wide meta-analysis of  phytosterols reveals five novel loci and a detrimental effect on coronary atherosclerosis. « powrót do artykułu
  18. W połowie października współpracujący z Sydvestjyske Museer detektorysta Dan Christensen skontaktował się z inspektorem muzealnym Clausem Feveilem. Okazało się, że niedaleko Ilsted na Jutlandii odkrył ważący 446 g złoty naszyjnik z epoki żelaza (ok. 400-550 r. n.e.). Christensen dokładnie odnotował, gdzie znalazł naszyjnik, tak by można było przeszukać wykrywaczem metali większy obszar. Niczego nie znaleziono. Pod koniec października archeolodzy przeprowadzili wykopaliska. Stwierdzili, że 1400-1700 lat temu znajdowały się tu długie domy i naszyjnik zakopano w jednym z nich. Ofiara dla bogów czy zabezpieczenie na lepsze czasy? Feveile nie sądzi, by ozdobę złożono bogom w ofierze. Zazwyczaj ofiary składano na podmokłych obszarach, np. na bagnach, a wiemy, że w pobliżu tego stanowiska znajdowały się duże mokradła. Wydaje się jednak, że w tym przypadku scenariusz był inny... Społeczności żyjące z ziemi składały bóstwom sporo ofiar w czasie LAILA (ang. Late Antique Little Ice Age); ten zimny okres z lat 536-660 ma związek z serią katastrof naturalnych, najprawdopodobniej erupcji wulkanicznych. Należy podkreślić, że ofiary były przeznaczone dla bogów i nie miały być nigdy wydobyte. Pojawiło się też pytanie, czy naszyjnik nie został przemieszczony z pierwotnego miejsca złożenia w ofierze podczas prac rolnych, np. podczas bronowania. Złoto jest tak czyste, a przez to miękkie, że naszyjnik nie mógłby się tak dobrze zachować, gdyby został przemieszczony przez sprzęty rolnicze. Poza tym wykopaliska wskazały jamę, w której umieszczono ozdobę - wyjaśnia Feveile. Archeolog uważa zatem, że naszyjnik zakopano "na lepsze czasy". Ktoś miał go wydobyć np. po opuszczeniu tych terenów przez wroga. Tak się jednak nie stało i na artefakt natrafił dopiero Dan Christensen. Dzieło doskonałej jakości Naszyjnik wykonano ze złotego pręta o długości 93 cm, który jest cieńszy na środku i rozszerza się ku końcom. Pręt zagięto w taki sposób, że końce nachodzą na siebie na ~1/3 długości. Pomiędzy szersze końce wlutowano cienką płytkę, ozdobioną wzorem warkocza splecionego z 6 złotych nici. Ponad nimi umieszczono spiralnie zwiniętą siódmą nić. Na naszyjniku widnieją odciśnięte w złocie półksiężyce (wykorzystano 2 różne stemple; na części znajdującej się bliżej szyi półksiężyce mają 6 wypukłości, a w części zewnętrznej 8) . Tego typu zdobienia są znane z zaledwie 9-10 innych naszyjników znalezionych na terenie Danii. Naszyjnik będzie wystawiany w Museet Ribes Vikinger od 25 stycznia do 6 lutego. Więcej informacji można znaleźć na muzealnym blogu. « powrót do artykułu
  19. Najnowszy numer Nature przynosi przełomowe informacje na temat praktycznego wykorzystania komputerów kwantowych. Naukowcy z Uniwersytetu Nowej Południowej Walii (UNSW) wykazali, że możliwe jest stworzenie niemal wolnego od błędów krzemowego procesora kwantowego. Dzisiejsza publikacja pokazuje, że obliczenia przeprowadzane przez nasz procesor były w ponad 99% wolne od błędów. Gdy odsetek błędów jest tak mały, możliwym staje się ich wykrywanie i korygowanie w czasie rzeczywistym. A to oznacza, że można wybudować skalowalny komputer kwantowy wykonujący wiarygodne obliczenia, wyjaśnia profesor Andrea Morello z UNSW. Morello stoi na czele zespołu złożonego z naukowców z Australii, USA, Japonii i Egiptu. Ich celem jest zbudowanie uniwersalnego komputera kwantowego, czyli maszyny, której możliwości obliczeniowe nie będą ograniczone do jednego rodzaju zadań. Badania, których wyniki właśnie opublikowaliśmy, to bardzo ważny krok w tym kierunku, podkreśla uczony. Jednak, co niezwykle ważne, artykuł Morello i jego zespołu to jeden z trzech tekstów z Nature, których autorzy informują o niezależnym od siebie osiągnięciu niskiego odsetka błędów w opartych na krzemie procesorach kwantowych. Z najnowszego Nature, którego redakcja zdecydowała się na zilustrowanie kwantowego przełomu na okładce, dowiadujemy się, że wiarygodność operacji obliczeniowych na jednym kubicie osiągnięta przez Morello i jego zespół wyniosła 99,95%, a operacji na dwóch kubitach – 99,37%. Niezależnie od nich zespół z holenderskiego Uniwersytetu Technologicznego w Delft, prowadzony przez Lievena Vandersypena osiągnął wiarygodność rzędu 99,87% przy operacjach na jednym kubicie i 99,65% podczas operacji dwukubitowych. W trzecim z artykułów czytamy zaś o pracach naukowców z japońskiego RIKEN, w trakcie których grupa Seigo Taruchy mogła pochwalić się wiarygodnością 99,84% przy działaniach na jednym kubicie i 99,51% przy pracy z dwoma kubitami. Wydajność procesorów z UNSW i Delft została certyfikowana zaawansowaną metodą gate set tomography opracowaną przez amerykańskie Sandia National Laboratories, a wyniki certyfikacji zostały udostępnione innym grupom badawczym. Zespół profesora Morello już wcześniej wykazał, że jest w stanie utrzymać kwantową informację w krzemie przez 35 sekund. W świecie kwantowym 35 sekund to wieczność. Dla porównania, słynne nadprzewodzące komputery kwantowe Google'a i IBM-a są w stanie utrzymać taką informację przez około 100 mikrosekund, czyli niemal milion razy krócej, zauważa Morello. Osiągnięto to jednak izolując spiny (kubity) od otoczenia, co z kolei powodowało, że wydaje się niemożliwym, by kubity te mogły wejść ze sobą w interakcje, a więc nie mogły wykonywać obliczeń. Teraz z artykułu w Nature dowiadujemy się, że udało się pokonać problem izolacji wykorzystując elektron okrążający dwa jądra atomu fosforu. Gdy masz dwa jądra połączone z tym samym elektronem, może zmusić je do wykonywania operacji kwantowych, stwierdza doktor Mateusz Mądzik, jeden z głównych autorów eksperymentów. Gdy nie operujesz na elektronie, jądra te mogą bezpiecznie przechowywać kwantowe informacje. Teraz jednak mamy możliwość, by jądra wchodziły w interakcje za pośrednictwem elektronu i w ten sposób możemy wykonywać uniwersalne operacje kwantowe, które mogą rozwiązywać każdy rodzaj problemów obliczeniowych, wyjaśnia Mądzik. Gdy splączemy spiny z elektronem, a następnie możemy elektron ten przesunąć w inne miejsce i splątać go z kolejnymi kubitami, tworzymy w ten sposób duże macierze kubitów zdolnych do przeprowadzania solidnych użytecznych obliczeń, dodaje doktor Serwan Asaad. Jak podkreśla profesor David Jamieson z University of Melbourne, atomy fosforu zostały wprowadzone do krzemowego procesora za pomocą tej samej metody, jaka jest obecnie używana w przemyśle półprzewodnikowym. To pokazuje, że nasz kwantowy przełom jest kompatybilny z obecnie używanymi technologiami. Wszystkie obecnie używane komputery wykorzystują systemy korekcji błędów i redundancji danych. Jednak prawa mechaniki kwantowej narzucają ścisłe ograniczenia na sposób korekcji błędów w maszynach kwantowych. Konieczne jest osiągnięcie odsetka błędów poniżej 1%. Dopiero wtedy można zastosować kwantowe protokoły korekcji błędów. Teraz, gdy udało się ten cel osiągnąć, możemy zacząć projektować skalowalne krzemowe procesory kwantowe, zdolne do przeprowadzania użytecznych wiarygodnych obliczeń, wyjaśnia Morello. « powrót do artykułu
  20. Osiemdziesięciodukatówka Zygmunta III Wazy, wybita w Bydgoszczy w 1621 r., została wylicytowana w Nowym Jorku za 900 tys. dolarów. Cena wywoławcza wynosiła 180 tys. dol. Wyjątkowa piękność Dom aukcyjny Stack's Bowers Galleries nazwał monetę wyjątkową pięknością. Na jej awersie znajduje się wizerunek Zygmunta III Wazy, a na rewersie herb Rzeczpospolitej Obojga Narodów otoczony Orderem Złotego Runa. Moneta waży 282,84 g, a jej średnica wynosi 69 mm. Ma kolor miodowozłoty, a na krawędziach opalizuje na pomarańczowo. Moneta osiągnęła cenę zupełnie wspaniałą, imponującą. Szacowano, że zostanie sprzedana za 300-600 tys. dolarów. Liczyłem, że może osiągnąć 600 tys. dolarów, co było optymistycznym szacunkiem. Wylicytowana cena robi wrażenie. W 2018 r. ten sam dom aukcyjny sprzedał studukatówkę z mennicy bydgoskiej za 1,8 mln dolarów. Wystawca musiał spodziewać się osiągnięcia wysokiej ceny za 80-dukatówkę, wystawiając ją za „symboliczne” 180 tys. dolarów, a więc za 10 proc. wylicytowanej przed trzema laty cenniejszej monety – powiedział Polskiej Agencji Prasowej dr Krzysztof Jarzęcki z Pracowni Numizmatyki Muzeum Okręgowego im. Leona Wyczółkowskiego w Bydgoszczy (MOB). Różne nominały, te same stemple Osiemdziesięcio- i 100-dukatówki wykonywano za pomocą tych samych stempli. Monety różniły się tylko grubością i ilością użytego złota. Jak podkreślono na profilu MOB na Facebooku, produkcja odbywała się pod czujnym okiem władz, nie można więc mówić o żadnym oszustwie. Trochę gorzej dla ludzi, [...] bo przecież nie ma [...] napisu, jaki to nominał. Wprawdzie był to problem nielicznych (bo jedna taka moneta to spory majątek), ale zawsze problem. Pomysłowość ludzka szybko sobie z tym poradziła. Na monetach, w polu obok portretu króla, wydrapywano cyfry arabskie lub rzymskie oznaczające nominał, żeby przy każdym użyciu ich nie ważyć. Warto dodać, że autorem stempli był wybitny artysta, mistrz sztuki medalierskiej Samuel Ammon, który urodził się ok. 1590 r. w szwajcarskiej Szafuzie (Schaffchausen). Rzadkie okazy Tak wysokie nominały to rzadkość. Wiadomo o istnieniu kilkunastu studukatówek. Osiemdziesięciodukatówek było więcej, ale nadal są one na tyle rzadkie, że często da się prześledzić ich rodowód od wybicia po czasy współczesne. Taka romantyczna legenda mówi, że jednym z właścicieli licytowanej monety był Julian Ursyn Niemcewicz i najpewniej za jego sprawą trafiła ona do Ameryki. Tak przypuszczamy, pewności nie ma. W swojej korespondencji pisał o przekazaniu złotej monety o imponującej wartości, ale mogła być to inna moneta – ujawnił dr Jarzęcki. « powrót do artykułu
  21. Antybiotykooporna pałeczka ropy błękitnej (Psudomonas aerugiosa) to jedno z największych zagrożeń bakteryjnych dla ludzkości. WHO uznaje ją za jedną z trzech bakterii, do zwalczania których pilnie potrzebujemy wynalezienia zupełnie nowych antybiotyków. Naukowcy z University of Southern Australia informują, że gen, dzięki któremu P. aerugiosa zyskała antybiotykooporność występuje na całym świecie i został przez pałeczkę ropy błękitnej przejęty od nieszkodliwego mikroorganizmu. Pseudomonas aerugiosa to bakteria oportunistyczna. Atakuje tylko ludzi o osłabionym układzie odpornościowym. Jest jednym z najbardziej niebezpiecznych patogenów powodujących zakażenia wewnątrzszpitalne i odpowiada za śmierć tysięcy osób. W 2006 roku w Adelajdzie dokonano niezwykle niepokojącego odkrycia. W tamtejszych szpitalach znaleziono P. aerugiosa z genem dającym patogenowi oporność na jedne z najpotężniejszych antybiotyków, imipenem i meropenem. Oba należą do grupy karbapenemów, jednych z najważniejszych antybiotyków, jakimi dysponujemy. Karbapenemy stosuje się m.in. do walki z sepsą. Dotychczas sądzono jednak, że gen imipenemazy adelajdzkiej (AIM-1) występuje tylko w Adelajdzie, gdzie został wykryty w próbkach klinicznych oraz ściekach związanych ze służbą zdrowia. Jednak zespół profesor Rietie Venter wykazał, że występuje on na całym świecie. A jego źródłem jest występujący w glebie i wodzie nieszkodliwy mikroorganizm, Pseudoxanthomonas mexicana, wyizolowany po raz pierwszy w 2004 roku w ludzkim moczu. Naukowcy nie wiedzą, jaką rolę w P. mexicana odgrywa AIM-1. Dysponujemy coraz większą liczbą dowodów wskazujących, że geny dające oporność na karbapenemy pochodzą od bakterii obecnych w środowisku. Wymiana materiału genetycznego pomiędzy niebezpiecznymi patogenami, a tymi bakteriami, nie jest niczym zaskakującym, gdyż organizmy te zajmują te same nisze ekologiczne, czytamy w posumowaniu badań. Nasze badania jasno pokazują, że gen AIM-1 daje P. aeruginosa wysoką oporność na karbapenemy. Naukowcy dodają, że gen ten można znaleźć w różnych miejscach na świecie u różnych gatunków bakterii i w różnych konfiguracjach środowiskowych. Zwiększająca się antybiotykooporność – będąca wynikiem m.in. nadmiernego niepotrzebnego używania antybiotyków w medycynie oraz hodowli zwierząt – prowadzi do pojawiania się kolejnych „koszmarnych bakterii”. Naukowcy na całym świecie poszukują nowych antybiotyków. Czasem pomoc może przyjść z nieoczekiwanej strony. Przed rokiem informowaliśmy, że irlandzka medycyna ludowa podpowiedziała naukowcom, gdzie szukać skutecznych antybiotyków. « powrót do artykułu
  22. Ponad 400 eksponatów z Łukasiewicz - IMiF trafiło do Narodowego Muzeum Techniki (NMT). Przekazane obiekty staną się osią ekspozycji czasowej, ulokowanej w przestrzeni wystawy stałej „Historia komputerów - liczy się!”. Wśród nich znajdują się filtry do telewizji satelitarnej, maski fotolitograficzne czy płytki krzemowe uzyskane z monokryształów otrzymywanych wykorzystywaną do dziś metodą Czochralskiego. Cieszymy się, że przekazywane przez Łukasiewicz - Instytut Mikroelektroniki i Fotoniki eksponaty będą służyć edukacji w zakresie mikroelektroniki i materiałoznawstwa. Mamy nadzieję, że dzięki temu ten obszar nauki będzie się w Polsce nadal bardzo dobrze rozwijał. Bez niego nie powstałyby współczesne wydajne komputery, globalna sieć teleinformatyczna, telefonia komórkowa, satelitarna i wiele innych – podkreśla Piotr Guzdek, zastępca dyrektora ds. badawczych w Łukasiewicz – IMiF. Niebawem ma nastąpić ponowne otwarcie Narodowego Muzeum Techniki; placówka jest zamknięta dla zwiedzających ze względu na prowadzone prace remontowe i adaptacyjne, ale już 2 tyg. temu wspominano o instalowaniu wystaw. W jaki sposób NMT zamierza wykorzystać nowe eksponaty? Przekazane przez Łukasiewicz – IMiF materiały, przyrządy i dokumenty będą zalążkiem ekspozycji przybliżającej fizykę ciała stałego, z której wyrasta cała współczesna elektronika półprzewodnikowa. W późniejszym okresie zasób ten zasili wystawę poświęconą badaniom struktury materii i inżynierii materiałowej. W jej przygotowaniu NMT liczy na aktywny udział Łukasiewicz - IMiF w zakresie technologii fotonicznych będących awangardą technik – wyjaśnia Zasław Adamaszek, specjalista ds. realizacji wystaw w Narodowym Muzeum Techniki. Na tym jednak współpraca się nie kończy. Emerytowani pracownicy Instytutu zostali bowiem zaproszeni do udziału w dotowanym przez Ministerstwo Kultury i Dziedzictwa Narodowego dokumentalnym cyklu filmowym NMT pt. „Ocalić od zapomnienia -  archiwum audiowizualne ludzi i obiektów techniki w Polsce”. Z filmami zrealizowanymi w ramach tego projektu można się zapoznać na stronie Muzeum i na kanale instytucji na YouTube'ie. « powrót do artykułu
  23. Gdy starsi ludzie pozostają fizycznie aktywni, w ich mózgach znajduje się więcej protein tworzących połączenia pomiędzy neuronami. Dzięki temu, zachowują tez sprawność umysłową. Zwiększoną ilość wspomnianych białek zaobserwowano podczas autopsji nawet w mózgach osób, które były pełne toksycznych protein powiązanych z chorobą Alzheimera i innymi chorobami neurodegeneracyjnymi. "Jako pierwsi wykorzystaliśmy tego typu dane, by wykazać, że regulacja protein w synapsach jest powiązana z aktywnością fizyczną i to właśnie ona może być przyczyną pozytywnych skutków ćwiczeń fizycznych w starszym wieku, które możemy obserwować", powiedziała główna autorka badań, profesor Kaitlin Casaletto z Uniwersytetu Kalifornijskiego w San Francisco (UCSF). Badania Casaletto i jej grupy opierały się na danych pozyskanych w ramach Memory and Aging Project prowadzonego na Rush University w Chicago. W ramach tego projektu śledzono poziom aktywności fizycznej u starszych ludzi, którzy zgodzili się oddać po śmierci swoje mózgi do badań. Dlatego też uczeni z UCSF mogą pochwalić się przeprowadzeniem wyjątkowych badań na ludziach. Dotychczas bezpośredni związek pomiędzy aktywnością fizyczną a zdolnościami poznawczymi mogliśmy obserwować w ten sposób na myszach. Utrzymanie stabilnych połączeń pomiędzy neuronami może być kluczowym elementem ochrony przed demencją. To synapsy są tym miejscem, które decydują o naszych zdolnościach poznawczych. A utrzymanie aktywności fizycznej, co jest bardzo łatwe, może pomóc w poprawieniu funkcjonowania synaps, stwierdza Casaletto. Naukowcy nie tylko zauważyli, że dzięki aktywności fizycznej poprawia się jakość synaps, ale – ku ich zdumieniu – okazało się, że dobroczynne skutki wykraczają daleko poza hipokamp i dotyczą też innych obszarów mózgu. "Być może aktywność fizyczna ma pozytywny wpływ na cały mózg, wspierając i utrzymując prawidłowe funkcjonowanie protein odpowiedzialnych za wymianę sygnałów między synapsami", dodaje współautor badań, profesor William Honer z University of British Columbia. W mózgach większości osób starszych dochodzi do akumulacji białek tau i beta-amyloidu. To toksyczne proteiny powiązane z chorobą Alzheimera. Obecnie uważa się, że najpierw pojawia się beta-amyloid, a następnie tau i dochodzi do uszkodzeń synaps oraz neuronów. Casaletto już podczas wcześniejszych badań zauważyła, że u starszych osób z bardziej spójnymi połączeniami między synapsami – niezależnie od tego, czy badania były wykonywane z płynu mózgowo-rdzeniowego pobranego od żywych pacjentów, czy na podstawie autopsji mózgu – toksyczne działanie beta-amyloidu i białek tau było osłabione. Uczona podsumowuje, że biorąc pod uwagę oba wspomniane badania, widać, jak ważne jest utrzymywanie aktywności fizycznej w starszym wieku. « powrót do artykułu
  24. Pani Zuzanna Ptak z Koniakowa wykonała z córkami i wnuczką największą serwetę koniakowską. Szesnastego stycznia imponujące osiągnięcie zostało zatwierdzone przez polskie Biuro Rekordów. Serweta ma średnicę 5,32 m. Przed przyszyciem do czarnego materiału i nakrochmaleniem jej waga wynosiła 5 kg 550 g. Podczas 4-miesięcznego dziergania koronczarki zużyły 61 km nici (11 kłębków). Wspólne heklowanie Pani Zuzanna jest poważaną w Koniakowie koronczarką, zdobywczynią Nagrody Oskara Kolberga. Nad serwetą pracowały z nią córki Danuta Juroszek i Wiesława Juroszek, a także wnuczka Anna Juroszek. Jak podkreślono na profilu facebookowym Centrum Koronki Koniakowskiej, przy obróbce niestrudzenie pomagały znajome koronczarki, rodzina, przyjaciółki, uczennice pani Zuzanny. Na serwetę składa się 3338 motywów roślinnych, tzw. kwiotków. Szczególnym motywem jest orzeł (godło Polski). To znak rozpoznawczy pani Zuzanny. Ten motyw wykonywała już nieraz na szczególne upominki. Można powiedzieć, że to jej ukryta sygnatura – nawiązująca do jej nazwiska Ptak. [...] Jest to zarazem [...] symbol polskości, z którą związana jest koronka koniakowska. Orzeł sprawia, że gdziekolwiek koronka będzie prezentowana, będzie identyfikowana z krajem, w którym jest wykonywana. Orzeł to także symbol zwycięstwa, wolności, rozpostarcia skrzydeł do lotu. Tak samo nasza rekordowa serweta jest już w pełni gotowa do wylotu do Dubaju, gdzie będzie z pewnością jedną z głównych atrakcji światowej wystawy Expo 2020 Dubai - podkreśliła Lucyna Ligocka-Kohut, prezes Fundacji Koronki Koniakowskie, a zarazem koordynatorka i inicjatorka pobicia rekordu. Koniakowskie rekordy Po przedstawieniu historii dzieła przyszedł czas na oficjalne pomiary. Dokonała ich Paulina Plenzler z Biura Rekordów. Koniec końców na ręce pani Zuzanny wręczono certyfikat dla Fundacji Koronki Koniakowskie (to ona jest właścicielką serwety). Dokument poświadczał, że 16 stycznia w Istebnej ustanowiono Rekord Polski w kategorii "największa wyszydełkowana koronka". Warto przypomnieć, że koniakowskie koronczarki już wcześniej podejmowały wyzwania. Na witrynie Centrum Koronki Koniakowskiej można przeczytać, że gigantyczna serweta zgłoszona do Księgi rekordów Guinnessa powstała w 5 miesięcy - od kwietnia do sierpnia 2013 r. - w domu koronczarki Marty Haratyk, która zaprojektowała całość i tworzyła ją wspólnie z córkami Danutą Krasowską, Renatą Krasowską, Mariolą Legierską i przyjaciółką Urszulą Rybką. Wszystkie panie to mieszkanki Koniakowa. Serweta o średnicy 5 m obejmowała ponad 8 tys. motywów, układających się w 20 rzędów. Wykonano ją z przeszło 50 km bawełnianych nici. Przygotowania do Expo 2020 Od 26 stycznia do 3 lutego br. na Expo 2020 w Dubaju będzie prezentowana czasowa wystawa województwa śląskiego. Z tej okazji wraz ze 150 koronczarkami z Koniakowa Lucyna Ligocka-Kohut przygotowała liczne koronkowe serwety i inne wyroby, a także kolekcję 20 kreacji. « powrót do artykułu
  25. Ludzie latają w kosmos od kilkudziesięciu lat i od samego początku specjaliści badają skutki zdrowotne pobytu w przestrzeni kosmicznej. Wiemy, że długotrwałe przebywanie w stanie nieważkości prowadzi do osłabienia mięśni i kości, a niedawne badania sugerują, iż uszkadza również mózg. Teraz, dzięki badaniom finansowanym przez Kanadyjską Agencję Kosmiczną, dowiedzieliśmy się też, dlaczego astronauci cierpią na anemię. Dotychczas sądzono, że anemia kosmiczna to skutek szybkiej adaptacji organizmu do warunków związanych z przemieszczeniem się płynów do górnej części ciała. W procesie tym astronauci tracą około 10% płynu z naczyń krwionośnych. Sądzono, że w wyniku tego procesu dochodzi do spadku liczby czerwonych krwinek oraz że organizm przystosowuje się do nowej sytuacji w ciągu około 10 dni. Okazało się jednak, że przyczyna jest zupełnie inna. Doniesienia o kosmicznej anemii sięgają czasów pierwszych załogowych wypraw w kosmos. Jednak dotychczas nie wiedzieliśmy, co jest przyczyną jej występowania. Nasze badania pokazały, że już w momencie znalezienia się w przestrzeni kosmicznej organizm przyspiesza proces niszczenia czerwonych krwinek i przyspieszone tempo utrzymuje się przez całą misję, mówi główny autor badań, doktor Guy Trudel z University of Ottawa. Podczas pobytu na Ziemi nasz organizm tworzy i niszczy około 2 milionów czerwonych krwinek na sekundę. Naukowcy z Ottawy odkryli, że w czasie pobytu w kosmosie niszczonych jest około 3 milionów krwinek na sekundę. Posiadanie mniejszej liczby krwinek nie jest problemem w warunkach nieważkości, jednak gdy wylądujesz na Ziemi, innej planecie czy księżycu, gdzie masz do czynienia z grawitacją, anemia oznacza mniejszą liczbę energii, mniejszą wytrzymałość i siłę. A to może zagrażać powodzeniu misji. Kanadyjczycy zaprzęgli do badań 14 astronautów. Mierzyli zawartość tlenku węgla w wydychanym przez nich powietrzu. Jedna molekuła CO powstaje ze zniszczenia jednej molekuły hemu, czerwonego barwnika krwi. Na tej podstawie mogli oszacować tempo niszczenia komórek krwi podczas pobytu człowieka w przestrzeni kosmicznej. Uczeni nie badali produkcji czerwonych ciałek w kosmosie, ale przyjęli, że i ona musiała się zwiększyć. Gdyby bowiem tak nie było, każdy astronauta cierpiałby na ciężką anemię. Tymczasem wśród 13 astronautów, którym po powrocie na Ziemię pobrano krew, anemię miało 5. Dalsze badania pokazały, że anemia ta całkowicie ustępuje w ciągu 3-4 miesięcy po powrocie na Ziemię. Co ciekawe, gdy zbadano astronautów rok po zakończeniu misji, okazało się, że ich organizmy wciąż niszczą o 30% czerwonych krwinek więcej, niż przed misją. To zaś sugeruje, że w przestrzeni kosmicznej wystąpiły jakieś długotrwałe zmiany kontroli poziomu czerwonych ciałek krwi. Stwierdzono również, że im dłuższy pobyt w kosmosie, tym poważniejsza anemia. Badania kanadyjskich naukowców oznaczają, że przy planowaniu długotrwałych misji kosmicznych, z pobytem na Marsie i Księżycu, należy brać pod uwagę kwestię anemii i zastanowić się, jak jej zapobiegać. Można próbować to zrobić na przykład poprzez odpowiednią dietę. Nie wiemy też, jak długo po misji utrzymuje się stan, w którym dochodzi do podwyższonego tempa niszczenia czerwonych krwinek. « powrót do artykułu
×
×
  • Dodaj nową pozycję...