-
Liczba zawartości
37638 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Podczas nadzoru archeologicznego nad budową nowej przystani dla Bazylejskiego Klubu Wioślarskiego w Kaiseraugst, odkryto ruiny rzymskiego amfiteatru. To drugi znany amfiteatr w kantonie Argowia i trzeci w Augusta Raurica, najstarszej znanej rzymskiej kolonii u brzegów Renu.. Colonia Augusta Rauracorum została założona w 44 roku p.n.e. przez Luciusa Munatiusa Plancusa w pobliżu siedzib galijskiego plemienia Rauraków, pokrewnych Helwetom. Budowę przystani prowadzono na terenie byłego rzymskiego kamieniołomu, więc nie spodziewano się tam znaleźć żadnych struktur. Początkowo budowniczy trafili na owalną ścianę, a archeolodzy nie wiedzieli, czym ta ściana była. Dopiero podczas wykopalisk okazało się, że odkryto amfiteatr. Owalna budowla miała wymiary 50 x 40metrów i znajdowała się w dolinie kamieniołomu porzuconego jeszcze w czasach rzymskich. Kamieniołom znajdował się w pobliżu umocnionego fortu Castrum Rauracense. Na południu amfiteatru znajdowała się duża brama, której towarzyszyły dwa mniejsze wejścia. Dodatkowe wejście znajdowało się od zachodu. Znaleziono też progi z piaskowca. Wewnętrzna ściana areny pokryta była tynkiem. Wszystkie te wskazówki: owalny kształt budowli, rozkład wejść, miejsce na trybunę, wskazuje, że był to amfiteatr. Na podstawie użytych materiałów oraz faktu, że stał w opuszczonym kamieniołomie, budynek datowany jest na późną starożytność, prawdopodobnie zaś powstał w IV wieku. To czyni go najmłodszym znanym amfiteatrem w Imperium Romanum. Jego wybudowanie pokazuje, że Castrum Rauracense było znaczącą miejscowością w IV wieku. Było to ważne centrum wojskowe zabezpieczające granice imperium oraz centrum administracyjne. Amfiteatr w Kaiseraugst to druga, po amfiteatrze w Windisch (Vindonissa), tego typu budowla na terenie Argowii. W całej Szwajcarii znamy obecnie osiem rzymskich amfiteatrów. Znajdują się one w miejscowościach Avenches (Aventicum), Martigny (Forum Claudii Vellensium), Nyon (Colonia Iulia Equestris) oraz na półwyspie Enge w Bernie (Brenodurum). Postanowiono, że amfiteatr z Kaiseraugst nie zostanie odsłonięty. Inwestor zabezpieczy go tamą, a nad amfiteatrem powstanie nowy budynek. W ten sposób ruiny zostaną zabezpieczone w optymalny sposób, a przyszłe pokolenia będą mogły – jeśli zechcą – przeprowadzić pełne badania archeologiczne. « powrót do artykułu
-
Badacze z Uniwersytetu Wrocławskiego i Uniwersytetu Medycznego im. Piastów Śląskich we Wrocławiu odtwarzają preparaty medyczne i leki ze staropolskiej apteki. Skąd biorą receptury? Znajdują je w pamiętnikach, listach, diariuszach i prywatnych notatkach z XVI-XVIII w. Są to zarówno rękopisy, jak i druki. Jak wyjaśnia dr Jakub Węglorz, generalnie są to materiały, w których autorzy wspominają o tym, że byli chorzy, że zażywali jakieś leki. Są wśród nich także zapiski lekarzy - pamiętniki, rachunki czy opisy przypadków z uwzględnieniem zaordynowanych środków. Mając nazwę leku bądź jego przybliżoną recepturę, naukowcy próbują ustalić na podstawie podręczników medycznych, lekospisów, dyspensatoriów aptekarskich, jaki był dokładny skład preparatu i jak go wykonywano. Projekt "Odtworzenie i analiza preparatów leczniczych zidentyfikowanych na podstawie egodokumentów epoki staropolskiej (XVI-XVIII wiek)" jest realizowany w ramach grantu (SONATA BIS). Współpraca historyków z farmaceutami Projekt dotyczy przeszłości i z tego względu jest po części prowadzony przez historyków z UWr. Analiza leków nie jest jednak ich domeną, stąd współpraca z Wydziałem Farmaceutycznym Uniwersytetu Medycznego we Wrocławiu. Najpierw w źródłach historycznych wyszukuje się informacje o lekach stosowanych w epoce staropolskiej. Następnie są one odtwarzane w laboratorium. Końcowym etapem jest analiza zawartości związków czynnych i podstawowej aktywności biologicznej preparatów. Założeniem projektu jest ustalenie, jakimi lekami się wtedy leczono. W dawnych farmakopeach, dyspensatoriach tych leków jest bardzo wiele - są ich setki i tysiące. Oczywiście nie wszystkie i nie zawsze były używane. Najpierw historycy muszą znaleźć odpowiednie leki - te faktycznie wykorzystywane, odtworzyć ich recepty, a następnie, już we współpracy z farmaceutami, spróbować je przetłumaczyć na współczesny język laboratoryjny, czyli ustalić, co te słowa znaczą, jakie składniki naprawdę zostały wymienione i jaki jest proces, procedura wykonania [...]. Ostatni etap to wykonanie [...] w warunkach laboratoryjnych i analiza działania, składu i potencjalnych efektów - tłumaczy dr Węglorz. Egzotyczne składniki: opium, ambra czy mięso żmii Trudności nie brakuje, bo istnieją różne wersje preparatów, poza tym z biegiem czasu receptury się zmieniały. Kolejną przeszkodą są egzotyczne składniki. Niektóre są trudno dostępne ze względów prawnych, ponieważ należą do substancji podlegających ścisłej kontroli. Dr Węglorz podkreśla, że zespół ma np. spore problemy z opium. Poza tym część leków to są po prostu bardzo rzadko dostępne rzeczy, których się już nie wykorzystuje, jak np. ambra. Oprócz tego jest problem z substancjami odzwierzęcymi czy roślinnymi pozyskiwanymi z gatunków chronionych. W jednym z przepisów musieliśmy użyć mięsa żmii; żmija zygzakowata jest zwierzęciem chronionym i nie możemy, zresztą [nawet] nie chcielibyśmy, polować na żmije. Karkołomne zadanie polegało więc na "polowaniu" na martwe egzemplarze. Tu w sukurs przyszli badaczom leśnicy i nadleśnictwa z województwa dolnośląskiego. Jak widać, mierząc się z większymi lub mniejszymi przeszkodami, prowadzący projekt naukowcy starają się kompletować wszystkie składniki... Interdyscyplinarna analiza receptury teriaku Pod koniec ubiegłego roku w Journal of Ethnopharmacology ukazał się artykuł nt. teriaku (driakwi) „Prawdziwa driakiew – panaceum, trucizna czy oszustwo” (The real Theriac – panacea, poisonous drug or quackery?) Jego autorami, poza dr. Węglorzem, byli dr. Danuta Raj i Maciej Włodarczyk z Katedry i Zakładu Farmakognozji i Leku Roślinnego Uniwersytetu Medycznego we Wrocławiu oraz dr Katarzyna Pękacka-Falkowska z Katedry i Zakładu Historii i Filozofii Nauk Medycznych Uniwersytetu Medycznego im. Karola Marcinkowskiego w Poznaniu. « powrót do artykułu
- 1 odpowiedź
-
- dr Jakub Węglorz
- farmaceuci
-
(i 5 więcej)
Oznaczone tagami:
-
Reaktor badawczy MARIA w trybie ekspresowym zmienił harmonogram pracy, by zapobiec brakom w dostawach medycznego molibdenu-99 (Mo-99). Działanie miało związek z usterką w holenderskim reaktorze HFR, który należy do grona kilku światowych dostawców tego radionuklidu. Molibden-99 jest podstawowym radioizotopem służącym do uzyskiwania radioaktywnego technetu. Ten zaś jest wykorzystywany w większości procedur medycyny nuklearnej. Molibden-99 jest produkowany w reaktorach badawczych na drodze napromieniania neutronami tarcz uranowych. W zeszłym tygodniu przed jednym z rutynowych uruchomień reaktora HFR wykryto usterkę w obiegu chłodzenia (przed każdym kolejnym uruchomieniem dokonuje się kontroli wszystkich instalacji). Z tego względu nie można go było uruchomić zgodnie z planem, czyli 20 stycznia. Okazało się jednak, że już 21 stycznia produkcję HFR przejął reaktor MARIA w Otwocku-Świerku pod Warszawą. 20 stycznia byliśmy w Świerku w trakcie spotkania z naszymi partnerami produkującymi medyczny molibden-99, kiedy jednemu z nich zadzwonił telefon - opowiada Paweł Nowakowski, dyrektor Departamentu Eksploatacji Obiektów Jądrowych w Narodowym Centrum Badań Jądrowych (NCBJ). Nasz gość odszedł na chwilę na bok, by odebrać połączenie i po chwili spytał, czy za dwa dni jesteśmy w stanie awaryjnie napromienić dodatkowe tarcze uranowe. Dobro pacjentów onkologicznych jest dla nas niezwykle ważne, więc zgodziłem się bez wahania. Jesteśmy również przygotowani do przeprowadzenia kolejnych napromieniań w najbliższych tygodniach. Jak podkreślono w komunikacie prasowym NCBJ, zespół ekspertów przeprowadził szczegółowe obliczenia optymalizujące konfigurację rdzenia MARII. Później zatwierdziła je Państwowa Agencja Atomistyki. Udało się to zrealizować w zaledwie parę godzin. Zadanie wykonano tak szybko, gdyż od 2010 r. MARIA jest przygotowana do napromieniania tarcz uranowych do produkcji molibdenu-99. W roku przeprowadza się kilka cykli. NCBJ zaznacza, że w razie nieplanowanych przestojów u głównych dostawców reaktor badawczy MARIA może zmienić harmonogram i zapełnić lukę. Warto podkreślić, że MARIA jest jednym z najważniejszych dostawców napromienianych tarcz uranowych do produkcji Mo-99, odpowiedzialnym za około 10% światowych dostaw. « powrót do artykułu
-
- reaktor badawczy MARIA
- Świerk
- (i 7 więcej)
-
Kolosalne koszty zewnętrzne sektorów energii i transportu
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Wiele ludzkich działań niesie ze sobą zewnętrzne koszty społeczne, środowiskowe czy zdrowotne. Gdy np. jedziemy samochodem, musimy zapłacić za paliwo, jednak cena paliwa nie uwzględnia kosztu zanieczyszczenia środowiska czy negatywnego wpływu spalin na ludzkie zdrowie. Naukowcy z brytyjskiego University of Sussex i koreańskiego Hanyang University podjęli się globalnego oszacowania kosztów zewnętrznych związanych z działalnością sektora transportowego i energetycznego. Okazało się, że koszty te wynoszą ponad 1/4 światowego produktu brutto. Z analizy przeprowadzonej przez profesorów Benjamina K. Sovacoola i Jinsoo Kima, wynika, że zewnętrzne koszty społeczne, zdrowotne i środowiskowe obu wspomnianych sektorów to 24,662 biliony USD, czyli około 29% światowego produktu brutto. Badania opublikowane na łamach pisma Energy Research & Social Science wykazały, że gdyby uwzględnić wszystkie koszty powodowane przez wykorzystywanie węgla – takie jak zmiana klimatu, zanieczyszczenie powietrza czy degradacja gleb – to cena węgla powinna być ponaddwukrotnie wyższa, niż jest obecnie. Autorzy badań podkreślają, że obecny system energetyczny nie sprawdza się pod względem rynkowym. Gdyby bowiem uwzględnić rzeczywiste koszty produkcji energii, to okazałoby się, że nieuwzględniane koszty są niemal równe obecnym kosztom produkcji, przez co wiele elektrowni węglowych i atomowych byłoby nieopłacalnych. Naukowcy przypominają przy tym, że również systemy produkcji energii odnawialnej niosą ze sobą koszty zewnętrzne. Podczas badań zidentyfikowaliśmy olbrzymie koszty zewnętrzne, które niemal nigdy nie są uwzględniane w rzeczywistych wydatkach związanych z jazdą samochodem czy użytkowaniem elektrowni węglowej. Uwzględnienie tych kosztów doprowadziłoby do radykalnej zmiany szacunków ekonomicznych i portfolio zasobów, na których polegają dostawcy energii, mówi profesor Sovacool. To nie jest tak, że społeczeństwo nie płaci tych kosztów. Po prostu koszty te nie są uwzględniane w cenie energii. I, niestety, te koszty zewnętrzne nie są ponoszone ani równo, ani uczciwie. Najbardziej poszkodowani są ci najsłabiej reprezentowani na rynku. To na przykład ludzie żyjący na obszarach o najbardziej zanieczyszczonym powietrzu, glebie i wodzie, których nie stać na przeprowadzkę w inne regiony czy mieszkańcy wysp ledwie wystających nad poziom morza, jak Vanuatu czy Malediwy, którzy już teraz są zagrożeni przez wzrost poziomu wód oceanicznych. Profesor Jinsoo Kim dodaje, że badania jasno pokazują, iż ropa naftowa, węgiel i związane z nimi odpady generują znacznie więcej kosztów w portfolio firm energetycznych niż inne metody produkcji energii. Gdyby prawdziwe koszty wykorzystywania paliw kopalnych były uwzględniane, to wielkie ponadnarodowe koncerny energetyczne, które dominują na światowym rynku, przynosiłyby olbrzymie straty. Jednak zamiast tego rachunek wystawiany jest społeczeństwom, które ponoszą te koszty. Na potrzeby swoich badań uczeni wykonali metaanalizę i syntezę 139 badań naukowych, w których dokonano w sumie 704 szacunków kosztów zewnętrznych. Były to 83 badania dotyczące dostarczania energii, 13 badań nad efektywnością energetyczną i 43 badania nad transportem. Z przeprowadzonej analizy wynika, że największe koszty zewnętrzne niesie ze sobą produkcja energii z węgla. Wynoszą one aż 14,5 centa na kWh, podczas gdy średni koszt produkcji energii z węgla w czasie całego okres działania elektrowni węglowej wynosi od 6,6 do 15,2 centa/kWh. Drugim pod względem wysokości kosztów zewnętrznych rodzajem pozyskiwania energii jest jej produkcja z gazu ziemnego. Tam koszty zewnętrzne to 3,5 centa/kWh, przy koszcie produkcji wynoszącym 4,4–6,8 centa/kWh. To poważne wyzwanie dla polityków, urzędników i planistów, by spowodować, żeby rynki transportowy i energetyczny funkcjonowały ja należy i uwzględniały w cenach swoich produktów biliony dolarów kosztów zewnętrznych, które obecnie przerzucają na społeczeństwo. Obecnie konsumenci są odseparowani od rzeczywistych kosztów pozyskiwania, transportu i przetwarzania surowców energetycznych oraz pozyskiwania z nich energii. A to oznacza, że kolosalny koszt społeczny i ekologiczny takich działań jest trudniej zauważyć. Zasadnicze pytanie brzmi, czy chcemy globalnych rynków, które manipulują kosztami zewnętrznymi dla własnych korzyści, czy też wolimy politykę, która wymusi na nich zinternalizowanie tych kosztów – stwierdza Sovacool. Autorzy badań zwracają uwagę, że w wielu pakietach pomocowych, które mają rozruszać gospodarkę po pandemii uwzględniono olbrzymie kwoty dla przemysłu paliw kopalnych, motoryzacyjnego czy lotniczego. Jednak długotrwałe ożywienie gospodarcze może się nie udać, jeśli sektory te nie będą ponosiły całości kosztów, jakie są związane z ich działalnością, dodaje profesor Kim. « powrót do artykułu- 16 odpowiedzi
-
Komputery kwantowe mogą zrewolucjonizować wiele dziedzin nauki oraz przemysłu, przez co wpłyną na nasze życie. Rodzi się jednak pytanie, jak duże muszą być, by rzeczywiście dokonać zapowiadanego przełomu. Innymi słowy, na ilu kubitach muszą operować, by ich moc obliczeniowa miała znaczący wpływ na rozwój nauki i technologii. Na pytanie to postanowili odpowiedzieć naukowcy z Wielkiej Brytanii i Holandii. Przyjrzeli się dwóm różnym typom problemów, jakie będą mogły rozwiązywać komputery kwantowe: złamaniu zabezpieczeń Bitcoina oraz symulowanie pracy kofaktora FeMo (FeMoco), który jest ważnym elementem białka wchodzącego w skład nitrogenazy, enzymu odpowiedzialnego za asymilację azotu. Z AVS Quantum Science dowiadujemy się, że naukowcy stworzyli specjalne narzędzie, za pomocą którego mogli określić wielkość komputera kwantowego oraz ilość czasu potrzebnego mu do rozwiązania tego typu problemów. Obecnie większość prac związanych z komputerami kwantowymi skupia się na konkretnych platformach sprzętowych czy podzespołach nadprzewodzących. Różne platformy sprzętowe znacząco się od siebie różnią chociażby pod względem takich kluczowych elementów, jak tempo pracy czy kontrola jakości kubitów, wyjaśnia Mark Webber z University of Sussex. Pobieranie azotu z powietrza i wytwarzanie amoniaku na potrzeby produkcji nawozów sztucznych to proces wymagający dużych ilości energii. Jego udoskonalenie wpłynęłoby zarówno na zwiększenie produkcji żywności, jak i zmniejszenie zużycia energii, co miałoby pozytywny wpływ na klimat. Jednak symulowanie odpowiednich molekuł, których opracowanie pozwoliłoby udoskonalić ten proces jest obecnie poza możliwościami najpotężniejszych superkomputerów. Większość komputerów kwantowych jest ograniczone faktem, że wykorzystywane w nich kubity mogą wchodzić w bezpośrednie interakcje tylko z kubitami sąsiadującymi. W innych architekturach, gdzie np. są wykorzystywane jony uwięzione w pułapkach, kubity nie znajdują się na z góry ustalonych pozycjach, mogą się przemieszczać i jeden kubit może bezpośrednio oddziaływać na wiele innych. Badaliśmy, jak najlepiej wykorzystać możliwość oddziaływania na odległe kubity po to, by móc rozwiązać problem obliczeniowy w krótszym czasie, wykorzystując przy tym mniej kubitów, wyjaśnia Webber. Obecnie największe komputery kwantowe korzystają z 50–100 kubitów, mówi Webber. Naukowcy oszacowali, że do złamania zabezpieczeń sieci Bitcoin w ciągu godziny potrzeba – w zależności od sprawności mechanizmu korekty błędów – od 30 do ponad 300 milionów kubitów. Mniej więcej godzina upływa pomiędzy rozgłoszeniem a integracją blockchaina. To czas, w którym jest on najbardziej podatny na ataki. To wskazuje, że Bitcoin jest obecnie odporna na ataki z wykorzystaniem komputerów kwantowych. Jednak uznaje się, że możliwe jest zbudowanie komputerów kwantowych takiej wielkości. Ponadto ich udoskonalenie może spowodować, że zmniejszą się wymagania, co do liczby kubitów potrzebnych do złamania zabezpieczeń Bitcoin. Webber zauważa, że postęp na polu komputerów kwantowych jest szybki. Przed czterema laty szacowaliśmy, że do złamania algorytmu RSA komputer kwantowy korzystający z jonów uwięzionych w w pułapce potrzebowałby miliarda fizycznych kubitów, a to oznaczało, że maszyna taka musiałaby zajmować powierzchnię 100 x 100 metrów. Obecnie, dzięki udoskonaleniu różnych aspektów tego typu komputerów, do złamania RSA wystarczyłaby maszyna o rozmiarach 2,5 x 2,5 metra. Z kolei do przeprowadzenia symulacji pracy FeMoco komputery kwantowe, w zależności od wykorzystanej architektury i metod korekcji błędów, potrzebowałyby od 7,5 do 600 milionów kubitów, by przeprowadzić taką symulację w ciągu około 10 dni. « powrót do artykułu
- 2 odpowiedzi
-
- zabezpieczenia
- molekuła
-
(i 2 więcej)
Oznaczone tagami:
-
Po lewej czy po prawej stronie? Obecnie nie mamy tego dylematu i w większości krajów na świecie jeździmy po prawej. Jednak jeszcze niedawno liczba państw, w których obowiązywał ruch lewostronny była znacznie większa, niż obecnie. Po lewej stronie jeżdżono w Szwecji czy Danii, a w Austrii w pierwszej połowie XX wieku w części kraju obowiązywał ruch lewo-, a w części prawostronny. Teraz wszyscy Austriacy jeżdżą po prawej. Kto jednak ma rację i który sposób poruszania się jest bardziej właściwy czy uzasadniony? Tego droga, kto silniejszy Przez większość historii ludzkość nie potrzebowała przepisów dotyczących ruchu na drogach. Nawet w tak rozwiniętych państwach jak Imperium Rzymskie, z jego rozbudowaną siecią dróg, nie istniały odgórnie narzucone zasady poruszania się. Większość dróg było wąskich, więc wprowadzanie obowiązku jazdy po konkretnej stronie i tak mijało się z celem. Nawet na szerokich drogach jeżdżono środkiem, po koleinach, a pierwszeństwo miał ten, kto je wymusił. Większy, silniejszy czy znaczniejszy mógł więc zostać w wygodnych bezpiecznych koleinach, a mniejszy musiał zjechać wozem na bok i liczyć na to, że nie ugrzęźnie na poboczu. Jedynie na kilku szerokich mostach wprowadzono zasady mijania się po konkretnych stronach. Badania kolein na drogach w ruinach Pompejów sugerują, że w mieście tym jeżdżono po prawej stronie. Jednak była to preferencja kulturowa, a nie odgórny nakaz. Co nie znaczy, że rządzący w Imperium nie zajmowali się ruchem drogowym. Wiemy, że już w I wieku przed naszą erą ruch kołowy w Rzymie stanowił tak wielki problem, iż Juliusz Cezar wydał zakaz poruszania się powozów i rydwanów przed godziną 15. Wyjątek wprowadzono dla wozów z materiałami budowlanymi na potrzeby świątyń lub innych robót publicznych. Zarządzenie miało ułatwić ruch pieszy w mieście. Ruch może i ułatwiło, ale miało to swoje konsekwencje. Ponad 100 lat później poeta Juwenalis w jednej ze swoich satyr narzeka, że hałas czyniony przez wozy w nocy nie pozwala ludziom spać. Pierwsze zasady Najstarszy zapis zasad poruszania się po drodze znajdziemy prawdopodobnie w Zhou Li (Obyczaje Zhou) z II w. p.n.e. Dzieło opisuje organizację państwa zachodniej dynastii Zhou (1046 p.n.e. – 771 p.n.e.). W księdze czytamy, że na drogach mężczyźni zajmują prawą stronę, kobiety lewą, a wozy jadą środkiem. Jednak były to nie tyle przepisy ruchu drogowego, co opis struktury społecznej. Gdy zaś trzeba było się minąć, o tym, kto którą stronę zajmie, decydował przypadek lub obyczaj, nie nakaz prawny. I takie zwyczajowe zasady nie dotyczyły całości ruchu, a określały, kto komu ma ustąpić z drogi. W niektórych miejscach władze dość wcześnie regulowały pewne zasady poruszania się. Sachsenspiegel, saksońskie prawo z początków XIII wieku, mówiło, że pieszy ma ustąpić konnemu, konny wozowi, a wóz pusty wozowi pełnemu. Taki sposób pojmowania ruchu utrzymał się przez wiele wieków. Jeszcze w 1930 roku w raporcie australijskiego rządu znalazło się zalecenie, by na wąskich brukowanych drogach pierwszeństwo miał pojazd cięższy, nawet gdyby oznaczało to, że pojazd lżejszy musi częściowo zjechać z drogi. Obyczaj najważniejszy Dla osób pieszych bardziej naturalnym jest trzymanie się prawej strony. Niektórzy twierdzą, że dzieje się tak, gdyż większość ludzi jest praworęczna, więc żołnierz niosący tarczę na lewym ramieniu, wolał mieć ewentualnego napastnika po swojej lewej stronie, zatem w niespokojnych czasach mijał idącego z naprzeciwka człowieka wybierając prawą stronę drogi. W sytuacji, gdy zbrojny nie miał tarczy, to mając przypasaną broń po lewej stronie mógł się nią szybciej zasłonić, gdy potencjalny napastnik również był po lewej. Mijając się z nim wybierał więc prawą stronę drogi. To jednak tylko dywagacje. Pewnym jest zaś, że wybór prawej strony jest jest naturalny podczas prowadzenia zwierząt. Trzymamy je prawą ręką, więc wygodniej jest iść z lewej strony zwierzęcia, wybierając prawą stronę drogi. W Japonii zaś savior-vivre wymagał, by mijać się tak, aby przypasany u boku miecz był dalej od mijanej osoby. Tym bardziej, że na wąskich uliczkach miast mijający się samurajowie, idąc prawą stroną, mogli przypadkiem zderzyć się mieczami co mogło zostać uznane za obrazę i powód do pojedynku. Rozsądnie więc było zejść na lewą stronę, by uniknąć przypadkowego zderzenia i nieporozumienia towarzyskiego. Zwyczaj ten został sformalizowany, gdy powstawała japońska sieć kolejowa.Była ona budowana przez Brytyjczyków, więc tutaj nałożyły zwyczaj obu krajów i pociągi jeździły lewym torem. Ostatecznie przepisy z 1924 roku uregulowały kwestię ruchu lewostronnego. Do dzisiaj Japonia jest jednym niewielu państw nie będących w przeszłości brytyjską kolonią, w których obowiązuje ruch lewostronny. Po drugiej stronie oceanu koloniści mieszkający na terenie dzisiejszych Stanów Zjednoczonych przywieźli ze sobą różne zwyczaje, więc brytyjskie kolonie w Ameryce Północnej nie zostały zdominowane przez brytyjski zwyczaj poruszania się lewą stroną. Co więcej, wszystkie dostępne dowody wskazują, że w kolonialnej Ameryce Północnej poruszano się zwykle po prawej stronie drogi. Wozy przesądziły sprawę Historycy zgadzają się co do tego, że najważniejszym impulsem utrwalenia ruchu prawostronnego było pojawienie się wozów typu Conestoga. Conestoga był ciężkim wozem, prototypem dla słynnych szkunerów prerii, zdolnym do przewożenia nawet do 6 ton ładunku i był ciągnięty przez 4-6 zwierząt. Po raz pierwszy wozy tego typu były używane do transportu pszenicy pomiędzy doliną Conestoga w Pennsylwanii a pobliskimi miastami. Wozy nie miały specjalnego siedziska. Woźnica albo szedł po lewej, albo siedział lub stał na tzw. lazy board umieszczonej z lewej strony pomiędzy osiami wozu, gdzie znajdował się hamulec, albo też jechał na oklep na ostatnim zwierzęciu po lewej. Lewa strona była naturalnym wyborem, gdyż większość ludzi jest praworęczna, więc lejce trzymali w prawej ręce. A skoro woźnica znajdował się po lewej, to naturalnym wyborem było mijanie się wozów na wąskich drogach po prawej stronie, dzięki czemu powożący mogli pilnować, by nie zahaczyć się wystającymi osiami. Wozy Conestoga pojawiły się około 1750 roku i sposób powożenia nimi miał tak wielki wpływ na obyczaj poruszania się po drogach, że prawostronny ruch przyjęto w najwcześniejszych amerykańskich przepisach regulujących tę kwestię. W 1792 roku władze Pennsylwanii nakazały, by wozy mijające się na Pennsylvania Turnpike pomiędzy miastami Lancaster i Filadelfia, wybierały prawą stronę drogi. Pierwsze prawo regulujące ruch na wszystkich drogach stanowych zostało przyjęte w Nowym Jorku w 1804 roku i nakazywało ono ruch prawostronny. W roku 1813 takie samo rozwiązanie przyjął stan New Jersey. Z czasem podobne zasady wprowadziły inne stany, gdy więc w USA zaczęły powstawać pierwsze samochody, ich twórcy umieszczali kierownice po lewej strony, by – podobnie jak w przypadku wozów Conestoga – kierowcy mogli mijać się jadąc po prawej stronie drogi. W Meksyku podróżowano głównie po prawej stronie, jeszcze zanim kraj uzyskał niepodległość od Hiszpanii. A prawostronną zasadę poruszania się tylko wzmocnił import samochodów z USA. Miały one kierownice z lewej strony, więc jeżdżono po prawej. Amerykańskie samochody prawdopodobnie miały też wpływ na kształtowanie się prawostronnego ruchu w Kanadzie, ale tam był to długotrwały proces. W prowincji Ontario jeżdżono po prawej stronie już w 1812 roku, ale na przykład w Nowej Szkocji jeszcze w roku 1922 poruszano się po lewej. W Europie sytuacja nie była tak klarowna. We Francji na przełomie XVIII i XIX wieku stosowano wozy dostawcze podobne do Conestoga. Woźnica siedział na ostatnim koniu po lewej. Zatem mijające się wozy zjeżdżały na prawo. Zasadę tę zaczęli stosować też i cywile. Wraz z podbojami Napoleona zasada ruchu prawostronnego zaczęła rozpowszechniać się w Europie. W 1852 roku wydano we Francji dekret, dotyczący głównych dróg i ulic miejskich, w którym nakazano ruch prawostronny. Reguły takie przyjmowały też inne kraje. W Rosji ruch prawostronny wprowadzono jeszcze za caratu, na Bliskim Wschodzie rozpowszechnił się on za czasów Imperium Osmańskiego, a w Chinach wprowadzono ją pod rządami Kuomintangu w 1946 roku. Przy zasadzie ruchu lewostronnego pozostała Wielka Brytania i jej kolonie. Ruch lewostronny Dlaczego więc Brytyjczycy jeżdżą inaczej niż reszta Europy? Poruszanie się lewą stroną drogi było na Wyspach powszechnym zwyczajem. A został on wzmocniony konstrukcją brytyjskich wozów z XVIII i XIX wieku. Były one mniejsze niż Conestoga i... miały z przodu ławkę. Ławka zaś dawała woźnicy więcej swobody. I zwykle woźnica siadał po prawej stronie koni, by móc swobodnie prawą dłonią operować batem, bez obawy, że zahaczy o ładunek z tyłu. Mijając inny wóz zjeżdżano więc na lewo. W powozach przewożących pasażerów woźnica również siadał po prawej, a obok niego siedział pomocnik, który mógł szybko zeskoczyć i pomóc pasażerom przy wysiadaniu. Pierwsze na Wyspach prawo nakazujące korzystanie z konkretnej strony drogi pojawiło się już w 1669 roku. I przepis ten mógł stać się prekursorem wszystkich brytyjskich praw dotyczących organizacji ruchu. Nakazano wówczas, by na London Bridge wozy trzymały się lewej strony. W 1772 roku Szkocja nakazała ruch lewostronny na wszystkich swoich drogach. A zasada ta została ostatecznie przypieczętowana w 1835 roku, kiedy to Highway Act narzucił ruch lewostronny na wszystkich drogach Wielkiej Brytanii. Gdy więc na Wyspach zaczęto produkować samochody, kierownice montowano z prawej strony. Zasada ruchu lewostronnego trafiła też do brytyjskich kolonii. Obecnie obowiązuje ona w ponad 60 państwach i terytoriach zależnych, głównie w Wielkiej Brytanii i części jej byłych kolonii. Z kolei na dwóch brytyjskich terytoriach zależnych – Gibraltarze i Brytyjskim Terytorium Oceanu Indyjskiego (BIOT) – obowiązuje ruch prawostronny. Gibraltar wybrał tę zasadę ze względu na granicę lądową z Hiszpanią. Z kolei BIOT składa się z niewielkiej wyspy Diego Garcia i tysięcy miniaturowych niezamieszkanych wysepek. Na Diego Garcia jest duża amerykańska baza wojskowa, więc wprowadzono tam ruch prawostronny. « powrót do artykułu
-
Oporne na antybiotyki bakterie co roku zabijają miliony osób
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Niejednokrotnie informowaliśmy, że rosnąca antybiotykooporność – wywołana nadmiernym używaniem antybiotyków w medycynie, hodowli zwierząt czy kosmetykach – stanowi coraz poważniejsze zagrożenie. Na łamach The Lancet ukazały się właśnie wyniki pierwszej kompletnej ogólnoświatowej analizy skutków antybiotykooporności. Wynika z niej, że w 2019 roku patogeny oporne na działanie antybiotyków zabiły 1,24 miliona osób i przyczyniły się do śmierci 4,95 miliona kolejnych. Autorzy analizy oszacowali liczbę zgonów w 204 krajach i terytoriach spowodowanych przez 23 antybiotykooporne szczepy bakterii oporne na co najmniej jeden z 88 antybiotyków. Dane zebrano ze specjalistycznej literatury, szpitali, systemów ochrony zdrowia i innych źródeł. Objęły one w sumie 471 milionów rekordów. Następnie wykorzystano modele statystyczne, by oszacować wpływ antybiotykoopornych szczepów na poszczególne państwa. Autorzy badań szacowali liczbę zgonów, w których infekcja odgrywała rolę, proporcję zgonów w stosunku do liczby infekcji, proporcję zgonów przypisywanych konkretnemu patogenowi, rozpowszechnienie antybiotykoopornego szczepu konkretnego patogenu oraz nadmiarowe ryzyko zgonu powiązane z występowaniem na danym terenie takiego patogenu. Na tej podstawie udało się oszacować zarówno liczbę zgonów powodowanych bezpośrednio przez antybiotykooporne bakterie, jak i liczbę zgonów powiązanych z ich występowaniem. Najbardziej dotknięte problemem antybiotykooporności są kraje o niskich i średnich dochodach. A Afryce Subsaharyjskiej liczba ofiar antybiotykoopornych bakterii wynosiła w 2019 roku średnio aż 27,3 na 100 000. Na przeciwnym biegunie znajduje się Australazja z liczbą 6,5 zgonu na 100 000. Ludzi na całym świecie zabijają przede wszystkim antybiotykooporne szczepy Escherichia coli, Staphylococcus aureus, Klebsiella pneumoniae, Streptococcus pneumoniae, Acinetobacter baumannii i Pseudomonas aeruginosa. Z analiz wynika, że bezpośrednio zabiły one łącznie 929 000 osób oraz przyczyniły się do 3,57 miliona zgonów powiązanych z antybiotykoopornymi bakteriami. Najwięcej, bo ponad 100 000, ofiar ma na koncie oporny na metycylinę gronkowiec złocisty (MRSA), który spowodował zgon ponad 100 000 osób. Inne wymienione patogeny zabijały od 50 do 100 tysięcy osób. Wbrew pozorom liczby sumują się do wspomnianych 900 tysięcy, gdyż naukowcy liczyli nie gatunki, a szczepy, zatem na przykład policzono zarówno ofiary opornej na karbapenemy K. pneumonie jak i ofiary K. pneumoniae opornej na cefalosporyny trzeciej generacji. « powrót do artykułu -
W połowie stycznia do jednego z oddziałów księgarni Waterstones (przy Gower Street w Londynie) dotarł nietypowy list. Nadawca przesłał pieniądze za książki, za które zapomniał ponoć zapłacić w 1974 r. Droga załogo Waterstones. W 1974 r. zapomniałem zapłacić za parę książek. Minęło sporo czasu. Biorąc poprawkę na inflację, kosztowałyby one ok. 100 funtów. By zrekompensować brak płatności, przesyłam zatem 120 funtów - napisał anonimowy nadawca. Księgarnie to niesamowite miejsca z fantastycznymi klientami, zarówno obecnymi, jak i byłymi - napisano na profilu placówki z Gower Street na Twitterze. Księgarnia docenia gest i przekazuje tę drobną kwotę BookTrust, brytyjskiej organizacji charytatywnej promującej czytanie wśród dzieci. Mamy nadzieję, że anonimowy klient to zaaprobuje i że być może znowu się u nas pojawi! « powrót do artykułu
- 2 odpowiedzi
-
- Waterstones
- Gower Street
-
(i 3 więcej)
Oznaczone tagami:
-
Niedawno firma Caladan Oceanic pochwaliła się znalezieniem wraku okrętu USS Johnson, zatopionego w 1944 roku. Jednak zanim trafiono na okręt, zauważono coś, co poruszyło nie historyków, a biologów. A odkrycia dokonano przypadkiem, gdy podczas poszukiwania okrętu batyskaf kierowany przez Victora Vescovo zboczył o kilka kilometrów z kursu. Vescovo i jego kolega płynęli batyskafem przez głębiny Rowu Filipińskiego, a ich podróż była rejestrowana przez kamerę. Film trafił d Alana Jamiesona z University of Western Australia, który specjalizuje się w badaniu głębin oceanicznych. Jamieson przeglądał nagranie w nadziei, że znajdzie na nim coś interesującego. Nagle, na kilku sekundach nagrania, pojawił się kształt, którego uczony się nie spodziewał. Przewinął i obejrzał jeszcze raz. Naukowiec szybko rozpoznał kształt widoczny w reflektorach batyskafu. Jamieson oglądał kałamarnicę. Nie byłoby w tym nic dziwnego, gdyby nie fakt, że nagrania dokonano na głębokości 6200 metrów. Zwierzę pływało o 1500 głębiej niż jakakolwiek inna wcześniej zauważona kałamarnica. Australijski naukowiec wysłał fragment filmu do zoologa Mike'a Vecchione ze Smithsonian Institution. Ten zidentyfikował zwierzę jako należące do rzadko spotykanego i słabo znanego rodzaju Magnapinna. To bardzo dziwne zwierzęta. Dryfują z rozłożonymi ramionami, a pod nimi zwisają długie, podobne do spaghetti struktury. Zawierają one mikroskopijne przyssawki, za pomocą których kałamarnica łapie ofiary. Zwierzę, które zarejestrowano było nieduże. Długość jego płaszcza wynosiła ok. 10 cm, czyli trzykrotnie mniej niż płaszcz największych znanych Magnapinna. Nie widać też długich ramion. Zdaniem specjalistów, oznacza to, że Vescovo spotkał młodego osobnika. Eksperci mówią, że to fascynujące odkrycie. Kałamarnice znajdują się bowiem na szczycie morskiego łańcucha pokarmowego, ich istnienie zależy od złożonej sieci powiązań ekologicznych. Odkrycie kałamarnicy na głębokości 6212 metrów oznacza, że musi tam istnieć wiele innych form życia, umożliwiających kałamarnicom na przetrwanie na tak znacznych głębokościach. Oznacza to też, że jeśli na różnych etapach rozwoju kałamarnice przebywają na takich głębokościach, to aktywność człowieka może być dla nich większym zagrożeniem, niż sądzono. Osady wzbijane przez ludzi podczas działalności wydobywczej mogą mieć wpływ na populację tych zwierząt, mówi Bruce Robinson z Monterey Bay Aquarium Research Institute. Obawy te potwierdziły się, gdy w końcu odkryto wrak USS Johnson. Mimo, że opadł on na dno i wbił osady przed niemal 80 laty, okolica wygląda tak, jakby było to wczoraj, mówi Robinson. W dalszej odległości od wraku widać ślady życia, ale w jego pobliżu, tam, gdzie doszło do największego przemieszczenia osadów, nie zauważono żadnych istot żywych. To sugeruje, że jeśli dojdzie do zaburzenia dna na tak dużych głębokościach – na przykład w wyniku działalności wydobywczej – to życie znika stamtąd na całe dekady. « powrót do artykułu
-
- USS Johnson
- kałamarnica
-
(i 1 więcej)
Oznaczone tagami:
-
Białowieski Park Narodowy przygotowuje się do dorocznej inwentaryzacji żubrów żyjących na wolności w polskiej części Puszczy Białowieskiej. Jeśli zimowa pogoda się nie zmieni, liczenie tych zwierząt chce przeprowadzić w najbliższych dniach. Doroczne liczenie żubrów w Puszczy Białowieskiej jest przeprowadzane zawsze zimą. Pracownicy parku narodowego, leśnicy i naukowcy wykorzystują wtedy fakt – przy założeniu, że jest mróz i śnieg – że zwierzęta zbierają się w większe grupy w miejscach dokarmiania i przez dłuższy czas nie oddalają się stamtąd, a pojedyncze sztuki można wtedy wytropić np. po śladach na śniegu. Mieliśmy je w minionym tygodniu liczyć, ale pogoda sprawiła, że żubrów nie było widać, więc liczenie przesunęliśmy na ten tydzień. Była odwilż i nie było śniegu, żubry wówczas słabiej się trzymają przy tych miejscach dokarmiania, a zależy nam na tym, żeby zobaczyć jak największą część populacji - powiedziała PAP dr Katarzyna Daleszczyk z ośrodka hodowli żubrów BPN. Przyznała, że przy dużym rozproszeniu zwierząt liczenie jest bardzo trudne, bo utrudniona jest ich obserwacja. Nie jesteśmy w stanie przeczesać całej puszczy – dodała Daleszczyk, zaznaczając że monitoring zwierząt trwa już od kilku tygodni. Przyznała, że tej zimy również sytuacja na polsko-białoruskiej granicy wpływa na zachowania żubrów, które są częściej płoszone czy niepokojone tam, gdzie zwykle bytują. Czasami pojawiają się w miejscach, albo wychodzą z miejsc, o których wcześniej nawet nie wiedzieliśmy, że tam chodzą – powiedziała, wskazując na takie miejsca w rezerwacie ścisłym. Podczas inwentaryzacji stada przeprowadzonej poprzedniej zimy, doliczono się w polskiej części Puszczy Białowieskiej 715 żubrów, w tym 70 młodych urodzonych w 2020 roku. Obserwacje prowadzono – jak zwykle – nie tylko w Białowieskim Parku Narodowym, ale także w nadleśnictwach wokół parku: Białowieża, Bielsk, Browsk, Hajnówka, Nurzec i Rudka. Na razie dokładnie nie wiadomo, ile młodych urodziło się w 2021 roku. Tzw. upadków, czyli przypadków śmierci z powodów naturalnych lub po atakach drapieżników, było ok. dwudziestu, siedem osobników zostało w ub. roku wyeliminowanych w ramach odstrzałów selekcyjnych, a jednego żubra odłowiono. Sześć młodych samców zostało wypuszczonych na wolność z tzw. hodowli wolnej, by wzbogacić pulę genetyczną populacji w Puszczy Białowieskiej. « powrót do artykułu
-
- Białowieski Park Narodowy
- żubr
-
(i 1 więcej)
Oznaczone tagami:
-
Webb dotarł do celu i wszedł na wyznaczoną orbitę
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
Po trwającej miesiąc podróży Teleskop Kosmiczny Jamesa Webba (JWST) trafił właśnie na orbitę wokół punktu Lagrange'a L2. Przez pięć kolejnych miesięcy Webb będzie przygotowywany do pracy, a rozpoczęcie badań naukowych zaplanowano na czerwiec. Wcześniej opisywaliśmy budowę teleskopu i jego cele naukowe oraz dlaczego wybrano punkt L2 i dlaczego JWST będzie wokół niego krążył, a nie został umieszczony dokładnie w nim. Zwierciadła i instrumenty naukowe Webba jeszcze nie osiągnęły wymaganej stabilnej temperatury pracy. Muszą się jeszcze nieco chłodzić. A schładzać zaczęły się, i to bardzo szybko, gdy tylko teleskop rozwinął osłonę termiczną. Procesu tego nie pozostawiono jednak całkowicie naturze. Jest on ściśle kontrolowany poprzez umieszczenie w strategicznych miejscach teleskopu elektrycznie podgrzewanych pasków. Dzięki nim można było zarówno kontrolować równomierne kurczenie się całej struktury teleskopu, jak i upewnić się, że zabrana w Ziemi wilgoć odparuje i nie zamarznie na elementach optycznych czy czujnikach, co mogłoby negatywnie wpłynąć na prowadzone badania naukowe. Teraz, gdy Webb jest już w miejscu swojego przeznaczenia, centrum kontroli wykorzysta Fine Guidance Sensor do nakierowania teleskopu na jedną z jasnych gwiazd i sprawdzenie, czy obserwatorium jest w stanie wybrać taki cel, skupić się na nim i śledzić go w miarę, jak będzie podróżowało po swojej orbicie. Weryfikacja prawidłowej pracy zostanie przeprowadzona głównie za pomocą urządzenia NIRCam. Jednak, jako że zwierciadło główne teleskopu nie jest jeszcze odpowiednio ustawione, otrzymamy do 18 rozmazanych obrazów obserwowanej gwiazdy. Po potwierdzeniu, że Webb jest w stanie śledzić wybrany cel rozpocznie się żmudny kilkumiesięcznych proces ustawiania wszystkich 18 segmentów zwierciadła głównego tak, by całość działała jak jedno wielkie lustro. Poszczególne segmenty zwierciadła będą poruszały się z dokładnością liczoną w nanometrach, a cały proces zajmie trzy pełne miesiące. W międzyczasie zakończy się proces schładzania Webba i wszystkie urządzenia będą miały najniższą temperaturę możliwą do osiągnięcia w sposób pasywny. Osłona termiczna zapewni teleskopowi stabilną temperaturę pracy poniżej -223,15 stopni Celsjusza. Wówczas włączy się aktywny system chłodzenia, którego zadaniem jest zapewnienie optymalnej temperatury pracy jednemu z czterech instrumentów Webba, MIRI. Mid-Infrared Instrument to niezwykle czuła kamera i spektrograf działające w zakresie średniej podczerwieni (5–28 nm). Urządzenie jest tak czułe, że mogłoby dostrzec z Ziemi świeczkę zapaloną na jednym z księżyców Jowisza. By jednak pokazać pełnię swoich możliwości potrzebuje bardzo niskich temperatur. Dlatego też potrzebny był innowacyjny dwustopniowy system chłodzenia aktywnego, który zapewni MIRI temperaturę pracy wynoszącą -266,16 stopni Celsjusza. Od tej pory Webb będzie zdolny do uzyskania wysokiej jakości obrazów odległych gwiazd czy galaktyk. Piąty i szósty miesiąc od startu to czas kalibracji wszystkich czterech instrumentów naukowych i testowania różnych ich trybów pracy na reprezentatywnych celach w kosmosie. Sprawdzona zostanie też zdolność teleskopu do śledzenia „poruszających się” pobliskich obiektów, takich jak asteroidy, komety, planety czy księżyce w Układzie Słonecznym. Wkrótce potem NASA podzieli się wynikami swoich testów i pochwali pełnymi możliwościami teleskopu. « powrót do artykułu-
- Teleskop Kosmiczny Jamesa Webba
- L2
-
(i 1 więcej)
Oznaczone tagami:
-
To im zawdzięczamy twórczość Tolkiena, Camusa i Faulknera w polskich przekładach... - opowieść o wybitnych polskich tłumaczkach: Joannie Guze, Annie Trzeciakowskiej-Przedpełskiej i Marii Skibniewskiej. „Trzy tłumaczki” to opowieść o Marii Skibniewskiej, Joannie Guze i Annie Przedpełskiej-Trzeciakowskiej – trzech wielkich i wybitnych polskich tłumaczkach. To także opowieść o warsztacie tłumaczy, ich wyborach, walkach – nie tylko o przekład, zlecenie czy o autora, ale także o przetrwanie. Historie tych, którzy zazwyczaj pozostają – niesłusznie – w cieniu. Joanna Guze „Poniedziałek – on. Wtorek – on. Środa – on. […] Joanna Guze po cichu robiła to samo, co Witold Gombrowicz czynił z hukiem i pompą: wprowadzała ego do literatury polskiej. Tyle że było to ego (a właściwie ega) cudze. O sobie milczała”. Anna Trzeciakowska-Przedpełska „Z jednej strony jej bibliografię wypełniają klasycy, z drugiej – tabuny zwierząt. Biały Kieł, Lassie, menażeria z książek Geralda Durrella, konie u Faulknera [...]”. Maria Skibniewska „Rozziew między astronomicznym dorobkiem przekładowym Skibniewskiej a znikomością śladów, jakie po niej pozostały, poraża. Trudno przez chwilę nie pomyśleć, że coś jest na rzeczy. Że chciała zniknąć, rozpuścić się w przekładzie”. Trzy tłumaczki. Im właśnie zawdzięczamy dostęp do dużej części klasyki francuskiej i anglosaskiej, ich nazwiska widnieją w polskich wydaniach Baudelaire’a, Faulknera, Salingera, a bibliografie liczą po sto pozycji. Ich losy splatały się z historią życia literackiego w Polsce i z działalnością potężnych wydawnictw, jakimi za czasów PRL-u były Czytelnik i PIW; ich praca kształtowała wyobraźnię i gusty dużej części powojennej inteligencji. Krzysztof Umiński z wielką wnikliwością wydobywa z cienia osoby zwykle ukryte za stosem cudzych książek. Prezentuje ich warsztat, ale także ich niebanalne życiorysy, w różny sposób wplątane w historię dwudziestego wieku, od armii Berlinga po powstanie warszawskie. A wreszcie poznajemy doświadczenia trzech tłumaczek związane już bezpośrednio z ich pracą: cenzuralne perypetie Joanny Guze z esejami Camusa, bezbłędne wyczucie stylu przedwiktoriańskiego przez Annę Przedpełską-Trzeciakowską w przekładach powieści Jane Austen, jawne i ukryte zasadzki trylogii Tolkiena, jakie musiała pokonać Maria Skibniewska. Autor, sam tłumacz, mozolną sztukę przekładu potrafił przedstawić jako przygodę i wyzwanie; dość powiedzieć, że dalsze losy polskiej wersji „Władcy Pierścieni” czyta się właściwie jak kryminał. Małgorzata Szpakowska Krzysztof Umiński (ur. 1984) – debiutował relacjami z podróży po Bliskim Wschodzie drukowanymi w prasie turystycznej. Później publikował recenzje, eseje i wywiady (w „Bluszczu”, „Dwutygodniku”, „Literaturze na Świecie”, „Nowych Książkach”, „Przeglądzie Politycznym”) i pisywał scenariusze („Kamper”, „Córka trenera”). Tłumaczył książki m.in. Alberta Cohena, Sorena Gaugera, Rohintona Mistry'ego, Arundhati Roy i George'a Saundersa oraz francuskie komiksy. Jego przekład reportażu „Masakra w El Mozote” Marka Dannera znalazł się w finale Nagrody Kapuścińskiego. Trenuje tajski boks, stoczył kilka walk, m.in. na Mistrzostwach Polski i Pucharze Polski. „Trzy tłumaczki” to jego debiut książkowy.
-
Międzynarodowy zespół naukowy pracujący przy projekcie GNOME, w skład którego wchodzą uczeni z Polski, Niemiec, Serbii, Izraela, Korei Południowej, Chin, Australii i USA, ogłosił pierwsze wyniki poszukiwań ciemnej materii za pomocą ogólnoświatowej sieci magnetometrów optycznych. We wspomnianych 8 krajach znajduje się 14 magnetometrów, a do obecnie opublikowanej analizy wykorzystano dane z 9 z nich. GNOME to skrót od Global Network of Optical Magnetometers for Exotic Physics Searches. Celem projektu jest wykrycie charakterystycznego sygnału, który powinien być generowany przez pola ciemnej materii. Właśnie opublikowano dane z miesiąca nieprzerwanej pracy GNOME. Co prawda sygnał z ciemnej materii nie został wykryty, jednak pomiary pozwoliły na ściślejsze określenie, w jakich zakresach należy sygnału poszukiwać. Obecnie wiemy, że wiele obserwowanych zjawisk, jak np. prędkość obrotową gwiazd w galaktykach czy spektrum promieniowania tła, można wyjaśnić przyjmując istnienie ciemnej materii. Jednak samej ciemnej materii nie udało się dotychczas wykryć. Niezwykle lekkie cząstki bozonowe to najbardziej obiecujący kandydaci na ciemną materię. Są wśród nich cząstki podobne do aksjonów (ALP). Można je rozpatrywać jako klasyczne pole oscylujące w określonej częstotliwości. Cechą szczególną takich pól bozonowych jest – wedle jednego z teoretycznie możliwych scenariuszy – że mogą tworzyć one pewne wzorce i struktury. To zaś powoduje, że ciemna materia może mieć różną gęstość w różnych miejscach, tworząc na przykład rodzaj ścian mniejszych niż galaktyka, ale większych niż Ziemia, mówi profesor Dmitry Budker z Uniwersytetu Gutenberga z Moguncji. Jeśli taka ściana napotka Ziemię, będzie się przez nią przesuwała i będzie po kolei wykrywana przez poszczególne magnetometry sieci GNOME, generując w nich charakterystyczne sygnały. Co więcej, sygnały te będą ze sobą skorelowane, w zależności od tego, jak szybko ta ściana będzie się przesuwała i kiedy dotrze do poszczególnych magnetometrów, wyjaśnia jeden ze współautorów badań, doktor Arne Wickenbrock. Sygnał w magnetometrach powinien powstać w wyniku interakcji ciemnej materii ze spinem atomów w urządzeniach. Zgromadzone w nich atomy są wzbudzane za pomocą lasera o określonej częstotliwości, dzięki czemu ich spiny zwrócone są w tym samym kierunku. Przechodzące przez magnetometr pole ciemnej materii powinno zaburzyć ułożenie spinów, co można zmierzyć. Hector Masia-Roig, doktorant pracujący w grupie profesora Budkera, porównuje atomy do chaotycznie tańczących osób. Gdy jednak „usłyszą” odpowiednią częstotliwość lasera, atomy koordynują swój taniec. Ciemna materia może wytrącić je z równowagi, a my możemy bardzo precyzyjnie zmierzyć te zaburzenia. Możliwość skorzystania z ogólnoświatowej sieci magnetometrów pozwoli na określenie, co zaburzyło spiny atomów. Gdy bowiem Ziemia będzie przechodziła przez ścianę ciemnej materii, atomy w poszczególnych stacjach będą stopniowo zaburzane. Dopiero gdy porównamy ze sobą sygnały ze wszystkich stacji, będziemy mogli stwierdzić, co je zaburzyło. Wracając do analogii z tańczącymi – będziemy mogli powiedzieć, czy do zaburzenia doszło dlatego, że pojawił się tancerz, który wypadł z rytmu i przeszkadzał innym, czy też było to zjawisko globalne, spowodowane przez ciemną materię. Wspomniane na wstępie pomiary całego miesiąca pracy GNOME pozwoliły na stwierdzenie, że statystycznie znaczący sygnał nie pojawia się w badanym zakresie masy od 1 do 100 000 femtoelektronowoltów (feV). To zaś oznacza, że naukowcy mogą zawęzić obszar poszukiwań masy cząstek ciemnej materii. W przyszłości naukowcy chcą skupić się na udoskonaleniu magnetometrów i metod analizy danych. Głównym celem ich pracy będzie zwiększenie stabilności działania magnetometrów, by mogły pracować dłużej bez przerw. Ponadto wykorzystywane obecnie atomy metali z grupy litowców zostaną zastąpione atomami gazów szlachetnych. Tak udoskonalony Advanced GNOME ma pozwolić na zwiększenie precyzji pomiarów. « powrót do artykułu
-
- GNOME
- ciemna materia
-
(i 1 więcej)
Oznaczone tagami:
-
Polscy specjaliści podejmą się opublikowania w opracowaniu krytycznym wszystkich udokumentowanych co do autorstwa utworów Henryka Sienkiewicza. Projektem „Pisma Henryka Sienkiewicza. Edycja krytyczna pierwsza. Z okazji 100. Rocznicy Odzyskania Niepodległości” pokieruje prof. Jolanta Sztachelska z Uniwersytetu w Białymstoku (UwB). Jak podkreślono w komunikacie prasowym uczelni, edycji poddana zostanie nowelistyka, powieści, podróżopisarstwo, publicystyka społeczna i literacka, pisma polityczne, wywiady, ankiety i inne utwory – poza korespondencją prywatną pisarza, która została opracowana i opublikowana. Plan na lata Wg badaczki, realizacja zamierzenia zajmie kilkanaście lat. Pierwszy etap ma potrwać 60 miesięcy; na ten cel przyznano finansowanie w ramach Narodowego Programu Rozwoju Humanistyki (moduł „Dziedzictwo narodowe”). W ciągu tych 60 miesięcy naukowcy chcą opracować i opublikować przynajmniej 10 tomów dzieł noblisty. Kolejne dwa powinny zaś zostać przygotowane do druku. Jeśli projekt będzie kontynuowany i zostaną wdrożone kolejne etapy, planowane jest także opracowanie 1) koncepcji cyfrowej publikacji wybranych utworów pisarza i 2) portalu prezentującego jego warsztat. Koniec końców naukowcy chcieliby opublikować 36 tomów oryginalnych dzieł Sienkiewicza. Jest na co czekać, gdyż zespół wspomina o nowoczesnym opracowaniu edytorskim, z komentarzem, przypisami oraz historią tekstu czy odmianami tekstowymi. Suplementem miałyby być 4 tomy tłumaczeń utworów mających kluczowe znaczenie dla światowego odbioru Sienkiewicza („Ogniem i mieczem”, „Quo vadis” itp.). Skład zespołu Sekretarzem projektu będzie dr Karolina Szymborska z UwB. W skład zespołu wchodzi też kilkunastu badaczy z całego kraju. Są to wybitni znawcy literatury XIX w., sienkiewiczolodzy i osoby, które dopiero rozpoczynają karierę naukową. Prof. Sztachelska chce bowiem wykształcić grupę edytorów zarówno ze średniego, jak i młodszego pokolenia. Czeka ich nie lada wyzwanie, ponieważ problemem mogą być same źródła - niepełne czy niesprawdzone - mnogość wersji oraz wydań poszczególnych utworów i rozproszenie druków (np. w przypadku pism politycznych). Zobaczyć w anachronicznej postaci Sienkiewicza na miarę XXI w. Chcielibyśmy przywrócić dziełu Sienkiewicza stosowną mu pozycję w kulturze współczesnej. Pierwszemu polskiemu laureatowi Nagrody Nobla należy się uwaga i zainteresowanie głębsze niż to, którym obdarza się go obecnie. W naszej ocenie edycja krytyczna może wpłynąć na zmianę wizerunku autora Trylogii. Może być szansą, byśmy w przemienionej w mit, anachronicznej postaci z przeszłości, zobaczyli wreszcie Sienkiewicza na miarę XXI wieku - człowieka zainteresowanego modernizującym się światem, wsłuchanego w swój czas, mającego własny, nieraz bardzo krytyczny stosunek do wielu przejawów życia politycznego i społecznego, nade wszystko zaś - zatroskanego przedłużającą się niewolą, projektującego przyszłość wolnej Polski [...] - podkreśla prof. Sztachelska. Co wpływa na przeinaczenie wizerunku XIX-wiecznego pisarza? Specjalistka wskazuje na 2 powody: bezkrytyczną recepcję popularną, w której pomija się niewygodne wątki niepasujące do wytworzonych mitów i brak źródeł. « powrót do artykułu
-
- Henryk Sienkiewicz
- opracowanie krytyczne
- (i 6 więcej)
-
Za kilka godzin Teleskop Webba dotrze do celu
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
Dzisiaj około godziny 20:00 czasu polskiego kontrola naziemna Teleskopu Webba wyda mu polecenie uruchomienia silników i wprowadzi JWST na orbitę wokół punku libracyjnego L2 (punkt Lagrange'a). Teleskop pozostanie w tym miejscu przez co najmniej 10 lat. Jednak już teraz wszystko wskazuje na to, że misję Webba będzie można wydłużyć. Obecnie Teleskop Kosmiczny Jamesa Webba (JWST) znajduje się w odległości mniej niż 6000 km od swojej docelowej orbity i porusza się w jej kierunku z prędkością ok. 200 metrów na sekundę. Najwyższa temperatura po jego gorącej stronie wynosi 55 stopni Celsjusza, a najniższa po stronie zimnej to -210 stopni. Punkt libracyjny (punkt Lagrange'a) to taki punkt w przestrzeni w układzie dwóch ciał powiązanych grawitacją, w którym trzecie ciało o pomijalnej masie może pozostawać w spoczynku względem obu ciał układu. Tutaj mówimy o układzie Słońce-Ziemia i o Teleskopie Webba, czyli trzecim ciele, tym o pomijalnej masie. W układzie takich trzech ciał występuje pięć punktów libracyjnych, oznaczonych od L1 do L5. Na linii Słońce-Ziemia znajdują się trzy z nich. L3 leży za Słońcem z punktu widzenia Ziemi, L1 znajduje się pomiędzy Słońcem a Ziemią, a L2 to miejsce za Ziemią z punktu widzenia Słońca. Zatem L2 był jedyny możliwym do osiągnięcia punktem, w którym osłona termiczna Webba mogła chronić jego zwierciadła i instrumenty naukowe jednocześnie przed ciepłem emitowanym i przez Słońce i przez Ziemię. Teleskop nie zostanie umieszczony w samym punkcie L2, a będzie wokół niego krążył po orbicie, której promień będzie większy od orbity Księżyca. Będzie on wynosił nawet 800 000 kilometrów, a przebycie pełnej orbity zajmie Webbowi pół roku. Dlaczego jednak nie ustawić Webba dokładnie w L2? Punkty libracyjne przemieszczają się wraz z ruchem Ziemi wokół Słońca. Webb musiałby za L2 podążać. L2, podobnie jak L1 i L3 są punktami metastabilnymi. Jeśli narysujemy siatkę przedstawiającą gradient zmian grawitacji w tych punktach, będzie ona miała kształt siodła. Tak jakby punkty te znajdowały się na krawędzi łączącej dwa wystające ponad nią górskie szczyty. W kierunku obu szczytów nasze punkty (L1, L2 i L3) są stabilne. Kulka pchnięta w kierunku jednego ze szczytów, wróci do punktu wyjścia. Jednak po bokach naszej krawędzi opadają doliny i w tych kierunkach punkty te są niestabilne. Znacznie łatwiejszą i bardziej efektywną alternatywą wobec umieszczenia Webba dokładnie w L2 jest wprowadzenie go na orbitę wokół tego punktu. Ma to i tę zaletę, że orbitujący Webb będzie równomiernie oświetlany przez Słońce, nie doświadczy zaćmienia Słońca przez Ziemię. A to bardzo ważne zarówno dla ładowania paneli słonecznych teleskopu jak i utrzymania równowagi termicznej, niezbędnej do precyzyjnej pracy jego instrumentów. Napęd Webbowi na orbicie L2 będą nadawały same oddziałujące siły grawitacyjne. Natomiast, jako, że L2 jest metastabilny, Webb będzie miał tendencję do opuszczenia jego orbity i zajęcia własnej orbity wokół Słońca. Dlatego też co mniej więcej trzy tygodnie odpali silniki, korygując swój kurs. W punktach L4 i L5 tego problemu nie ma. To punkty stabilne, a nasza siatka ze zmianami grawitacji ma tam kształt miski. Zatem obiekty krążące wokół tych punktów, samodzielnie pozostają na orbitach. Dlatego też znamy asteroidy krążące wokół L4 i L5, ale nie wokół pozostałych punktów libracyjnych. Jako że Webb będzie musiał korygować swoją orbitę, czas jego misji jest ograniczony ilością paliwa. Przewidziano, że teleskop będzie pracował przez 10 lat. Już teraz jednak wiemy, że prawdopodobnie uda się ten czas wydłużyć. A to dzięki niezwykle precyzyjnemu wystrzeleniu rakiety Ariane, które wyniosła go w przestrzeń kosmiczna. Ta precyzja spowodowała, że podczas dwóch korekt kursu, jakie Webb wykonał, zużyto mniej paliwa niż planowano. Pozostało go więc na tyle dużo, że prawdopodobnie teleskop pozostanie w L2 znacznie dłużej niż planowano. Musimy bowiem pamiętać, że nie jest planowana żadna misja serwisowa do teleskopu. Więc nie będzie można uzupełnić jego paliwa. Umieszczenie pojazdu w punkcie L2 to dość proste zadanie. Pozostaje więc pytanie, po co były zużywające cenne paliwo korekty kursu? Odpowiedź tkwi w samej architekturze Webba. Teleskop musiał dwukrotnie w czasie lotu odpalić silniki, gdyż rakieta Ariane nadała mu na tyle rozpędu, by mógł przebyć odległość dzielącą go od L2, jednak zbyt mało energii, by mógł całkowicie uciec z pola grawitacyjnego Ziemi. Co prawda tę dodatkową energię Ariane mogłaby mu nadać podczas startu, jednak istniało wówczas ryzyko, że będzie jej nieco za dużo i Webb będzie poruszał się zbyt szybko, by wejść na orbitę wokół L2. Mógłby ją minąć. Problem ten można by rozwiązać wyhamowując teleskop. Jednak manewr hamowania za pomocą silników Webba zużyłby więcej paliwa, niż na korekty kursu. Jednak nie to było głównym problemem, a fakt, że silniki Webba są umieszczone po jego gorącej stronie, tej zwróconej w kierunku Słońce. Zatem Webb, żeby wyhamować, musiałby wykonać obrót o 180 stopni wokół własnej osi. Wówczas jego optyka i instrumenty naukowe, które wymagają bardzo niskich temperatur, zostałyby wystawione na bezpośrednie oddziaływanie Słońca, doszłoby do ich rozgrzania i... roztopienia kleju, którym są spojone. Gdy Webb znajdzie się na swojej orbicie rozpocznie pięciomiesięczny proces testowania i kalibrowania zwierciadeł oraz instrumentów naukowych. Naukowcy etap misji rozpocznie się w czerwcu. « powrót do artykułu-
- Teleskop Webba
- L2
-
(i 3 więcej)
Oznaczone tagami:
-
Naukowcy z Politechniki Rzeszowskiej opracowali program komputerowy do wykrywania i oceny zaburzeń mowy w chorobie Parkinsona. Aplikacja ma też umożliwić spowolnienie procesu degradacji mowy. Choroba Parkinsona jest drugą, pod względem częstości występowania, chorobą neurodegeneracyjną, w przebiegu której następuje uszkodzenie i zanik neuronów w ośrodkowym układzie nerwowym. Jednym z następstw jest stopniowa utrata zdolności komunikacji z otoczeniem za pomocą mowy. Naukowcy z rzeszowskiej politechniki opracowali program komputerowy, który ma pomóc w walce z tą chorobą. Jak poinformowała dr inż. Barbara Wilk, lider zespołu projektowego, rozwiązanie rzeszowskich naukowców umożliwia przede wszystkim przeprowadzenie obiektywnej oceny zaburzeń mowy na podstawie analizy sygnału mowy z uwzględnieniem jego złożonej struktury czasowo-częstotliwościowej, tj. w dziedzinie czasu, częstotliwości oraz czas-częstotliwość. Różne parametry wyznaczone przez program można wykorzystać w diagnostyce medycznej do obiektywnej oceny procesu fonacji, artykulacji i prozodii [brzmieniowe właściwości mowy - PAP] oraz do wykrycia drżenia głosu, charakterystycznego w chorobie Parkinsona – tłumaczy dr Wilk. Program komputerowy naukowców z Politechniki Rzeszowskiej ułatwi logopedzie wykonanie badania oraz umożliwi archiwizację wyników – w postaci plików dźwiękowych oraz protokołów zawierających wyniki testów logopedycznych. Jednym z elementów tego rozwiązania będzie też moduł programu przeznaczony dla pacjenta do ćwiczeń logopedycznych. Będzie on stymulować chorego do wykonywania regularnych ćwiczeń w domu, w celu spowolnienia procesu degradacji jego mowy. Jak podkreśliła dr Wilk, komputerowa analiza sygnału mowy zarejestrowanego podczas badania logopedycznego za pomocą mikrofonu umożliwia przeprowadzenie obiektywnej i ilościowej oceny procesu zarówno fonacji, jak i artykulacji u badanego mówcy. Natomiast raporty, zawierające wyniki z okresowych badań, pozwolą na określenie wpływu leczenia farmakologicznego i terapii mowy na progres choroby – wyjaśniła. Projekt programu komputerowego do wykrywania i oceny zaburzeń mowy w chorobie Parkinsona został zrealizowany dzięki dofinansowaniu w kwocie ponad 80 tys. zł w ramach II naboru do programu grantowego Podkarpackiego Centrum Innowacji (PCI). Obecnie trwają prace nad komercjalizacją tego projektu, a według specjalistów ds. technologii PCI, program ma duży potencjał. Jak zaznaczył Radosław Krajewski z PCI, cyfryzacja opieki zdrowotnej nad pacjentami cierpiącymi na choroby neurodegeneracyjne umożliwia dokładniejszą diagnostykę oraz precyzyjne śledzenie postępów choroby. Tym samym umożliwia dobór skuteczniejszych metod terapeutycznych. Komercjalizacja tej technologii pozwoli poprawić jakość życia pacjentów i ich rodzin, usprawni działanie gabinetów logopedycznych i lekarzy specjalistów – stwierdził. « powrót do artykułu
-
- choroba Parkinsona
- parkinsonizm
-
(i 1 więcej)
Oznaczone tagami:
-
Występujący w konopiach kannabidiol jest silnym inhibitorem replikacji wirusa SARS-CoV-2, informują naukowcy z Uniwersytetów w Chicago i Louisville. Przeprowadzone przez nich badania na myszach i hodowlach komórek wykazały, że CBD i jego metabolit 7-OH-BCD blokują namnażanie się SARS-CoV-2 w komórkach nabłonka płuc. Pozytywnego działania nie zaobserwowano w przypadku THC i innych testowanych składników konopi. Z badań, których omówienie opublikowano na łamach Science Advances, dowiadujemy się, że CBD o wysokiej czystości zaczyna działać po przedostaniu się wirusa do komórki. Hamuje ekspresję genów patogenu i powstrzymuje wirusa przed wykorzystaniem gospodarza do transkrypcji genów. Blokowanie replikacji SARS-CoV-2 odbywa się częściowo przez wzmacnianie reakcji na stres siateczki śródplazmatycznej oraz szlaku sygnałowego interferonu. Uzyskane wyniki wskazują, ze CBD i 7-OH-CBD mogą blokować infekcję SARS-CoV-2 na wczesnym stadium, a nawet na jej późniejszych etapach. Jest to – przynajmniej częściowo – powodowane poprzez wpływanie na stres retikulum śródplazmatycznego oraz szlak sygnałowy interferonu. Badania na myszach, którym podawano CBD wykazały, że zarówno w wymazach z nosa jak i tkance płucnej miały one mniejszą liczbę wirionów SARS-CoV-2. Co więcej, analizy baz danych dotyczących pacjentów zażywających przepisane przez lekarzy dzienne dawki CBD (100 mg/ml) wykazały, że wśród osób tych testy na COVID-19 rzadziej dają pozytywny wynik. Ten związek pomiędzy zażywaniem CBD a mniejszą liczbą pozytywnych testów na COVID utrzymywał się niezależnie od metod analizy, co daje silne podstawy do rozpoczęcia badań nad potencjalnym wykorzystaniem CBD do walki z infekcją SARS-CoV-2. Można je przeprowadzić analizując wielkie zestawy danych lub planując odpowiednie eksperymenty, stwierdzają autorzy artykułu. CBD ma wiele zalet jako potencjalny środek zapobiegający infekcji SARS-CoV-2. CBD jako dodatek do żywności, zwierający poniżej 0,3% THC, jest szeroko stosowany. Po opracowaniu odpowiedniej formuły i zachowaniu kontroli jakości CBD mógłby być – w przeciwieństwie do leków antywirusowych – używany profilaktycznie. Tym bardziej, że możliwe jest wiele różnych dróg podawania CBD, w tym przez drogi oddechowe. Jako, że CBD blokuje replikowanie się wirusa już po jego wniknięciu do komórki, prawdopodobnie będzie efektywny również przeciwko wersjom wirusa ze zmienionym białkiem szczytowym. W przeciwieństwie do takich leków jak remdesivir czy przeciwciała przeciwwirusowe, CBD nie musi być wstrzykiwane w szpitalu. Ponadto CBD powoduje tylko niewielkie skutki uboczne, czytamy w podsumowaniu badań. Naukowcy podkreślają też, że obecność innych kannabinoidów, jak THC, może zmniejszać przeciwwirusowe działanie CBD, dlatego też palenie marihuany nie chroni przed SARS-CoV-2. « powrót do artykułu
- 2 odpowiedzi
-
- SARS-CoV-2
- konopie
-
(i 2 więcej)
Oznaczone tagami:
-
Intel potwierdził, że kosztem ponad 20 miliardów dolarów wybuduje nowy kampus w stanie Ohio. W skład kampusu wejdą dwie supernowoczesne fabryki półprzewodników, gotowe do produkcji w technologii 18A. To przyszły, zapowiadany na rok 2025 proces technologiczny Intela, w ramach którego będą powstawały procesory w technologii 1,8 nm. Budowa kampusu rozpocznie się jeszcze w bieżącym roku, a produkcja ma ruszyć w 2025 roku. Intel podpisał też umowy partnerskie z instytucjami edukacyjnymi w Ohio. W ich ramach firma przeznaczy dodatkowo 100 milionów dolarów na programy edukacyjne i badawcze w regionie. "To niezwykle ważna wiadomość dla stanu Ohio. Nowe fabryki Intela zmienią nasz stan, stworzą tysiące wysoko płatnych miejsc pracy w przemyśle półprzewodnikowym", stwierdził gubernator Ohio, Mike DeWine. To największa w historii Ohio inwestycja dokonana przez pojedyncze prywatne przedsiębiorstwo. Przy budowie kampusu zostanie zatrudnionych 7000 osób, a po powstaniu pracowało w nim będzie 3000osób. Ponadto szacuje się, że inwestycja długoterminowo stworzy dziesiątki tysięcy miejsc pracy w lokalnych firmach dostawców i partnerów. Kampus o powierzchni około 4 km2 powstanie w hrabstwie Licking na przedmieściach Columbus. Będzie on w stanie pomieścić do 8 fabryk. Intel nie wyklucza, że w sumie w ciągu dekady zainwestuje tam 100 miliardów dolarów, tworząc jeden z największych na świecie hubów produkcji półprzewodników. Tak olbrzymia inwestycja przyciągnie do Ohio licznych dostawców produktów i usług dla Intela. Będzie ona miała daleko idące konsekwencje. Fabryka półprzewodników różni się od innych fabryk. Stworzenie tak wielkiego miejsca produkcji półprzewodników jest jak budowa małego miasta, pociąga za sobą powstanie tętniącej życiem społeczności wspierających dostawców usług i produktów. [...] Jednak rozmiar ekspansji Intela w Ohio będzie w dużej mierze zależał od funduszy w ramach CHIPS Act, stwierdził wiceprezes Intela ds. produkcji, dostaw i operacji, Keyvan Esfarjani. Nowe fabryki mają w 100% korzystać z energii odnawialnej, dostarczać do systemu więcej wody niż pobiera oraz nie generować żadnych odpadów stałych. « powrót do artykułu
-
Organizacja Save the Elephants (STE) poinformowała, że w zeszły weekend jedna ze słonic z Rezerwatu Samburu - Bora z rodziny Winds - urodziła niezwykle rzadkie bliźnięta: syna i córkę. Wypatrzyli je przewodnicy z Elephant Watch Camp; to oni poinformowali badaczy. Kilkudniowe młode poznają otoczenie pod czujnym okiem matki i pierwszego dziecka Bory, które przyszło na świat w 2017 r. Bliźnięta są rzadko spotykane w populacjach słoni i stanowią ok. 1% narodzin - podkreśla dr Iain Douglas-Hamilton, założyciel i dyrektor STE. Losy słoniowych bliźniąt układają się różnie. Poprzednia para z Samburu, która urodziła się w 2006 r., przeżyła zaledwie kilka dni. Dość często matki nie mają wystarczająco dużo mleka, by wykarmić dwoje dzieci - tłumaczy Douglas-Hamilton. Ostatnio jednak padało, co korzystnie wpłynęło na roślinność. Kolejne dni młodych Bory są niepewne, ale trzymamy kciuki, by wszystko ułożyło się dobrze. Ciąża u słoni afrykańskich trwa ok. 22 miesięcy. To najdłużej ze wszystkich ssaków. Samica może rodzić młode co cztery lata. « powrót do artykułu
-
- słonie
- Save the Elephants
-
(i 4 więcej)
Oznaczone tagami:
-
Suwałki: po 65 latach książka wróciła do biblioteki
KopalniaWiedzy.pl dodał temat w dziale Ciekawostki
Książka wypożyczona ponad 65 lat temu wróciła do biblioteki. Niedawno podczas porządków w domu nadającym się do rozbiórki pewien suwalczanin znalazł III tom „Potopu” Henryka Sienkiewicza. Wypożyczono go z Powiatowej Biblioteki Publicznej w Suwałkach, którą zlikwidowano w związku z przekształceniami pod koniec 1956 r. To zaś oznacza, że pozycję wypożyczono co najmniej 65 lat temu. Jak ujawniła w wypowiedzi dla Radia 5 Suwałki dyrektorka Biblioteki Publicznej im. Marii Konopnickiej w Suwałkach Maria Kołodziejska, skruszony i przerażony znalazca bał się naliczenia kary za przetrzymanie książki. Bibliotekarze odstąpili od tego, zaznaczając, że minęło tyle lat, że zwyczajnie cieszą się z powrotu książki do zbiorów. W końcu nawet najstarsi pracownicy nie pamiętają już tamtych czasów... Pani Kołodziejska dodaje jednak, że nie wszyscy czytelnicy mogą liczyć na takie ulgi. Obecnie biblioteka wysyła upomnienia, także internetowo, i nie można się tłumaczyć, że nie miało się pojęcia o upływie terminu zwrotu. Oddany po latach tom III „Potopu” trafi prawdopodobnie do zbiorów specjalnych i będzie prezentowany jako swego rodzaju ciekawostka. Mówi się o dołączeniu książki do dokumentów historycznych, które pokazują, co działo się w suwalskiej placówce na przestrzeni lat. Ona zostanie już w bibliotece, nie będziemy jej nikomu wypożyczać i nikt nie będzie mógł tak długo jej przetrzymać - powiedziała PAP-owi pani dyrektor. Książkę wydano w 1949 r. Zachowała się oryginalna oprawa, ale dodatkowo została ona oprawiona przez introligatora. « powrót do artykułu -
Za niecałe 2 miesiące, 12 marca, ma wystartować misja Artemis I, znana do niedawna jako EM-1 (Exploration Mission-1). Będzie to pierwszy, bezzałogowy, test Space Launch System oraz kapsuły Orion MPCV, które w przyszłości mają umożliwić powrót człowieka na Księżyc i załogową wyprawę na Marsa. Jednak Artemis I wyniesie też satelitę – NEA Scout – którego zadaniem będzie przetestowanie żagla słonecznego i dotarcie do najmniejszej asteroidy, jaką kiedykolwiek badano. Celem wyprawy Near-Earth Asteroid Scout jest obiekt 2020 GE. To bliska Ziemi asteroida o średnicy mniejszej niż 18 metrów. Dotychczas żadna z misji na asteroidę nie badała obiektu o średnicy mniejszej niż 100 metrów. NEA Scout przyjrzy się asteroidzie za pomocą kamery, określając jej kształt, wielkość, tempo obrotu i właściwości powierzchni. Poszuka też pyłu i szczątków, które mogą otaczać 2020 GE. Kamera o rozdzielczości poniżej 10 cm na piksel pozwoli stwierdzić, czy asteroida jest pojedynczym obiektem czy też składa się ze zlepionych ze sobą skał i pyłu, jak niektóre z dużych asteroid, np. Bennu. Dzięki naziemnym obserwatoriom badającym asteroidy bliskie Ziemi, mogliśmy zidentyfikować wiele potencjalnych celów misji NEA Scout. Asteroidę 2020 GE wybraliśmy, ponieważ należy do klasy obiektów, o których niewiele wiemy, mówi Julie Castillo-Rogez z Jet Propulsion Laboratory. NEA Scout to nieduży satelita wielkości sześciu standardowych mikrosatelitów CubeSat. Jest jednym z 10 satelitów, które zostały umieszczone w adapterze łączącym SLS z Orionem. Satelity te mają własne systemy napędowe i zostaną wystrzelone przy okazji misji Artemis I. Każdy z nich ma do wykonania osobną misję. NEA Scout ma dwa zadania: przyjrzeć się asteroidzie oraz przetestować żagiel słoneczny. Po uwolnieniu z adaptera pojazd rozwinie żagiel o powierzchni 86 m2. Cieńszy od ludzkiego włosa żagiel wykonany jest z aluminium pokrytego tworzywem sztucznym. Będzie on generował napęd dzięki odbijającym się od niego fotonom emitowanym przez Słońce. Dodatkowo pojazd wyposażono w niewielkie silniki manewrowe. NASA chce przetestować możliwość przygotowywania i prowadzenia tanich misji w głębszych obszarach przestrzeni kosmicznej. Satelity CubeSat wyposażone w żagle słoneczne mogłyby z czasem osiągać spore prędkości i latać w odległe regiony Układu Słonecznego. To nie pierwszy i ostatni test żagla słonecznego. Po raz pierwszy koncepcję żagla słonecznego przetestowano w praktyce przed 14 laty. Jeszcze w bieżącym roku ma wystartować Advanced Composite Solar Sail System, której celem będzie sprawdzenie nowej metody rozwijania żagla słonecznego. A w 2025 roku ruszy Solar Cruiser, który wykorzysta żagiel o powierzchni 1700 m2 i poleci w stronę Słońca. Na stronie Eyes on Asteroids można śledzić obecne i przyszłe trasy interesujących asteroid oraz związanych z nimi misji badawczych. « powrót do artykułu
- 2 odpowiedzi
-
Roślinne sterole zwiększają ryzyko choroby niedokrwiennej serca
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Fitosterole, roślinne sterole wchodzące w skład błon komórkowych, zwiększają ryzyko rozwoju miażdżycy i innych chorób układu krążenia, donoszą naukowcy z Uniwersytetu w Lipsku. Wyniki ich badań, przeprowadzonych we współpracy z innymi europejskimi grupami naukowymi, zostały opublikowane na łamach Nature Communications. Fitosterole są składnikiem naszej codziennej diety. Czasami są sztucznie dodawane do takich produktów jak jogurty czy margaryny, gdyż obniżają poziom cholesterolu, w związku z czym uważa się, że pozytywnie wpływają na nasze zdrowie. Z drugiej jednak strony są one podobne do cholesterolu i, podobnie jak on, mogą odkładać się na ścianach naczyń krwionośnych. Dlatego też od dawna są przedmiotem zainteresowania naukowców, którzy próbują zbadać ich związek z miażdżycą czy chorobą niedokrwienną serca. Naukowcy z Uniwersytetu w Lipsku i innych europejskich ośrodków badawczych przeprowadzili genetyczną analizę fitosteroli w próbkach krwi pobranych od niemal 10 000 osób. Wykorzystując metodę pozwalającą na ocenę wpływu różnych czynników ryzyka na rozwój chorób, byli w stanie określić związek pomiędzy fitosterolami, cholesterolem a chorobą niedokrwienną serca. Wydaje się, że fitosterole mają bezpośrednie i niebezpośredni negatywny wpływ na ryzyko rozwoju niedokrwiennej choroby serca, a mediatorem tego wpływu jest cholesterol. Nasze badania to ważny głos dyskusji, która od wielu lat toczy się w środowisku medycznym. Mimo że jest jeszcze zbyt wcześnie, by mówić o wpływie fitosteroli dodawanych do żywności, to już teraz możemy powiedzieć, że wysoka koncentracja fitosteroli jest czynnikiem ryzyka i należy brać ją pod uwagę, mówi główny autor badań, profesor Markus Scholz. Naukowcy zidentyfikowali siedem obszarów DNA powiązanych ze stężeniem fitosteroli we krwi. Z tego pięć regionów dotychczas nie znano. Uczeni wykonali analizy bioinformatyczne, na podstawie których wyodrębnili geny, które prawdopodobnie mają wpływ na metabolizm steroli. Badania te znacznie zwiększają naszą wiedzę odnośnie czynników genetycznych wpływających na regulację poziomu fitosteroli we krwi. Geny te, ich produkty i funkcje, mogą w przyszłości stać się celem terapeutycznym, dodaje Scholz. Ze szczegółami badań można zapoznać się w artykule Genome-wide meta-analysis of phytosterols reveals five novel loci and a detrimental effect on coronary atherosclerosis. « powrót do artykułu- 4 odpowiedzi
-
- cholesterol
- choroba niedokrwienna serca
-
(i 2 więcej)
Oznaczone tagami:
-
W połowie października współpracujący z Sydvestjyske Museer detektorysta Dan Christensen skontaktował się z inspektorem muzealnym Clausem Feveilem. Okazało się, że niedaleko Ilsted na Jutlandii odkrył ważący 446 g złoty naszyjnik z epoki żelaza (ok. 400-550 r. n.e.). Christensen dokładnie odnotował, gdzie znalazł naszyjnik, tak by można było przeszukać wykrywaczem metali większy obszar. Niczego nie znaleziono. Pod koniec października archeolodzy przeprowadzili wykopaliska. Stwierdzili, że 1400-1700 lat temu znajdowały się tu długie domy i naszyjnik zakopano w jednym z nich. Ofiara dla bogów czy zabezpieczenie na lepsze czasy? Feveile nie sądzi, by ozdobę złożono bogom w ofierze. Zazwyczaj ofiary składano na podmokłych obszarach, np. na bagnach, a wiemy, że w pobliżu tego stanowiska znajdowały się duże mokradła. Wydaje się jednak, że w tym przypadku scenariusz był inny... Społeczności żyjące z ziemi składały bóstwom sporo ofiar w czasie LAILA (ang. Late Antique Little Ice Age); ten zimny okres z lat 536-660 ma związek z serią katastrof naturalnych, najprawdopodobniej erupcji wulkanicznych. Należy podkreślić, że ofiary były przeznaczone dla bogów i nie miały być nigdy wydobyte. Pojawiło się też pytanie, czy naszyjnik nie został przemieszczony z pierwotnego miejsca złożenia w ofierze podczas prac rolnych, np. podczas bronowania. Złoto jest tak czyste, a przez to miękkie, że naszyjnik nie mógłby się tak dobrze zachować, gdyby został przemieszczony przez sprzęty rolnicze. Poza tym wykopaliska wskazały jamę, w której umieszczono ozdobę - wyjaśnia Feveile. Archeolog uważa zatem, że naszyjnik zakopano "na lepsze czasy". Ktoś miał go wydobyć np. po opuszczeniu tych terenów przez wroga. Tak się jednak nie stało i na artefakt natrafił dopiero Dan Christensen. Dzieło doskonałej jakości Naszyjnik wykonano ze złotego pręta o długości 93 cm, który jest cieńszy na środku i rozszerza się ku końcom. Pręt zagięto w taki sposób, że końce nachodzą na siebie na ~1/3 długości. Pomiędzy szersze końce wlutowano cienką płytkę, ozdobioną wzorem warkocza splecionego z 6 złotych nici. Ponad nimi umieszczono spiralnie zwiniętą siódmą nić. Na naszyjniku widnieją odciśnięte w złocie półksiężyce (wykorzystano 2 różne stemple; na części znajdującej się bliżej szyi półksiężyce mają 6 wypukłości, a w części zewnętrznej 8) . Tego typu zdobienia są znane z zaledwie 9-10 innych naszyjników znalezionych na terenie Danii. Naszyjnik będzie wystawiany w Museet Ribes Vikinger od 25 stycznia do 6 lutego. Więcej informacji można znaleźć na muzealnym blogu. « powrót do artykułu
- 1 odpowiedź
-
- Dan Christensen
- Claus Feveile
-
(i 4 więcej)
Oznaczone tagami:
-
Najnowszy numer Nature przynosi przełomowe informacje na temat praktycznego wykorzystania komputerów kwantowych. Naukowcy z Uniwersytetu Nowej Południowej Walii (UNSW) wykazali, że możliwe jest stworzenie niemal wolnego od błędów krzemowego procesora kwantowego. Dzisiejsza publikacja pokazuje, że obliczenia przeprowadzane przez nasz procesor były w ponad 99% wolne od błędów. Gdy odsetek błędów jest tak mały, możliwym staje się ich wykrywanie i korygowanie w czasie rzeczywistym. A to oznacza, że można wybudować skalowalny komputer kwantowy wykonujący wiarygodne obliczenia, wyjaśnia profesor Andrea Morello z UNSW. Morello stoi na czele zespołu złożonego z naukowców z Australii, USA, Japonii i Egiptu. Ich celem jest zbudowanie uniwersalnego komputera kwantowego, czyli maszyny, której możliwości obliczeniowe nie będą ograniczone do jednego rodzaju zadań. Badania, których wyniki właśnie opublikowaliśmy, to bardzo ważny krok w tym kierunku, podkreśla uczony. Jednak, co niezwykle ważne, artykuł Morello i jego zespołu to jeden z trzech tekstów z Nature, których autorzy informują o niezależnym od siebie osiągnięciu niskiego odsetka błędów w opartych na krzemie procesorach kwantowych. Z najnowszego Nature, którego redakcja zdecydowała się na zilustrowanie kwantowego przełomu na okładce, dowiadujemy się, że wiarygodność operacji obliczeniowych na jednym kubicie osiągnięta przez Morello i jego zespół wyniosła 99,95%, a operacji na dwóch kubitach – 99,37%. Niezależnie od nich zespół z holenderskiego Uniwersytetu Technologicznego w Delft, prowadzony przez Lievena Vandersypena osiągnął wiarygodność rzędu 99,87% przy operacjach na jednym kubicie i 99,65% podczas operacji dwukubitowych. W trzecim z artykułów czytamy zaś o pracach naukowców z japońskiego RIKEN, w trakcie których grupa Seigo Taruchy mogła pochwalić się wiarygodnością 99,84% przy działaniach na jednym kubicie i 99,51% przy pracy z dwoma kubitami. Wydajność procesorów z UNSW i Delft została certyfikowana zaawansowaną metodą gate set tomography opracowaną przez amerykańskie Sandia National Laboratories, a wyniki certyfikacji zostały udostępnione innym grupom badawczym. Zespół profesora Morello już wcześniej wykazał, że jest w stanie utrzymać kwantową informację w krzemie przez 35 sekund. W świecie kwantowym 35 sekund to wieczność. Dla porównania, słynne nadprzewodzące komputery kwantowe Google'a i IBM-a są w stanie utrzymać taką informację przez około 100 mikrosekund, czyli niemal milion razy krócej, zauważa Morello. Osiągnięto to jednak izolując spiny (kubity) od otoczenia, co z kolei powodowało, że wydaje się niemożliwym, by kubity te mogły wejść ze sobą w interakcje, a więc nie mogły wykonywać obliczeń. Teraz z artykułu w Nature dowiadujemy się, że udało się pokonać problem izolacji wykorzystując elektron okrążający dwa jądra atomu fosforu. Gdy masz dwa jądra połączone z tym samym elektronem, może zmusić je do wykonywania operacji kwantowych, stwierdza doktor Mateusz Mądzik, jeden z głównych autorów eksperymentów. Gdy nie operujesz na elektronie, jądra te mogą bezpiecznie przechowywać kwantowe informacje. Teraz jednak mamy możliwość, by jądra wchodziły w interakcje za pośrednictwem elektronu i w ten sposób możemy wykonywać uniwersalne operacje kwantowe, które mogą rozwiązywać każdy rodzaj problemów obliczeniowych, wyjaśnia Mądzik. Gdy splączemy spiny z elektronem, a następnie możemy elektron ten przesunąć w inne miejsce i splątać go z kolejnymi kubitami, tworzymy w ten sposób duże macierze kubitów zdolnych do przeprowadzania solidnych użytecznych obliczeń, dodaje doktor Serwan Asaad. Jak podkreśla profesor David Jamieson z University of Melbourne, atomy fosforu zostały wprowadzone do krzemowego procesora za pomocą tej samej metody, jaka jest obecnie używana w przemyśle półprzewodnikowym. To pokazuje, że nasz kwantowy przełom jest kompatybilny z obecnie używanymi technologiami. Wszystkie obecnie używane komputery wykorzystują systemy korekcji błędów i redundancji danych. Jednak prawa mechaniki kwantowej narzucają ścisłe ograniczenia na sposób korekcji błędów w maszynach kwantowych. Konieczne jest osiągnięcie odsetka błędów poniżej 1%. Dopiero wtedy można zastosować kwantowe protokoły korekcji błędów. Teraz, gdy udało się ten cel osiągnąć, możemy zacząć projektować skalowalne krzemowe procesory kwantowe, zdolne do przeprowadzania użytecznych wiarygodnych obliczeń, wyjaśnia Morello. « powrót do artykułu
- 5 odpowiedzi
-
- kubit
- procesor kwantowy
-
(i 2 więcej)
Oznaczone tagami:
-
Osiemdziesięciodukatówka Zygmunta III Wazy, wybita w Bydgoszczy w 1621 r., została wylicytowana w Nowym Jorku za 900 tys. dolarów. Cena wywoławcza wynosiła 180 tys. dol. Wyjątkowa piękność Dom aukcyjny Stack's Bowers Galleries nazwał monetę wyjątkową pięknością. Na jej awersie znajduje się wizerunek Zygmunta III Wazy, a na rewersie herb Rzeczpospolitej Obojga Narodów otoczony Orderem Złotego Runa. Moneta waży 282,84 g, a jej średnica wynosi 69 mm. Ma kolor miodowozłoty, a na krawędziach opalizuje na pomarańczowo. Moneta osiągnęła cenę zupełnie wspaniałą, imponującą. Szacowano, że zostanie sprzedana za 300-600 tys. dolarów. Liczyłem, że może osiągnąć 600 tys. dolarów, co było optymistycznym szacunkiem. Wylicytowana cena robi wrażenie. W 2018 r. ten sam dom aukcyjny sprzedał studukatówkę z mennicy bydgoskiej za 1,8 mln dolarów. Wystawca musiał spodziewać się osiągnięcia wysokiej ceny za 80-dukatówkę, wystawiając ją za „symboliczne” 180 tys. dolarów, a więc za 10 proc. wylicytowanej przed trzema laty cenniejszej monety – powiedział Polskiej Agencji Prasowej dr Krzysztof Jarzęcki z Pracowni Numizmatyki Muzeum Okręgowego im. Leona Wyczółkowskiego w Bydgoszczy (MOB). Różne nominały, te same stemple Osiemdziesięcio- i 100-dukatówki wykonywano za pomocą tych samych stempli. Monety różniły się tylko grubością i ilością użytego złota. Jak podkreślono na profilu MOB na Facebooku, produkcja odbywała się pod czujnym okiem władz, nie można więc mówić o żadnym oszustwie. Trochę gorzej dla ludzi, [...] bo przecież nie ma [...] napisu, jaki to nominał. Wprawdzie był to problem nielicznych (bo jedna taka moneta to spory majątek), ale zawsze problem. Pomysłowość ludzka szybko sobie z tym poradziła. Na monetach, w polu obok portretu króla, wydrapywano cyfry arabskie lub rzymskie oznaczające nominał, żeby przy każdym użyciu ich nie ważyć. Warto dodać, że autorem stempli był wybitny artysta, mistrz sztuki medalierskiej Samuel Ammon, który urodził się ok. 1590 r. w szwajcarskiej Szafuzie (Schaffchausen). Rzadkie okazy Tak wysokie nominały to rzadkość. Wiadomo o istnieniu kilkunastu studukatówek. Osiemdziesięciodukatówek było więcej, ale nadal są one na tyle rzadkie, że często da się prześledzić ich rodowód od wybicia po czasy współczesne. Taka romantyczna legenda mówi, że jednym z właścicieli licytowanej monety był Julian Ursyn Niemcewicz i najpewniej za jego sprawą trafiła ona do Ameryki. Tak przypuszczamy, pewności nie ma. W swojej korespondencji pisał o przekazaniu złotej monety o imponującej wartości, ale mogła być to inna moneta – ujawnił dr Jarzęcki. « powrót do artykułu
- 1 odpowiedź
-
- osiemdziesięciodukatówka
- 80-dukatówka
-
(i 4 więcej)
Oznaczone tagami: