Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37636
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Badania laboratoryjne są jednym z elementów profilaktyki zdrowia, której nie warto zaniedbywać, jeśli zależy nam długim i zdrowym życiu. Jednym z podstawowych badań laboratoryjnych, które wykonuje się zarówno w profilaktyce zdrowia, jak i diagnostyce wybranych schorzeń, jest badanie ogólne moczu. Dowiedz się, na czym polega, kiedy warto rozważyć jego wykonanie, a także jak prawidłowo przygotować próbkę moczu do badania. Sprawdź, gdzie możesz wykonać badanie ogólne moczu. Na czym polega badanie ogólne moczu? Badanie ogólne moczu to jedno z najczęściej wykonywanych badań laboratoryjnych. Wykonuje się je w celu dokonania oceny funkcjonowania układu moczowego. Badanie umożliwia też pośrednią ocenę pracy innych układów i narządów. Może być wykonywane zarówno w ramach profilaktyki zdrowia, jak i podczas diagnostyki przyczyn dolegliwości występujących u pacjenta. Badanie ogólne moczu umożliwia wykrycie m.in. chorób układu moczowego i nerek, a pośrednio także chorób metabolicznych i innych schorzeń, np. cukrzycy, chorób wątroby. Parametry, które są brane pod uwagę podczas analizy próbki moczu w laboratorium, to: cechy fizyczne moczu, takie jak barwa, przejrzystość, ciężar właściwy; obecność w moczu glukozy, białka, ciał ketonowych, kropli tłuszczu, bilirubiny i urobilinogenu; obecność elementów upostaciowionych, czyli erytrocytów, leukocytów, bakterii, pasm śluzu, kryształów. Kiedy zdecydować się na badanie ogólne moczu? Badanie ogólne moczu należy do podstawowych badań profilaktycznych, dlatego każda dorosła osoba powinna rozważyć jego regularne wykonywanie. Zalecana częstotliwość to raz do roku. Należy pamiętać o tym, aby wyniki badania ogólnego moczu oraz innych badań profilaktycznych zawsze konsultować z lekarzem. Badanie ogólne moczu jest wskazane także w przypadku pewnych dolegliwości, które mogą świadczyć o schorzeniach układu moczowo-płciowego. Warto rozważyć je w przypadku: bólów brzucha; bólów okolic odcinka lędźwiowego kręgosłupa; obecności krwi w moczu; nieprawidłowości podczas oddawania moczu, np. bólu lub częstomoczu. Badanie to wykonuje się także kontrolnie u kobiet w ciąży oraz pacjentów przyjmowanych do szpitala i zakwalifikowanych do operacji. Kiedy wykonuje się badanie osadu moczu? Ocena osadu moczu to mikroskopijna analiza próbki, w której wcześniej stwierdzono zmiany barwy, zmętnienie, ciężar właściwy powyżej 1,030, pH powyżej 7,5 czy obecność glukozy, białka, krwi, czy bakterii. Bez względu na wynik badania ogólnego moczu osad wykonuje się zawsze u dzieci poniżej 5. roku życia i kobiet w ciąży. Gdzie wykonać badanie ogólne moczu? Badanie ogólne moczu jest łatwo dostępnym badaniem. W celu jego wykonania możesz udać się m.in. do najbliższego Punktu Pobrań ALAB laboratoria (obecnie w niemal całej Polsce znajduje się ich ponad 600, dzięki czemu wielu mieszkańców kraju ma ułatwiony dostęp do diagnostyki laboratoryjnej). Na badanie możesz umówić się wygodnie przez internet na stronie ALAB laboratoria. Odbiór wyników również możliwy jest online. Prawidłowe przygotowanie próbki moczu do badania Próbkę moczu należy oddać do specjalnego pojemnika z apteki lub zestawu, który można odebrać w Punktach Pobrań ALAB laboratoria. Na dzień przed pobraniem moczu należy unikać intensywnego wysiłku fizycznego oraz stosunków płciowych. Kobiety nie powinny wykonywać badania podczas menstruacji. Mocz do badania powinien pochodzić z tzw. środkowego strumienia. Oznacza to, że pierwszą niewielką ilość porannego moczu należy oddać do toalety, kolejne 50–100 ml do pojemnika, a końcówkę ponownie do toalety. Próbkę moczu należy dostarczyć do laboratorium niezwłocznie po jej przygotowaniu. Jeśli nie jest to możliwe, może być przechowywana w lodówce przez około 2–3 godziny. « powrót do artykułu
  2. Za dwa lata na Księżycu ma wylądować Artemis III, pierwsza od ponad 50 lat załogowa misja na Srebrnym Globie. Jej członkowie będą ubrani w skafandry, które – na zlecenie NASA – ma dostarczyć prywatna firma Axiom Space. Prototyp kombinezonu zaprezentowano 15 marca bieżącego roku. A teraz dowiadujemy się, że ostateczna wersja zostanie przygotowana we współpracy z jednym z najbardziej znanych domów mody, Prada. Jesteśmy niezwykle podekscytowani współpracą z Pradą przy projektowaniu kombinezonu AxEMU (Axiom estravehicular mobility unit), stwierdził dyrektor Axiom Space, Michael Sufferdini. Podkreślił olbrzymie doświadczenie Prady związane z obróbką surowych materiałów, technikami produkcyjnymi, a przede wszystkim innowacyjne podejście do projektowania. Przedstawiciele obu firm stwierdzili, że AxEMU nie tylko będzie chronił astronautów przed środowiskiem poza pojazdem kosmicznym, ale zapewni im też zaawansowane możliwości eksploracji, życia i pracy na powierzchni Księżyca. Firma Axiom Space to prywatne amerykańskie przedsiębiorstwo działające na rynku kosmicznym. W ubiegłym roku zorganizowało ono pierwszą komercyjną załogową wyprawę na Międzynarodową Stację Kosmiczną. Dotychczas firma przeprowadziła dwie takie misje, a kolejne dwie planowane są na przyszły rok. Przedsiębiorstwo zapowiada, że w 2025 roku uruchomi własną stację kosmiczną. Jeśli dotrzyma słowa, będzie to pierwsza w historii komercyjna stacja kosmiczna. Axiom Space podpisała też z NASA umowę na budowę i dołączenie do Międzynarodowej Stacji Kosmicznej czterech dodatkowych modułów. Gdy misja MSK zostanie zakończona, moduły te mają wejść w skład prywatnej stacji kosmicznej. Axiom Space zatrudnia około 800 osób, w tym byłych astronautów i dyrektora NASA. « powrót do artykułu
  3. W pierścieniach drzew z francuskich Alp zauważono, że przed 14 300 laty doszło do gwałtownego wzrostu ilości radioaktywnej formy węgla, C-14. To ślad po największej znanej nam burzy słonecznej. Gdyby obecnie na Słońcu doszło do takiej burzy, miałoby to katastrofalne skutki dla naszej cywilizacji. Burza taka zniszczyłaby satelity komunikacyjne i nawigacyjne oraz spowodowała masowe uszkodzenia sieci elektroenergetycznych oraz internetu. O wynikach badań przeprowadzonych przez brytyjsko-francuski zespół naukowy, możemy przeczytać w Philosophical Transactions of the Royal Society A. Mathematical, Physical and Engineering Sciences. Ich autorzy przeanalizowali poziom radiowęgla w pozostałościach częściowo sfosylizowanych drzew znalezionych na zniszczonym erozją brzegu rzeki Drouzet w pobliżu Gap. Zauważyli, że dokładnie 14 300 lat temu nagle wzrósł poziom C-14. Po porównaniu go do poziomu berylu, naukowcy doszli do wniosku, że wzrost ilości węgla spowodowany był olbrzymią burzą na Słońcu. Radiowęgiel bez przerwy powstaje w górnych warstwach atmosfery w wyniku reakcji łańcuchowych zapoczątkowywanych przez promieniowanie kosmiczne. W ostatnich latach naukowcy zauważyli, że ekstremalne zjawiska na Słońcu, takie jak rozbłyski i koronalne wyrzuty masy, mogą prowadzić do nagłych krótkotrwałych wzrostów ilości energetycznych cząstek, które skutkują znaczącymi wzrostami ilości radiowęgla na przestrzeni zaledwie jednego roku, mówi główny autor badań, profesor Edouard Bard z Collège de France i CEREGE. Burza słoneczna, której ślady pozostały w pierścieniach drzew, sprowadziłaby katastrofę na współczesną cywilizację opartą na technologii. Już przed kilkunastu laty amerykańskie Narodowe Akademie Nauk opublikowały raport dotyczący ewentualnych skutków olbrzymiego koronalnego wyrzutu masy, który zostałby skierowany w stronę Ziemi. Takie wydarzenie spowodowałoby poważne perturbacje w polu magnetycznym planety, co z kolei wywołałoby przepływ dodatkowej energii w sieciach energetycznych. Nie są one przygotowane na tak gwałtowne zmiany. Omawiając ten raport, pisaliśmy, że mogłoby dojść do stopienia rdzeni w stacjach transformatorowych i pozbawienia prądu wszystkich odbiorców. Autorzy raportu stwierdzili, że gwałtowny koronalny wyrzut masy mógłby uszkodzić 300 kluczowych transformatorów w USA. W ciągu 90 sekund ponad 130 milionów osób zostałoby pozbawionych prądu. Mieszkańcy wieżowców natychmiast straciliby dostęp do wody pitnej. Reszta mogłaby z niej korzystać jeszcze przez około 12 godzin. Stanęłyby pociągi i metro. Z półek sklepowych błyskawiczne zniknęłaby żywność, gdyż ciężarówki mogłyby dostarczać zaopatrzenie dopóty, dopóki miałyby paliwo w zbiornikach. Pompy na stacjach benzynowych też działają na prąd. Po około 72 godzinach skończyłoby się paliwo w generatorach prądu. Wówczas stanęłyby szpitale. Najbardziej jednak przerażającą informacją jest ta, iż taki stan mógłby trwać całymi miesiącami lub latami. Uszkodzonych transformatorów nie można naprawić, trzeba je wymienić. To zajmuje zespołowi specjalistów co najmniej tydzień. Z kolei duże zakłady energetyczne mają na podorędziu nie więcej niż 2 grupy odpowiednio przeszkolonych ekspertów. Nawet jeśli część transformatorów zostałaby dość szybko naprawiona, nie wiadomo, czy w sieciach byłby prąd. Większość rurociągów pracuje bowiem dzięki energii elektrycznej. Bez sprawnego transportu w ciągu kilku tygodni również i elektrowniom węglowym skończyłyby się zapasy. Sytuacji nie zmieniłyby też elektrownie atomowe. Są one zaprojektowane tak, by automatycznie wyłączały się w przypadku poważnych awarii sieci energetycznych. Ich uruchomienie nie jest możliwe przed usunięciem awarii. O tym, że to nie tylko teoretyczne rozważania, świadczy chociażby fakt, że w marcu 1989 roku burza na Słońcu na 9 godzin pozbawiła prądu 6 milionów Kanadyjczyków. Z kolei najpotężniejszym tego typu zjawiskiem, jakie zachowało się w ludzkiej pamięci, było tzw. wydarzenie Carringtona z 1859 roku. Kilkanaście godzin po tym, jak astronom Richard Carrington zaobserwował dwa potężne rozbłyski na Słońcu, Ziemię zalało światło zórz polarnych. Przestały działać telegrafy, doszło do pożarów drewnianych budynków stacji telegraficznych, a w Ameryce Północnej, gdzie była noc, ludzie mogli bez przeszkód czytać gazety. Igły kompasów poruszały się w sposób niekontrolowany, a zorze polarne było widać nawet w Kolumbii. Obecnie ucierpiałyby nie tylko sieci elektromagnetyczne, ale również łączność internetowa. Na szczególne niebezpieczeństwo narażone byłyby kable podmorskie, a konkretnie zainstalowane w nich wzmacniacze oraz ich uziemienia. Więc nawet gdy już uda się przywrócić zasilanie, problemem będzie funkcjonowanie globalnego internetu, bo naprawić trzeba będzie dziesiątki tysięcy kilometrów kabli. Bezpośrednie pomiary aktywności Słońca za pomocą instrumentów naukowych ludzkość rozpoczęła dopiero w XVII wieku od liczenia plam słonecznych. Obecnie mamy dane z obserwatoriów naziemnych, teleskopów kosmicznych i satelitów. To jednak nie wystarczy, gdyż pozwala na zanotowanie aktywności Słońca na przestrzeni ostatnich kilkuset lat. Badania radiowęgla w pierścieniach drzew, w połączeniu z badaniem berylu w rdzeniach lodowych to najlepszy sposób na poznanie zachowania naszej gwiazdy w bardziej odległej przeszłości, mówi profesor Bard. « powrót do artykułu
  4. W 2019 r. podczas ekspedycji speleologicznej do Sima de Marcenejas w północnej Hiszpanii odkryto czaszkę, na której widnieją ślady urazów - prawdopodobnie odniesionych w czasie walki - oraz, jak przypuszczają naukowcy, oponiaka. To pierwszy znany nam przypadek starożytnego oponiaka z Półwyspu Iberyjskiego. Artykuł hiszpańskiego zespołu na ten temat ukazał się w piśmie Virtual Archaeology Review. Czaszka datuje się na III-V w. n.e. (258-409 r.). Należała do mężczyzny, który w chwili śmierci miał ok. 30-40 lat. Czaszkę odkryli w lutym 2019 r. speleolodzy z grup Gaem, Takomano, Geoda, Flash i A.E.Get. Po przeanalizowaniu zebranego materiału zdecydowano, by drugi zespół eksploracyjny zajął się jej zlokalizowaniem i wydobyciem. Na miejscu okazało się, że leży ona w niewielkim zbiorniku wodnym. Po przetransportowaniu do Centro Nacional de Investigación sobre la Evolución Humana (CENIEH) czaszką zajęli się specjaliści z Laboratorio de Conservación y Restauración. Celem badań było ustalenie, na jakie choroby mógł cierpieć zmarły. Przeprowadzono m.in. mikrotomografię (CMT). Jak podkreślają naukowcy, zasadniczo CMT pozwoliła na wirtualną autopsję. Dzięki uzyskanym zdjęciom można było stworzyć model 3D. Wykryto 4 urazy (ślady gojenia wskazują, że powstały przed śmiercią). Trzy znajdowały się po zewnętrznej stronie czaszki, a jeden wewnątrz. Co istotne, zewnętrzne były zlokalizowane na górze głowy, powyżej linii kapeluszowej. Umiejscowienie takie nie jest typowe dla urazów spowodowanych przez wypadki, można więc wnioskować, że zadano je celowo w czasie walki. Najpoważniejsze obrażenie (L2) wykazuje cechy urazu zadanego za pomocą tępego narzędzia. Uraz L3 powstał zaś w wyniku uderzenia ostrym narzędziem. L4 mógł zostać natomiast wywołany narzędziem tępym lub ostrym. Czwarta zmiana znajduje się wewnątrz czaszki. Po przeanalizowaniu jej cech i porównaniu z różnymi procesami chorobowymi, w tym z infekcją, chorobami metabolicznymi bądź genetycznymi oraz nowotworami, uczeni doszli do wniosku, że prawdopodobnie ma ona związek z oponiakiem. [...] Odkrycie to daje nam wgląd w stan zdrowia dawnych populacji i rodzi fundamentalne pytanie o zdolność jednostki do przeżycia różnych chorób/zdarzeń i późniejszą jakość życia - podkreśla główny autor artykułu Daniel Rodríguez-Iglesias. « powrót do artykułu
  5. W miarę wzrostu globalnych temperatur drzewa będą emitowały więcej izoprenu, który pogorszy jakość powietrza, wynika z badań przeprowadzonych na Michigan State University. Do takich wniosków doszedł zespół profesora Toma Sharkeya z Plant Resilience Institute na MSU. Naukowcy zauważyli, że w wyższych temperaturach drzewa takie jak dąb czy topola wydzielają więcej izoprenu. Mało kto słyszał o tym związku, tymczasem jest to drugi pod względem emisji węglowodór trafiający do atmosfery. Pierwszym jest emitowany przez człowieka metan. Sharkey bada izopren od lat 70., kiedy był jeszcze doktorantem. Rośliny emitują ten związek, gdyż pozwala on im radzić sobie z wysoką temperaturą i szkodnikami. Problem w tym, że izopren, łącząc się z zanieczyszczeniami emitowanymi przez człowieka, znacznie pogarsza jakość powietrza. Mamy tutaj do czynienia z pewnym paradoksem, który powoduje, że powietrze w mieście może być mniej szkodliwe niż powietrze w lesie. Jeśli bowiem wiatr wieje od strony miasta w stronę lasu, unosi ze sobą tlenki azotu emitowane przez elektrownie węglowe i pojazdy silnikowe. Tlenki te trafiając do lasu wchodzą w reakcję z izoprenem, tworząc szkodliwe i dla roślin, i dla ludzi, aerozole, ozon i inne związki chemiczne. Sharkey prowadził ostatnio badania nad lepszym zrozumieniem procesów molekularnych, które rośliny wykorzystują do wytwarzania izoprenu. Naukowców szczególnie interesowała odpowiedź na pytanie, czy środowisko wpływa na te procesy. Skupili się zaś przede wszystkim na wpływie zmian klimatu na wytwarzanie izoprenu. Już wcześniej widziano, że niektóre rośliny wytwarzają izopren w ramach procesu fotosyntezy. Wiedziano też, że zachodzące zmiany mają znoszący się wpływ na ilość produkowanego izoprenu. Z jednej powiem strony wzrost stężenia CO2 w atmosferze powoduje, że rośliny wytwarzają mniej izoprenu, ale wzrost temperatury zwiększał jego produkcję. Zespół Sharkeya chciał się dowiedzieć, które z tych zjawisk wygra w sytuacji, gdy stężenie CO2 nadal będzie rosło i rosły będą też temperatury. Przyjrzeliśmy się mechanizmom regulującym biosyntezę izoprenu w warunkach wysokiego stężenia dwutlenku węgla. Naukowcy od dawna próbowali znaleźć odpowiedź na to pytanie. W końcu się udało, mówi główna autorka artykułu, doktor Abira Sahu. Kluczowym elementem naszej pracy jest zidentyfikowanie konkretnej reakcji, która jest spowalniana przez dwutlenek węgla. Dzięki temu mogliśmy stwierdzić, że temperatura wygra z CO2. Zanim temperatura na zewnątrz sięgnie 35 stopni Celsjusza, CO2 przestaje odgrywać jakikolwiek wpływ. Izopren jest wytwarzany w szaleńczym tempie, mówi Sharkey. Podczas eksperymentów prowadzonych na topolach naukowcy zauważyli też, że gdy liść doświadcza wzrostu temperatury o 10 stopni Celsjusza, emisja izoprenu rośnie ponad 10-krotnie. Dokonane odkrycie można już teraz wykorzystać w praktyce. Chociażby w ten sposób, by w miastach sadzić te gatunki drzew, które emitują mniej izoprenu. Jeśli jednak naprawdę chcemy zapobiec pogarszaniu się jakości powietrza, którym oddychamy, powinniśmy znacząco zmniejszyć emisję tlenków azotu. Wiatr wiejący od strony terenów leśnych w stronę miast będzie bowiem niósł ze sobą izopren, który wejdzie w reakcje ze spalinami, co pogorszy jakość powietrza w mieście. « powrót do artykułu
  6. Niechęć do jedzenia mięsa może być motywowana nie tylko względami etycznymi czy medycznymi, ale może mieć również podłoże genetyczne, informują naukowcy z Wydziału Medycyny Northwestern University. Jak zauważa jeden z autorów badań, profesor Nabeel Yaseen, dotychczas nikt nie odpowiedział na pytanie, czy każdy człowiek jest w stanie powstrzymać się od jedzenia mięsa przez dłuższy czas. Z prowadzonych dotychczas badań wynika, że znaczna część ludzi, którzy uważają się za wegetarian, je mięso ryb, drobiu czy czerwone mięso. Dlatego też Yaseen i jego zespół uważają, że czynniki środowiskowe lub biologiczne mogą w wielu przypadkach odgrywać silniejszą rolę niż chęć trzymania się diety. Wydaje się, że więcej osób chciałoby być wegetarianami niż naprawdę nimi jest. Sądzimy, że dzieje się tak, bo mamy coś wdrukowanego, czego nie bierzemy pod uwagę, stwierdzili autorzy badań. Postanowili więc skupić się na kwestii genetycznej. W tym celu przebadali genomy 5324 wegetarian – ludzi, którzy nie jedzą żadnego mięsa – a grupę kontrolną stanowiło 329 455 osób. Wszyscy badani należeli do rasy białej (kaukaskiej). Naukowcy chcieli mieć bowiem homogeniczną próbkę badanych, bez potrzeby uwzględniania różnic pomiędzy rasami. Analizy wykazały, że istnieją trzy geny silnie powiązane z wegetarianizmem oraz 31 genów, które mogą mieć związek z niejedzeniem mięsa. Część z tych genów – w tym dwa (NPC1 i RMC1) ze wspomnianych trzech – jest powiązanych z metabolizmem tłuszczów i/lub funkcjonowaniem mózgu. Jedną z zasadniczych różnic pomiędzy pokarmem roślinnym a zwierzęcym są złożone lipidy. Być może to właśnie lipidy obecne w mięsie są tym, czego niektórzy ludzie potrzebują. A być może ludzie, którzy posiadają geny promujące wegetarianizm, potrafią samodzielnie syntetyzować te lipidy. Jednak w tej chwili to czysta spekulacja i potrzeba więcej badań, by lepiej zrozumieć fizjologię wegetarianizmu, mówi Yaseen. Przez wieki główną motywacją dla stosowania diety wegetariańskiej były względy religijne i moralne. W ostatnich dziesięcioleciach nauka dostarczyła dowodów, że dieta taka jest zdrowsza niż dieta oparta na mięsie, zatem wiele osób zaczęło przechodzić na wegetarianizm z powodów zdrowotnych. Mimo to wegetarianie stanowią mniejszość wśród ludzi. Szacuje się na przykład, że w USA mięsa nie je 3–4 procent populacji. W Wielkiej Brytanii jest to 2,3% dorosłych i 1,9% dzieci. Yaseen uważa, że jedną z przyczyn stojących za wyborami dietetycznymi – oprócz kwestii kulturowych, przyzwyczajeń, wychowania czy smaku – mogą być kwestie związane z metabolizmem. Na przykład próbowane po raz pierwszy kawa czy alkohol nie smakują większość osób. Z czasem jednak ludzie zaczynają doceniać to, jak się po nich czują i z ochotą po oba napoje sięgają. Myślę, że z mięsem może być podobnie. Być może posiada ono pewien składnik, ja uważam, że chodzi o tłuszcze, który powoduje, iż zaczynamy go pożądać, dodaje uczony. Badacze stwierdzili, że o ile względy religijne i moralne odgrywają dużą rolę przy przejściu na wegetarianizm, to o sukcesie tego postanowienia – długotrwałym trzymaniu się diety wegetariańskiej – decydują względy genetyczne. Mamy nadzieję, że przyszłe badania lepiej opiszą różnice pomiędzy wegetarianami a nie wegetarianami. To pozwoliłoby z jednej strony na opracowanie spersonalizowanych diet, z drugiej zaś na stworzenie lepszych substytutów mięsa, dodają. « powrót do artykułu
  7. W dzisiejszym świecie, w którym czas jest cenny i precyzja odgrywa kluczową rolę, zegarek stał się nie tylko narzędziem do mierzenia czasu, ale także wyrazem osobistego stylu i prestiżu. Jednym z kluczowych rodzajów zegarków jest zegarek kwarcowy, który znacząco wpłynął na sposób, w jaki mierzymy czas. W tym artykule przyjrzymy się temu, co oznacza, że zegarek jest kwarcowy oraz dlaczego jest to jeden z najbardziej popularnych rodzajów zegarków na świecie. Zegarek kwarcowy - definicja Zegarek kwarcowy jest rodzajem zegarka, który wykorzystuje kwarc jako element regulujący pracę mechanizmu czasomierza. Kwarc to minerał o bardzo regularnej strukturze krystalicznej, który ma zdolność do generowania dokładnych impulsów elektrycznych przy niewielkim napięciu. To właśnie na tej zasadzie działa zegarek kwarcowy. Jak działa zegarek kwarcowy? Podstawowym elementem zegarka kwarcowego jest kwarcowy oscylator. Wewnątrz zegarka znajduje się cienka płytka krystaliczna kwarcu, która jest napięta w odpowiedni sposób. Gdy napięcie jest na nią podawane, kwarc zaczyna drgać z bardzo stałą częstotliwością. Te drgania są przekształcane na impulsy elektryczne, które napędzają ruchome elementy zegara. Centralnym punktem zegarka kwarcowego jest układ scalony (IC - Integrated Circuit), który jest odpowiedzialny za kontrolowanie impulsów elektrycznych, dzięki którym wskazówki zegara poruszają się w odpowiedni sposób. IC to swoisty mózg zegarka, który dba o zachowanie precyzji wskazań czasu. Zalety zegarków kwarcowych Dokładność: Zegarki kwarcowe są znane ze swojej niezawodnej dokładności. Dzięki stałej częstotliwości drgań kwarcu, zegarek kwarcowy może utrzymywać bardzo precyzyjny czas. Trwałość baterii: Baterie w zegarkach kwarcowych zwykle wytrzymują wiele lat, co oznacza, że nie trzeba martwić się o ich wymianę często. Niski koszt serwisu: Zegarki kwarcowe rzadko wymagają kosztownych napraw, co oznacza, że są stosunkowo tanie w utrzymaniu. Mniejsza wrażliwość na warunki środowiskowe: Zegarki kwarcowe są mniej podatne na wpływ temperatury i pola magnetyczne niż ich mechaniczne odpowiedniki. Minusy zegarków kwarcowych Zasilanie baterią: Zegarki kwarcowe zasilane są baterią, co oznacza, że konieczna jest ich wymiana co kilka lat. Jest to dodatkowy koszt i niedogodność, zwłaszcza jeśli bateria wyczerpie się w niewłaściwym momencie. Skomplikowane naprawy: W przypadku uszkodzenia zegarka kwarcowego, naprawa może być skomplikowana i kosztowna. Naprawa komponentów elektronicznych i wymiana modułu kwarcowego może być trudniejsza i droższa niż naprawa mechanizmu w zegarku mechanicznym Wpływ na środowisko: Produkcja i utylizacja baterii zegarków kwarcowych może wpływać negatywnie na środowisko. Baterie często zawierają szkodliwe substancje chemiczne, które mogą zanieczyszczać glebę i wodę po ich wyrzuceniu. Podsumowując, zegarek kwarcowy to nie tylko narzędzie do mierzenia czasu, ale także symbol niezawodności i precyzji. Dzięki technologii kwarcowej, te zegarki utrzymują bardzo dokładny czas i są niezwykle trwałe. Jeśli szukasz zegarka, który nie tylko będzie Cię informował o biegnącym czasie, ale także będzie odzwierciedlał Twój osobisty styl, zegarek kwarcowy może być doskonałym wyborem Jeśli jesteś zainteresowany zakupem zegarka kwarcowego, warto odwiedzić sklep internetowy Zegarownia. Jest to renomowany sklep z zegarkami, który oferuje szeroki wybór zegarków kwarcowych od znanych marek. « powrót do artykułu
  8. Uczestnicy słynnego eksperymentu Milgrama tak bardzo ulegali autorytetowi prowadzącego, że byli w stanie na jego polecenie zadawać silny ból innemu człowiekowi. Takie bezwzględne bezrefleksyjne posłuszeństwo może prowadzić do zbrodni. Naukowcy z Uniwersytetu SWPS powtórzyli eksperyment Milgrama, ale prowadzącym był robot. Okazało się, że ludzie są skłonni podporządkować się poleceniom robota i na jego rozkaz krzywdzić innych. W latach 60. XX wieku amerykański psycholog Stanley Milgram, zastanawiając się nad przyczynami, dla których ludzie w czasie II wojny światowej wykonywali zbrodnicze rozkazy, przeprowadził eksperyment, którego celem było wykazanie, na ile H. sapiens ma skłonność do ulegania autorytetom. Osobom, które brały udział w eksperymencie powiedziano, że jego celem jest zbadanie wpływu kar na skuteczność uczenia się. W eksperymencie brał udział uczestnik-nauczyciel oraz uczeń. Eksperymentator zaś kazał nauczycielowi karać ucznia aplikując mu coraz silniejszy wstrząs elektryczny. Uczeń, którym była podstawiona osoba, w rzeczywistości nie był rażonym prądem (ale uczestnik-nauczyciel o tym nie wiedział), jednak w odpowiedzi na rzekomo podawane napięcie elektryczne, krzyczał z bólu. Eksperyment wykazał, że aż 62% uczestników – ulegając autorytetowi eksperymentatora – nacisnęło w końcu na generatorze przycisk 450 V, czyli najwyższy. Naukowcy z Uniwersytetu SWPS postanowili sprawdzić, czy ludzie będą równie posłuszni robotowi, jak innemu człowiekowi. Przeniesienie różnych funkcji nadzoru i podejmowania decyzji na robota budzi jednak szczególnie silne emocje, ponieważ wiąże się z różnymi zagrożeniami etycznymi i moralnymi. Pojawia się pytanie, czy wspomniane wyżej posłuszeństwo wykazywane przez badanych zgodnie z paradygmatem Milgrama nadal występowałoby, gdyby to robot (zamiast człowieka, tj. profesora uczelni) kazał uczestnikom zadać elektrowstrząsy innej osobie? Celem naszego badania było udzielenie odpowiedzi na to pytanie, mówi doktor Konrad Maj. Doktor Maj we współpracy z profesorem Dariuszem Dolińskim i doktorem Tomaszem Grzybem, powtórzył eksperyment Milgrama, ale w roli eksperymentatora osadzono robota. W grupie kontrolnej eksperymentatorem był człowiek. W badaniach wzięli udział uczestnicy, którzy nie wiedzieli, na czym polegał eksperyment Milgrama. Okazało się, że ludzie ulegają też autorytetowi robota i na jego polecenie są skłonni krzywdzić innych ludzi. Co więcej, zarejestrowano bardzo wysoki poziom posłuszeństwa. Aż 90% uczestników w obu grupach – badanej i kontrolnej – nacisnęło wszystkie przyciski na generatorze, dochodząc do wartości 150 V. Od kilku dekad z powodów etycznych te 150 V przyjmuje się za górną wartość przy eksperymencie Milgrama. O ile nam wiadomo, to pierwsze badanie, które pokazuje, że ludzie są skłonni szkodzić innemu człowiekowi, gdy robot nakazuje im to zrobić. Co więcej, nasz eksperyment pokazał również, że jeśli robot eskaluje żądania, instruując człowieka, aby zadawał coraz większy ból innemu człowiekowi, ludzie też są skłonni to zrobić, dodaje doktor Maj. Już wcześniejsze badania wykazały, że ludzie tak mocno uznają autorytet robota, że podążają za jego poleceniami, nawet gdy nie mają one sensu. Tak było np. podczas eksperymentu, w czasie którego osoby ewakuowane z – symulowanego – pożaru, podążały za poleceniami robota, mimo że wskazał im on drogę ewakuacji przez ciemne pomieszczenie bez widocznego wyjścia. « powrót do artykułu
  9. Dzięki Teleskopowi Hubble'a, niezwykle rzadkie, tajemnicze eksplozje kosmiczne, stały się jeszcze bardziej tajemnicze. Historia LFBOT (Luminous Fast Blue Optical Transient) rozpoczęła się od słynnej Krowy (AT2018cow), gdy zaobserwowano eksplozję podobną do supernowych, którą wyróżniała wyjątkowa jasność początkowa, bardzo szybkie tempo zwiększania jasności oraz błyskawiczne tempo przygasania. Najpierw naukowcy ogłosili, że rozwiązali zagadkę, rok później przyznali, że nie wiadomo, z czym mamy do czynienia, a w 2020 roku ogłoszono odkrycie nowej klasy eksplozji kosmicznych. Minęły kolejne trzy lata i tajemnica tylko się pogłębiła. Obecnie znamy 7 LFBOT. Najnowszym tego typu zjawiskiem jest Zięba, oficjalnie zwana AT2023fhn. Wydarzenie ma wszelkie cechy LFBOT: gwałtownie zwiększająca się jasność, intensywna emisja w paśmie światła niebieskiego, szybkie osiągnięcie maksymalnej jasności i przygaśnięcie w ciągu kilku dni. Jednak – w przeciwieństwie to wszystkich innych zjawisk tego typu – Zięba nie narodziła się w galaktyce. Analizy przeprowadzone za pomocą Teleskopu Hubble'a wykazały, że do eksplozji doszło pomiędzy dwiema galaktykami. Zięba była oddalona o 50 000 lat świetlnych od większej galaktyki spiralnej i 15 000 lat świetlnych od mniejszej galaktyki. Analizy Hubble'a były kluczowe, gdyż dzięki nim zobaczyliśmy, że to zjawisko różniło się od innych. Bez Hubble'a byśmy się tego nie dowiedzieli, mówi Ashley Chrime, główny autor artykułu, w którym opisano wyniki badań. Wedle jednej z hipotez LFBOT to rzadki rodzaj wybuchów zwanych kolapsem rdzenia gwiazdy (core-collapse supernowae). Ten typ eksplozji związany jest nierozerwalnie z olbrzymimi młodymi gwiazdami. Zatem do takich zdarzeń nie może dochodzić z dala od miejsc powstawania gwiazd, gdyż młoda gwiazda nie miałaby czasu na migrację. Wszystkie wcześniejsze LFBOT miały miejsce w ramionach galaktyk spiralnych. Natomiast Zięba pojawiła się z dala od jakiejkolwiek galaktyki. Im więcej dowiadujemy się o LFBOT, tym bardziej nas zaskakują. Wykazaliśmy, że LFBOT może mieć miejsce z dala od centrum najbliższej galaktyki, a lokalizacja Zięby jest inna, niż można by się spodziewać po jakiejkolwiek supernowej, dodaje Chrimes. Zjawisko AT2023fhn, Zięba, zostało zauważone przez Zwicky Transient Facility. To naziemny aparat o niezwykle szerokim kącie widzenia, który co dwa dni skanuje niebo nad całą półkulą północną. Automatyczny alert o zaobserwowaniu nowego zjawiska trafił do astronomów 10 kwietnia 2023 roku. Zespoły, które czekały na pojawienie się nowego LFBOT, natychmiast skierowały nań swoje instrumenty badawcze. Badania spektroskopowe przeprowadzone przez teleskop Gemini South wykazały, że temperatura Zięby wynosi niemal 20 000 stopni Celsjusza. Teleskop pozwolił też na oszacowanie odległości Zięby od Ziemi, dzięki czemu można było określić jasność zjawiska. Te informacje w połączeniu z danym z Chandra X-ray Observatory i Very Large Array pozwoliły na potwierdzenie, że mamy do czynienia z nowym LFBOT. Teraz dzięki Hubble'owi można wykluczyć, że LFBOT to kolaps rdzenia gwiazdy. Być może zjawiska te są spowodowane rozerwaniem gwiazdy przez czarną dziurę o masie od 100 do 1000 mas Słońca. Tutaj przydałoby się zbadanie miejsca wystąpienia Zięby za pomocą Teleskopu Webba. Mógłby on pomóc w stwierdzeni, czy Zięba nie pojawiła się w gromadzie kulistej lub halo jednej z dwóch sąsiadujących galaktyk. Gromady kuliste to najbardziej prawdopodobne miejsca występowania średnio masywnych czarnych dziur. Tak czy inaczej, wyjaśnienie zagadki LFBOT będzie wymagało odkrycia i zbadania większej liczby zjawisk tego typu. « powrót do artykułu
  10. Ludzie potrafią wyczuwać pięć smaków: słodki, słony, gorzki, kwaśny i umami. Autorzy nowych badań znaleźli dowody, że istnieje kolejny podstawowy smak, który potrafimy wyczuć. To smak chlorku amonu (NH4Cl). Czy środowisko naukowe zaakceptuje istnienie kolejnego smaku? Na powszechną akceptację umami, którego istnienia jako smaku podstawowego zaproponował japoński naukowiec Kikunae Ikeda, trzeba było czekać około 80 lat. W najnowszym numerze Nature Communications neurolog z Uniwersytetu Południowej Kalifornii profesor Emily Liman i jej zespół informują, że nasz język reaguje na chlorek amonu za pomocą tych samych receptorów, co na smak kwaśny. Jeśli mieszkasz w kraju skandynawskim, prawdopodobnie znasz ten smak, mówi Liman. Na północy Europy można bowiem kupić soloną lukrecję, a w jej skład wchodzi właśnie chlorek amonu. Naukowcy od dawna wiedzieli, że nasze języki silnie reagują na ten związek, jednak nie było pewne, który z receptorów odpowiada za reakcję. Liman i jej współpracownicy uważają, że znaleźli rozwiązanie zagadki. W ostatnich latach zidentyfikowali oni proteinę OTOP1, która wykrywa smak kwaśny. Wysunęli hipotezę, że może ona również odpowiadać za wykrywanie chlorku amonu, gdyż związek ten ma wpływ na  poziom kwasowości w komórkach. W celu przetestowania swojej hipotezy wprowadzili gen Otop1 do hodowanych w laboratorium ludzkich komórek i poddali niektóre z nich działaniu kwasu lub chlorku amonu. Wykazali w ten sposób, że chlorek amonu aktywował OTOP1 równie silnie, jak kwas. Później przyszedł czas na eksperymenty na myszach, podczas których okazało się, że zwierzęta z genem Otop1 unikały pożywienia z chlorkiem amonu, a tym nie posiadającym tego genu, smak NH4Cl nie przeszkadzał. Liman przypuszcza, że zdolność do wyczuwania chlorku amonu mogła wyewoluować, by organizmy unikały szkodliwych substancji, w skład których wchodzi jon amonowy. Naukowcy planują dalsze Badania nad OTOP1 i chlorkiem amonu, chcą bowiem określić ich wspólną historię ewolucyjną. A chlorek amonu może zostanie w przyszłości uznany za szósty podstawowy smak. « powrót do artykułu
  11. Model iPhone 15 Pro Max od Apple, zaskakuje innowacyjnymi rozwiązaniami – od wyrafinowanej obudowy z tytanu po kamerę, która może konkurować z profesjonalną lustrzanką. Nowe wersje to najlżejsze iPhone'y z linii Pro do tej pory. Posiadają one również zaokrąglone brzegi oraz dostosowywalny przycisk czynności, dający możliwość indywidualnego dopasowania sposobu korzystania z telefonu. Skupmy się jednak na rewolucyjnym aparacie w iPhonie 15 Pro Max! Czym się wyróżnia? Zaawansowany system aparatów Nowe iPhone’y 15 Pro i 15 Pro Max oferują rozbudowany system aparatów. Za tę możliwość odpowiada chip A17 Pro. Główny aparat o rozdzielczości 48 MP, zaprojektowany specjalnie dla linii Pro, korzysta z technologii fotografii obliczeniowej, pozwalając użytkownikom tworzyć zdjęcia w imponującej, lecz jednocześnie efektywnej pod względem rozmiaru, rozdzielczości 24 MP. Umożliwia on wybór spośród trzech popularnych długości ogniskowych – 24 mm, 28 mm oraz 35 mm, z możliwością ustawienia jednej z nich jako domyślnej. Oprócz formatu ProRAW 48 MP, obsługuje również zdjęcia HEIF w tej samej rozdzielczości, co stanowi czterokrotny wzrost w porównaniu z wcześniejszymi modelami. iPhone 15 Pro dostępny pod tym linkiem – https://lantre.pl/iphone/iphone-15-pro-626.html, posiada teleobiektyw o trzykrotnym zoomie, podczas gdy iPhone 15 Pro Max prezentuje dotąd nieosiągnięty w iPhone’ach zoom optyczny 5x o długości ogniskowej 120 mm. Udoskonalony tryb Portret Zdjęcia portretowe zrobione za pomocą iPhone’a 15 Pro i 15 Pro Max wyróżniają się wyjątkową precyzją, bogactwem kolorów oraz doskonałą jakością w warunkach słabego światła. Co ciekawe, nie ma potrzeby aktywowania trybu Portret podczas fotografowania. Kiedy w obiektywie uchwycisz człowieka, psa, kota lub gdy użytkownik dotknie ekranu, by ustawić ostrość, iPhone samoczynnie zapisuje informacje o głębi obrazu. Funkcja regulacji punktu ostrości po zrobieniu zdjęcia daje użytkownikom jeszcze większą kontrolę nad końcowym wyglądem obrazu. Ulepszony tryb nocny i inteligentny HDR W trybie nocnym szczegóły są bardziej wyraźne, a barwy bardziej nasycone, dzięki zastosowaniu technologii Photonic Engine. Dodatkowo, skaner LiDAR pozwala na tworzenie nocnych portretów. Ulepszony inteligentny HDR doskonale przedstawia detale zarówno na pierwszym planie, jak i w tle, wiernie oddając odcienie skóry. Jednocześnie poprawia oświetlenie jasnych miejsc, dodaje głębi obszarom pośrednim oraz pogłębia cienie. Zaawansowane przetwarzanie HDR jest także dostępne dla aplikacji innych producentów, co sprawia, że udostępniane zdjęcia wyglądają jeszcze lepiej online. Dzięki chipowi A17 Pro, jakość wideo w smartfonach osiąga nowy poziom, zwłaszcza w warunkach słabego oświetlenia i podczas rejestrowania dynamicznych scen. iPhone 15 Pro Max –  najlepszy wybór w branży kreatywnej Smartfon, który stał się ulubieńcem profesjonalnych twórców i filmowców, doskonale adaptuje się do zaawansowanych potrzeb w branży. Dzięki dodatkowemu kablowi USB 3 możliwe jest osiągnięcie nawet 20 x szybszego transferu danych. W połączeniu z rozwiązaniami takimi jak Capture One, iPhone staje się rdzeniem profesjonalnego studia, umożliwiając szybkie przenoszenie zdjęć w formacie 48 MP ProRAW bezpośrednio na Maca. Filmy w formacie ProRes mogą być zapisywane bezpośrednio na zewnętrznym nośniku, oferując wyższą jakość – do 4K przy 60 klatkach na sekundę. Dzięki temu iPhone może służyć jako główne narzędzie filmowe na planie. Co więcej, jest to pierwszy telefon na rynku, który obsługuje standard Academy Color Encoding System. Podsumowując iPhone 15 Pro Max w Lantre oferuje aparat najlepszej możliwej jakości. Uwagę zwraca na pewno szeroka gamę ogniskowych aparatu. Można to porównać do noszenia w kieszeni siedmiu wysokiej klasy obiektywów, bez konieczności zabierania ze sobą ciężkiego sprzętu fotograficznego. « powrót do artykułu
  12. Od 20 października w Museum of Somerset w Taunton będzie można oglądać rzadką wczesnośredniowieczną fibulę tarczowatą. Trzy lata temu detektorysta Iain Sansome znalazł ją w gospodarstwie w pobliżu Cheddar w hrabstwie Somerset. Od razu zgłosił to odpowiednim służbom. Podczas prac archeologicznych nie dokonano dalszych znaczących odkryć. Może to sugerować, że zapinkę zgubiono (raczej nie została ona celowo zakopana). Fibula datuje się na 800-900 r. Wykonano ją ze stopu srebra i miedzi. Prace konserwatorskie przeprowadziła Pieta Greaves z Drakon Heritage. Motywy roślinne i zoomorficzne wykonane w technice niello umieszczono na tle pozłacanego panelu; można wśród nich wyróżnić m.in. wiwerny. Jak podkreślono w komunikacie prasowym, zapinka tarczowata reprezentuje styl Trewhiddle (Trewhiddle jest stanowiskiem typowym w Kornwalii, na którym znaleziono oraz zidentyfikowano pierwszą zapinkę tego rodzaju; w 1774 r. w korycie strumienia w dawnym wyrobisku kopalni cyny odkryto skarb). Opisywana ozdoba stroju ma 91 mm średnicy i 1,93 mm grubości. Waży 76,12 g. Rozmieszczono na niej guzki. Największy na środku ma 10,14 mm średnicy. Podczas konserwacji na rewersie fibuli odkryto delikatne ryski, które prawdopodobnie pomagały rzemieślnikowi w procesie produkcji. Łatka na krawędzi sugeruje, że właściciel lubił zapinkę i używał jej przez dłuższy czas, zanim została zgubiona - opowiada kurator Amal Khreisheh. W 878 r. Alfred Wielki zgromadził w Somerset swoje wojska i pokonał duńskich najeźdźców, zabezpieczając niezależność Wesseksu i kładąc podwaliny pod zjednoczenie Anglii [...] Fibula z Cheddar pochodzi z okresu będącego punktem zwrotnym w angielskiej historii. Jesteśmy zachwyceni, że ten wspaniały zabytek będzie wystawiany w Museum of Somerset - podkreśla Tom Mayberry z South West Heritage Trust. Fibula należała prawdopodobnie do bogatej osoby o wysokiej pozycji społecznej, która miała dostęp do doskonałego złotnika. Jest wyjątkowa zarówno ze względu na wielkość, jak i jakość wykonania zdobień. Museum of Somerset kupiło ją w lutym 2023 r. O ile dość często w Somerset znajduje się zapinki z czasów rzymskich, o tyle przykłady wczesnośredniowieczne są rzadkie. Takie obiekty były ważnymi symbolami bogactwa i wysokiego statusu. Mogły być dawne jako podarunki cementujące stosunki między wpływowymi osobami - mówiła w 2021 r. dr Lucy Shipley z Portable Antiquities Scheme. « powrót do artykułu
  13. Pająki z gatunku Argyroneta aquatica całe życie spędzają pod wodą, mimo że są przystosowane do oddychania powietrzem atmosferycznym. Jak to jest możliwe? Otóż ich ciała pokryte są milionami hydrofobowych włosków, które więżą powietrze wokół ciała pająka, zapewniając nie tylko zapas do oddychania, lecz służąc też jako bariera pomiędzy wodą a płucotchawkami zwierzęcia. Ta cienka warstwa powietrza zwana jest plastronem, a naukowcy od dziesięcioleci próbowali ją odtworzyć, by uzyskać materiał, który po zanurzeniu w wodzie będzie odporny na jej negatywne oddziaływanie, czy to na korozję czy na osadzanie na powierzchni bakterii lub glonów. Dotychczas jednak uzyskane przez człowieka plastrony rozpadały się pod wodą w ciągu kilku godzin. Naukowcy z  Harvard John A. Paulson School of Engineering and Applied Sciences (SEAS), Wyss Institute for Biologically Inspired Engineering at Harvard, Friedrich-Alexander-Universität Erlangen-Nürnberg w Niemczech Germany oraz fińskiego Aalto University poinformowali właśnie o uzyskaniu plastronu, który pozostaje stabilny pod wodą przez wiele miesięcy. Superhydrofobowy materiał, który odpycha krew i wodę, zapobiega osadzaniu się bakterii i organizmów morskich takich jak małże, może znaleźć bardzo szerokie zastosowania zarówno w medycynie, jak i przemyśle. Jeden z głównych problemów z uformowaniem się plastronu polega na tym, że potrzebna jest szorstka powierzchnia. Jak włoski na Argyroneta aquatica. Jednak nierówności na powierzchni powodują, że jest ona mechanicznie niestabilne, podatna na niewielkie zmiany temperatury, ciśnienia i niedoskonałości samej powierzchni. Dotychczasowe techniki wytwarzania powierzchni superhydrofobowych brały pod uwagę dwa parametry, a to nie zapewniało dostatecznej ilości danych o stabilności powietrznego plastronu umieszczonego pod wodą. Dlatego naukowcy z USA, Niemiec i Finlandii musieli najpierw zbadać, jakie jeszcze dane są potrzebne. Okazało się, że muszą uwzględniać nierówności powierzchni, właściwości molekuł na powierzchni, sam plastron, kąt styku między powietrzem a powierzchnią i wiele innych czynników. Dopiero to pozwoliło przewidzieć, jak powietrzny plastron zachowa się pod wodą. Wykorzystali więc stworzona przez siebie metodę obliczeniową i za pomocą prostych technik produkcyjnych, wykorzystali niedrogi stop tytanu do stworzenie powierzchni aerofilnej, na której tworzył się powietrzny plastron. Badania wykazały, że dzięki niemu zanurzony w wodzie materiał pozostaje suchy przez tysiące godzin dłużej, niż podczas wcześniejszych eksperymentów. Wykorzystaliśmy metodę opisu, którą teoretycy zasugerowali już przed 20 laty i wykazaliśmy, że nasza powierzchnia jest stabilna. Oznacza to, że uzyskaliśmy nie tylko nowatorską, ekstremalnie trwałą powierzchnię hydrofobową, ale mamy też podstawy do konstruowania takich powierzchni z różnych materiałów, mówi Alexander B. Tesler z Friedrich-Alexander-Universität Erlangen-Nürnberg. Naukowcy stworzyli odpowiednią powierzchnię, a następnie wyginali ją, skręcali, polewali zimną i gorącą wodą, pocierali piaskiem i stalą, by pozbawić ją właściwości aerofilnych. Mimo to utworzył się na niej plastron, który przetrwał 208 dni zanurzenia w wodzie i setki zanurzeń we krwi. Plastron taki znacząco zmniejszył wzrost E.coli, liczbę wąsonogów przyczepiających się do powierzchni i uniemożliwił przyczepianie się małży. Nowo opracowana powierzchnia może znaleźć zastosowanie w opatrunkach, zmniejszając liczbę infekcji po zabiegach chirurgicznych czy w biodegradowalnych implantach. Przyda się też do zapobiegania korozji podwodnych instalacji. Być może w przyszłości uda się ją połączyć z opracowaną na SEAS superśliską warstwą ochronną SLICK (Slippery Liquid Infused Porous Surfaces), co jeszcze lepiej powinno chronić całość przed wszelkimi zanieczyszczeniami. « powrót do artykułu
  14. Koty to jedne z najpopularniejszych zwierząt domowych, towarzyszą ludziom od tysięcy lat, wydawałoby się więc, że powinniśmy wiedzieć o nich wszystko. Jednak dopiero teraz naukowcy dowiedzieli się, jak koty... mruczą. Dotychczas sposób wydawania tego dźwięku stanowił zagadkę, gdyż zwierzęta o krótkich strunach głosowych rzadko wydają niskie dźwięki. Tymczasem u kotów niskie mruczenie (w zakresie 20-30 Hz) jest czymś powszechnym. Okazało się, że posiadają one w krtani inne struktury, umożliwiające mruczenie. Rodzaj dźwięku, do wydawania którego zdolne jest zwierzę, zwykle zależy od rozmiarów strun głosowych. Zwykle im większe zwierzę, tym dłuższe struny głosowe, a co za tym idzie – możliwość wydawania niższych dźwięków. Kot domowy należy do niewielkich zwierząt, ma więc krótkie struny głosowe. Za ich pomocą wydaje wysokie dźwięki, miauczenie czy skrzeczenie. Jednak potrafi też nisko mruczeć. Obowiązująca obecnie hipoteza – zwana hipotezą AMC – mówiła, że zdolność kotów do mruczenia jest całkowicie uzależniona od „aktywnego kurczenia mięśni”. Christian T. Herbst z Uniwersytetu Wiedeńskiego i jego koledzy z Austrii, Szwajcarii i Czech postanowili przetestować tę hipotezę. Przeprowadzili więc sekcję tchawic ośmiu kotów domowych, które zostały uśpione z powodu różnych chorób. Odkryli, że z tchawicy można uzyskać niski dźwięk, gdy przechodzi przez nią powietrze, zatem skurcze mięśni nie są tutaj potrzebne. Naukowcy zauważyli, że powstanie niskich dźwięków (25-30 Hz) jest możliwe dzięki obecności tkanki łącznej w kocich strunach głosowych. Tkanka ta była znana już wcześniej, ale dotychczas nikt nie łączył jej z mruczeniem. Herbst nie wyklucza jednak, że skurcze mięśni są potrzebne do wzmocnienia pomruku. Teraz, skoro już dowiedzieliśmy się, jak koty mruczą, do rozwiązania zostaje zagadka, po co to robią. « powrót do artykułu
  15. W piramidzie Sahure, drugiego faraona V Dynastii i pierwszego władcy Egiptu pochowanego w Abusir, znaleziono nieznane dotychczas pomieszczenia. Odkrycia dokonała egipsko-niemiecka misja archeologiczna, na czele której stoi doktor Mohamed Ismail Khaled z Wydziału Egiptologii Uniwersytetu Juliusza i Maksymiliana w Würzburgu. Sahure był faraonem przez kilkanaście lat, objął rządy w roku 2500 p.n.e. lub po nim. Projekt konserwacji i restauracji piramidy Sahure rozpoczął się w 2019 roku. Specjaliści skupili się na oczyszczeniu pomieszczeń i ustabilizowaniu struktury od wewnątrz, by zapobiec jej zawaleniu się w przeszłości. W trakcie prac udało się m.in. zabezpieczyć niedostępne wcześniej komory grobowe. Naukowcy byli w stanie określić oryginalne rozmiary pomieszczeń, odsłonili podłogę przedsionka komory grobowej, a w miejsce zniszczonych ścian wspierających strukturę, wybudowali nowe. W toku tych działań zauważono ślady przejścia, o którego istnieniu informował w 1836 roku John Perring, prowadzący w piramidzie prace archeologiczne. Perring zauważył, że przejście jest pełne gruzu i niedostępne z powodu bardzo złego stanu technicznego. Egiptolog przypuszczał, że prowadzi ono do pomieszczeń, w których przechowywano dary pogrzebowe. Jednak kilkadziesiąt lat później, w 1907 roku, Ludwig Borchardt poddał te przypuszczenia w wątpliwość, a inni eksperci się z nim zgodzili. Teraz egipsko-niemiecka misja oczyściła przejście. I okazało się, że to Perring miał rację. Dotychczas znaleziono osiem pomieszczeń służących do przechowywania przedmiotów złożonych wraz ze zmarłym. Są one poważnie uszkodzone – szczególnie sufity i podłogi – ale zachowały się resztki ścian i fragmenty podłogi. Obecnie eksperci nadal prowadzą prace archeologiczne, dokumentują i zabezpieczają teren wykopalisk. Odkrycie nieznanych dotychczas pomieszczeń znakomicie pogłębi wiedzię o piramidzie Sahure i jej historycznym znaczeniu. « powrót do artykułu
  16. Zbiory Narodowego Muzeum Morskiego (NMM) w Gdańsku wzbogaciły się o obraz Władysława Ślewińskiego zatytułowany „Morze”. Został on namalowany przed 1905 r. Widnieje na nim fragment skalistego wybrzeża Bretanii opływany przez fale. Dzieło kupiono za 480 tys. zł na aukcji domu aukcyjnego DESA Unicum „Sztuka Dawna. XIX wiek, Modernizm, Międzywojnie”. Tym samym jest to najdroższe dzieło malarskie nabyte przez nas od początku lat 90. XX w. - podkreśla dyrektor instytucji dr Robert Domżał. Dr Monika Jankiewicz-Brzostowska, kierowniczka Działu Sztuki Marynistycznej NMM, opowiada o barwach i kompozycji dzieła: zestawienie soczystej zieleni masywnych klifów, o mocno zaznaczonych konturach, z turkusem delikatnie rozmalowanych partii wody tworzy efekt kontrastu między ciężkimi zarysami lądu a lekkością oceanu. Horyzont usytuowany jest blisko górnej krawędzi płótna. Partia nieba nie odgrywa zatem odrębnej roli w kompozycji, ale całość tworzy wrażenie przenikania się powietrza i wody. Obraz znajduje się na wystawie stałej w Galerii Morskiej w Spichlerzach na Ołowiance. NMM podkreśla, że do jego zakupu doszło dzięki wsparciu Ministerstwa Kultury i Dziedzictwa Narodowego. NMM dysponuje bogatą kolekcją malarstwa marynistycznego. W zbiorach Muzeum znajdują się dzieła zarówno twórców polskich, jak i szkół obcych. Muzeum może poszczycić się pracami takich [polskich] twórców, jak Julian Fałat, Ferdynand Ruszczyc czy Jacek Malczewski, a z młodszego pokolenia - m.in. Wojciech Weiss, Mela Muter i Marian Mokwa. Tym bardziej znaczący był dotychczasowy brak w tej kolekcji obrazów Władysława Ślewińskiego, uznawanego za jednego z najwybitniejszych polskich marynistów - ujawniono w komunikacie prasowym. Dr Jankiewicz-Brzostowska zaznacza, że Ślewiński to bardzo malownicza postać. Urodził się w 1856 r. w rodzinie ziemiańskiej. Od [...] młodego wieku [był] przygotowywany do tego, że przejmie zarządzanie rodzinnym majątkiem. Rozpoczął nawet naukę w szkole rolniczej. [...] Niestety nic z tego nie wyszło. Próba zarządzania majątkiem, który został po zmarłej przy porodzie matce, skończyła się dramatycznie - koniecznością ucieczki [...] przed sekwestrem urzędu finansowego i wierzycielami. W ten oto sposób przyszły artysta znalazł się w Paryżu. Dopiero tam, w roku 1888, zainteresował się malarstwem. Od razu na początku spotkał Paula Gauguina. Zaprzyjaźnili się naprawdę blisko. [...] Wiele ich łączyło. Podobnie jak Gauguin, Ślewiński był samoukiem. [...] W zasadzie kształtował swoje malarstwo sam, właśnie pod wpływem Gauguina. Jankiewicz-Brzostowska dodaje, że Ślewiński wyjechał za Gauguinem do Bretanii. Przyłączył się do grupy w Pont-Aven. Tam powstawały jego słynne, do dziś podziwiane widoki Bretanii. W roku 1905 malarz wrócił na kilka lat do Polski: w latach 1905-10 przebywał w Krakowie, Poroninie i Warszawie (od 1908 do 1910 r. był prof. warszawskiej Szkoły Sztuk Pięknych). Później wrócił do Bretanii, gdzie mieszkał w „zameczku” w Doëlan. Zmarł 24 marca 1918 r. w Paryżu. « powrót do artykułu
  17. Kobiety, które mieszkają w miejscach zachęcających do spacerów, są mniej narażone na nowotwory związane z otyłością, a szczególnie na postmenopauzalne nowotwory piersi, nowotwory jajników, endometrium oraz szpiczaka mnogiego, informują naukowcy z Columbia University Mailman School of Public Health i NYU Grossman School of Medicine. Otyłość powiązana jest z 13 rodzajami nowotworów, a aktywność fizyczna zmniejsza ryzyko wystąpienia niektórych z nich. Dotychczas jednak brakowało badań nad architekturą miejsca zamieszkania, a występowaniem nowotworów powiązanych z otyłością. Amerykańscy naukowcy przez 24 lata przyglądali się 14 274 kobietom w wieku 34–65 lat, które w latach 1985–1991 wzięły udział w programie badań mammograficznych w Nowym Jorku. Naukowcy przeanalizowali okolicę, w jakiej każda z nich mieszkała, skupiając się przede wszystkim na tym, na ile zachęcała ona do spacerowania czy załatwiania codziennych rzeczy na piechotę. Ważna więc była nie tylko infrastruktura drogowa czy otoczenie przyrodnicze, ale też dostępność sklepów, kawiarni czy różnego typu usług w takiej odległości, by mieszkańcy chcieli przemieszczać się na własnych nogach. Okazało się, że tam, gdzie sąsiedztwo bardziej sprzyjało spacerom, panie rzadziej zapadały na nowotwory. Do końca roku 2016 na nowotwór powiązany z otyłością zapadło 18% badanych pań. Z tego 53% zachorowało na postmenopauzalny nowotwór piersi, 14% na raka jelita grubego, a 12% na nowotwór endometrium. To unikatowe długoterminowe badania, które pozwoliły nam określić związek pomiędzy otoczeniem sprzyjającym spacerom, a nowotworami, mówi doktor Yu Chen z NYU Grossman School of Medicine. Naukowcy zauważyli, że kobiety mieszkające w otoczeniu, które sprzyja spacerom, były narażone na o 26% mniejsze ryzyko rozwoju nowotworu powiązanego z otyłością. To kolejny dowód na to, jak architektura miejska wpływa na zdrowie coraz bardziej starzejących się społeczeństw, stwierdza profesor epidemiologii Andrew Rundle z Columbia Mailman School. Naukowcy zauważają, że zachęcanie ludzi do większej aktywności fizycznej jest często mało skuteczne. Wiele osób postanawia więcej się ruszać, jednak ich zapał trwa bardzo krótko i szybko wracają do starych zwyczajów. Zupełnie inaczej jest w sytuacji, gdy otoczenie sprzyja ruchowi. Wówczas bez zachęt, w sposób naturalny, wolą się przejść do sklepu, fryzjera czy kina, niż jechać samochodem, stać w korkach oraz szukać miejsca do zaparkowania. « powrót do artykułu
  18. Paliwa, których używamy, nie są zbyt bezpieczne. Parują i mogą się zapalić, a taki pożar trudno jest ugasić, mówi Yujie Wang, doktorant chemii na Uniwersytecie Kalifornijskim w Riverside. Wang i jego koledzy opracowali paliwo, które nie reaguje na płomień i nie może przypadkowo się zapalić. Pali się jedynie wtedy, gdy przepływa przez nie prąd elektryczny. Palność naszego paliwa jest znacznie łatwiej kontrolować, a pożar można ugasić odcinając zasilanie, dodaje Wang. Gdy obserwujemy pożar współcześnie używanych paliw płynnych, to w rzeczywistości widzimy nie palący się płyn, a jego opary. To molekuły paliwa w stanie gazowym zapalają się pod wpływem kontaktu z ogniem i przy dostępie tlenu. Gdy wrzucisz zapałkę do pojemnika z benzyną, to zapalą się jej opary. Jeśli możesz kontrolować opary, możesz kontrolować pożar, wyjaśnia doktorant inżynierii chemicznej Prithwish Biswas, główny autor artykułu opisującego wynalazek. Podstawę nowego paliwa stanowi ciesz jonowa w formie upłynnionej soli. Jest podobna do soli stołowej, chlorku sodu. Nasza sól ma jednak niższą temperaturę topnienia, niższe ciśnienie oparów oraz jest organiczna, wyjaśnia Wang. Naukowcy zmodyfikowali swoją ciecz jonową zastępując chlor nadchloranem. Następnie za pomocą zapalniczki spróbowali podpalić swoje paliwo. Temperatura płomienia zapalniczki jest wystarczająco wysoka. Jeśli więc paliwo miałoby płonąć, to by się zapaliło, stwierdzają wynalazcy. Gdy ich paliwo nie zapłonęło od ognia, naukowcy przyłożyli doń napięcie elektryczne. Wtedy doszło do zapłonu paliwa. Gdy odłączyliśmy napięcie, ogień gasł. Wielokrotnie powtarzaliśmy ten proces: przykładaliśmy napięcie, pojawiał się dym, podpalaliśmy dym, odłączaliśmy napięcie, ogień znikał. Jesteśmy niezwykle podekscytowani opracowaniem paliwa, które możemy podpalać i gasić bardzo szybko, mówi Wang. Co więcej, im większe napięcie, tym większy pożar, co wiąże się z większym dostarczaniem energii z paliwa. Zjawisko to można więc wykorzystać do regulowania pracy silnika spalinowego. W ten sposób można kontrolować spalanie. Gdy coś pójdzie nie tak, wystarczy odciąć zasilanie, mówi profesor Michael Zachariah. Teoretycznie ciecz jonowa nadaje się do każdego rodzaju pojazdu. Jednak zanim nowe paliwo zostanie skomercjalizowane, konieczne będzie przeprowadzenie jego testów w różnych rodzajach silników. Potrzebna jest też ocena jego wydajności. Bardzo interesującą cechą nowej cieczy jonowej jest fakt, że można ją wymieszać z już istniejącymi paliwami, dzięki czemu byłyby one niepalne. Tutaj jednak również trzeba przeprowadzić badania, które wykażą, jaki powinien być stosunek cieczy jonowej do tradycyjnego paliwa, by całość była niepalna. Twórcy nowego paliwa mówią, że z pewnością, przynajmniej na początku, będzie ono droższe niż obecnie stosowane paliwa. Cieczy jonowych nie produkuje się bowiem w masowych ilościach. Można się jednak spodziewać, że masowa produkcja obniżyłaby koszty produkcji. Główną zaletą ich paliwa jest zatem znacznie zwiększone bezpieczeństwo. Warto bowiem mieć na uwadze, że w ubiegłym roku w Polsce straż pożarna odnotowała 8333 pożary samochodów spalinowych. « powrót do artykułu
  19. „Ołtarz” Stonehenge nie pochodzi z tego samego źródła, co inne kamienie, uważają naukowcy z Aberystwyth University, wywracając tym samym do góry nogami teorię dotyczącą obszaru, z którego pochodzi materiał na słynny zabytek. „Czas poszerzyć nasze horyzonty geograficzne i stratygraficzne?”, pytają w artykule opublikowanym na łamach Journal of Archaeological Science. Głaz 80, zwany „Ołtarzem” to największy ze znajdujących się w Stonehenge tzw. błękitnych kamieni. Na ich istnienie zwrócili uwagę już pierwsi archeolodzy pracujący przy Stonehenge. Kamienie te, tworzące wewnętrzny krąg, to skały magmowe. Są one mniejsze niż głazy tworzące krąg zewnętrzny, a ich potoczna nazwa związana jest z faktem, że gdy są mokre, mają niebieskawy kolor. Głazy tworzące krąg zewnętrzny Stonehenge to piaskowiec, sarsen, pochodzący z lokalnego źródła oddalonego od budowli o ponad 20 kilometrów. Natomiast błękitne kamienie przywieziono z zachodniej Walii, z miejsca oddalonego o 225 kilometrów od Stonehenge. Większość z nich pochodzi z okolic Mynydd Preseli. Obecnie uważa się, że „Ołtarz” to głaz z pobliskiej formacji Old Red Sandstone (ORS). Jednak autorzy najnowszych badań twierdzą, że to nieprawda. Jedną z najważniejszych cech Ołtarza jest niezwykle wysoka zawartość baru (wszystkie, z wyjątkiem jednaj, ze 106 pobranych próbek wskazują na zawartość baru powyżej 1025 części na milion). Tymczasem spośród 58 próbek ORS tylko 4 wykazują zawartość baru powyżej 1000 części na milion, co przypomina dolną granicę z Ołtarza. Jednak, biorąc pod uwagę odmienność mineralogiczną oraz dane pochodzące z naszych badań przeprowadzonych za pomocą spektroskopii ramanowskiej i SEM-EDS (skaningowy mikroskop elektronowy ze spektroskopią dyspersji promieniowania rentgenowskiego), należy wykluczyć, by te próbki były źródłem Ołtarza. Wydaje się bardzo prawdopodobne, że Ołtarz nie pochodzi z ORS. Czas poszerzyć nasze horyzonty, zarówno pod kątem geograficznym jak i stratygraficznym oraz wziąć pod uwagę młodsze konsynentalne piaskowce, czytamy w artykule. Naukowcy zwracają uwagę, że wczesne uznanie Ołtarza za błękitny kamień wpłynęło na myślenie o nim i poszukiwanie jego źródła. Proponują, by przestać klasyfikować Ołtarz w ten sposób, uznać, że nie pochodzi on z okolic Mynydd Preseli i gdzie indziej szukać jego źródła. « powrót do artykułu
  20. Za nieco ponad tydzień wystartuje misja Psyche, która ma za zadanie zbadanie pochodzenia jąder planetarnych. Celem misji jest asteroida 16 Psyche, najbardziej masywna asteroida typu M, która w przeszłości – jak sądzą naukowcy – była jądrem protoplanety. Jej badanie to główny cel misji, jednak przy okazji NASA chce przetestować technologię, z którą eksperci nie potrafią poradzić sobie od dziesięcioleci – przesyłanie w przestrzeni kosmicznej danych za pomocą lasera. Ludzkość planuje wysłanie w dalsze części przestrzeni kosmicznej więcej misji niż kiedykolwiek. Misje te powinny zebrać olbrzymią ilość danych, w tym obrazy i materiały wideo o wysokiej rozdzielczości. Jak jednak przesłać te dane na Ziemię? Obecnie wykorzystuje się transmisję radiową. Fale radiowe mają częstotliwość od 3 Hz do 3 THz. Tymczasem częstotliwość lasera podczerwonego sięga 300 THz, zatem transmisja z jego użyciem byłaby nawet 100-krotnie szybsza. Dlatego też naukowcy od dawna próbują wykorzystać lasery do łączności z pojazdami znajdującymi się poza Ziemią. Olbrzymią zaletą komunikacji laserowej, obok olbrzymiej pojemności, jest fakt, że wszystkie potrzebne elementy są niewielkie i ulegają ciągłej miniaturyzacji. A ma to olbrzymie znaczenie zarówno przy projektowaniu pojazdów wysyłanych w przestrzeń kosmiczną, jak i stacji nadawczo-odbiorczych na Ziemi. Znacznie łatwiej jest umieścić w pojeździe kosmicznym niewielkie elementy do komunikacji laserowej, niż podzespoły do komunikacji radiowej, w tym olbrzymie anteny. Gdyby jednak było to tak proste, to od dawna posługiwalibyśmy się laserami odbierając i wysyłając dane do pojazdów poza Ziemią. Tymczasem inżynierowie od dziesięcioleci próbują stworzyć system skutecznej komunikacji laserowej i wciąż im się to nie udało. Już w 1965 roku astronauci z misji Gemini VII próbowali wysłać z orbity sygnał za pomocą ręcznego 3-kilogramowego lasera. Próbę podjęto na długo zanim w ogóle istniały skuteczne systemy komunikacji laserowej. Późniejsze próby były bardziej udane. W 2013 roku przesłano dane pomiędzy satelitą LADEE, znajdującym się na orbicie Księżyca, a Ziemią. Przeprowadzono udane próby pomiędzy Ziemią a pojazdami na orbicie geosynchronicznej, a w bieżącym roku planowany jest test z wykorzystanim Międzynarodowej Stacji Kosmicznej. Psyche będzie pierwszą misją, w przypadku której komunikacja laserowa będzie testowana za pomocą pojazdu znajdującego się w dalszych partiach przestrzeni kosmicznej. Psyche będzie korzystała ze standardowego systemu komunikacji radiowej. Na pokładzie ma cztery anteny, w tym 2-metrową antenę kierunkową. Na potrzeby eksperymentu pojazd wyposażono w zestaw DSOC (Deep Space Optical Communications). W jego skład wchodzi laser podczerwony, spełniający rolę nadajnika, oraz zliczająca fotony kamera podłączona do 22-centymetrowego teleskopu optycznego, działająca jak odbiornik. Całość zawiera matrycę detektora składającą się z nadprzewodzących kabli działających w temperaturach kriogenicznych. Dzięki nim możliwe jest niezwykle precyzyjne zliczanie fotonów i określanie czasu ich odbioru z dokładnością większa niż nanosekunda. To właśnie w fotonach, a konkretnie w czasie ich przybycia do odbiornika, zakodowana będzie informacja. Taki system, mimo iż skomplikowany, jest mniejszy i lżejszy niż odbiornik radiowy. A to oznacza chociażby mniejsze koszty wystrzelenia pojazdu. Również mniejsze może być instalacja naziemna. Obecnie do komunikacji z misjami kosmicznymi NASA korzysta z Deep Space Network, zestawu 70-metrowych anten, które są drogie w budowie i utrzymaniu. Komunikacja laserowa ma wiele zalet, ale nie jest pozbawiona wad. Promieniowanie podczerwone jest łatwo blokowane przez chmury i czy dym. Mimo tych trudności, NASA nie rezygnuje z prób. System do nadawania i odbierania laserowych sygnałów ma znaleźć się na pokładzie misji Artemis II, która zabierze ludzi poza orbitę Księżyca. Jeśli się sprawdzi, będziemy mogli na żywo obserwować to wydarzenie w kolorze i rozdzielczości 4K. « powrót do artykułu
  21. Miłka (Bogumiła) Raulin najpierw zdobyła Koronę Ziemi, a później wybrała się na Grenlandię, by przejść cały kontynent w poprzek. Szła przez 26 dni, pokonując w tym czasie 600 kilometrów. Zmagała się z temperaturami sięgającymi -39 stopni Celsjusza, wiatrem wiejącym z prędkością 86 km/h i z saniami, które ważyły 94 kilogramy. Jest 3. i najmłodszą Polką, która ma na swoim koncie trawers Grenlandii. A przed nią wyczynu tego dokonało zaledwie 10 Polaków. Pokonałam blisko sześćset kilometrów grenlandzkiego lądolodu, poruszając się wyłącznie na nartach. Przetrwałam ekstremalne zimno, burze śnieżne, szalejące wiatry, metrowe opady śniegu, wilgoć, ból, tęsknotę, niewygody i powtarzalne, niesmaczne z czasem jedzenie. Niejednokrotnie walcząc z zamiecią i silnym wiatrem, pokonywałam dziennie od dwudziestu do niemal czterdziestu kilometrów. Teraz, po ostatnich dwudziestu wycieńczających godzinach i przebyciu dokładnie czterdziestu siedmiu kilometrów, mogłam ściągnąć narty z nóg. Pierwszy zwyczajny krok był niesamowity. Zupełnie jakbym stąpała po Księżycu. Zresztą tak tu właśnie było, iście księżycowo i niebywale pięknie. Chłopaki pognali do chaty. Ja szłam powoli, ostrożnie, zupełnie jakbym zapomniała, jak to się robi. Premiera książki Miłki Raulin „600 kilometrów lodową pustynią” już 11 października.
  22. Tegoroczną Nagrodę Nobla w dziedzinie fizjologii lub medycyny otrzymali Katalin Karikó i Drew Weissmann za odkrycia, które umożliwiły opracowanie efektywnych szczepionek mRNA przeciwko COVID-19. W uzasadnieniu przyznania nagrody czytamy, że prace Karikó i Wiessmanna w olbrzymim stopniu zmieniły rozumienie, w jaki sposób mRNA wchodzi w interakcje na naszym układem odpornościowym". Tym samym laureaci przyczynili się do bezprecedensowo szybkiego tempa rozwoju szczepionek, w czasie trwania jednego z największych zagrożeń dla ludzkiego życia w czasach współczesnych. Już w latach 80. opracowano metodę wytwarzania mRNA w kulturach komórkowych. Jednak nie potrafiono wykorzystać takiego mRNA w celach terapeutycznych. Było ono nie tylko niestabilne i nie wiedziano, w jaki sposób dostarczyć je do organizmu biorcy, ale również zwiększało ono stan zapalny. Węgierska biochemik, Katalin Karikó, pracowała nad użyciem mRNA w celach terapeutycznych już od początku lat 90, gdy była profesorem na University of Pennsylvania. Tam poznała immunologa Drew Weissmana, którego interesowały komórki dendrytyczne i ich rola w układzie odpornościowym. Efektem współpracy obojga naukowców było spostrzeżenie, że komórki dendrytyczne rozpoznają uzyskane in vitro mRNA jako obcą substancję, co prowadzi co ich aktywowania i unicestwienia mRNA. Uczeni zaczęli zastanawiać się, dlaczego do takie aktywacji prowadzi mRNA transkrybowane in vitro, ale już nie mRNA z komórek ssaków. Uznali, że pomiędzy oboma typami mRNA muszą istnieć jakieś ważne różnice, na które reagują komórki dendrytyczne. Naukowcy wiedzieli, że RNA w komórkach ssaków jest często zmieniane chemicznie, podczas gdy proces taki nie zachodzi podczas transkrypcji in vitro. Zaczęli więc tworzyć różne odmiany mRNA i sprawdzali, jak reagują nań komórki dendrytyczne. W końcu udało się stworzyć takie cząsteczki mRNA, które były stabilne, a po wprowadzeniu do organizmu nie wywoływały reakcji zapalnej. Przełomowa praca na ten temat ukazała się w 2005 roku. Później Karikó i Weissmann opublikowali w 2008 i 2010 roku wyniki swoich kolejnych badań, w których wykazali, że odpowiednio zmodyfikowane mRNA znacząco zwiększa produkcję protein. W ten sposób wyeliminowali główne przeszkody, które uniemożliwiały wykorzystanie mRNA w praktyce klinicznej. Dzięki temu mRNA zainteresowały się firmy farmaceutyczne, które zaczęły pracować nad użyciem mRNA w szczepionkach przeciwko wirusom Zika i MERS-CoV. Gdy więc wybuchła pandemia COVID-19 możliwe stało się, dzięki odkryciom Karikó i Weissmanna, oraz trwającym od lat pracom, rekordowo szybkie stworzenie szczepionek. Dzięki temu odkryciu udało się skrócić proces, dzięki czemu szczepionkę podajemy tylko jako stosunkowo krótką cząsteczkę mRNA i cały trik polegał na tym, aby ta cząsteczka była cząsteczką stabilną. Normalnie mRNA jest cząsteczką dość niestabilną i trudno byłoby wyprodukować na ich podstawie taką ilość białka, która zdążyłaby wywołać reakcję immunologiczną w organizmie. Ta Nagroda Nobla jest m.in. za to, że udało się te cząsteczki mRNA ustabilizować, podać do organizmu i wywołują one odpowiedź immunologiczną, uodparniają nas na na wirusa, być może w przyszłości bakterie, mogą mieć zastosowanie w leczeniu nowotworów, powiedziała Rzeczpospolitej profesor Katarzyna Tońska z Uniwersytetu Warszawskiego. Myślę, że przed nami jest drukowanie szczepionek, czyli dosłownie przesyłanie sekwencji z jakiegoś ośrodka, który na bieżąco śledzi zagrożenia i na całym świecie produkcja już tego samego dnia i w ciągu kilku dni czy tygodni gotowe preparaty dla wszystkich. To jest przełom. Chcę podkreślić, że odkrycie noblistów zeszło się z możliwości technologicznymi pozwalającymi mRNA sekwencjonować szybko, tanio i dobrze. Bez tego odkrycie byłoby zawieszone w próżni, dodał profesor Rafał Płoski z Warszawskiego Uniwersytetu Medycznego. « powrót do artykułu
  23. Odpowiednio dobrane aminokwasy mogą zwiększyć skuteczność radioterapii niedrobnokomórkowego raka płuc, czytamy na łamach Molecules. Autorkami badań są uczone z Narodowego Centrum Badań Jądrowych, Uniwersytetu Warszawskiego, Warszawskiego Uniwersytetu Medycznego oraz firmy Pro-Environment Polska. Pracowały one nad zwiększeniem skuteczności terapii borowo-neutronowej (BNCT). Terapia ta używana jest w leczeniu nowotworów szczególnie wrażliwych narządów, na przykład mózgu, i wykorzystuje cząsteczki zawierające bor do niszczenia komórek nowotworowych. Związki boru mają skłonność do gromadzenia się w komórkach nowotworowych. Gdy izotop boru-10 zostanie wystawiony na działanie neutronów o odpowiednich energiach, najpierw je pochłania, a następnie dochodzi do rozszczepienia jądra izotopu, czemu towarzyszy emisja promieniowania alfa. To promieniowanie krótkozasięgowe, które uszkadza DNA komórki, powodując jej śmierć. BNTC znajduje się nadal w fazie badań klinicznych, ale już wykazały one, że ta metoda leczenia będzie przydatna m.in. w walce z nowotworami skóry, tarczycy czy mózgu. Polskie uczone chciały zwiększyć skuteczność tej obiecującej metody leczenia. Chciały sprawdzić, czy wcześniejsze podanie odpowiednich aminokwasów może zwiększyć wchłanianie aminokwasowego związku boru przez komórki nowotworowe, nie zmieniając ich przyswajalności przez komórki zdrowe. Im bowiem więcej boru wchłoną komórki chore, tym większe promieniowanie alfa w komórkach nowotworowych w stosunku do komórek zdrowych, a zatem tym bezpieczniejsza terapia BNCT. W badaniu in vitro wykorzystaliśmy dwa rodzaje komórek: ludzkie komórki niedrobnokomórkowego raka płuc, A549, oraz prawidłowe fibroblasty płuc pochodzące od chomika chińskiego, V79–4. Komórki najpierw były narażane na L-fenyloalaninę lub L-tyrozynę. Po godzinie były eksponowane na 4-borono-L-fenyloalaninę (BPA), która jest związkiem zawierającym bor stosowanym w badaniach klinicznych nad BNCT. Badanie zawartości boru w komórkach poddanych działaniu aminokwasów i w komórkach referencyjnych przeprowadziłyśmy metodą analityczną wykorzystującą spektrometrię mas sprzężoną z plazmą wzbudzaną indukcyjnie, mówi główna autorka artykułu, doktorantka Emilia Balcer. Nasze wyniki są sygnałem, że istnieje wpływ L-aminokwasów na pobieranie BPA w komórkach zarówno nowotworowych, jak i prawidłowych. Opracowana przez nas metoda analityczna może pomóc w lepszym zrozumieniu mechanizmów działania związków boru oraz w stworzeniu bardziej skutecznych strategii terapeutycznych, jednak konieczne są dalsze badania w celu potwierdzenia tych wyników i bardziej szczegółowej charakteryzacji działających tu mechanizmów, dodaje uczona. « powrót do artykułu
  24. Akumulatory wysyłane w przestrzeń kosmiczną muszą być bezpieczne, stabilne, wytrzymałe i nie mogą wymagać specjalnych zabiegów. Już wkrótce niklowo-wodorowe urządzenia, które pracują m.in. na Międzynarodowej Stacji Kosmicznej, mogą trafić do klientów na Ziemi. To najbardziej wytrzymałe akumulatory, jakie kiedykolwiek wynaleziono, zapewnia Jorg Heinemann, dyrektor produkującej je firmy EnerVenue. Akumulatory niklowo-wodorowe wytrzymują 30 000 cykli ładowania-rozładowywania, są odporne na samozapłon, ich wydajność energetyczna wynosi 90% i w porównaniu akumulatorami litowo-jonowymi mają wiele zalet w zastosowaniach wielkoskalowych systemów przechowywania energii. Chociażby taką, że o akumulatory niklowo-wodorowe nie trzeba się szczególnie troszczyć. Postały one bowiem z myślą o wieloletniej pracy w przestrzeni kosmicznej, gdzie nie ma możliwości ich wymiany czy przeglądów technicznych. Jeszcze niedawno w tego typu akumulatorach wykorzystywano platynowy katalizator, co skutecznie uniemożliwiało zaoferowanie ich szerszemu gronu odbiorców. Jednak pięć lat temu zespół profesora Yi Cui z Uniwersytetu Stanforda wykazał, że można w nich zastosować katalizator z niklu, molibdenu i kobaltu, który kosztuje 20 USD za kilogram. Cui stał się współzałożycielem firmy EnerVenue, która rozpoczęła prace nad komercjalizacją kosmicznych akumulatorów. Można było bowiem zrezygnować z platyny, a najdroższym materiałem, jaki jest używany w akumulatorach stał się nikiel. Koszty produkcji akumulatorów niklowo-wodorowych stały się więc porównywalne z kosztami akumulatorów litowo-jonowych. Na początku września EnerVue zaprezentowała swój najnowszy akumulator. To butla długości 1,8 metra i średnicy 15 centymetrów, w którym można przechowywać 3 kWh energii. Zachodzące w pojemniku reakcje są bardzo stabilne. Wodór powstaje podczas reakcji w butli, a maksymalne ciśnienie wewnątrz sięga zaledwie 5% ciśnienia, jakie powstaje w typowym ogniwie paliwowym. Reakcje zachodzące wewnątrz pojemnika mają taką naturę, że gdy ciśnienie rośnie poza maksimum, dochodzi do zamiany wodoru w wodę. Nie istnieje więc mechanizm, który – jak ma to miejsce w akumulatorach litowo-jonowych – mógłby doprowadzić do przegrzania i pożaru. Producent akumulatorów udowodnił to chociażby podczas tzw. testu barbecue. Polega on na umieszczeniu akumulatora w otwartym ogniu. Nie dochodzi wówczas do żadnej awarii. Ponadto akumulatory wyposażono w zawory, więc po przekroczeniu określonej temperatury i ciśnienia, uchodzi z nich para wodna. Dodatkową ich zaletą jest fakt, że mogą pracować w temperaturach od -40 do 60 stopni Celsjusza. To oznacza, że nie potrzebują systemów chłodzenia, ogrzewania czy wentylacji. Na razie akumulatory niklowo-wodorowe wciąż są nieco droższe od akumulatorów litowo-jonowych i charakteryzuje je mniejsza gęstość energetyczna. Jednak mniej skomplikowany proces produkcyjny może zachęcić potencjalnych producentów do spróbowania swoich sił na tym rynku. W tej chwili EnerVenue buduje fabrykę, która początkowo będzie produkowała w ciągu roku akumulatory zdolne do przechowania łącznie 5 GWh. Produkcja docelowa to 20 GWh. Akumulatory niklowo-wodorowe powstały w latach 70. i zastosowano je w przemyśle kosmicznym, gdyż nie było dla nich realnej alternatywy. Akumulatory takie składają się z serii elektrod zamkniętych w pojemniku ciśnieniowym. Katoda zbudowana jest z wodorotlenku niklu, a anodą jest wodór. Podczas ładowania dochodzi do reakcji, w wyniku której powstaje wodór. Podczas rozładowywania, wodór utlenia się i powstaje woda. « powrót do artykułu
  25. MURATOR to marka obecna na rynku już od 40 lat. Przez cztery ostatnie dekady nieustannie umacniała pozycję fachowego i poradnikowego medium o budowie i remontach domów, poszerzała ona swoją ofertę – zaczynając od czasopisma, a następnie opracowując katalogi z projektami domów i tworząc jeden z najpopularniejszych serwisów internetowych o tematyce budowlano-wnętrzarskiej. Wszystko to stanowiło i nadal stanowi cenne wsparcie dla osób planujących budowę lub remont domu. Czym dokładnie zajmował się MURATOR na przestrzeni lat? Początki MURATORA Pierwsze wydanie czasopisma Murator ukazało się w styczniu 1983 roku i zawierało 64 strony. Zawierało wiele fachowych porad w czterech obszarach tematycznych: Budownictwo, Instalacje, Prawo i kredyty oraz Ogród. W tych trudnych czasach specjaliści na łamach miesięcznika przystępnym językiem tłumaczyli jak prowadzić budowę domu, opisywali innowacyjne materiały czy przestrzegali przed popełnianiem typowych błędów. Poszerzenie oferty MURATORA 1998 rok to przełomowy okres w historii MURATORA. Powstała wtedy spółka W.M. MURATOR PROJEKT, która już rok później wydała pierwszy katalog z gotowymi projektami domów jednorodzinnych. Przez 25 lat tworzyła kolekcje projektów domów, nawiązała też współpracę z wieloma innymi pracowniami, co zaowocowało wydaniem licznych katalogów z gotowymi projektami domów oraz obiektów usługowych i gospodarczych. Aktualnie oferta Murator PROJEKTY liczy sobie ponad sześć tysięcy nowoczesnych rozwiązań, które umożliwiają realizację planów i marzeń o własnym domu zarówno oszczędnym singlom, rodzinom z dziećmi, jak i najbardziej wymagającym inwestorom. Znajdziesz w niej projekt domu małego i taniego w eksploatacji, pasywnego, bliźniaka, szeregowca czy ekskluzywnej willi, która zaspokoi potrzeby domowników oraz zapewni maksymalny komfort późniejszej eksploatacji. Współczesny MURATOR Mimo wielu sukcesów w dwóch pierwszych dekadach istnienia, MURATOR nie osiadł na laurach. Także i współcześnie nieustannie rozwija on swoją ofertę, docierając do coraz szerszego grona czytelników i użytkowników internetu. Od 2000 roku w sieci dostępny jest serwis muratorplus.pl, dedykowany dla profesjonalistów z branży budowlanej. Istniejący od ponad 20-tu lat serwis dla indywidualnych odbiorców murator.pl – to jeden z największych i najbardziej popularnych serwisów o tematyce budowlano-wnętrzarskiej. Czekają tu na Ciebie tysiące artykułów omawiających technologie, materiały i trendy oraz stanowiące inspirację dla osób budujących i urządzających swoje domy. Wolisz czerpać wiedzę z nagrań? Zajrzyj na kanał Murator TV na YouTube, zawierający kilkaset filmów poradnikowych bądź skorzystaj z webinarów prowadzonych przez ekspertów Muratora. MURATOR to polska marka mediowa, która od 40 lat towarzyszy inwestorom w budowie i remontach domów wspierając fachowymi poradami i eksperckimi treściami. Cieszy się dużym zaufaniem odbiorców. W 2023 roku została nagrodzona nagrodą: Złota budowlana Marka Roku w kategorii Media Przyjazne Fachowcom. Jeżeli więc chcesz poszerzyć swoją wiedzę i szukasz rzetelnego źródła – skorzystaj z materiałów MURATORA. Wiele ciekawych porad budowlanych można znaleźć także w poradniku budowlanym MURATORA, którego specjalistyczne artykuły zlokalizowane są pod adresem https://projekty.muratordom.pl/poradnik-dla-budujacych/ Zapraszamy do budowania z MURATOREM. « powrót do artykułu
×
×
  • Dodaj nową pozycję...