Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37640
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Pandemia COVID-19 jest zwykle rozpatrywana z punktu widzenia zdrowotnego i gospodarczego. Okazuje się jednak, że uciążliwości z nią związane wpłynęły też negatywnie na stosunki między obywatelami a państwami. Nasze badania pokazały, że koszty psychologiczne życia w czasie pandemii stały się kołem napędowym dla postaw antyrządowych i antysystemowych, które objawiają się antyrządowymi wystąpieniami i motywują do przemocy politycznej, mówi Henrikas Bartusevičius z Instytutu Badań nad Pokojem w Oslo. Bartusevičius i jego zespół przeprowadzili ankiety wśród 6000 dorosłych z USA, Danii, Włoch i Węgier. Chcieli sprawdzić, czy i w jaki sposób pandemia wpłynęła negatywnie na ich zdrowie, finanse, związki i prawa. Badanych pytano też m.in. o uczucia względem społeczeństw, rządów, o to czy są skłonni angażować się lub czy się angażowali w protesty i polityczną przemoc. Badania wykazały, że istnieje bardzo duży związek pomiędzy psychologicznymi obciążeniami odczuwanymi w związku z COVID-19 a wysoce destrukcyjnymi uczuciami i zachowaniami, w tym używaniem przemocy z przyczyn politycznych. Nie zauważono natomiast tak wyraźnej korelacji pomiędzy obciążeniami związanymi z pandemią, a motywacją do pokojowych form aktywności społecznej i politycznej. Zaskoczyło nas też odkrycie, że obciążenia wywołane przez COVID-19 nie wymagały dodatkowego wyzwalacza, by umotywować przemoc z przyczyn politycznych. Wydaje się, że same w sobie są wystarczającym powodem, mówi Bartusevičius. Naukowcy zauważyli, że szczególnie w USA ci, którzy mocnej doświadczyli negatywnych skutków pandemii, z większym prawdopodobieństwem angażowali się w przemoc podczas protestów i kontrprotestów ruchu Black Lives Matter. Badacze uważają, że pandemia i lockdown mogły prowadzić do frustracji, która zrodziła protesty BLM. Po raz pierwszy od II wojny światowej wysoce uprzemysłowione państwa Zachodu stanęły w obliczu dużej pandemii. Nasze badania to jedne z pierwszych dowodów na niszczycielski potencjał pandemii i lockdownów, dodaje współautor badań Michael Bang Peterson z Uniwersytetu w Aarhus w Danii. Wcześniej niewiele wiedzieliśmy o tym, jak społeczeństwa Zachodu reagują na tego typu wydarzenia. Zauważono też różnice między krajami. Respondenci z Danii byli tymi, którzy w najmniejszym stopniu odczuli negatywny wpływ pandemii. Najciężej zaś pandemię i ograniczenia znieśli Węgrzy. Co jednak interesujące, nie zauważono różnic pomiędzy krajami jeśli chodzi o zachowania antysystemowe i motywację do angażowania się w polityczną przemoc. Na przykład, mimo że Duńczycy najmniej odczuli negatywne konsekwencje, to ci którzy odczuwali je bardziej, byli równie skłonni do postaw antysystemowych i przemocy, co obywatele innych badanych krajów. Naukowcy proponują kilka możliwych interpretacji zaobserwowanych zjawisk. Pandemia i lockdown w różnym stopniu dotknęły różne grupy ludzi, prowadząc do poczucia niesprawiedliwości, co mogło przełożyć się na postawy antyrządowe. Ponadto zaniknięcie normalnego życia społecznego doprowadziło do wykluczenia społecznego i marginalizacji, co mogło napędzać antyrządowe postawy i skłonność do politycznej przemocy. « powrót do artykułu
  2. Nowy raport IPCC to „czerwony alarm dla ludzkości", stwierdził Sekretarz Generalny ONZ Antonio Guterres. Opublikowana właśnie część raportu to pierwsze od 2013 roku duże opracowanie podsumowujące stan wiedzy na temat zmian klimatycznych. Jeśli połączymy siły, możemy jeszcze uniknąć katastrofy. Ale, jak pokazuje raport, nie ma już czasu na zwłokę, nie ma też wymówek. Raport opublikowano na trzy miesiące przed szczytem klimatycznym w Glasgow. Autorzy raportu mówią, że od roku 1970 temperatury na powierzchni Ziemi rosną szybciej niż w jakimkolwiek 50-letnim okresie w ciągu ostatnich 2000 lat. Używając terminologii sportowej, atmosfera jest na dopingu, co oznacza, że coraz częściej obserwujemy ekstremalne zjawiska, mówi Peteri Taalas, sekretarz generalny Światowej Organizacji Meteorologicznej. Główne wnioski z raportu to: – w dekadzie 2011–2020 średnia globalna temperatura była o 1,09 stopnia Celsjusza wyższa niż w latach 1850–1900, a ostatnich pięć lat było najgorętszych od roku 1850; – tempo wzrostu poziomu oceanów jest obecnie niemal trzykrotnie szybsze niż w latach 1901–1971; – z 90-procentową pewnością można stwierdzić, że wpływ człowieka jest głównym powodem wycofywania się lodowców i spadku pokrywy lodu morskiego w Arktyce obserwowanych od lat 90. XX w. – jest pewne, że gorące ekstrema, w tym fale upałów, stają się od lat 50. XX w. częstsze i bardziej intensywne, a fale mrozów rzadsze i mniej poważne. W raporcie czytamy również, że już teraz globalne ocieplenie spowodowało zmiany w wielu systemach podtrzymywania życia na planecie. Systemy te mogą powrócić do stanu sprzed zmian dopiero w perspektywie setek bądź tysięcy lat. Oceany będą się ocieplały i zwiększały kwasowość, a lodowce będą wycofywały się jeszcze przed dekady lub wieki. Autorzy ostrzegają, że każdy dodatkowy ułamek stopnia, o który ogrzejemy planetę, będzie tylko pogarszał sytuację. W chwili obecnej nie można też wykluczyć – choć jest to mało prawdopodobne – wzrostu poziomu oceanów o 2 metry do roku 2100 i o 5 metrów do roku 2150. To zaś oznacza, że w najbliższych dekadach miliony osób mieszkających na wybrzeżach będą musiały uciekać przed powodziami i podtopieniami. W Porozumieniu Paryskim z 2015 roku założono, że wzrost średnich temperatur na Ziemi zostanie powstrzymany poniżej 2 stopni Celsjusza w porównaniu z epoką przedprzemysłową, a celem jest utrzymanie go na poziomie poniżej 1,5 stopnia. Z najnowszego raportu wynika, że obecnie jedynym sposobem, by dotrzymać tych ustaleń jest szybkie i bardzo poważne zmniejszenie emisji węgla do atmosfery. Wszelkie inne scenariusze rozważane w raporcie nie dają szansy na utrzymanie temperatur w zaplanowanych widełkach. To zaś oznacza, że w krótkim czasie średnie temperatury na powierzchni Ziemi mogą wzrosnąć do takich, jakich planeta nie doświadczyła od setek tysięcy lub nawet milionów lat. To temperatury, z którymi nigdy się nie zetknęliśmy. Obecnie ludzkość emituje około 40 miliardów ton CO2 rocznie, tymczasem naukowcy ostrzegają, że jeśli wyemitujemy dodatkowo 500 miliardów ton, to szansa, że globalne ocieplenie zatrzyma się przed poziomem 1,5 stopnia Celsjusza wynosi 50:50. W raporcie czytamy, że wzrost temperatur o 1,5 stopnia Celsjusza powyżej epoki przedprzemysłowej nastąpi do roku 2040. Pod warunkiem jednak, że w ciągu najbliższych kilku lat dojdzie do znaczącej redukcji emisji. Jeśli tak się nie stanie, te 1,5 stopnia osiągniemy szybciej. Autorzy raportu przygotowali 5 różnych scenariuszy emisji dwutlenku węgla. Tylko 2 z nich dają szansę, na powstrzymanie globalnego ocieplenia przed poziomem 2 stopni Celsjusza. Najbardziej ambitny, który zakłada, że do połowy wieku emisja spadnie do poziomu 0 netto, pozwala przypuszczać, że globalne ocieplenie uda się zatrzymać nieco powyżej poziomu 1,5 stopnia Celsjusza w porównaniu z epoką przedprzemysłową. W związku z opublikowaniem raportu Antonio Guterres wezwał wszystkie kraje, by zrezygnowały z planów budowy nowych elektrowni węglowych oraz planów rozwoju i eksploracji paliw kopalnych. Raport ten musi być dzwonem pogrzebowym dla węgla i paliw kopalnych, zanim zniszczą one naszą planetę, stwierdził. Dzisiaj zaprezentowano pierwszą część, podsumowanie, raportu. Liczy sobie ono 41 stron. Dostępny jest też cały raport [PDF] o objętości niemal 4000 stron, jednak pozostałe strony oznaczono jako Wersja zaakceptowana. Może zostać poddana ostatecznej edycji. « powrót do artykułu
  3. Astrofizyk Dan Wilkins z Uniwersytetu Stanforda nie był zdziwiony, gdy przyglądając się supermasywnej czarnej dziurze w galaktyce położonej 800 milionów lat świetlnych od Ziemi, zauważył serię jasnych rozbłysków promieniowania rentgenowskiego. Jednak niedługo później czekało go spore zaskoczenie – teleskopy zarejestrowały dodatkowe słabsze rozbłyski o innym „kolorze”. Zgodnie z teorią rozbłyski te pochodzą... spoza czarnej dziury. Światło, które wpada do czarnej dziury już się z niej nie wydostaje. Nie powinniśmy więc być w stanie zobaczyć niczego, co jest za czarną dziurą, mówi Wilkins. Mogliśmy je zaobserwować dlatego, że czarna dziura zagina przestrzeń, światło i pola magnetyczne wokół siebie, dodaje uczony. Wilkins jest pierwszym, który bezpośrednio zaobserwował promieniowanie pochodzące spoza czarnej dziury. Zjawisko takie jest przewidziane przez ogólną teorię względności, jednak dopiero teraz udało się je potwierdzić. Gdy pięćdziesiąt lat temu astrofizycy zaczęli dyskutować o tym, jak może zachowywać się pole magnetyczne w pobliżu czarnej dziury, nie mieli pojęcia,że pewnego dnia można będzie tego użyć do bezpośredniej obserwacji i potwierdzenia teorii Einsteina, mówi profesor Roger Blandford ze SLAC. Dan Wilkins nie szukał potwierdzenia teorii względności. Chciał dowiedzieć się więcej o koronie czarnej dziury. To obszar, w którym materiał opadający do czarnej dziury zaczyna świecić i tworzy wokół niej koronę. Korony takie to jedne z najjaśniejszych źródeł stałego światła we wszechświecie. Świecą one w zakresie promieniowania rentgenowskiego, a analiza ich światła pozwala na badanie samej czarnej dziury. Wiodące teorie na temat korony mówią, że powstaje ona z gazu wpadającego do czarnej dziury. Gaz rozgrzewa się do milionów stopni, elektrony oddzielają się od atomów i powstaje namagnetyzowana wirująca plazma. W niej zaś powstają rozbłyski promieniowania rentgenowskiego, które badał Wilkins. Gdy chciał poznać ich źródło i przyjrzał im się bliżej, zauważył serię mniejszych rozbłysków. Naukowcy wykazali, że pochodzą one z oryginalnych dużych rozbłysków, których część odbiła się od tyłu dysku otaczającego czarną dziurę. Są więc pierwszym zarejestrowanym światłem pochodzącym z drugiej – patrząc od Ziemi – strony czarnej dziury. Wilkins szybko rozpoznał, z czym ma do czynienia, gdyż od kilku lat zajmuje się tworzeniem teorii na temat takich odbić. Ich istnienie wykazała teoria, nad którą pracuję, więc jak tylko je zobaczyłem w teleskopie, zdałem sobie sprawę, że to, co widzę, łączy się z teorią. Uczony już cieszy się na przyszłe odkrycia. Pracuje on w laboratorium Steve'a Allena z Uniwersytetu Stanforda, gdzie bierze udział w pracach nad wykrywaczem Wide Field Imager, powstającym na potrzeby przyszłego europejskiego obserwatorium Athena (Advanced Telescope for High-ENergy Astrophysics). Będzie ono miało znacznie większe lustro niż jakiekolwiek obserwatorium promieniowania rentgenowskiego, pozwoli nam więc na uzyskanie lepszej rozdzielczości w krótszym czasie. To, co obecnie zaczynamy obserwować stanie się dla nas jeszcze bardziej wyraźne, mówi uczony. « powrót do artykułu
  4. Z National University Hospital (NUH) w Singapurze wypisano dziewczynkę, której waga urodzeniowa wynosiła zaledwie 212 g. Dziecko przyszło na świat 9 czerwca 2020 r. w wyniku cesarskiego cięcia ze wskazań nagłych. Stało się to w 25. tygodniu ciąży. Po 13 miesiącach z wagą 6,3 kg Kwek Yu Xuan została 9 lipca wypisana ze szpitala. Cesarskie cięcie wykonano, bo u matki dziecka zdiagnozowano stan przedrzucawkowy. Po zestawieniu z obejmującą cały świat bazą danych najmniejszych dzieci z Uniwersytetu Iowy okazuje się, że Kwek Yu Xuan jest najmniejszym dzieckiem, jakie kiedykolwiek opuściło szpital po leczeniu. Wg NUH, szanse [Kwek Yu Xuan] na przeżycie były ograniczone. Gdy została przywieziona na oddział intensywnej opieki neonatologicznej, doświadczona pielęgniarka Zhang Suhe nie mogła uwierzyć własnym oczom. Kwek Yu Xuan cierpi na przewlekłą chorobę płuc, dlatego w domu trzeba będzie u niej stosować odpowiednią terapię. Matka dziewczynki Wong Mei Ling powiedziała lokalnym mediom, że waga urodzeniowa i rozmiary córki były dla niej szokiem, gdyż jej pierwsze dziecko, 4-letni syn, urodziło się w terminie. Rodzice byli w stanie opłacić 13-miesięczne leczenie dzięki kampanii crowdfundingowej - udało im się w ten sposób zebrać 366.884 S$. « powrót do artykułu
  5. Nowatorska superszybka technika obrazowania atomów ujawniła istnienie nieznanego dotychczas stanu, którego wykorzystanie może pomóc z opracowaniu szybszych energooszczędnych komputerów. Technika ta pozwoli też zbadać, gdzie leżą fizyczne granice przełączania pomiędzy różnymi stanami. Naukowcy przyznają, że nie wiedzą zbyt wiele o stanach przejściowych, w jakich znajdują się materiały elektroniczne podczas operacji przełączania. Nasza technika pozwala na wizualizowanie tego procesu i znalezienie odpowiedzi na niezwykle ważne pytanie – jakie są granice przełączania jeśli chodzi o prędkość i zużycie energii, stwierdził główny autor badań, Aditya Sood ze SLAC National Accelerator Laboratory. Wraz z kolegami ze SLAC, Hewlett Packard Labs, Pennsylvania State University oraz Purdue University badał on urządzenia wykonane z ditlenku wanadu (VO2). Wiadomo bowiem, że materiał ten przechodzi pomiędzy stanem izolatora z przewodnika w temperaturze zbliżonej do temperatury pokojowej. VO2 poddawano okresowemu działaniu impulsów elektrycznych, które przełączały go pomiędzy różnymi stanami. Impulsy te zsynchronizowano z wysoko energetycznymi impulsami elektronów generowanymi przez kamerę Ultrafast Electron Diffracion (UED). Za każdym razem, gdy impuls elektryczny wzbudzał naszą próbkę, towarzyszył mu impuls elektronów, którego opóźnienie mogliśmy regulować. Powtarzając ten proces wielokrotnie i zmieniając za każdym razem opóźnienie, uzyskaliśmy poklatkowy obraz atomów poruszających się w reakcji na impuls elektryczny, wyjaśnia Sood. To pierwszy raz, gdy użyto UED, urządzenie wykrywające niewielkie ruchy atomów poprzez rozpraszanie na próbce wysokoenergetycznego strumienia elektronów, do badania pracy urządzenia elektrycznego. Wpadliśmy na ten pomysł już trzy lata temu, jednak zdaliśmy sobie sprawę, że istniejące urządzenia nie pracują wystarczająco szybko. Musieliśmy więc skonstruować własne, dodaje profesor Aaron Lindenberg. Dzięki swojemu urządzeniu badacze odkryli, że pod wpływem szybkich impulsów elektrycznych VO2 wchodzi w stan, który normalnie nie istnieje. Istnieje on zaledwie przez kilka mikrosekund, gdy materiał zmienia się z izolatora w przewodnik. Okazało się, że struktura atomowa tej fazy jest taka sama, jak fazy izolatora, jednak materiał jest już wówczas przewodnikiem. To niezwykle ważne, gdyż normalnie dwa stany – izolatora i przewodnika – różnią się między sobą ułożeniem atomów, a do zmiany tego ułożenia konieczne jest wydatkowanie energii. Gdy jednak zmiana ma miejsce poprzez stan przejściowy, przełączanie w przewodnik nie wymaga zmiany struktury atomowej. Autorzy badań pracują teraz nad wydłużeniem istnienia stanu przejściowego. Nie wykluczają, że możliwe byłoby stworzenie urządzenia, w którym zmiana pomiędzy izolatorem z przewodnikiem będzie się odbywała bez ruchu atomów, dzięki czemu takie urządzenie pracowałoby szybciej i zużywało mniej energii. « powrót do artykułu
  6. Chiński rząd ujawnił plany komercyjnego reaktora jądrowego ze stopionymi solami (MSR), w którym paliwem jest tor. Testy prototypu mają rozpocząć się już we wrześniu, a budowa pierwszego komercyjnego reaktora, który ma stanąć w prowincji Gansu, powinna się zakończyć do roku 2030. Jeśli testy wypadną pomyślnie, Chiny chcą zbudować kilka dużych reaktorów tego typu. Będą one przeznaczone głównie do pracy na północnym-zachodzie kraju, gdzie gęstość zaludnienia jest mniejsza, a klimat bardziej suchy. MSR mogą szczególnie dobrze sprawdzać się właśnie w suchym klimacie, gdyż są chłodzone nie wodą, a solami. Chińczycy nie będą pierwszymi, którzy uruchomią tego typu reaktor. Pionierski reaktor chłodzony stopionymi solami powstał w latach 60. w Oak Ridge National Laboratory (ORNL) w ramach Aircraft Reactor Experiment. Był on zasilany m.in. torem. Z czasem z technologii tej zrezygnowano na rzecz reaktorów na uran. Tor ma jednak tę przewagę nad uranem, że jest bardziej bezpieczny w zastosowaniach cywilnych. Chiński projekt bazuje na podstawach technologicznych opracowanych w ORNL. Chińczycy znają szczegóły amerykańskiej technologii zarówno dlatego, że w przeszłości USA i Chiny prowadziły w ORNL krótkotrwały program wymiany naukowej, jak i dlatego, że w latach 60. i 70. Amerykanie opublikowali tysiące dokumentów dotyczących prac nad reaktorem ze stopionymi solami zasilanym torem. Obecnie budowa MSR jest łatwiejsza niż w przeszłości. Dysponujemy zarówno narzędziami pozwalającymi lepiej przyjrzeć się temu, co dzieje się wewnątrz takiego reaktora, możliwe więc jest badanie jego działania i wprowadzanie poprawek w projekcie. Mamy też do dyspozycji np. specjalistyczne pompy, które są używane w elektrowniach wykorzystujących skoncentrowaną energię słoneczną i przechowującą ją właśnie w stopionych solach. Jeśli więc obecnie potrzebujesz pompy soli do MSR, możesz taką znaleźć u lokalnego dostawcy, który dobierze ją w zależności do składu wykorzystywanej przez Ciebie soli. To kolosalna różnica. Możesz korzystać z 50 lat rozwoju technologii, Charles Forsberg, jeden z głównych naukowców w wydziale Nauk i Inżynierii Jądrowej MIT, który w przeszłości pracował w ORNL. Wydaje się, że największym przełomem, jakiego dokonały Chiny, jest właśnie wykorzystanie toru w MSR. Amerykanie w przeszłości zrezygnowali z tego paliwa, gdyż uran lepiej się sprawdzał. Najwyraźniej Chińczycy na tyle udoskonalili tę technologię, że użycie toru jest zasadne. Państwo Środka jest obecnie tym krajem, który prowadzi najbardziej zaawansowane badania nad reaktorami ze stopionymi solami. Co prawda inne kraje też chcą wykorzystać tor i stopione sole, jednak nikt nie mówi obecnie o ich komercyjnym wykorzystaniu, a najbliższym rywalem Chińczyków jest amerykańska firma Kairos Power, która zapowiada, że do roku 2026 postawi prototypowy reaktor MSR o mocy 50 MW. « powrót do artykułu
  7. Kredyty gotówkowe cieszą się coraz większą popularnością, jednak czasem ciężko jest rozeznać się w szerokiej ofercie banków. Z pomocą przychodzi porównywarka kredytów, która pozwoli nam znaleźć najtańszy kredyt gotówkowy! •    Co oferuje ranking kredytów gotówkowych? •    Wymagania do uzyskania kredytu gotówkowego •    Najtańszy kredyt gotówkowy – w którym banku? •    Jak działa porównywarka kredytowa? Ranking kredytów gotówkowych to przydatne narzędzie dla osób potrzebujących środków finansowych. Co oferuje ranking kredytów gotówkowych? W chwili obecnej banki umożliwiają składanie wniosku w szybki i wygodny sposób przez Internet. Jeśli chcemy odnaleźć tani kredyt gotówkowy, dobrym rozwiązaniem będzie skorzystanie z porównywarki finansowej Czerwona-Skarbonka. Dzięki rankingowi kredytów gotówkowych dowiemy się o najpopularniejszych ofertach oraz w których bankach warto złożyć wniosek. Dodatkowo zestawienie przygotowano w oparciu wiarygodne i sprawdzone propozycje, okres spłaty, maksymalną kwotę kredytu, RRSO i oprocentowanie. Wymagania do uzyskania kredytu gotówkowego Zanim złożymy wniosek o kredyt gotówkowy, musimy upewnić się czy posiadamy właściwą zdolność kredytową. Przed udzieleniem kredytu bank musi mieć pewność, że jesteśmy zdolni do terminowego spłacania całej kwoty wraz z odsetkami. Warunki, które musimy spełniać, by bank udzielił nam kredytu, to: •    Zdolność kredytowa. To inaczej zdolność do spłaty całości kredytu (kapitału oraz odsetek) w terminie ustalonym w umowie. Analiza zdolności kredytowej obejmuje weryfikację sytuacji finansowej klienta, która sprawdza uzyskiwane dochody, miesięczne koszty utrzymania, a także obecne zadłużenie (np. aktualnie spłacany kredyt hipoteczny czy zadłużenie na karcie kredytowej). •    Historia kredytowa. Jest to po prostu wiarygodność kredytowa - historia spłaty zaciągniętych przez nas zobowiązań. •    Stałe zatrudnienie. Istotny wpływ na ocenę naszej wiarygodności odgrywają warunki zatrudnienia (również staż pracy), rodzaj wykonywanego zawodu, rodzaj zajmowanego stanowiska i rodzaj umowy. •    W trakcie analizy zdolności kredytowej, pod uwagę brane są także: stan cywilny, liczba osób na utrzymaniu, miejsce zamieszkania oraz nasz status mieszkaniowy. •    W przypadku, gdy bank uzna, że jesteśmy wiarygodni, a nasze dochody pozwalają na bezproblemowe spłacanie kredytu, wówczas możemy liczyć na wyższą maksymalną kwotę kredytu. Najtańszy kredyt gotówkowy – w którym banku? Jak wygląda proces ubiegania się o kredyt gotówkowy? Najpierw składa się wniosek online, po czym sprawdzana jest zdolność kredytowa. W tym miejscu niezwykle istotna jest kwestia terminowości w regulowaniu przeszłych i aktualnych zobowiązań. Już nawet małe opóźnienia w spłacie negatywnie wpływają na historię kredytową w BIK, a co za tym idzie - utrudnią weryfikację wniosku. Dlatego też osoby z dużymi problemami finansowymi mają znikome szanse na uzyskanie taniego kredytu. Do grupy banków oferujących tanie kredyty gotówkowe z atrakcyjnym RRSO, bez obowiązkowego ubezpieczenia, bez prowizji i konieczności korzystania z innych produktów bankowych należą: •    Alior Bank •    Santander Bank Polska •    PKO BP •    Citi Handlowy •    BGŻ BNP Paribas •    Eurobank •    T-Mobile Usługi Bankowe Jeśli zastanawiasz się jaki kredyt gotówkowy wybrać, to na te pytanie nie ma tylko jednej, słusznej odpowiedzi, bo tak jak w przypadku podejmowania innych zobowiązań finansowych, tak i w tym przypadku wskazana jest odpowiedzialność. Nie warto korzystać z oferty jedynie dlatego, że często widzimy jej reklamę w TV. Bywa, że warunki takiej oferty mogą być doskonałe tylko dla osób pasujących do wzorca instytucji opisanej w przykładzie reprezentatywnym. Jak działa porównywarka kredytowa? Musimy przyjąć pewne wytyczne, by mógł powstać pomocny ranking kredytów gotówkowych. Najważniejsze aspekty, które warto brać pod uwagę, to: •    możliwa długość spłaty, •    wysokość kredytu, •    oprocentowanie, •    RRSO, •    szansa na otrzymanie kredytu, •    częstotliwość wybierania danego produktu przez klientów. Ranking kredytów gotówkowych dostępny na https://www.czerwona-skarbonka.pl/kredyty-gotowkowe/ jest często aktualizowany. Musimy pamiętać, że oferty i warunki produktów finansowych stale ulegają zmianom. Jest tak dlatego, że banki starają się dopasowywać do nowych wymagań rynku oraz potrzeb klientów. « powrót do artykułu
  8. Nauka zdalna stała się obecnie czymś powszechnym, a ułatwia to szereg przydatnych narzędzi. Należy do nich między innymi MS Office 365 dla szkół. Każda jednostka edukacyjna powinna mieć dostęp do tego wielofunkcyjnego, niezwykle użytecznego programu. Oprogramowanie Microsoft Office daje ogromne możliwości i jest cały czas rozwijane, regularnie pojawiają się nowe aktualizacje, a wraz z nimi kolejne funkcjonalności. Jeśli szkoła chce jak najlepiej przygotować uczniów do życia zarówno zawodowego, jak i społecznego, powinna jak najszybciej wdrożyć usługę Office 365 Education. Obejmuje ona szereg narzędzi pozwalających na zarządzanie zajęciami i angażowanie uczniów. Co składa się na Microsoft Office 365 dla szkół? W przypadku programu Microsoft Office 365 dla szkół do wyboru są trzy plany: Microsoft Office 365 A1, Microsoft Office 365 A3 i Microsoft Office 365 A5. Pierwszy wariant jest całkowicie bezpłatny, składają się na niego podstawowe aplikacje pozwalające na sprawne komunikowanie się uczniów z nauczycielami: Outlook, Word, PowerPoint, Excel i OneNote. Na tym jednak nie koniec, bo do dyspozycji użytkownicy mają też szereg przydatnych usług: Exchange, OneDrive, SharePoint, Teams, Sway, Forms, Stream, Flow, Power Apps, School Data Sync, Yammer. Nie trzeba ponosić żadnych dodatkowych kosztów, aby móc zapisywać i udostępniać pliki w różnych formatach za pomocą aplikacji internetowych. Naukę i nauczanie ułatwia centrum cyfrowe pozwalające na lepszą współpracę i zwiększenie zaangażowania. Szereg ułatwień dostępu i narzędzi edukacyjnych sprzyja poprawieniu wyników nauki. Zostały one stworzone po to, aby pomóc uczniom w czytaniu, sprawnym komunikowaniu się, rozwiązywaniu zadań matematycznych. Nie brakuje też aplikacji umożliwiających organizowanie informacji, pozwalających na stały kontakt z rówieśnikami i nauczycielami. Możliwe jest nawet opowiadanie historii w formacie cyfrowym i przechowywanie ogromnej ilości plików w chmurze. Office 365 A3 jest już planem płatnym, trzeba wykupić abonament roczny, aby móc korzystać z szeregu dodatkowych funkcjonalności. Został wzbogacony o różne funkcje dotyczące zarządzania i narzędzia zabezpieczeń. Można korzystać z Microsoft Publisher i Acces (obie aplikacje dostępne są tylko komputery PC). Pojawił się też usługa Bookings. Aplikacje pakietu Office można zainstalować na aż pięciu komputerach PC lub MAC. Najdroższym planem jest Office 365 A5, w przypadku którego można liczyć na szereg funkcji inteligentnego zarządzania zabezpieczeniami i dotyczących zgodności oraz systemów analitycznych. Oczywiście w wariancie tym znajdują się wszystkie korzyści oferowane w planie A3. Nową funkcjonalnością jest Microsoft Power BI, czyli narzędzie do wizualizacji danych. Dlaczego warto wybrać MS Office 365? Z usługi Office 365 można korzystać przez przeglądarkę internetową lub urządzenie mobilne (tablet, smartfon, iPhone, iPad, Windows Phone). Użytkownicy mają dostęp do poczty, kontaktów i kalendarza w dowolnym czasie i miejscu. Wszystkie tworzone i otrzymywane dokumenty mogą być zarówno wyświetlane, jak i edytowane, udostępniane. Możliwe jest pracowanie na tym samym dokumencie przez wiele osób w tym samym czasie, nie ma też problemu ze śledzeniem zapisanych w nim zmian. Uczniowie i nauczyciele otrzymują automatycznie dostęp do całego pakietu Microsoft Office 365 po zarejestrowaniu go. Konieczne jest zalogowanie się na stronie http://aka.ms/Office365edupl, bo dopiero z poziomu administratora możliwe jest utworzenie kont dla uczniów i nauczycieli, przyznanie każdemu użytkownikowi odpowiednich licencji, po czym rozsyłanie im loginów i haseł. Pakiet Office 365 jest bardzo innowacyjnym narzędziem, które pozwala na korzystanie z szeregu aplikacji w czasie rzeczywistym. Możliwe jest nawet sprawdzenie tego, kto korzysta z poszczególnych dokumentów w danej chwili. Każdy może w tym samym czasie wybrać opcję jednolitego formatowania dokumentów. Usługa OneDrive pozwala na przechowywanie, synchronizowanie i udostępnianie plików roboczych. Za pomocą wirtualnego dysku możliwe staje się szybkie aktualizowanie i udostępnianie dowolnych plików z każdego miejsca. Pozwala też na współpracowanie nad dokumentami z innymi osobami mającymi konto w chmurze. Oczywiście wszystkie pliki są prywatne, a ich autor decyduje o tym, komu je udostępni. Z kolei aplikacja Sway umożliwia tworzenie prezentacji i stron internetowych. Natomiast SharePoint zostało stworzone w celu ułatwienia współpracy i sprawnego zarządzania bibliotekami dokumentów, projektami, zabezpieczeniami i zespołami. Użytkownicy MS Office 365 mają do dyspozycji cyfrowy notes, czyli OneNote, który służy do udostępniania obszaru roboczego zarówno osobistego, jak i przeznaczonego do pracy na lekcji. Notes zajęć świetnie sprawdza się do porządkowania całej zawartości kursu i planów lekcyjnych, umożliwia szybkie wyszukiwanie tekstów i obrazów. Jest to świetne narzędzie do tworzenia i prowadzenia interaktywnych lekcji, współpracowania i wyrażania opinii. Za pomocą narzędzia Teams można nawet przeprowadzać zdalnie wywiadówki, konsultacje z rodzicami. Możliwe jest planowanie lekcji i pracowanie w zespole z dowolnego miejsca, bycie w stałym kontakcie ze społecznością szkoły. « powrót do artykułu
  9. PIT-36 – co to jest i kto musi go wypełnić? PIT-36 to zeznanie podatkowe, za pomocą którego podatnik może się rozliczyć z urzędem skarbowym. Zeznania PIT-36 obejmują dochody, które zostały osiągnięte w danym roku. Można je złożyć w urzędzie, drogą pocztową lub elektroniczną. Wypełniają je podatnicy, których nie obowiązuje PIT-37. Deklarację PIT-36 w zależności od wysokości osiągniętego dochodu muszą wypełnić oraz złożyć w wyznaczonym terminie wszyscy podatnicy, którzy: - prowadzą działy specjalne produkcji rolnej, - prowadzą pozarolniczą działalność gospodarczą, - mają przychody z tytułu dzierżawy, najmu, podnajmu lub poddzierżawy, - osiągają jakiekolwiek przychody zza granicy, - posiadają przychody, od których płacą zaliczki na podatek, - mają przychody ze źródeł opodatkowanych na zasadach ogólnych według skali podatkowej nieobjęte obowiązkiem odprowadzania zaliczek, - korzystają z kredytu podatkowego na podstawie art 44 ust. 7a o podatku dochodowym od osób fizycznych. Warto również wiedzieć, że istnieją formularze PIT 36LS oraz PIT 36L dla osób prowadzących działalność gospodarczą lub mających dochody z działów specjalnych produkcji rolnej. Jak wypełnić deklarację - program pit Deklarację można wypełnić odręcznie i w pełni samodzielnie lub też skorzystać z pomocy księgowej. Innym, pozwalającym zaoszczędzić czas i pieniądze rozwiązaniem jest program do pit 36, który jest w stanie znacznie ułatwić proces obliczania wysokości dochodu i składania deklaracji. Program do pit 36 jest bardzo intuicyjny i nie wymaga lektury szczegółowych instrukcji. PIT-36 a przychody z działalności gospodarczej Deklarację PIT 36 muszą złożyć wszyscy podatnicy, którzy prowadzą działalność i rozliczają się na ogólnych zasadach z zastosowaniem skali podatkowej. Na jednym formularzu mogą oni uwzględnić także inne dochody, podlegające opodatkowaniu w taki sam sposób. Jeśli jednak podatnik uzyskuje przychody z działalności, rozliczanej według podatku liniowego- wówczas powinien złożyć PIT36-L. W wyjątkowych sytuacjach, podatnik jest zobowiązany do złożenia formularza PIT-36S. To stosunkowo nietypowa forma rozliczenia, po którą należy sięgnąć, jeśli rozliczenie odbywa się po śmierci przedsiębiorcy. Formularz taki należy dostarczyć do urzędu skarbowego w terminie nieprzekraczającym 2 miesięcy od zgonu właściciela firmy. Powinien to zrobić zgłoszony do CEIDG zarządca sukcesyjny.Warto jednak wiedzieć, iż nie jest to obowiązkowe. Jeśli nie zrobi tego osoba, która przejęła prowadzenie firmy, rozliczenie zostanie wykonane przez urząd skarbowy bez pośrednictwa płatnika. « powrót do artykułu
  10. Archeolodzy pracujący na Ness of Brodgar na Orkadach szukają ochotników, którzy pomogą zabezpieczyć neolityczne stanowisko przed zimą. Zadanie nie należy do łatwych, bo folią trzeba zakryć obszar o powierzchni 750 m2; by materiał nie został zerwany przez wiatr, trzeba go przycisnąć 500 starymi oponami. Specjaliści przypominają, że w poprzednich latach powierzchnia do zakrycia była 3-krotnie większa. Zabezpieczanie stanowiska przed wietrzną zimą Do następnej środy (11 sierpnia) sezon wykopaliskowy powinien się zakończyć. W związku z tym do wolontariuszy wystosowano apel z pytaniem o wolny czas w czwartek (12 sierpnia) lub piątek (13 sierpnia). Jeśli masz kilka wolnych godzin albo dni, przyjdź na stanowisko o 9 rano. Sugerujemy, by włożyć stare ubrania, a także wodoodporne, porządne obuwie. Zadanie do wykonania jest trudne, ale przyświeca mu wyższy cel, bo prowadzone działania pozwalają zabezpieczyć stanowisko przed zimowymi warunkami na Orkadach. Opony pochodzą z lokalnych warsztatów. Oczywiście, uzyskano pozwolenie Szkockiej Agencji Ochrony Środowiska na ich wykorzystanie. Jak tłumaczy Sigurd Towrie z Instytutu Archeologii University of the Highlands and Islands (UHI), opony spełniają 2 funkcje. Utrzymują w miejscu folię, która przykrywa wykopy i do pewnego stopnia stanowią podporę dla delikatniejszych rejonów. Większość kamienia wykorzystanego do budowy w neolicie rozwarstwia się przy wystawieniu na oddziaływanie żywiołów przez dłuższy czas. Trzeba więc zakryć kamień, a także krawędzie wykopów i podłogi budynków. W okolicach szczególnie podatnych na zniszczenie używa się worków z piaskiem. Ness of Brodgar W 2002 r. podczas badań geofizycznych natrafiono na ślady kamiennych konstrukcji przykrytych cienką warstwą ziemi. Po odkryciu tzw. Structure One przeprowadzono pomiary oporu elektrycznego gruntu. W 2004 r. wykonano 8 wykopów sondażowych. Z biegiem czasu stwierdzono, że to pozostałości dużego - otoczonego murem - neolitycznego kompleksu; w filmie z początku br. dyrektor Ness of Brodgar Nick Card zaznaczył, że dotąd odsłonięto mniej niż 10%. Stanowisko było wykorzystywane od ok. 3500 r. p.n.e do 2300 r. p.n.e. W tym czasie zachodziły tu spore zmiany, dotyczące m.in. stylów architektonicznych, które bez wątpienia odzwierciedlały zmiany w sposobie wykorzystania miejsca i dynamice neolitycznego społeczeństwa. Kompleks wypełnia wąski pas ziemi, który rozdziela dwa jeziora na wyspie Mainland (Loch of Stenness i Loch of Harray). Co ważne, leży on w połowie drogi między skupiskami megalitów - kamiennym kręgiem w Brodgar i stojącymi kamieniami ze Stenness. Nim odkryto Ness of Brodgar, cała okolica trafiła w 1999 r. na Listę Światowego Dziedzictwa UNESCO jako Serce Neolitycznych Orkadów. Z osią czasu stanowiska, na którym od lat prowadzone są systematyczne wykopaliska, można się zapoznać na stronie projektu. A oto dzisiejszy pogląd na jego historię czy techniki wykonania/zdobywania materiału (Ness of Brodgar: as it stands, Nick Card):   « powrót do artykułu
  11. W jednym z Muzeów Titanica w USA doszło do nietypowego wypadku. Jedną z tutejszych atrakcji jest ściana o wymiarach 4,6x8,5 m z prawdziwego lodu. Niedawno jej fragmenty odłamały się i spadły na 3 zwiedzających. Titanic Museum Attraction w Pigeon Forge w Tennessee należy do Mary Kellogg Joslyn i Johna Joslyna. W 1987 roku John prowadził jedną z ekspedycji do Titanica. Teraz jest właścicielem dwóch muzeów poświęconych słynnemu liniowcowi. W Pigeon Forge znajduje się ponad 400 zabytków ze statku. Muzeum posiada jedną z największych na świecie replik Titanica. Zwiedzający wchodzą na jej pokład i przez dwie godziny mogą podziwiać zabytki, przejść przez słynne wielkie schody na pokładzie I klasy, usiąść w szalupie ratunkowej czy posłuchać o kolejach życia różnych pasażerów. Po wypadku muzeum zamknięto, jednak szybko zostało ponownie otwarte. Miejsce samego wypadku zostało odgrodzone i nie jest dostępne, a miejscowa policja prowadzi w tej sprawie śledztwo. Obecnie nic nie wskazuje na to, by doszło do przestępstwa czy zaniedbania. Muzeum prowadzi zaś własne śledztwo. Właściciele Titanic Museum Attraction mówią, że odtworzenie góry lodowej zajmie co najmniej 4 tygodnie. « powrót do artykułu
  12. Naukowcy z Singapuru donoszą, że w warunkach niedoboru proteiny TDP-43 komórki mózgowe nie są w stanie utrzymać bogatej w cholesterol otoczki mielinowej, która chroni neurony. Autorzy badań sugerują, że odbudowanie odpowiedniego poziomu cholesterolu może pozwolić na leczenie chorób powiązanych z TDP-43. Proteina TDP-43 pełni wiele ważnych zadań w komórkach, jednak w pewnych okolicznościach białko to może tworzyć toksyczne agregaty. Jest ono powiązane z wieloma chorobami neurodegeneracyjnymi, jak stwardnienie zanikowe boczne (ALS) czy otępienie czołowo-skroniowe (FTD). Agragaty TDP-43 znajdowane są w mózgach większości osób chorujących na ALS i u ok. 45% cierpiących na FTD. Są one też obecne w niektórych postaciach choroby Alzheimera. Shuo-Chien Ling i jego koledzy z Narodowego Uniwersytetu Singapuru już wcześniej zauważyli, że oligodendrocyty, komórki gleju formujące osłonki mielinowe, potrzebują proteiny TDP-43 do przeżycia i działania. Wykazaliśmy, że u myszy z oligodendrocytami, w których brakowało TDP-43 pojawiły się postępujące fenotypy neurologiczne, prowadzące do przedwczesnej śmierci. Fenotypom tym towarzyszyła śmierć oligodendrocytów i utrata mieliny, mówi Ling. Teraz uczeni z Singapuru informują, że przyczyną, dla której oligodendrocyty nie działają bez TDP-43 jest ich niezdolność do syntetyzowania lub pobrania cholesterolu potrzebnego do utrzymania produkcji mieliny. W centralnym układzie nerwowym metabolizm cholesterolu przebiega w sposób autonomiczny, a większość cholesterolu znajduje się w mielinie. Wykazaliśmy, że TDP-43 wpływa na metabolizm cholesterolu w oligodendrocytach, napisali naukowcy. Okazało się, że TDP-43 łączy się bezpośrednio z mRNA SREBF2, głównego regulatora transkrypcji metabolizmu cholesterolu i z wieloma innymi mRNA odpowiedzialnymi za syntezę cholesterolu. Dodatkowo wykazaliśmy, że suplementacja cholesterolem chroni przed demielinizacją powodowaną brakiem TDP-43, stwierdzają autorzy badań. Cholesterol jest tak ważnym składnikiem mieliny, że aż 25% cholesterolu obecnego w naszych organizmach znajduje się właśnie w centralnym układzie nerwowym. Wiemy, że oligodendrocyty samodzielnie syntetyzują na swoje potrzeby olbrzymie ilości cholesterolu, mogą go też pobierać z astrocytów. Tymczasem Ling i jego zespół wykazali, że w sytuacji braku TDP-43 oligodendrocytom brakuje wielu enzymów potrzebnych do syntezy cholesterolu. Jakby tego było mało, w takiej sytuacji mają tez mniej receptorów lipoproteinowych, które pozwalają na pobranie cholesterolu z zewnątrz. Okazało się, że dostarczenie tym komórkom TDP-43 odbudowuje ich zdolność do utrzymania otoczki mielinowej. Singapurscy badacze uważają również, że problemy z metabolizmem cholesterolu mogą odgrywać rolę w ALS, FTD i innych chorobach neurodegeneracyjnych związanych z gromadzeniem się agregatów TDP-43. Dlatego też sugerują, że leki regulujące metabolizm cholesterolu mogą pomóc w leczeniu tego typu chorób. « powrót do artykułu
  13. Jednym z największych problemów, z jakim stykają się specjaliści pracujący przy fuzji jądrowej, są swobodnie przyspieszające elektrony, które w końcu osiągają prędkości bliskie prędkości światła czyli stają się cząstkami relatywistycznymi. Tak szybkie elektrony uszkadzają tokamak, w których przeprowadzana jest reakcja termojądrowa. Naukowcy z Princeton Plasma Physics Laboratory (PPPL) wykorzystali nowatorskie narzędzia diagnostyczne, dzięki którym są w stanie zarejestrować narodziny takich elektronów oraz liniowy i wykładniczy wzrost ich energii. Musimy być w stanie zarejestrować te elektrony przy ich początkowym poziomie energii, a nie dopiero wówczas, gdy mają maksymalną energię i przemieszczają się niemal z prędkością światła, wyjaśnia fizyk Luis Delgado-Aparicio, który stał na czele zespołu badawczego pracującego przy Madison Symmetric Torus (MST) na University of Wisconsin-Madison. Następnym krokiem będzie zoptymalizowanie sposobów na powstrzymanie tych elektronów, zanim ich liczba zacznie się lawinowo zwiększać, dodaje uczony. Reakcja termojądrowa czyli fuzja jądrowa, zachodzi m.in. w gwiazdach. Gdyby udało się ją opanować, mielibyśmy dostęp do niemal niewyczerpanego źródła czystej i bezpiecznej energii. Zanim jednak to się stanie, konieczne jest pokonanie kilku poważnych przeszkód. Dlatego też PPPL we współpracy z University of Wisconsin zainstalowało w MST specjalną kamerę, która już wcześniej sprawdziła się w tokamaku Alcator C-Mod w Massachusetts Institute of Technology. Kamera ta rejestruje nie tylko właściwości plazmy, ale również dystrybucję energii w czasie i przestrzeni. To pozwala uczonym obserwować m.in. wspomniane elektrony, które powstają przy niskich energiach. Badania nad superszybkimi elektronami prowadzone są w MST, gdyż urządzenie to skonstruowane jest tak, że elektrony te nie zagrażają jego pracy. Możliwości, jakimi dysponuje Luis, odnośnie zlokalizowania miejsca narodzin i początkowego liniowego wzrostu energii tych elektronów, a następnie ich śledzenia, są fascynujące. Następnym etapem będzie porównanie uzyskanych wyników z modelami komputerowymi. To pozwoli nam na lepsze zrozumienie tego zjawiska i może prowadzić w przyszłości do opracowania metod zapobiegających tworzeniu się takich elektronów, mówi profesor Carey Forest z University of Wisconsin. Chciałbym zebrać wszystkie doświadczenia, jakich nabyliśmy podczas pracy z MST i zastosować je w dużym tokamaku, stwierdza Delgado-Aparicio. Niewykluczone, że już wkrótce dwaj doktorzy, których mentorem jest Delgado-Aparicio, będą mogli wykorzystać te doświadczenia w Tungsten Einvironment in Steady-state Tokamak (WEST) we Francji. Chcę razem z nimi wykorzystać kamery do rejestrowania wielu różnych rzeczy, takich jak transport cząstek, ogrzewanie falami radiowymi, badanie szybkich elektronów. Chcemy dowiedzieć się, jak spowodować, by elektrony te stały się mniej szkodliwe. A to może być bardzo bezpieczny sposób pracy z nimi. Z Delgado-Aparicio współpracuje kilkudziesięciu specjalistów, w tym naukowcy Uniwersytetu Tokijskiego, japońskich Narodowych Instytutów Badań i Technologii Kwantowych i Radiologicznych czy eksperci ze szwajcarskiej firmy Dectris, która wytwarza różnego typu czujniki. « powrót do artykułu
  14. Nowy półprzewodnik, arsenek boru (BAs), ma wysoką przewodność cieplną i może być zintegrowany ze współczesnymi chipami, by odprowadzić z nich ciepło i poprawić tym samym ich wydajność. Materiał ten lepiej rozprasza ciepło niż najlepsze dostępnie obecne systemy do chłodzenia podzespołów komputerowych – twierdzą twórcy arsenku boru. Coraz większa miniaturyzacja, możliwość umieszczenia na tej samej powierzchni coraz większej liczby tranzystorów, oznacza, że procesory są coraz szybsze. Pojawiają się jednak problemy z odprowadzaniem ciepła, szczególnie w postaci lokalnych punktów znacznie wyższej temperatury. Ciepło to negatywnie wpływa na wydajność układów. Yongjie Hu z Uniwersytetu Kalifornijskiego w Los Angeles stworzył niedawno wolny od wad arsenek boru. To materiał, który rozprasza ciepło znacznie lepiej niż inne metale i półprzewodniki, jak diament czy węglik krzemu. Hu i jego koledzy wykazali też, że można go zintegrować z układami scalonymi zawierającymi tranzystory z azotku galu. Następnie przeprowadzili badania, które wykazały, że w układzie scalonym ze zintegrowanym arsenkiem boru, pracującym z niemal maksymalną wydajnością, temperatura najcieplejszych punktów jest znacznie niższa niż w układach chłodzone za pomocą innych materiałów. W czasie eksperymentów punktowa temperatura układów scalonych z arsenkiem boru wzrosła od temperatury pokojowej do nieco poniżej 87 stopni Celsjusza, podczas gdy chłodzonych diamentem wyniosła niemal 137 stopni, a chłodzonych węglikiem krzemu – zbliżyła się do 167 stopni Celsjusza. Wykazaliśmy, że możemy przetwarzać strukturę BAs i integrować ją z chipem o wysokiej mobilności elektronów. To bardzo obiecujące rozwiązanie dla wysoko wydajnej elektroniki, mówi Hu. Dodatkową zaletą arsenku boru jest jego bardzo niski opór cieplny na styku z innym materiałem. To zaś oznacza, że transport ciepła odbywa się szybciej niż w przypadku konkurencyjnych rozwiązań. To tak, jakby ciepło mogło przeskoczyć przez przeszkodę, jaką stanowi styk dwóch materiałów, w porównaniu z innymi rozwiązaniami, gdzie zwalnia, by ostrożnie przeszkodę przekroczyć, wyjaśnia Hu. Naukowcy, zachęceni wynikami swoich eksperymentów, planują teraz zintegrować swój materiał z różnymi rodzajami obwodów i chipami o różnej architekturze. « powrót do artykułu
  15. Jakiś czas temu Muzeum Porcelany w Wałbrzychu wzbogaciło się o nowy zabytek - toaletę wyprodukowaną w latach 1890-1905 przez nieistniejącą już brytyjską manufakturę porcelany Johnson Brothers ze Stoke-on-Trent. Eksponat odnaleziono na strychu pałacu w Szymanowie. Był potłuczony na 11 fragmentów i silnie zabrudzony. Konserwacji podjęła się kustoszka Działu Ceramiki Jadwiga Kornecka-Cebula. Eksponat znajduje się na wystawie poświęconej wyrobom toaletowym. Jak podkreślono na profilu Muzeum na Facebooku, porcelana to nie tylko serwisy stołowe i zachwycającej urody figurki. To także przedmioty codziennego użytku, często tak prozaiczne jak toaleta. Ta, która trafiła do wałbrzyskiego muzeum, została wyprodukowana w latach 1890–1905 przez nieistniejącą już dziś brytyjską manufakturę porcelany Johnson Brothers, która rozpoczęła swoją działalność w miejscowości Stoke-on-Trent w 1883 roku. Choć wytwórnia słynęła przede wszystkim z produkcji eksportowanych do Stanów Zjednoczonych zastaw stołowych, była również jednym z największych i najbardziej popularnych producentów wyposażenia łazienek. Niektóre z produkowanych przez Johnson Brothers kolekcji zyskały światowy rozgłos i cieszą się wielkim powodzeniem wśród kolekcjonerów do dziś – podkreśliła w wypowiedzi dla "Gazety Wyborczej" Małgorzata Szpara, specjalistka ds. PR-u i marketingu Muzeum Porcelany w Wałbrzychu. Jak dodała, toaleta przekazana Muzeum przez właściciela pałacu w Szymanowie pana Sebastiana Jamesa Page'a to model Britannia. Jest on ponoć poszukiwany przez kolekcjonerów z całego świata. Wg Małgorzaty Szpary, z wielkim prawdopodobieństwem była to jedna z pierwszych wodnych toalet, sprowadzanych z Wielkiej Brytanii na teren ówczesnych Prus. Co ciekawe, pierwsza toaleta zainstalowana w pałacu w Szymanowie również ma brytyjskie korzenie. To właśnie z wysp dotarły pierwsze toalety do Prus, co pozwoliło na higieniczne i bezdotykowe usuwanie nieczystości z domu. Ta nowość pojawiła się w regionie wałbrzyskim na początku XX wieku. Ze względu na ogromny wpływ na jakość życia i zdrowie mieszkańców, toalety szybko zaczęły się rozprzestrzeniać nie tylko w arystokratycznych rezydencjach, ale także na antresolach kamienic - dowiadujemy się z wpisu pałacu na FB. « powrót do artykułu
  16. Trójce naukowców z Francji i Niemiec udało się aż 38-krotnie zmniejszyć limit dyfrakcyjny. Osiągnęli to pozwalając falom dowolnie odbijać się i rozpraszać w zamkniętej przestrzeni. Dzięki temu udało się określić położenie niewielkiego sześcianu z dokładnością 1/76 długości fali promieniowania mikrofalowego wykorzystanego podczas eksperymentów. Limit dyfrakcyjny ogranicza dokładność obrazowania czy lokalizacji obiektu i jest związany z dyfrakcją, czyli ugięciem fal wokół materiału. Limit ten, najmniejsza wyczuwalna różnica dla danej długości fali, wynosi 1/2 tej długości. Oznacza to, że w sposób konwencjonalny nie jesteśmy w stanie odróżnić od siebie np. dwóch przedmiotów, jeśli różnią się elementem, którego wielkość jest mniejsza niż 1/2 długości fali za pomocą obiekty te obrazujemy. Stworzono więc różne metody na pokonanie limitu dyfrakcyjnego. Często jednak ich zastosowanie jest trudne bądź niepraktyczne. Michael del Hougne z Uniwersytetu w Wurzburgu, Sylvain Gigan z Laboratoire Kastler Brossel oraz Philipp del Hougne z Uniwersytetu w Rennes wykorzystali doświadczenia z techniką tzw. kodowanej apertury. W technice tej wykorzystuje się powierzchnię rozpraszającą, taką jak np. wnękę o nieregularnym kształcie umieszczoną pomiędzy oświetlanym obiektem a wykrywaczem. Powierzchnia jest modyfikowana za pomocą maski, która blokuje pewne fale, uniemożliwiając im dotarcie do wykrywacza. Za pomocą wielu pomiarów uzyskiwany jest matematyczny model obserwowanego obiektu. Badacze wykorzystali tę koncepcję do opracowania techniki jeszcze lepiej oddającej szczegóły poniżej długości fali. Umieścili badany obiekt, wykrywacz i źródło światła wewnątrz wnęki, od której powierzchni odbijały się fale. Metoda ta wykorzystuje fakt, że fale wielokrotnie napotkają na badany obiekt, zanim dotrą do wykrywacza. Wewnątrz wnęki znajdują się też programowalne metapowierzchnie, zmieniające strukturę, na której rozpraszają się fale. Uczeni testowali swoją technikę umieszczając metalowy sześcian o boku 4,5 cm wewnątrz wnęki o szerokości 1 metra. Do badania obiektu wykorzystali mikrofale o długości 12 cm oraz wykrywacz, z którego sygnały były przetwarzane przez sieć neuronową. Gdy przesunęli sześcian w inne miejsce, byli w stanie określić jego pozycję z dokładnością do 0,16 cm. To ok. 1/76 długości fali użytej do badania, zatem znacznie poniżej limitu dyfrakcyjnego. Dokładność pomiaru zwiększała się, gdy fale mogły odbijać się dłużej. Technika wymaga jeszcze dopracowania, ale jej twórcy uważają, że przyda się ona do nieinwazyjnego lokalizowania niewielkich obiektów w dużych pomieszczeniach za pomocą fal radiowych lub dźwiękowych. « powrót do artykułu
  17. Nowy radioligand dla pozytonowej tomografii emisyjnej (PET) okazał się skuteczny w obrazowaniu aktywności mózgu powiązanej z formowaniem się blaszek amyloidowych u osób z zaburzeniami poznawczymi i chorobą Alzheimera. Badania, opisane na łamach Molecular Psychiatry, wykazały, że ligand pozwala bezpośrednio obrazować to, co dzieje się podczas tworzenia się blaszek. Naukowcy z King's College London, Imperial College London, GlaxoSmithKline i University of Manchester przyjrzeli się ligandowi 11C-BU99008, który umożliwia selektywne obrazowanie reaktywności astrocytów in vivo. Na potrzeby badań nad chorobą Alzheimera przeprowadzono badania PET u 11 starszych osób z zaburzeniami poznawczymi oraz 9 zdrowych równolatków. Reaktywność astrocytów to zbyt duża proliferacja astrocytów spowodowana uszkodzeniami neuronów. Dotychczasowe badania sugerują, że to właśnie ten proces może poprzedzać patologiczne zmiany w mózgach osób cierpiących na chorobę Alzheimera, takie jak formowanie się blaszek amyloidowych i splątków neurofibrylarnych. Sądzimy, że 11C-BU99008 może być przydatny przy ocenie reaktywności astrocytów in vivo w przebiegu choroby Alzheimera i innych chorób neurodegeneracyjnych związanych z wiekiem, stwierdził Paul Edison z Imperial College London. Edison wraz z kolegami bada wspomniany radioligand od czasu jego zsyntetyzowania w 2012 roku. Teraz przeprowadzili pierwsze badania, których celem było sprawdzenie, czy u starszych osób z zaburzeniami poznawczymi absorpcja 11C-BU99008 jest wyższa niż u zdrowych rówieśników. Badania wykazały, że do zwiększonej absorpcji ligandu doszło u 8 z 11 pacjentów ze zwiększoną liczbą blaszek amyloidowych. Zjawisko takie zaobserwowano przede wszystkim w płatach czołowym, skroniowym i potylicznym. To dowód, że 11C-BU99008 może mierzyć reaktywność astrocytów u ludzi ze związanymi z wiekiem zaburzeniami poznawczymi i chorobą Alzheimera. To jednocześnie potwierdzenie, że zwiększona reaktywność astrocytów ma przede wszystkim miejsce w tych regionach mózgu, w którym występuje nagromadzenie blaszek amyloidowych, napisali naukowcy. Radioligand ten może więc być używany do dalszych badań nad chorobą Alzheimera, które pozwolą lepiej określić związek pomiędzy reaktywnością astrocytów a patologiami mózgu oraz sprawdzić, jak różne metody leczenia wpływają na poziom reaktywności astrocytów. « powrót do artykułu
  18. Hotel Rangá z południowej Islandii poszukuje "łowcy zorzy polarnej", czyli fotografa, który uwieczniłby jej piękno w zamian za darmowe miesięczne zakwaterowanie, przelot w obie strony czy dostęp do obserwatorium. W okresie między połową września a połową listopada kandydat musi wygospodarować 3 tygodnie na realizację zadania. Zdjęcia i filmy wybranej osoby trafią do materiałów promocyjnych hotelu. Czterogwiazdkowy przybytek jest zlokalizowany między miejscowościami Hvolsvöllur i Hella. Obserwatorium astronomiczne z rozsuwanym dachem znajduje się nieopodal (150 m na wschód). Wyposażono je w 2 teleskopy. Naraz zmieści się tam ok. 20 osób. W bezchmurne noce miejscowi astronomowie omawiają widoki i pomagają w kwestiach technicznych. By zostać łowcą zorzy, trzeba wypełnić online'owy kwestionariusz. Poza danymi osobowymi warto podać, w jakich serwisach społecznościowych jest się aktywnym i ile osób śledzi profil, a także czy prowadzi się blog. Nie mogło również zabraknąć pytań o doświadczenie z fotografowaniem w ciemnym otoczeniu, prawo jazdy oraz uprzednie pobyty na Islandii. Na koniec kandydat/kandydatka powinien/powinna uzasadnić, dlaczego to on/ona najlepiej nadaje się na oferowane stanowisko. Nie trzeba być profesjonalnym fotografem. Stawiający pierwsze kroki w zawodzie, którzy dobrze radzą sobie z aparatem, także są mile widziani. Jak podkreślono na stronie do składania aplikacji, w ten sposób można stworzyć świetne portfolio. Na materiały obowiązuje licencja nieograniczonego stosowania; hotel może wykorzystywać zdjęcia i filmy w swoich materiałach reklamowych (zarówno drukowanych, jak i online'owych) przez nieograniczony czas. Hotel Rangá oferuje usługę budzenia na oglądanie zorzy (ang. Aurora wake-up service). Jak podkreślono, jego lokalizacja z dala od większości źródeł zanieczyszczenia światłem daje niepowtarzalną okazję do obserwacji tego zjawiska. « powrót do artykułu
  19. Użytkownicy zbanowani za zachowanie z jednej platformy społecznościowej, często pojawiają się na innej, gdzie zachowują się jeszcze gorzej, jeszcze bardziej agresywnie. Do takich wniosków doszedł międzynarodowy zespół naukowy, który przeprowadził badania Understanding the Effect of Deplatforming on Social Networks. Grupa naukowa złożona ze specjalistów z Binghamton University, Boston University, University College London i Instytutu Informatyki im. Maxa Plancka, opracowała metodę identyfikacji użytkowników na różnych platformach. Dzięki niej mogli przyjrzeć się, co dzieje się z użytkownikami zbanowanymi z Reddita czy Twittera, którzy zaczęli korzystać z kont na platformach Gab i Parler, gdzie treści nie są tak ściśle moderowane. Autorzy badań zauważyli, że użytkownicy tacy, mimo iż mają potencjalnie znacznie mniejszą publiczność, są na tych platformach znacznie bardziej aktywni i bardziej toksyczni. Nie możesz po prostu zbanować tych ludzi i stwierdzić, że to zadziałało. Oni nie znikają. Idą w inne miejsca. Wyrzucenie ich ma pozytywny wpływ na platformę, na której byli, jednak zauważyliśmy, że na platformach, na którego przechodzą, ich zachowanie się pogarsza, stwierdza profesor Jeremy Blackburn. Uczeni przeanalizowali 29 milionów postów z platformy Gab, która została uruchomiona w 2016 roku i ma około 4 milionów użytkowników. Za pomocą stworzonego przez siebie narzędzia naukowcy zauważyli, że 59% (1152 z 1961) użytkowników Twittera założyło konto na Gab już po tym, jak byli ostatni raz aktywni na Twitterze. W przypadku Reddita 76% (3958 z 5216) założyło konto na Gab po tym, jak Reddit ich zbanował. Autorzy badań porównali treści publikowane na Twitterze, Reddicie i Gab przez tych samych użytkowników. Zauważyli, że po przeniesieniu na Gab stali się oni bardziej toksyczni i bardziej aktywni. Naukowcy mówią, że co prawda przejście agresywnych użytkowników z platformy większej na mniejszą może być postrzegane, jako coś korzystnego, niekoniecznie jednak jest to prawda. Zmniejszenie zasięgu oddziaływania takich osób to prawdopodobnie dobra rzecz, ale sam zasięg jest przeceniany. Fakt, że jakieś konto obserwuje 100 000 osób nie oznacza, że te osoby naprawdę popierają właściciela tego konta. Najbardziej wierni fani, być może grupy, którymi należy najbardziej się martwić, są prawdopodobnie skłonni do zmiany platformy, by nadal obserwować takiego człowieka. Jego zasięg zostaje co prawda zredukowany, ale zwiększa się intensywność okazywania mu poparcia. To jak zamiana ilości w jakość. Powstaje więc pytanie, czy gorzej jest gdy większa liczba osób czyta agresywne treści, czy też, gdy zwiększa się intensywność ekstremalnych poglądów w mniejszej grupę osób?, zastanawia się Blackburn. W ramach drugich badań A Large Open Dataset from the Parler Social Network, Blackburn wraz z  uczonymi z New York University, University of Illinois i resztą wcześniejszego zespołu, przyjrzał się podobnemu zjawisku, wykorzystując platformę Parler. Uczeni przeanalizowali 183 miliony postów z lat 2018–2021 oraz metadane 13,25 miliona profili użytkowników. Niezależnie od tego, co mówią przedstawiciele Parlera, jest to platforma używana głównie przez białych, prawicowych, chrześcijańskich zwolenników Donalda Trumpa. Nie dziwi więc fakt, że duży skok popularności – gdy zapisało się około miliona nowych użytkowników – miał miejsce w okolicach wyborów w roku 2020. Później w czasie ataku na Kapitol znowu wzrosła popularność tej platformy. Widzimy, że służy ona do organizowania się i przekazywania instrukcji dotyczących protestów, stwierdza Blackburn. Naukowcy nie są pewni, czy banowanie użytkowników jest właściwą drogą zapobiegania rozprzestrzenianiu się skrajnych lub niebezpiecznych poglądów. Co zaś może nią być? Reddit ma możliwość „cichego banowania”, które polega na tym, że sprawiający problemy użytkownik może nadal publikować posty i wydaje mu się, że wszystko jest w porządku, tymczasem jego wpisów nikt nie widzi. Społeczeństwo nie może ignorować takich rzeczy, ale najprostsze rozwiązania nie działają. Musimy wymyślić bardziej kreatywny sposób i nie wyrzucać takich ludzi na margines, ale może popchnąć ich w bardziej pozytywny kierunku lub przynajmniej spowodować, by każdy wiedział, kim jest dana osoba. Dobre rozwiązanie leży gdzieś pomiędzy banowaniem wszystkich, a całkowicie swobodnym dostępem, mówi Blackburn. « powrót do artykułu
  20. Na Wydziale Mechanicznym rozpoczęły się prace nad LOV-em. Pod tą nazwą kryje się wózek, dzięki któremu osoby z niepełnosprawnościami będą mogły wyruszyć do lasu, na plażę albo zdobyć Ślężę. Limit-Off-Vehicle będzie też co najmniej o połowę tańszy od obecnie dostępnych wózków off-roadowych. Prace nad LOV są finansowane z programu „Rzeczy są dla ludzi” Narodowego Centrum Badań i Rozwoju. Prowadzi je 11-osobowy zespół badaczy – od profesorów, przez młodych pracowników naukowych, po doktorantów i studentów – z Katedry Inżynierii Pojazdów na Wydziale Mechanicznym. W pracach uczestniczą też osoby z niepełnosprawnościami i fizjoterapeuci działający w Stowarzyszeniu „Twoje nowe możliwości”.LOV, czyli Limit-Off-Vehicle, ma być pojazdem, jakiego nie ma jeszcze na rynku. Oczywiście dostępne są już wózki turystyczne – podkreśla Ariel Fecyk, wiceprezes Stowarzyszenia „Twoje nowe możliwości”, sam poruszający się na wózku. Takie rozwiązania kosztują jednak około 30 tys. zł – w przypadku pojazdów, w których koniecznie jest użycie siły własnych rąk – i ponad 100 tys. zł, jeśli mówimy o wózkach automatycznych – dodaje. Bariera finansowa nie jest jedynym problemem. Gabaryty tych wózków są na tyle duże, że aby móc wyruszyć z nimi gdziekolwiek, konieczne jest też posiadanie naprawdę dużego i pojemnego samochodu lub specjalnej przyczepy. A to oznacza kolejny spory wydatek i problemy z parkowaniem w wielu miejscach. Dlatego zespół z Politechniki Wrocławskiej po konsultacjach z potencjalnymi użytkownikami takiego pojazdu przygotował projekt i właśnie zaczął prace konstrukcyjne nad wózkiem, który będzie mniejszy, modułowy i zdecydowanie tańszy. – Stawiamy sobie maksymalny pułap cenowy na poziomie 50 tys. zł, a nasz pojazd będzie automatyczny – mówi prof. Anna Janicka Naukowcy z Wydziału Mechanicznego przyznają, że gdy zaczęli zastanawiać się nad rozwiązaniem, jakie mogą przygotować, korzystając z szansy na zyskanie grantu, nie pomyśleli o LOV-ie. Krążyliśmy w swoich rozmowach wokół lepszych udogodnień w samochodach osobowych dla użytkowników wózków. Ale dzięki współpracy z grupą docelową wytłumaczono nam, że to nie jest rzecz, na którą osoby z niepełnosprawnością szczególnie czekają, bo podobnych usprawnień jest sporo i można bez problemu dostosować auto do swoich potrzeb – opowiada prof. Janicka. Tymczasem dla osób poruszających się na wózku dużym utrudnieniem jest fakt, że nie mogą wybrać się w miejsca, które dla pełnosprawnych są oczywistą lokalizacją, kiedy chcą wypocząć czy po prostu aktywnie spędzić weekend. Bez pomocy nie mogą pojechać do lasu na długi spacer, jeśli ścieżki mają tam spore przewyższenia albo zimą leży spora warstwa śniegu. Nie wybiorą się na wakacje na plażę, bo zakopią się kołami w sypkim piasku – opowiada Monika Magdziak-Tokłowicz, doktorantka na Wydziale Mechanicznym. Mój znajomy poruszający się na wózku powiedział mi kiedyś, że jego marzeniem jest, by mógł wybrać się z dziećmi na Ślężę, tak jak tysiące innych wrocławskich rodzin w niedzielne przedpołudnia. Dzięki LOV-owi stanie się to możliwe, bo wózek będzie mógł poruszać się po powierzchni o dużym kącie nachylenia, nawet do 30 stopni (Ślęża ma około 17 stopni). Będzie też wyposażony w aktywny system bezpieczeństwa uniemożliwiający boczne lub tylne przewrócenie się pojazdu, a do tego będzie miał zmienny rozstaw kół. Pojazd ma mieć formę modułową – tak by dostosowywać się do zmiennych potrzeb użytkownika. Każdy moduł będzie ważył maksymalnie 25 kg. Dzięki temu użytkownik wózka poradzi sobie z samodzielnym montażem i będzie mógł w dowolnej chwili odłączyć ten moduł, który aktualnie nie będzie mu potrzebny albo zamontować taki, który właśnie mu się przyda – opowiada prof. Maciej Zawiślak, kierownik projektu. Jednym z ważnych elementów wózka jest jego układ jezdny, projektowany od podstaw przez naukowców z PWr. Na razie przygotowaliśmy „pre-prototyp” układu zawieszenia, który jest dla nas punktem wyjścia do planowania kolejnych rozwiązań – opowiada dr inż. Gustaw Sierzputowski. Chcemy, by był tani, prosty i niezawodny. Gwarantował stateczność wywrotną, czyli właśnie by można nim było poruszać się po dużym pochyleniu. W projektowaniu układu jezdnego naukowcy inspirowali się zawieszeniem typu Rocker-bogie, wykorzystywanym w… łazikach marsjańskich. Wyeliminowali jednak dwa koła i obecnie biorą pod uwagę, że pojazd będzie wyposażony w cztery. Zwiększyli natomiast liczbę wahaczy – co daje możliwość konfiguracji wózka. Zakładamy uniwersalność pewnych elementów, tak by np. łączniki w układzie były takie same dla kół i dla wahaczy. Dzięki temu użytkownik będzie mógł zdemontować wahacze i zastąpić je kołami, zmniejszając rozmiary swojego wózka, kiedy będzie poruszał się po mieście i nie będzie zmagał się z tak dużymi oporami toczenia – tłumaczy dr Sierzputowski. Równie istotny dla badaczy jest aspekt ergonomii – jako że użytkownicy wózków spędzają w nich często po kilka, kilkanaście godzin. Niektórzy mają problem z czuciem w różnych partiach ciała. Do tego nie mogą zmienić swojej pozycji, by odciążyć kręgosłup i pośladki, a tym samym umożliwić lepszy przepływ krwi. Dlatego projektujemy odpowiednie siedzisko z dynamicznie zmieniającym się ciśnieniem, co umożliwia zmienny rozkład nacisku i ogranicza ryzyko odleżyn, ran, a nawet deformacji – opowiada Monika Magdziak-Tokłowicz. Takie rozwiązania są wykorzystywane np. w materacach przeciwodleżynowych. W wózkach dla osób z niepełnosprawnościami do tej pory stosowane są dodatkowe wkładki niwelujące ciśnienie. Nasze rozwiązanie będzie integralną, wbudowaną częścią pojazdu. Naukowcy planują także, by siedzisko było wentylowane, co dodatkowo zapewni komfort odpowiedniej temperatury i zapobiegnie zawilgoceniu. Wózek będzie miał napęd elektryczny, a w razie potrzeby będzie można sterować nim także ręcznie. Pod uwagę brany jest także dodatkowy napęd spalinowy. Do testów pojazdu wykorzystany zostanie atestowany manekin, służący zwykle do badań bezpieczeństwa w samochodach. Jest wyposażony w system czujników umieszczonych w głowie, klatce piersiowej i miednicy. Ma także aparaturę pozwalającą mierzyć siłę ugięcia żeber – opowiada dr inż. Aleksander Górniak. Dzięki tym testom będziemy mieć absolutną gwarancję bezpieczeństwa LOV-a, zanim zasiądą w nim członkowie Stowarzyszenia „Twoje nowe możliwości”, by podzielić się swoimi opiniami i uwagami. Jak podkreśla prof. Janicka, pojazd jest tworzony w nurcie eko-designu. Czyli wszystkie jego elementy będą przyjazne dla środowiska – tłumaczy. Weźmiemy pod uwagę fakt, czy nadają się do recyklingu, a także jaką mają trwałość, by użytkownicy mogli korzystać z poszczególnych elementów wózka jak najdłużej. Naukowcy mają dwa lata na zbudowanie LOV-a. Ich pracami są już zainteresowane firmy produkujące wózki dla osób z niepełnosprawnościami. Badacze biorą pod uwagę zarówno sprzedanie licencji na komercyjną produkcję LOV-a przez zewnętrznego partnera, jak i możliwość stworzenia spin-offu, czyli firmy powiązanej z uczelnią, która wyrośnie na bazie tego projektu i zajmie się komercyjną produkcją wózka. Chcemy, by nasz projekt służył w przyszłości osobom poruszającym się na wózkach. Nie pracujemy nad rozwiązaniem do szuflady – zapewnia prof. Zawiślak. « powrót do artykułu
  21. Zdrowe jelita to klucz do silnej odporności, dobrego samopoczucia, wysokiej aktywności i zdrowej cery. Stan zapalny, zaburzenia perystaltyki, polipowatość, pasożyty i różne inne zaburzenia przewodu pokarmowego zaburzają prawidłowe funkcjonowanie tego narządu. Dlatego warto szukać odpowiedzi na pytanie, – aby mieć zdrowe jelita, co jeść? W przypadku jakichkolwiek problemów ze stanem jelit upośledzone jest również wchłanianie wielu składników odżywczych, co prowadzi do niedoborów witamin i minerałów. Ponadto mikrobiom jelitowy odpowiada za syntezę niektórych witamin, takich jak grupa B, a także za produkcję serotoniny, hormonu radości. Dowiedz się jak pomóc swoim jelitom! Na zdrowe jelita, co jeść, aby spełniały swoje funkcje? Ochronę jelit i utrzymywanie ich w zdrowiu można osiągnąć dzięki odpowiednim pokarmom. Oto najważniejsze z nich: Warzywa Pierwszą pozycją wśród pokarmów, które są dobre dla jelit, są warzywa. Odpowiednie są: •    Wszystkie rodzaje kapusty •    Szpinak •    Seler •    Rukola •    Babka lancetowata •    Liście i korzeń mniszka lekarskiego •    Boćwina. Wszystkie są doskonałymi prebiotykami. A czym jest prebiotyk? Jest pokarmem przyjaznej mikroflory jelitowej. Warto nadmienić o diecie Dąbrowskiej, w której warzywa odgrywają kluczową role. Zdaniem Dąbrowskiej proces głodówki (w tym wypadku ,,półgłodówki") zachodzi w momencie spożywania jedynie niesłodkich warzyw i owoców. To dzięki warzywom uzyskujemy odporność, dobre samopoczucie i energię. Ponadto warzywa są bogate w witaminę C i chlorofil, silne przeciwutleniacze i inne cenne składniki odżywcze. Błonnik gruby Przyczynia się do aktywnej pracy motoryki jelit, chroniąc przed zaparciami, oczyszczając jelita i usuwając z organizmu nadmiar cholesterolu. Rośliny strączkowe i zboża: •    Brązowy, dziki i czerwony ryż •    Kasza gryczana •    Komosa ryżowa •    Jęczmień i proso, soczewica, fasola, ciecierzyca •    Siemię lniane, chia i sezam. Wypełniają one organizm minerałami, aminokwasami i witaminami. Im więcej w diecie pokarmów zawierających rozpuszczalne i nierozpuszczalne (błonnik gruboziarnisty), tym lepiej będą się czuły jelita. Woda Płyny są niezbędne do prawidłowego funkcjonowania jelit, ale ważne jest, aby kontrolować je podczas spożywania dużej ilości tłuszczu i błonnika. Konieczne jest, aby grube włókna wchłaniały wodę. Po spuchnięciu mogą z łatwością przesuwać się po ściankach jelita, oczyszczając je z resztek produktów przemiany materii. Inną ważną właściwością wody jest jej zdolność do nadawania elastyczności tkankom. Nie jest tajemnicą, że ludzkie ciało w 80 procentach składa się z wody, więc bez wody tkanki ciała wysychają i stają się twarde. Odpowiednie nawodnienie umożliwia łatwe rozciąganie i kurczenie ścian jelit, chroniąc je przed uszkodzeniem. Zdrowe jelita, co jeść i pić, aby zachować ich sprawność? Ważne jest, aby zrozumieć, że herbata, kawa, soki i napoje gazowane nie tylko nie dostarczają nam wody, ale wręcz przeciwnie, powodują jeszcze większe odwodnienie.Tylko czysta woda pitna ma korzystne właściwości, maksymalnie - z dodatkiem liści mięty, świeżych owoców lub plasterka cytryny. Produkty fermentowane Niezbędne jest uzupełnienie swojego jadłospisu pokarmami bogatymi w probiotyki - mikroorganizmy, które utrzymują zdrową równowagę mikrobioty w jelitach. Produkty te obejmują wszystkie produkty fermentowane i fermentowane: •    Kapusta kiszona •    Ocet jabłkowy •    Ogórki kiszone i inne. Pokarmy fermentowane zwiększają równowagę przyjaznych bakterii w mikrobiocie, co pomaga hamować wzrost patogenów. « powrót do artykułu
  22. Machu Picchu mogło powstać całe dekady wcześniej, niż się uważa, czytamy na łamach pisma Antiquity. Ta królewska rezydencja powstała za rządów twórcy potęgi imperium Inków, Pachacutiego Inki Yupanquiego. Przyjmuje się, że objął on władzę w 1438 roku, a Machu Picchu zbudowano w latach 50. XV wieku. Jednak autorzy najnowszej pracy przekonują, że miejsce to było zasiedlone już wcześniej. Richard L. Burger, Lucy C. Slazar i Jason Nesbitt z Yale University oraz Eden Washburn i Lars Fehren-Schmitz z Unwersytetu Kalifornijskiego w Santa Cruz, przeprowadzili badania radiowęglowe kości i zębów osób pochowanych w jaskiniach na czterech cmentarzach wokół Machu Picchu. Wykazały one, że miejsce to było zamieszkane już ok. roku 1420. Było to zatem co najmniej 2 dekady przed tym, co możemy wyczytać w źródłach pisanych, wiążących Machu Picchu z Pachacutim. To zaś ma konsekwencje dla zrozumienia chronologii historii Inków. Mimo tego, że Machu Picchu cieszy się dużym zainteresowaniem naukowców, dotychczas nie datowano tego miejsca na podstawie akceleratorowej spektrometrii mas (AMS) z użyciem dużej próbki materiału. Brak takich prac wynikał w dużej mierze z opinii znacznej liczby archeologów, którzy uważali je za niepotrzebne, gdyż stwierdzali, że dokładne datowanie inkaskich miejsc takich jak Machu Picchu można przeprowadzić metodą analizy hiszpańskich tekstów historycznych. Zresztą już w 1945 roku John Rowe opublikował – opierając się na zapiskach historycznych – chronologię imperium Inków, która do dzisiaj pozostaje dominującym modelem używanym przy opisywaniu ich historii. Rowe stwierdził, że w 1438 roku armia Pachacutiego, po odparciu inwazji ludu Chanka, podbiła dolną część Doliny Urubamba, gdzie znajduje się Machu Picchu, a następnie Pachacuti rozszerzył swoją władzę na znaczną część centralnych Andów. Opierając się na hiszpańskiej XVI-wiecznej dokumentacji prawniczej, Rowe wykazał, że Machu Picchu powstało jako część królewskiej rezydencji znanej jako Picchu. Uczony argumentował, że rezydencja należała do Pachacutiego i uznał, iż kompleks powstał, by upamiętnić podbicie przez niego Urubamby. W chronologii Rowe'a Machu Picchu powstało pomiędzy objęciem władzy przez Pachacutiego (1438) a zanim jego syn Tupac Inca Yupanaqui objął dowództwo armii Imperium (1463) lub zasiadł na tronie (1471). Uczony przyznaje, że istnieją rozbieżności pomiędzy hiszpańskimi źródłami, jednak opierał się głównie na datach z kroniki z 1586 roku, której autorem jest Cabello de Balboa. Dotychczas jednak nie udało się ustalić, na jakich źródłach opierał się z kolei Balboa, jednak pamiętajmy, że w czasach, gdy Rowe pisał swoje dzieło, nie istniały inne metody ustalenia chronologii. W ostatnich latach zaczęły ukazywać się kolejne prace, w których użyto datowania, a wiele z wniosków wydaje się rozbieżnych z chronologią Rowe'a. Stąd też zarówno wezwania do ponownej oceny chronologii Rowe'a, jak i pojawiające się wątpliwości, co do datowania Machu Picchu. Machu Picchu było wiejskim pałacem inkaskiej rodziny królewskiej. Położone jest w odległości 75 kilometrów od stolicy, Cuzco. Podróż trwała zapewne 4–6 dni. Prawdopodobnie nie mieszkało w nim więcej niż 500 osób i mogło być atrakcyjnym miejscem wypoczynku elity, szczególnie w miesiącach zimowych, pomiędzy majem a sierpniem. Burger i jego grupa wykorzystali 26 próbek kości i zębów. Szczątki złożonych ludzi noszą niewiele śladów ciężkiej pracy fizycznej, nie widać też, by zginęli gwałtowną śmiercią. Większość znanych pochówków pochodzi z obrzeży królewskiego pałacu. Wszystko wskazuje na to, że pochowano tutaj członków świty królewskiej, zatem datowanie powinno dać odpowiedź na pytanie, od kiedy do Machu Picchu przybywała inkaska elita. Mało zaś jest prawdopodobne, by obecność elity była związana z samym okresem budowy pałacu. Ci, którzy budowali Machu Picchu chowali swoich zmarłych w wioskach, z których pochodzili. Zarówno same szkielety, nie noszące śladów ciężkiej pracy fizycznej, oraz przedmioty z nimi złożone, wskazują na pałacową elitę. A zatem na czas, w jakim Machu Picchu było zamieszkane. Sama budowa musiała zaś mieć miejsce wcześniej. Na podstawie przeprowadzonych badań ich autorzy doszli do wniosku, że Machu Picchu było nieprzerwanie zamieszkane przez inkaską elitę w latach 1420–1530. Jeśli uczeni mają rację i kolejne badania potwierdzą takie datowanie, będzie to oznaczało, że Pachacuti – twórca potęgi inkaskiego imperium – wstąpił na tron o co najmniej 2 dekady wcześniej niż się przyjmuje. Zatem kolejne jego podboje również musiały mieć miejsce wcześniej. Taki wnioski znajdują poparcie w innych badaniach, podczas których prowadzono datowanie w Cuzco i okolicach. Jednocześnie Burger i jego koledzy podkreślają, że w ich badaniach nie ma niczego, co pozwoliłoby przyznać rację niektórym autorom postulującym przesunięcie początku rządów Pachacutiego na końcówkę XIV wieku. « powrót do artykułu
  23. W Uniwersyteckim Szpitalu Klinicznym w Opolu przeprowadzono endoskopową separację nowotworu kręgosłupa z wykorzystaniem nowoczesnych implantów. To pierwszy taki zabieg w Polsce - podkreśla dr hab. n. med. Dariusz Łątka, kierownik Kliniki i Oddziału Neurochirurgii. Naszym zadaniem podczas tej operacji było usunięcie części nowotworu kręgosłupa, będącej w bezpośrednim kontakcie z rdzeniem kręgowym, żeby umożliwić kolejny, właściwy, etap radykalnego leczenia onkologicznego przez stereoradioterapię - wyjaśnia. Zabieg przeprowadzono u 50-letniego pacjenta ze zdiagnozowanym nowotworem w piersiowym odcinku kręgosłupa (wywołuje on postępujący niedowład kończyn dolnych). Kompleksowa terapia jest realizowana we współpracy z onkologiem - lek. med. Kornelem Pawlakiem z Opolskiego Centrum Onkologii. Dzięki separacji radioterapeuta będzie mógł tak zdefiniować obszary chronione, by przy napromienianiu nie doszło do uszkodzenia rdzenia kręgowego. Takie zabiegi neurochirurgiczne wykonywane są w kilku ośrodkach zajmujących się chirurgią onkologiczną kręgosłupa. Innowacyjność naszego rozwiązania polega - po pierwsze - na zastosowaniu do tego techniki endoskopowej, wykorzystywanej dotychczas w neurochirurgii do leczenia zmian zwyrodnieniowych kręgosłupa. Separacja nowotworu przez endoskop, czyli jakby przez "dziurkę od klucza", pozwoli na dużo szybszą rekonwalescencję pacjenta przed zasadniczą częścią leczenia, czyli radioterapią. Zakładamy, że powinien być gotowy do leczenia onkologicznego już po kilku dniach. Drugą nowością było, jak podkreślono w komunikacie prasowym szpitala, zastosowanie do stabilizacji kręgosłupa ultranowoczesnych implantów karbonowych. Nie zasłonią one pola napromieniania, jak działoby się przy implantach tytanowych - mówi Łątka. Zespół chirurgiczny tworzony przez dr. n. med. Kajetana Łątkę i lek. med. Tomasza Krzeszowca nadzorował dr hab. n. med. Dariusz Łątka. Instrumentariuszkami były Aleksandra Babicz, Karolina Tybeńska i Violetta Szopa; znieczulenie prowadziła Agnieszka Wróbel w asyście Doroty Pietrek i Beaty Lechkun. « powrót do artykułu
  24. Naukowcy z UT Southwestern prawdopodobnie odkryli piętę achillesową raka jajnika oraz biomarkery, za pomocą których można będzie zidentyfikować pacjentki najbardziej podatne na nowe metody leczenia. Wielu specjalistów próbuje znaleźć różnego typu zależności i powiązania w guzach nowotworowych, starając się dowiedzieć, dlaczego komórki nowotworowe uruchamiają niektóre geny, zwiększają poziom białek, biorą udział w regulacji szlaków sygnałowych. Tego typu zmiany dają nowotworom wybiórczą przewagę, ale mogą być też ich piętą achillesową, gdyż jeśli uniemożliwimy im tego typu działania, to może je zabić lub powstrzymać ich wzrost, mówi profesor W. Lee Kraus. Kraus wraz ze swoim zespołem odkryli, że w nowotworze jajnika dochodzi do znaczącego wzmocnienia działania enzymu NMNAT-2, który bierze udział w powstawaniu NAD+. Z kolei proces syntezy NAD+ odgrywa kluczową rolę w rozwoju nowotworów jajnika. Proteina PARP16 wykorzystuje bowiem NAD+ do modyfikowania rybosomów, które odpowiadają za syntezę białek w komórce. Rak jajnika zwiększa ilość NMNAT-2, by podnieść poziom NAD+ dostępnego dla PARP16. To daje mu selektywną przewagę, gdyż pozwala na odpowiednie dostrojenie poziomu translacji i zapobiega toksycznemu nagromadzeniu białek. Jednak ta przewaga może też stać się piętą achillesową choroby, gdyż jest uzależnioną od NMNAT-2, zatem jego zablokowanie powstrzyma wzrost nowotworu, wyjaśnia Kraus. Naukowcy chcieliby zaatakować raka jajnika blokując działanie PARP16. Obecnie nikt nie prowadzi badań klinicznych nad inhibitorami PARP16, jednak w laboratoriach trwają prace nad takimi środkami. Mogą stać się one efektywnym lekiem na nowotwór jajnika, stwierdza Kraus. « powrót do artykułu
  25. Farnezol, naturalny związek obecny w ziołach, owocach i grzybach, odwraca uszkodzenia mózgu spowodowane chorobą Parkinsona, poinformował międzynarodowy zespół naukowy kierowany przez specjalistów z Wydziału Medycyny Uniwersytetu Johnsa Hopkinsa. Badania nad farnezolem były prowadzone na myszach. Objawy choroby Parkinsona, jak drżenie mięśni i ich sztywność, demencja czy dezorientacja są powodowane przez utratę neuronów wydzielających dopaminę, neuroprzekaźnik regulujący zachowanie, poruszanie się czy procesy poznawcze. Utratę neuronów dopaminowych widać najbardziej w istocie czarnej śródmózgowia. Teraz naukowcy wykazali, że farnezol zapobiega utracie neuronów dopaminergicznych poprzez blokowanie działania proteiny PARIS (parking-interacting substrate). Wcześniejsze autopsje mózgów osób z parkinsonizmem wykazały, że w przebiegu tej choroby pojawia się zwiększony poziom PARIS w związku z dezaktywacją enzymu parkin, który jest odpowiedzialny za rozkładanie PARIS. Dlatego też naukowcy postanowili poszukać środków, które miałyby potencjał blokowania PARIS. Przeanalizowali więc dostępne bazy danych i ich wybór padł na farnezol. Szczegóły swoich badań opisali w artykule PARIS farnesylation prevents neurodegeneration in models of Parkinson’s disease opublikowanym na łamach Translational Medicine. Nasze badania wykazały, że farnezol zarówno zapobiega utracie neuronów dopaminergicznych, jak i odwraca u myszy deficyty poznawcze, co sugeruje, że może być obiecującym lekiem przeciwko chorobie Parkinsona, mówi doktor Ted Dawse, dyrektor Insitute for Cell Engineering i profesor neurologii na Wydziale Medycyny Johnsa Hopkinsa. Gromadzenie się PARIS spowalnia syntezę proteiny PGC-1α, która chroni komórki mózgu przed uszkodzeniami przez reaktywne formy tlenu. Gdy PGC-1α nie działa, neurony dopaminergiczne giną, gdyż nie są w stanie poradzić sobie z wysokim poziomem reaktywnego tlenu. Naukowcy, chcąc sprawdzić, czy farnezol chroni mózg przed akumulacją PARIS, przez tydzień karmili myszy albo standardową dietą, albo dietą z dodatkiem farnezolu. Wykorzystali przy tym różne mysie modele choroby Parkinsona. Użyli transgenicznych myszy, których organizmy wytwarzały zbyt dużo PARIS, zwierzęta, którym wstrzyknięto do śródmózgowia adenowirusy zawierające PARIS, myszy z selektywnie dezaktywowanym parkin oraz zwierzęta, u których parkinsonizm wywołano wstrzykując im α-synukleinę (ASN). We wszystkich tych modelach wykazano, że myszy przyjmujące farnezol lepiej sobie radzą w testach siły i koordynacji. Zaś po przeprowadzeniu autopsji mózgów myszy stwierdzono, że zwierzęta przyjmujące farnezol mają dwukrotnie więcej zdrowych neuronów dopaminergicznych niż grupa kontrolna. Miały też około 55% więcej PGC-1alfa. Podczas eksperymentów biochemicznych uczeni potwierdzili, że farnezol łączy się z PARIS w procesie farnezylacji, zmieniając kształt tej proteiny tak, że nie jest ona w stanie zapobiegać produkcji PGC-1α. Farnezol jest produktem naturalnym, jest też wytwarzany syntetycznie i używany zarówno w przemyśle spożywczym, jak i kosmetycznym. Nie wiadomo, jak wiele farnezolu przyjmujemy w standardowej diecie. Naukowcy ostrzegają jednak, że nie znamy bezpiecznego poziomu tego środka. By go określić potrzebne będą kontrolowane testy kliniczne. « powrót do artykułu
×
×
  • Dodaj nową pozycję...