Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36799
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    211

Zawartość dodana przez KopalniaWiedzy.pl

  1. W ostatnich dekadach rośnie liczba alergii na orzechy. Uczulonych na nie jest coraz więcej dzieci, a alergia zwykle rozwija się przed 12 miesiącem życia. Tymczasem eksperci coraz częściej mówią o tym, że wczesne rozpoczęcie podawania dziecku orzechów zmniejsza ryzyko wystąpienia u niego alergii. Profesor Graham Roberts z brytyjskiego National Institute for Health and Care Research oraz University of Southampton i profesor Gideon Lack z King's College London i amerykańskiego National Institute of Allergy and Infectious Diseases (NIAID) stanęli na czele grupy badawczej, która zidentyfikowała właściwy moment, w którym dzieciom należy rozpocząć podawanie orzechów. Na łamach Journal of Allergy and Clinical Immunology uczeni informują, że w zależności od zdrowia dziecka orzechy można wprowadzać do diety pomiędzy 4. a 6. miesiącem życia. Naukowcy przeanalizowali dane z przeprowadzonych przez profesora Lacka kontrolowanych randomizowanych badań Enquiring About Tolerance (EAT) i Learning Early About Peanut Allergy (LEAP) oraz z badań obserwacyjnych Peanut Allergy Sensitization. W badaniach uwzględniano zarówno dzieci, u których ryzyko wystąpienia alergii na orzechy było niskie, jak i takie, u których było ono wysokie. Do tej drugiej grupy należą m.in. dzieci, u których wystąpiła egzema czy uczulenie na białko jaja. Analizy wykazały, że orzechy najlepiej wprowadzać między 4. a 6. miesiącem życia, a w przypadku dzieci z większym ryzykiem rozwoju alergii lepiej zrobić to w 4. miesiącu. Pożywienie powinno mieć formę gładkiego masła orzechowego lub innych pokarmów przystosowanych do tak małych dzieci, a nie całych orzechów. Należy oczywiście wziąć pod uwagę, czy dziecko jest już gotowe do wprowadzenia pokarmów stałych. Naukowcy zalecają też, by matki karmiły piersią do co najmniej 6. miesiąca i by do swojej diety wprowadzały orzechy, pomiędzy 4. a 6. miesiącem życia dziecka. Dane pokazują, że jeśli dzieci jadłyby orzechy przed 6. miesiącem życia, to liczba alergików zmniejszyłaby się nawet o 77%. Im później orzechy staną się częścią diety dziecka, tym mniejsza redukcja ryzyka rozwoju alergii. Przez wiele dekad rodzice celowo unikali podawania dzieciom orzechów, przez co pojawił się strach przed ich wczesnym wprowadzaniem do dity. Ostatnie dowody naukowe pokazują, że prosta i tania metoda [wprowadzenie orzechów do diety kilkumiesięcznego dziecka – red.] może zmienić stan zdrowia całej populacji i przynieść korzyści przyszłym pokoleniom, mówi profesor Roberts. Już w 2017 roku amerykański Narodowy Instytut Alergii i Chorób Zakaźnych (NIAID) wydał zalecenia, by orzechy podawać już dzieciom w wieku 4–6 miesięcy. Wcześniej podobne zalecenia wydano w Australii. Australijscy naukowcy stwierdzili wówczas, że odrzucają dotychczasowe przekonanie, zgodnie z którym odroczony kontakt z alergenami pokarmowymi w dzieciństwie zmniejsza ilość alergii. Nasze nowe zalecenia mówią, że wszystkie dzieci powinny już w pierwszym roku życia otrzymywać pokarmy alergizujące, takie jak masło orzechowe, ugotowane jajka, produkty mleczne i pszenicę. Dotyczy to też dzieci z wysokim ryzykiem rozwoju alergii. « powrót do artykułu
  2. W zeszłym tygodniu w Samodzielnym Publicznym Szpitalu Klinicznym nr 2 PUM w Szczecinie pobrano nerkę od żywego dawcy z wykorzystaniem robota da Vinci. To pierwsza taka operacja w szpitalu na Pomorzanach i trzecie pobranie nerki z wykorzystaniem systemu robotycznego w Polsce. Dawczynią była matka, która oddała nerkę swojemu synowi. Pobrania dokonali urolodzy z Kliniki Urologii i Onkologii Urologicznej SPSK-2. Wypreparowanie narządu przeprowadzono ze wsparciem robota, a samo wyjęcie nerki nastąpiło laparoskopowo. Jak wyjaśniono w komunikacie, pobraną nerkę przekazano na drugą salę operacyjną zespołowi chirurgów Kliniki Chirurgii Ogólnej i Transplantacyjnej, gdzie we współpracy z urologiem przeszczepiono ją biorcy. I mama, i syn czują się dobrze. Robot chirurgiczny pozwala na bardzo precyzyjny wgląd w anatomię szczególnie tzw. wnęki nerkowej, co ma znaczący wpływ na bezpieczeństwo dawcy oraz na jakość pobranego narządu. Przy planowaniu operacji wykorzystano precyzyjny wydrukowany model 3D nerki dawcy, co znacząco wpłynęło na bezpieczeństwo zabiegu. Operacja była możliwa dzięki dużemu, wieloletniemu, doświadczeniu zespołu urologicznego w dziedzinie chirurgii robotycznej i laparoskopowej oraz ścisłej współpracy zespołu nefrologiczno-transplantacyjno-urologicznego - podkreśla urolog prof. dr hab. n. med. Marcin Słojewski. W zabiegu wzięli udział urolodzy - prof. Słojewski i dr n. med. Janusz Lisiński, chirurdzy - prof. dr hab. n. med. Marek Ostrowski i dr hab. n. med. Karol Tejchman, anestezjolog lek. Karolina Szliżewska, pielęgniarki operacyjne - lic. piel. Magdalena Bruzgo, lic. piel. Wiktoria Ciach, piel. Wioleta Lewandowska oraz mgr piel. Małgorzata Skubisz, a także pielęgniarki anestezjologiczne - piel. Beata Wiącek i mgr piel. Beata Zygadlik. W przygotowanie zabiegu zaangażowani byli również nefrolog dr hab. n. med. Ewa Kwiatkowska, psycholog mgr Ewa Cichocka, koordynator zespołu transplantacyjnego piel. Wojciech Brzóska i kierownik Ośrodka Medycznych Technologii 3D dr n. med. Paweł Rynio. « powrót do artykułu
  3. Naukowcy z Uniwersytetu Kalifornijskiego w Riverside (UC Riverside) dokonali niespodziewanego odkrycia. Silny gaz cieplarniany, metan, nie tylko ogrzewa Ziemię, ale i... ją ochładza. Nowo odkrytego zjawiska nie uwzględniono jeszcze w modelach klimatycznych. Gazy cieplarniane tworzą w atmosferze Ziemi warstwę przypominającą koc, która blokuje promieniowanie długofalowe, przez co utrudnia wypromieniowywanie ciepła przez planetę ogrzewaną przez Słońce. To prowadzi do wzrostu temperatury na powierzchni. Naukowcy z UC Riverside zauważyli niedawno, że znajdujący się w atmosferze metan absorbuje krótkofalowe promieniowanie ze Słońca. To powinno ogrzewać planetę. Jednak – wbrew intuicji – absorpcja promieniowania krótkofalowego prowadzi do takich zmian w chmurach, które mają niewielki efekt chłodzący, mówi profesor Robert Allen. Na podstawie przygotowanego modelu komputerowego naukowcy obliczyli, że dzięki temu efektowi chłodzącemu metan kompensuje ok. 30% swojego wpływu ocieplającego. Z tym zjawiskiem wiąże się też drugi, niespodziewany, mechanizm. Metan zwiększa ilość opadów, ale jeśli weźmiemy pod uwagę jego efekt chłodzący, to ten wzrost opadów powodowany przez metan jest o 60% mniejszy, niż bez efektu chłodzącego. Oba rodzaje energii, długofalowa z Ziemi i krótkofalowa ze Słońca, uciekają z atmosfery w większej ilości niż są do niej dostarczane. Atmosfera potrzebuje więc mechanizmu kompensującego ten niedobór. A kompensuje go ciepłem uzyskiwanym z kondensującej się pary wodny. Ta kondensacja objawia się w opadach. Opady to źródło ciepła, dzięki któremu atmosfera utrzymuje równowagę energetyczną, mówi Ryan Kramer z NASA. Jednak metan zmienia to równanie. Zatrzymuje on w atmosferze energię ze Słońca, przez co atmosfera nie musi pozyskiwać jej z opadów. Ponadto absorbując część energii metan zmniejsza jej ilość, jaka dociera do powierzchni Ziemi. To zaś zmniejsza parowanie. A zmniejszenie parowania prowadzi do zmniejszenia opadów. Odkrycie to ma znaczenie dla lepszego zrozumienia wpływu metanu i być może innych gazów cieplarnianych na klimat. Absorpcja promieniowania krótkofalowego łagodzi ocieplenie i zmniejsza opady, ale ich nie eliminuje, dodaje Allen. W ostatnich latach naukowcy zaczęli bardziej interesować się wpływem metanu na klimat. Emisja tego gazu rośnie, a głównymi jego antropogenicznymi źródłami są rolnictwo, przemysł i wysypiska odpadów. Istnieje obawa, że w miarę roztapiania się wiecznej zmarzliny, uwolnią się z niej olbrzymie ilości metanu. Potrafimy dokładnie mierzyć stężenie gazów cieplarnianych w atmosferze. Musimy jak najlepiej rozumieć, co te wartości oznaczają. Badania takie jak te prowadzą nas do tego celu, mówi Ryan Kramer. « powrót do artykułu
  4. Naukowcy z Instytutu Psychologii UJ oraz Karolinska Institutet zauważyli, że osoby niewidome lepiej od widzących wyczuwają bicie własnego serca. To odkrycie sugeruje, że po utracie wzroku mózg lepiej wyczuwa sygnały dobiegające z wnętrza organizmu. Autorzy badań opublikowali na łamach Journal of Experimental Psychology: General artykuł, w którym opisali wyniki eksperymentu z udziałem 36 widzących oraz 36 niewidomych ochotników. Obie grupy zostały odpowiednio dobrane pod względem wieku i płci. Zadaniem badanych było skupienie się na biciu własnego serca i liczenie liczby uderzeń. Nie mogli sprawdzać pulsu ręcznie. Liczenie w ten sposób odbywało się kilkukrotnie, przez krótkie okresy, których długości badani nie znali. Naukowcy prosili ich następnie o podanie liczy uderzeń, a odpowiedzi porównywano z rzeczywistą zarejestrowaną ich liczbą. Ponadto uczestnicy oceniali, na skali 0–10, jak dobrze wykonali zadanie. Okazało się, że osoby niewidome uzyskały lepsze wyniki. Nasze wyniki są istotnym krokiem w badaniach nad plastycznością mózgu i pokazują, że u osób niewidomych wyostrza się nie tylko słuch i dotyk, jak wiemy z poprzednich badań, ale także dostęp do sygnałów z wnętrza ciała. To z kolei pozwala nam lepiej zrozumieć, w jaki sposób osoby niewidome postrzegają swoje emocje przy braku informacji wzrokowej, mówi profesor Marcin Szwed. Eksperyment to część większego projektu, w ramach których Karolinska Institutet zajmuje się problemami percepcji ciała, a Instytut Psychologii UJ – plastycznością mózgu. Obie instytucje postanowiły wkroczyć na niemal nieznany temat badawczy i sprawdzić, w jaki sposób osoby niewidome postrzegają własne ciała. Naukowcy chcą przygotować pierwszy szczegółowy opis różnić i podobieństw w postrzeganiu własnego ciała przez osoby widzące i niewidome. Ich praca już spotkała się z zainteresowaniem. Napłynęły właśnie bardzo entuzjastyczne recenzje artykułu o społecznym i emocjonalnym odbiorze dotyku u niewidomych. Profesor Szwed i mgr Dominika Radziun zapowiadają, że wkrótce ukaże się kolejna publikacja zespołu. « powrót do artykułu
  5. Na zakończonej przed dwoma dniami Recontres de Moriond, organizowanej od 1966 roku dorocznej konferencji, podczas której omawiane są najnowsze osiągnięcia fizyki, naukowcy CERN-u poinformowali o zaobserwowaniu jednoczesnego powstania czterech kwarków wysokich (kwarków t). To rzadkie wydarzenie zarejestrowały zespoły pracujący przy eksperymentach ATLAS i CMS, a może ono pozwolić na badanie zjawisk fizycznych wykraczających poza Model Standardowy. Co niezwykle ważne, obserwacje dokonane zarówno przez ATLAS jak i CMS przekraczają statystyczny poziom ufności 5σ, przy którym można mówić o dokonaniu odkrycia. W przypadku ATLAS poziom ten wyniósł 6.1σ, a w przypadku CMS – 5.5σ. Kwark wysoki to najbardziej masywna cząstka Modelu Standardowego, a to oznacza, że jest najsilniej powiązana z bozonem Higgsa. Dzięki temu kwarki t to najlepsze cząstki mogące posłużyć do badania fizyki poza Modelem Standardowym. Najczęściej kwarki t obserwowane są w parach z odpowiadającym im antykwarkiem. Czasem powstają samodzielnie. Według Modelu Standardowego istnieje możliwość jednoczesnego powstania czterech kwarków wysokich czyli dwóch par składających się z kwarka i antykwarka. Jednak prawdopodobieństwo takiego zdarzenia jest 70 tysięcy razy mniejsze niż prawdopodobieństwo powstania pary kwark-antykwark. Zatem uchwycenie czterech kwarków t jest niezwykle trudne. ATLAS już w roku 2020 i 2021 zarejestrował pewne sygnały sugerujące, że doszło do jednoczesnego powstania czterech kwarków t, a CMS wykrył taki sygnał w 2022 roku, jednak dotychczas poza pewnym wskazówkami, nigdy nie zdobyto pewności. Nie zarejestrowano takiego wydarzenia. Nie dość, że to rzadkie wydarzenie, jest ono trudne do zarejestrowania. Fizycy, rozglądając się za konkretnymi cząstkami, szukają ich sygnatur, czyli produktów rozpadu. Kwark t rozpada się na bozon W i kwark niski (kwark b), a bozon W rozpada się następnie albo na naładowany lepton i neutrino, albo na parę kwark-antykwark. A to oznacza, że sygnatura wydarzenia, w ramach którego jednocześnie powstały cztery kwarki t może zawierać od 0 do 4 naładowanych leptonów i do 12 dżetów powstających w wyniku hadronizacji kwarków. Znalezienie takiej sygnatury jest więc trudne. Na potrzeby badań naukowcy z ATLAS i CMS wykorzystali nowatorskie techniki maszynowego uczenia, dzięki którym algorytm wyłowił z olbrzymiej ilości danych te informacje, które mogły być sygnaturami powstania czterech kwarków t. Skoro się to udało, naukowcy mają nadzieję, że podczas obecnie trwającej kampanii badawczej – Run 3 – zarejestrowanych zostanie więcej tego typu zdarzeń. Run 3 potrwa, z przerwami, do końca 2025 roku. W grudniu 2025 Wielki Zderzacz Hadronów zostanie zamknięty, a przerwa potrwa aż do lutego 2029. « powrót do artykułu
  6. Technologia blockchain stała się w ostatnich latach modnym hasłem, a wiele osób słyszało o niej w związku z powstaniem kryptowalut takich jak bitcoin. Ale czym jest technologia blockchain i jak działa? Jeśli chcesz zgłębić ten temat ze szczegółami mnóstwo materiałów edukacyjnych i poradnikowych znajdziesz na stronie giełdy kryptowalut Kanga Exchange. W tym artykule natomiast zbadamy podstawy technologii blockchain i jej wpływ na rynek kryptowalut. Co to jest blockchain? Technologia blockchain to zdecentralizowany system ksiąg rachunkowych, który umożliwia bezpieczne i przejrzyste transakcje bez konieczności korzystania z pośredników. Po raz pierwszy została wprowadzona w 2008 roku jako technologia bazowa bitcoina, pierwszej na świecie kryptowaluty. Od tego czasu popularność kryptowalut rośnie, wraz z pojawieniem się nowych walut cyfrowych i coraz częstszym przyjmowaniem technologii blockchain w różnych branżach. Jak działa technologia Blockchain? Technologia blockchain działa poprzez stworzenie zdecentralizowanej sieci komputerów, które przechowują i weryfikują transakcje. Każda transakcja jest dodawana do bloku, który jest zabezpieczony kryptograficznie i połączony z poprzednim blokiem, tworząc łańcuch bloków lub "blockchain". Zdecentralizowany charakter sieci zapewnia, że żaden pojedynczy podmiot nie ma kontroli nad systemem, dzięki czemu jest on bardziej bezpieczny i odporny na manipulacje. Algorytmy konsensusu, takie jak Proof of Work i Proof of Stake, są używane do zapewnienia, że wszystkie węzły w sieci zgadzają się na stan blockchaina. Związek między technologią Blockchain a kryptowalutami Technologia Blockchain odgrywa krytyczną rolę w tworzeniu i funkcjonowaniu kryptowalut. Umożliwia bezpieczne i przejrzyste transakcje poprzez zapewnienie, że wszystkie transakcje są weryfikowane i rejestrowane w sieci blockchain. Zastosowanie technologii blockchain eliminuje również potrzebę pośredników, dzięki czemu transakcje są szybsze i bardziej opłacalne. Blockchain ma potencjał zrewolucjonizowania branży finansowej poprzez umożliwienie tworzenia zdecentralizowanych systemów finansowych, które są bardziej bezpieczne, przejrzyste i dostępne dla wszystkich. Wpływ technologii Blockchain na rynek kryptowalut Technologia Blockchain wywarła znaczący wpływ na rynek kryptowalut. Zapewniając zdecentralizowany i bezpieczny system transakcji, blockchain pomógł stworzyć zaufanie i legitymację na rynku. Zwiększył również szybkość i zmniejszył koszty transakcji, dzięki czemu handel kryptowalutami stał się bardziej dostępny dla szerszej publiczności. Dodatkowo blockchain ma potencjał, aby zmniejszyć oszustwa i zwiększyć wydajność na rynku kryptowalut poprzez zapewnienie przejrzystego i niezmiennego zapisu wszystkich transakcji. Rewolucja rynków finansowych Podsumowując, technologia blockchain jest podstawą kryptowalut, umożliwiając bezpieczne i przejrzyste transakcje. Ma potencjał zrewolucjonizowania branży finansowej poprzez stworzenie zdecentralizowanych i wydajnych systemów. Wpływ blockchain na rynek kryptowalut jest znaczący, dając zwiększone zaufanie, szybkość i opłacalność transakcji. W Kanga Exchange wierzymy, że przyszłość technologii blockchain kryje w sobie wiele możliwości dalszego rozwoju i innowacji, co niewątpliwie ukształtuje rynek, nie tylko kryptowalut w nadchodzących latach. « powrót do artykułu
  7. Cukrzycą określa się grupę chorób metabolicznych charakteryzującą się przewlekłą hiperglikemią czyli podwyższonym poziomem glukozy we krwi. Istotną rolę w regulacji gospodarki węglowodanowej we krwi odgrywa insulina - hormon który wydzielany jest przez trzustkę. Insulina odpowiada za regulację transportu glukozy do komórek zmniejszając jej poziom we krwi obwodowej. Obecnie wyróżniamy dwa główne typy cukrzycy: Cukrzycę typu 1, w której dochodzi do zniszczenia komórek beta trzustki co prowadzi z reguły do bezwzględnego braku insuliny. Cukrzycę typu 2, nabytą, która spowodowana jest najczęściej opornością tkanek na insulinę. Cukrzyca charakteryzuje się objawami klinicznymi tj.: zwiększenie częstości oddawania moczu, wzmożone pragnienie, osłabienie, nieuzasadnione zmniejszenie masy ciała. U większości osób objawy te występują późno zatem konieczne jest wykonywanie badań przesiewowych. Współczesna medycyna posiada szeroki wachlarz badań dzięki, którym możemy diagnozować cukrzycę, stany przedcukrzycowe, insulinooporność oraz funkcje wydzielnicze trzustki. Wśród tych badań można wyróżnić: badanie glukozy na czczo, badanie glikemii przygodnej, badanie glukozy w moczu, doustny test obciążenia glukozą (OGTT), badanie peptydu-c, badanie odsetka hemoglobiny glikowanej (HbA1c), monitorowanie poziomu glukozy za pomocą glukometru oraz CGM. Według stanowiska Polskiego Towarzystwa Diabetologicznego z 2019 roku, podstawą do rozpoznania cukrzycy jest występowanie 1 z 3 kryteriów: – objawy hiperglikemii i glikemia przygodna ≥ 200 mg/dl, – dwukrotna glikemia na czczo ≥ 126 mg/dl, – glikemia 2h po posiłku ≥ 200 mg/dl. W roku 2021 Polskie Towarzystwo Diabetologiczne zdecydowało się umieścić w Zaleceniach dotyczących postępowania u chorych na cukrzycę badanie odsetka hemoglobiny glikowanej (HbA1c) w kryteriach rozpoznania cukrzycy. Do tej pory badanie to było stosowane do określania wyrównania cukrzycy u pacjentów na przełomie ostatnich trzech miesięcy. Aktualne zalecenia podają, iż lekarz może rozpoznać cukrzycę u pacjenta z wynikiem HbA1c powyżej 6,5%. Nasuwa się pytanie, czy badane odsetka hemoglobiny glikowanej może zastąpić doustny test obciążenia glukozą (OGTT) w rozpoznawaniu zaburzeń gospodarki węglowodanowej? Doustny test tolerancji glukozy (OGTT) został stworzony, aby określać tolerancję węglowodanów w organizmie. Badanie polega na pobraniu krwi żylnej na czczo oraz po 1 i 2 godzinach od wypicia 75g roztworu glukozy (*może się różnić w zależności od zaleceń lekarza). Podczas tego testu można równocześnie oznaczyć poziom glukozy i insuliny. Dzięki temu jest stosowany do określania tolerancji węglowodanów, zdolności komórek beta trzustki do wydzielania insuliny oraz wrażliwości tkanek na insulinę. Badane odsetka hemoglobiny glikowanej HbA1c jest stabilnym wskaźnikiem ekspozycji na glikemię przez okres ostatnich 3 miesięcy. Używano go do tej pory do monitorowania terapii u pacjentów z zdiagnozowaną cukrzycą. Za prawidłowo wyrównaną glikemię uznaje się poziom HbA1c < 7% Powszechnie wiadomo, że na wynik doustnego testu tolerancji glukozy (OGTT) wpływ ma wiele czynników. Jednym z najważniejszych jest przygotowanie pacjenta do badania.Pacjent musi być bezwzględnie na czczo (12h przerwy od ostatniego posiłku). Badania nie można wykonywać w czasie choroby, ciężkich treningów, ani w czasie stosowania nagłych restrykcji pokarmowych. Czas trwania badania to około 2 godziny i może się on wydłużyć w zależności od zaleceń lekarza. W tym czasie nie można nic jeść ani pić, nie można także wykonywać nadmiernej aktywności fizycznej. Zaleca się pozostanie w przychodni bądź laboratorium przez cały czas trwania badania.Obowiązkiem personelu jest zwrócić szczególną uwagę na przeprowadzenie z pacjentem dokładnego wywiadu oraz staranne przygotowanie do pobrania krwi gdyż częste powtarzanie tego badania nie pozostaje bez wpływu na organizm. Natomiast badanie HbA1c jest mniej wrażliwe na błędy fazy przedanalitycznej i analitycznej. Badanie to można wykonać o każdej porze dnia bez konieczności bycia na czczo. Parametr oznaczany jest z jednego pobrania, a badanie można również wykonać z materiału krew EDTA pobranego do badania morfologii krwi. Analizując tylko fazę przed analityczną i analityczną badań można stwierdzić, że test HbA1c jest rokującym kandydatem do skriningu pacjentów w celu rozpoznania cukrzycy. Czy zatem występuje istotna korelacja pomiędzy wynikami tych badań u diagnozowanych pacjentów? Esther Y T Yu i wsp. na Uniwersytecie w Hong Kongu przeprowadzili badania wśród 1128 osób, z których 229 miało zdiagnozowaną cukrzycą na podstawie testu OGTT. Czułość i swoistość testu HbA1c ≥ 6.5% wynosiły odpowiednio 33,2% i 93,5% u osób z wcześniej zdiagnozowaną cukrzycą na podstawie testu OGTT. Kiedy progiem odcięcia różnicowania chorych na cukrzycę było HbA1c ≥ 6,3% czułość i swoistość wynosiła odpowiednio 56,3% i 85,5%. Dla progu HbA1c ≥ 5,6% ma najwyższą czułość i swoistość wynoszącą odpowiednio 96,1% oraz 94.5% X. L. Dong i wsp. również przeprowadzili badania porównując wyniki badania HbA1c oraz testu OGTT. Wśród 701 uczestników badania, u 65 z nich została zdiagnozowana cukrzyca na podstawie badania HbA1c ≥ 6.5 % natomiast u 94 uczestników zdiagnozowano cukrzycę testem OGTT. W porównaniu z testem OGTT czułość i swoistość przy HbA1c > 6.5 % była odpowiednio 48.2% oraz 97.8%. Aż u 30,7% uczestników u których wynik badania HbA1c był powyżej 6.5% nie została zdiagnozowana cukrzyca na podstawie testu OGTT. Natomiast u 52%, u których na podstawie testu OGTT została zdiagnozowana cukrzyca, nie wykryto jej badaniem HbA1c ≥ 6.5 % Specyfika testu OGTT powoduje bardzo sceptyczne nastawienie pacjentów do niego. Łatwiejsze i bardziej komfortowe wydaje się być wykonanie badania HbA1c. Badanie odsetka hemoglobiny glikowanej może mieć istotne zastosowanie w monitorowaniu leczenia cukrzycy oraz może być jednym z badań wskazujących rozpoznanie choroby, ale wyniki HbA1c poniżej 6,5% nie wskazują na brak cukrzycy lub stanu przedcukrzycowego u pacjenta ze względu na niską czułość badania. U tych pacjentów należy przeprowadzić dodatkową diagnostykę. BIBLIOGRAFIA: Current Topics in Diabetes 2022 | Curr Top Diabetes, 2022; 2 (1): 1–134 Dong XL, Liu Y, Sun Y, Sun C, Fu FM, Wang SL, Chen L. Comparison of HbA1c and OGTT criteria to diagnose diabetes among Chinese. Exp Clin Endocrinol Diabetes. 2011 Jun;119(6):366-9. doi: 10.1055/s-0030-1267183. Epub 2010 Nov 19. PMID: 21104578 Solnica B., Dembińska-Kieć A., W. Naskalski J. (2017) Diagnostyka laboratoryjna z elementami biochemii klinicznej. Wrocław: Edra Urban & Partner Yu EY, Wong CK, Ho SY, Wong SY, Lam CL. Can HbA1c replace OGTT for the diagnosis of diabetes mellitus among Chinese patients with impaired fasting glucose? Fam Pract. 2015 Dec;32(6):631-8. doi: 10.1093/fampra/cmv077. Epub 2015 Oct 14. PMID: 26467644; PMCID: PMC5926458. « powrót do artykułu
  8. Transfuzjologia jest działem medycyny, bez którego trudno wyobrazić sobie wiele zabiegów medycznych. Wiąże się ona z funkcjonowaniem i działalnością takich specjalności, jak chirurgia, kardiochirurgia, położnictwo, ginekologia, onkologia, pediatria, transplantologia i wiele innych. Jednak zanim krew zostanie podana pacjentowi, konieczne jest jej przebadanie oraz sprawdzenie, czy w surowicy/osoczu biorcy nie ma przeciwciał odpornościowych. Ich obecność stwarza zagrożenie pojawienia się reakcji hemolitycznych i dalszej immunizacji, w przypadku gdy krew nie będzie odpowiednio dobrana. Alloprzeciwciała u pacjentów wymagających leczenia krwią mogą powodować niepożądanie reakcje poprzetoczeniowe oraz chorobę hemolityczną u noworodka w przypadku kobiet ciężarnych. W celu wyeliminowania ryzyka wystąpienia takich niepożądanych reakcji, należy odpowiednio wcześnie wykryć obecność alloprzeciwciał. Leczenie krwią poprzedzone jest wykonaniem oznaczenia grupy krwi pacjenta oraz badaniem przeglądowym przeciwciał odpornościowych. Potwierdzony wynik badania grupy krwi uprawnia lekarza do zlecenia wykonania próby zgodności serologicznej, w której sprawdza się grupy skrócone biorcy oraz wszystkich dawców, wykonuje badanie przeglądowe przeciwciał oraz właściwą próbę zgodności – czyli reakcje krwinek dawców z surowicą bądź osoczem biorcy. Jeżeli w badaniu przeglądowym przeciwciał (czyli tzw. Screeningu), wszystkie reakcje są ujemne, pacjentowi dobiera się krew zgodną w obrębie układu ABO oraz antygenu D z układu Rh. U kobiet przed menopauzą- dodatkowo pozbawioną antygenu K z układu Kell, gdyż jest on silnym immunogenem. W przypadku, gdy screening przeciwciał jest dodatni, oznacza to, że pacjent posiada przeciwciała, które należy zidentyfikować. Wykonanie autokontroli umożliwia stwierdzić, czy wykryto obecność auto-, czy też alloprzeciwciał. Tylko odpowiednio dobrana krew, pozbawiona antygenu do którego pacjent wytworzył przeciwciała, będzie bezpieczna do podania, w przypadku konieczności transfuzji. Krew taka musi być wówczas dobrana w obrębie układu Rh, czyli antygenu D, C, E oraz antygenu K z układu Kell. Jest tak dlatego, że antygeny z układu Rh oraz Kell uznaje się za najbardziej immunogenne. Immunogenność odzwierciedla zdolność wywołania reakcji odpornościowej, skutkującej produkcją alloprzeciwciał. W związku z powyższym często obserwuje się u pacjentów obecność przeciwciał z wyżej wymienionych układów, jeżeli krew podana pacjentowi posiadała ten antygen. Pacjent, który wytworzył już przeciwciała odpornościowe może być również zdolny do odpowiedzi immunologicznej na inny antygen, a więc do dalszej immunizacji. Można się zastanawiać, jakie są przyczyny immunizacji. Istnieje wiele czynników warunkujących wytworzenie przeciwciał. Należy do nich stan immunologiczny pacjenta oraz obecność chorób, między innymi autoimmunologicznych. Toczący się w ustroju stan zapalny również sprzyja produkcji przeciwciał. Nie bez wpływu pozostają też przebyte ciąże i przyjmowane leki. Najczęściej w odpowiedzi na obcy antygen wytwarzane są przeciwciała o jednej swoistości. Zdarza się też tak, że w surowicy pacjenta można wykryć przeciwciała o dwóch,  trzech swoistościach lub nawet więcej. Wówczas identyfikacja takich przeciwciał staje się bardziej skomplikowana i czasochłonna. Wymaga poszerzenia badania o reakcje z dodatkowymi krwinkami w panelu krwinek wzorcowych stosowanych do identyfikacji, czy też zastosowania innych, niejednokrotnie czasochłonnych badań, takich jak np. adsorpcja i elucja. Stanowi to niemałe wyzwanie dla serologa. Najczęściej obserwuje się występowanie przeciwciał z układu Rh, Kell, MNS, Duffy, czy też Kidd. Wynik pacjenta, który posiada alloprzeciwciała ma szczególne znaczenie, w przypadku konieczności leczenia krwią. Pacjent powinien okazywać go przy każdej hospitalizacji. Informacja w nim zawarta, przyspieszy pracę serologa i tym samym dobór odpowiedniej krwi do przetoczeń, zwłaszcza w sytuacji, gdy konieczne jest ratowanie życia pacjenta. Wówczas zyskujemy czas, który musiałby zostać przeznaczony na identyfikację przeciwciał od samego początku. Piśmiennictwo Medyczne zasady pobierania krwi, oddzielania jej składników i wydawania, obowiązujące w jednostkach organizacyjnych publicznej służby krwi, red. M. Łętowska. Instytut Hematologii i Transfuzjologii, Warszawa 2014 Fabijańska- Mitek J., Bochenek- Jantczak D., Grajewska A., Wieczorek K.: Badania immunohematologiczne i organizacja krwiolecznictwa – kompendium, Fundacja Pro Pharmacia Futura, Warszawa 2017 Immunologia krwinek czerwonych. Grupy krwi., red. Fabijańska-Mitek J. OINPHARMA Sp. z o.o., Warszawa 2007 Korsak J., Łętowska M.: Transfuzjologia kliniczna, 2009 « powrót do artykułu
  9. U muszki owocowej naukowcy odkryli zupełnie nowy, nieznany u innych zwierząt, receptor smaku. Pozwala on muszce wykrywać substancje alkaliczne (zasadowe), o wysokim pH, i tym samym unikać toksycznych substancji i pożywienia. Autorzy odkrycia, naukowcy z Monell Chemical Senses Center, zauważyli, że gdy owocówka ma do wyboru pożywienie o neutralnym pH lub o zasadowym, wybiera neutralne. Jednak gdy zostanie pozbawiona odpowiednich receptorów, traci zdolność do odróżniania pożywienia zasadowego od neutralnego. U ludzi spożycie pokarmu o zbyt wysokim pH może doprowadzić m.in. do skurczów mięśni, nudności i drętwienia. U owocówek spożywanie takich pokarmów prowadzi do skrócenia życia. Uczeni pracujący pod kierunkiem doktora Yali Zhanga wykazali, że wspomniane receptory są głównym elementem, dzięki któremu muszki trzymają się z dala od szkodliwego alkalicznego otoczenia. Emily Liman z University of Southern California przyznaje, że odkrycie nieznanych receptorów u tak dobrze przebadanego zwierzęcia jak owocówka to spore zaskoczenie. Inni naukowcy zwracają uwagę, że odkrycie to może pomóc w badaniu smaku alkalicznego u innych organizmów. Większość organizmów jest w stanie prawidłowo funkcjonować w wąskim zakresie wartości pH, a to oznacza, że wyczuwanie zbyt wysokiej kwasowości lub zasadowości pokarmów powinno być niezwykle istotnym elementem ich przetrwania. Jednak współczesna nauka niezbyt dobrze rozumie kwestie wyczuwania tego typu smaków. Co prawda pojawiały się już wcześniej badania na ludziach i kotach sugerujące, że wyczuwanie zasadowości pokarmów może być rodzajem smaku, ale nie udało się tego udowodnić. Nowe badania zapewne nie będą miały bezpośredniego przełożenia na ludzi, gdyż nie mamy genu, który pozwalałby nam wyczuć „smak zasadowy”. Może jednak wiele powiedzieć o owadach i ich wyborach dotyczących np. miejsca składania jaj. Niewykluczone też, że pomoże w walce ze szkodnikami. « powrót do artykułu
  10. Drukarki 3D na dobre zadomowiły się w wielu dziedzinach życia, od rozrywki po przemysł kosmiczny. Na łamach NPJ Science of Food ukazał się właśnie artykuł, w którym czytamy, że dotychczas analogowe metody gotowania jak grill, kuchenka, piekarnik czy mikrofala pozostają dominującymi sposobami przygotowywania pokarmów. Wraz z ciągłą ewolucją na polu technologii cyfrowych gotowanie laserowe i druk 3D mogą stać się wygodną i tanią metodą gotowania dostarczającą niezbędnych składników odżywczych. Naukowcy z Columbia University zaprezentowali ciasta wykonane za pomocą drukarki 3D. Wykonano je z 7 składników: pasty z ciasteczek, masła orzechowego, dżemu truskawkowego, Nutelli, puree bananowego, sosu wiśniowego i lukru. Oczywiście to, czy smakuje nam potrawa jest kwestią indywidualną. W przypadku tego „wypieku” trzeba lubić pastę z ciasteczek, gdyż stanowi ona ponad 70% gotowego produktu. Sami twórcy przyznają, że ich ciasto nie smakuje jak standardowy wypiek. Gdy je gryziesz, masz wrażenie, że różne smaki docierają falami. Myślę, że jest to spowodowane warstwową strukturą naszego ciasta, mówi Jonathan Blutinger. Zdecydowanie smakuje wyjątkowo. Nie przypomina niczego, co wcześniej próbowałem. Raczej mi smakowało, chociaż nie jest to coś standardowego. Nie jesteśmy kucharzami z gwiazdkami Michelina, dodaje uczony. Wszystkie składniki pochodziły z lokalnych sklepów. Puree bananowe naukowcy przygotowali sami. Podobnie zresztą jak pastę ciasteczkową, na którą złożyły się zmiksowane krakersy, woda i masło. Wcześniejsze wersje ciasta zawierały mniej pasy ciasteczkowej, jednak okazało się, że przy nakładaniu kolejnych warstw, które obciążały ciasto i dodawały mu wilgoci, całość zaczynała się rozpadać. Dlatego po wielu próbach zdecydowano się na zwiększenie udziału dość suchej masy z ciastek. Po zakończeniu pracy przez drukarkę 3D naukowcy użyli niebieskiego lasera, by przypiec wierzchnią warstwę. W sumie przygotowanie kawałka ciasta zajęło 30 minut. Ciasto to najlepsze, co możemy w tej chwili pokazać, jednak drukarka może stworzyć wiele innych rzeczy. Można drukować drób, wołowinę, warzywa czy ser. Wszystko, co można zamienić w pastę, płyn lub proszek, twierdzi Blutinger. Naukowcy z Columbia University nie są pierwszymi, którzy próbują zaprząc druk 3D do produkcji żywności. Startup Mooji eksperymentuje z drukowaniem „mięsa” opartego na składnikach roślinnych, NASA sprawdza, czy druku 3D nie można użyć do przygotowywania posiłków dla astronautów, a w Londynie działała popupowa restauracja drukująca posiłki. « powrót do artykułu
  11. Specjaliści ze Śląskiego Centrum Chorób Serca w Zabrzu przeprowadzili 2. na świecie transplantację płuc u pacjenta z zespołem Mounier-Kuhna (tracheobronchomegalią). Jak podkreślono w komunikacie placówki, to rzadka choroba genetyczna, powodująca uszkodzenie tchawicy i oskrzeli głównych. Do tej pory opisano około 300 przypadków, [a] na świecie żyje około 125 osób, u których zdiagnozowano [tę] chorobę. Pacjentem, u którego przeprowadzono przeszczepienie, był 39-letni pan Jacek z ciężką niewydolnością oddechową. Od ponad 2 lat znajdował się on na aktywnej liście oczekujących na transplantację płuc. Trudna operacja odbyła się w nocy z 1 na 2 marca i trwała aż 13 godzin.   Stworzyliśmy druk 3D tchawicy i oskrzeli na podstawie obrazów tomografii komputerowej, który posłużył do opracowania techniki intubacji i wykonania operacji oskrzelowej. Zabieg nie byłby możliwy bez pomocy ECMO AV, ponieważ chory cierpiał również na ciężkie nadciśnienie płucne – wyjaśnia kardiochirurg i specjalista transplantologii klinicznej dr n. med. Maciej Urlik. Lekarz dodaje, że należało zadbać o bezpieczną intubację, ponieważ tchawica pana Jacka była o wiele szersza od swojego odpowiednika u zdrowego człowieka. Gdy na podstawie obrazów TK powstał model 3D, przeprowadzano na nim testy. Jak podkreślono w Fakcie, dobierano najszersze dostępne rurki intubacyjne. Oskrzela dawcy wykorzystano jako rusztowanie dla osłabionych oskrzeli pana Jacka. Zespolono je, wykorzystując technikę teleskopową, która na co dzień jest unikana w wykonywaniu zespoleń oskrzelowych - ujawnił cytowany w komunikacie ŚCCS dr n. med. Tomasz Stącel, który tak jak dr Urlik jest kardiochirurgiem, a zarazem transplantologiem klinicznym. Ponieważ w ramach przygotowań do operacji udało się zebrać bogaty materiał zarówno obrazowy, jak i histopatologiczny, zespół stworzy na tej podstawie artykuł-przewodnik. To bardzo istotne, gdyż wcześniej nie było opisu, jak tego typu zabieg wykonywać z punktu widzenia chirurgicznego i anestezjologicznego. Pan Jacek z Grabowna Wielkiego na Dolnym Śląsku powiedział Faktowi, że po przeszczepie dostał nowe życie. Teraz dobrze mu się oddycha, wcześniej przez całą dobę był zależny od koncentratora tlenu, a dzień zaczynał od inhalacji. Nie był w stanie wykonać paru kroków bez zadyszki. Zespół Mounier-Kuhna zdiagnozowano u niego w 2009 r. Obecnie pacjent przechodzi rehabilitację. Jeśli wszystko pójdzie zgodnie z planem, Wielkanoc może już spędzić w domu. Zespół Mounier-Kuhna to niezwykle rzadka nieprawidłowość rozwojowa płuc. Występuje u młodych dorosłych, częściej u mężczyzn. Polega na osłabieniu lub zaniku włókien elastycznych, co w konsekwencji prowadzi do poszerzenia pierścieni chrzęstnych tchawicy i oskrzeli głównych. Przez upośledzony klirens rzęskowy i zapadanie się głównych dróg oddechowych w czasie oddychania, pojawiają się nawracające infekcje wraz z dużą ilością wydzieliny ropnej. Przyczyna choroby nie została dotychczas poznana. « powrót do artykułu
  12. Ludwig van Beethoven, jeden z największych kompozytorów wszech czasów, wcześnie zaczął tracić słuch i z czasem cierpiał na całkowitą głuchotę. Naukowcy z Instytutu Antropologii Ewolucyjnej im. Maxa Plancka postanowili znaleźć przyczynę schorzenia. Naszym głównym celem było rzucenie światła na problemy zdrowotne Beethovena, w tym na słynną postępującą utratę słuchu, która rozpoczęła się gdy miał około 25 lat i w wyniku której do roku 1818 stał się całkowicie głuchy, mówi Johannes Krause. W 1802 roku kompozytor zażyczył sobie, by po jego śmierci jego choroby dokładnie opisano, a opis upubliczniono. Od tamtej pory biografowie Beethovena zaproponowali wiele różnych hipotez dotyczących chorób, na jakie cierpiał, oraz ich przyczyn. Naukowcy z Instytutu im. Maxa Plancka, Szpitala Uniwersyteckiego w Bonn, University of Cambridge czy Uniwersytetu Katolickiego w Leuven przeanalizowali DNA kompozytora, uzyskane z pukli jego włosów. Nie byliśmy w stanie znaleźć genetycznej przyczyny dla utraty słuchu przez Beethovena i dla jego kłopotów z układem pokarmowym. Stwierdziliśmy jednak, że Beethoven miał genetyczną predyspozycję do chorób wątroby. Analizy metagenomiczne wykazały również, że w ostatnich miesiącach przed śmiercią cierpiał na wirusowe zapalenie wątroby typu B. Biorąc pod uwagę jego genetyczną predyspozycję do chorób wątroby oraz zamiłowanie do alkoholu, możemy z dużą dozą prawdopodobieństwa założyć, że choroba ta stała się przyczyną jego śmierci, czytamy w opublikowanym na łamach Cell Current Biology artykule Genomic analyses of hair from Ludwig van Beethoven. Badacze odkryli również, że gdzieś na przestrzeni 7 pokoleń pomiędzy żyjącym w XVI wieku Aertem van Beethovenem, a urodzinami Ludwiga van Beethovena (ur. 1770) jedno z dzieci w rodzinie van Beethovenów urodziło się ze związku pozamałżeńskiego, a Ludwig był potomkiem tego dziecka. Autorzy analizy przypominają, że głośne wcześniej badania wskazujące, iż kompozytor zmarł w wyniku zatrucia ołowiem opierały się na próbkach, które nie należały do Beethovena, a pochodziły od kobiety. « powrót do artykułu
  13. Tequila w pełni zasłużyła na miano trunku przebojowego. Jednak chociaż kojarzy nam się z meksykańskim temperamentem i kolorytem, przednią zabawą i radością życia, nadal skrywa przed nami wiele tajemnic. Nie bez znaczenia jest odległość geograficzna – powstaje przecież tak daleko, za oceanem! Nie możemy przyjrzeć się jej produkcji tak dokładnie, jak powstawaniu rodzimej wódki, czy też whisky w nie tak znowu odległych destylarniach Szkocji i Irlandii. O tequili warto jednak, skoro coraz częściej gości na naszych stołach, dowiedzieć się więcej – stąd nasz dzisiejszy tekst! 1. Tequila to unikat Interesujący nas dzisiaj trunek to mocny alkohol produkowany w Meksyku, którego moc mieści się w przedziale od 35 do 55%. Jego ojczyzną jest stan Jalisco, w którym znajduje się miasteczko Tequila. To właśnie od niego specjał pożyczył swoją nazwę. Tequila stanowi element dziedzictwa kulturowego Meksyku, dlatego nie może powstawać nigdzie indziej! 2. Tequila niejedno ma imię Tequila występuje w wersji złotej (oro, gold), kiedy czerpie swoją barwę z beczek, oraz białej lub srebrnej (blanco, silver), gdy zostaje zabutelkowana niezwłocznie po zakończeniu destylacji lub po krótkim pobycie w kadzi. Tequile złote dzielimy również ze względu na czas dojrzewania w beczkach – wyróżniamy tequile reposado (od 2 do 12 miesięcy), añejo (od 1 do 3 lat) oraz muy añejo (3 do 9 lat). Przy tym należy dodać, że w tym przypadku więcej nie zawsze znaczy lepiej. Powszechnie mówi się, że pik jakości tequila osiąga po około 5 latach zaznajamiania się dębem. Warto wiedzieć, że jednym z producentów dojrzałej tequili dla wymagających jest marka Casamigos, założona przez George’a Clooneya (właśnie tego!) i jego przyjaciół.   3. Produkcja tequili jest wyjątkowa Oryginalna tequila nie gościłaby w naszych szklankach, gdyby nie agawa niebieska, na bazie której sfermentowanego soku powstaje charakterny napitek. Alkoholem, który może być produkowany z innych odmian agawy, jest popularny mezcal. Odcięte przy ziemi szyszki, czyli rdzenie agawy niebieskiej, po zakończeniu zbiorów zostają pocięte i upieczone. A po ostygnięciu zmiażdżone celem wydobycia soku, który spływa do kadzi. Po dodaniu drożdży rozpoczyna się proces fermentacji trwający do 12 dni. Następnie alkohol zostaje poddany kilkugodzinnej destylacji alembikowej lub kolumnowej. Oczyszczony destylat może zostać już teraz zabutelkowany lub przelany na krótki czas do kadzi (tequila blanco), czy też zabeczkowany (tequila oro). Po zakończeniu procesu maturacji tequila podlegają kupażowaniu, co pozwala uzyskać produkt o określonych walorach smakowych. 4. Istnieją specjalne sposoby picia tequili Sposób degustacji tequili warunkuje jej odmiana. W przypadku tequili srebrnej utrwalił się zwyczaj polegający na zlizaniu soli z dłoni (znajdującej się pomiędzy palcem wskazującym a kciukiem), wypiciu porcji alkoholu oraz zakąszeniu go cytryną lub limonką. Przystępując do degustacji tequili złotej, sól możemy zastąpić cynamonem, a cytrynę – pomarańczą. Oba rodzaje tequili mamy też prawo pić ze wspomnianymi dodatkami w formie shotów (wtedy postawmy na sok owocowy), jak również z kieliszków bez żadnych dodatków, na co warto zdecydować się zwłaszcza w przypadku najwyższej jakości, długo dojrzewających alkoholi, takich jak np. propozycje Constellation Brands. 5. Tequila lubi towarzystwo Rzecz jasna tequila, zwłaszcza srebrna, często bywa wykorzystywana jako składnik wielu orzeźwiających koktajli. Najpopularniejsze drinki powstające na bazie tego alkoholu to Margarita (tequila, Cointreau, sok z limonki), Tequila Sunrise (tequila, sok pomarańczowy, grenadyna), Don Juan (tequila, ciemny rum, sok grejpfrutowy, sok ananasowy) czy Mexicana (tequila, sok ananasowy, grenadina, sok z cytryny). Jeśli ponadto weźmiemy pod uwagę różne wariacje na temat tych kompozycji (zwłaszcza koktajlu Margarita), potencjał barmański tequili naprawdę zdumiewa! Czy wiemy już wszystko, co powinniśmy wiedzieć o skarbie górzystego Jalisco? Ależ skąd! Teoria to jedno, ale żeby naprawdę dobrze zapoznać się charakterem tequili, trzeba umówić się z nią na spotkanie. Najlepiej w doborowym towarzystwie znajomych koneserów! « powrót do artykułu
  14. Nowotwory w całej swojej skomplikowanej gracji fascynują, przerażają, skłaniają do przemyśleń i re-ewaluacji całego życia. Dorastając w małomiasteczkowym świecie nie miałam zbyt wielu okazji do poznania innej strony raka – tej skomplikowanej i pasjonującej. Rak kojarzy się wyłącznie negatywnie, zwłaszcza na prowincji. Dopiero podczas pracy w szpitalu, najpierw w Warszawie, a potem w innych szpitalach i miastach świata, zaczęłam przyglądać się komórkom nowotworowym od zupełnie innej strony, z typowo naukową, nawet dziecięcą ciekawością. Zaczynając od Krakowa, przez Warszawę, Cambridge, Londyn, Tel Aviv, Waszyngton, kończąc znowu w Warszawie. Zwieńczeniem tego odkrywania zawodowej pasji okazała się być immunoterapia: fascynujące, że można w ogóle namówić układ immunologiczny do walki z nowotworem, genialne w swojej prostocie, a jakże skuteczne rozwiązanie. Doktor Paula Dobosz napisała bardzo ważną książkę. Taką, która opowiada o genetyce nowotworów w sposób zrozumiały dla każdego laika. Pani doktor specjalizuje się w immunoonkologii i diagnostyce całogenomowej. Ukończyła Uniwersytet Jagielloński, Warszawski Uniwersytet Medyczny oraz Cambridge University. Kieruje Zakładem Genetyki i Genomiki Państwowego Instytutu Medycznego MSWiA i od lat prowadzi bloga Fakty i Mity Genetyki. Z jej książki dowiemy się, dlaczego w walce z nowotworami tak ważna jest medycyna spersonalizowana, jak można zapobiegać nowotworom i jak je wcześnie wykrywać. Ale dowiemy się też, że suplementy diety i pseudomedycyna nie wyleczą nowotworu. Pani doktor uświadamia, że nie istnieje jeden cudowny lek na raka, a komórki nowotworowe są wyjątkowe. Przerażające i fascynujące. Nowotwór to bardzo dynamiczna struktura, która wczoraj była inna, niż jest dzisiaj, a jutro może już nie przypominać guza sprzed kilku dni. To właśnie dlatego czas ma tak wielkie znaczenie, a każde badania błyskawicznie tracą na aktualności. Nie tylko te, które wykonujemy w szpitalu naszym pacjentom - ale i te naukowe, o których przeczytaliście w tej książce. Być może dzisiaj wiemy już nieco więcej, być może niektóre z opisanych tu problemów zostały już rozwiązane? Ale teraz wiecie już, dlaczego nigdy nie należy czytać gazet, w których nagłówki krzyczą „Znaleziono lek na raka!”. Wiecie już, że nie ma jednego raka, a wobec tego nie ma i nigdy nie będzie jednego leku, który magicznie mógłby wyleczyć każdego raka. Nasze nowotwory różnią się między sobą tak bardzo, jak i my różnimy się między sobą. I to właśnie te indywidualne różnice sprawiają, że świat jest naprawdę fascynujący.
  15. Wilk workowaty to jedno z najbardziej znanych wymarłych zwierząt. Ten żyjący na Tasmanii drapieżnik został uznany przez Europejczyków za szkodnika i był intensywnie tępiony. Do tego stopnia, że ostatni potwierdzony zabity na wolności wilk zginął w 1930 roku, a ostatni znany przedstawiciel tego gatunku zmarł w zoo na Tasmanii w 1936 roku. Od tamtego czasu nie schwytano, nie zabito, ani nie potwierdzono spotkania żadnego wilka workowatego. Międzynarodowa grupa naukowa z Australii, Czech i USA przeprowadziła modelowanie komputerowe, z którego wynika, że w rzeczywistości wilk workowaty mógł żyć jeszcze w latach 80. XX wieku, a być może przetrwał nawet do końca wieku. Naukowcy oparli się w swojej pracy na 1237 doniesieniach o spotkaniu wilka workowatego lub jego śladów. Doniesienia te pochodziły z okresu od 1910 roku do czasów obecnych. Pod uwagę wzięto informacje z rządowych archiwów, opublikowanych raportów, doniesień prasowych, zbiorów muzealnych, korespondencji czy zeznań świadków. Każdą z obserwacji datowano, oznaczono miejsce jej dokonania, oceniono jej jakość oraz przypisano do odpowiedniej kategorii, np. „zauważony przez eksperta”, „zauważono ślady”. Na wspominane 1237 wpisów składało się m.in. 99 dowodów fizycznych oraz 429 doniesień ekspertów (tropicieli, rdzennych mieszkańców, naukowców, urzędników). Stworzone przez naukowców modele statystyczne wskazały, że mediana wyginięcia wilka workowatego przypada na lata 1999–2008, z najbardziej prawdopodobnym czasem zakończenia istnienia gatunku do końca lat 90. ubiegłego wieku. Badania wskazują, że jest bardzo mało prawdopodobne, by wilk workowaty wciąż występował na Ziemi – jak chcieliby tego entuzjaści gatunku, wciąż mający nadzieję, że przetrwał. Jednocześnie jednak sugerują, że żył on o kilkadziesiąt lat dłużej, niż dotychczas sądzono. Jak zauważyli autorzy badań, średnia roczna liczba obserwacji wilka pozostawała stała aż do końca lat 90. Zaczęła się zmniejszać po roku 2000. Los ostatnich wolno żyjących przedstawicieli danego gatunku rzadko jest znany ludziom. Szczególnie jest to prawdziwe dla wilka workowatego, który w przeszłości był szeroko rozpowszechniony na Tasmanii, ale żył w niewielkim zagęszczeniu. Ostatni członkowie tego gatunku prawdopodobnie wiedzieli, że spotkanie z człowiekiem może skończyć się dla nich tragicznie, dlatego tym bardziej unikali interakcji, czytamy w artykule Resolving when (and where) the Thylacine went extinct. « powrót do artykułu
  16. Do końca maja potrwa modernizacja badawczego reaktora jądrowego MARIA. Jako przewidywany termin jego uruchomienia wskazywany jest przełom czerwca i lipca. Dr Marek Pawłowski, rzecznik Narodowego Centrum Badań Jądrowych (NCBJ), wyjaśnia, że napromienianie izotopów ma zostać wznowione od 1. cyklu pracy. Przerwa remontowa rozpoczęła się 5 września ubiegłego roku. Była ona podyktowana starzeniem się i brakiem części zamiennych. Dr Pawłowski wspomina również o konieczności dostosowania zbiorników na odpady ciekłe do nowych wymagań prawnych. Gdy prace modernizacyjne zostaną ukończone, rozpocznie się seria testów wszystkich  układów i urządzeń. Najpierw są one sprawdzane przy niepracującym reaktorze, a następnie gdy reaktor pracuje na minimalnej mocy. Gdy testy wypadną pomyślnie, NCBJ zwróci się do prezesa Państwowej Agencji Atomistyki o zgodę na uruchomienie reaktora. Dopiero po jej uzyskaniu MARIA będzie mogła podjąć pracę na nowo. Reaktor MARIA działa od grudnia 1974 roku. Jest urządzeniem doświadczalno-produkcyjnym i jednym z najważniejszych źródeł niektórych izotopów promieniotwórczych dla światowej medycyny. Na przykład w ubiegłym roku, dzięki błyskawicznej zmianie harmonogramu pracy MARII, udało się zapobiec światowym niedoborom medycznego molibdenu-99. MARIA, nazwany tak od imienia Marii Skłodowskiej-Curie, wykorzystywany jest też do badań materiałowych i technologicznych, domieszkowania materiałów półprzewodnikowych, neutronowej modyfikacji materiałów oraz badań fizycznych. « powrót do artykułu
  17. Na łamach Human Brain Mapping ukazał się artykuł, którego autorzy informują o zauważeniu międzypłciowych różnic w budowie mózgu u 5-letnich dzieci. Różnice zaobserwowane w istocie białej uwidaczniają różnice w rozwoju obu płci. Wyraźnie widoczny jest dymorfizm płciowy, a już w 5-letnim mózgu widać znaczne różnice w wielu regionach mózgu. Uzyskane wyniki zgadzają się z wynikami wcześniejszych badań, które wskazywały na szybszy rozwój mózgu kobiet. Podczas badań naukowcy wykorzystali technikę MRI obrazowania tensora dyfuzji. Polega ona na wykrywaniu mikroskopijnych ruchów dyfuzyjnych cząsteczek wody w przestrzeni zewnątrzkomórkowej tkanek. Jednym z głównych parametrów ocenianych tą metodą jest frakcjonowana anizotropia (FA). Jako, że tkanka nerwowa ośrodkowego układu nerwowego ma uporządkowaną budowę, oceniając współczynnik FA można zauważyć różnice w budowę istoty białej. Uczeni z Uniwersytetu w Turku porównali tą metodą budowę istoty białej u 166 zdrowych niemowląt w wieku 2–5 tygodni oraz 144 zdrowych dzieci w wieku od 5,1 do 5,8 lat. O ile u niemowląt nie zauważono istotnych statystycznie różnic pomiędzy płciami, to już u 5-latków wyraźnie widoczne były różnice międzypłciowe. U dziewczynek wartości FA dla całej istoty białej były wyższe we wszystkich regionach mózgu. Szczególnie zaś duża różnica występowała dla tylnych i bocznych obszarów oraz dla prawej półkuli. W naszej próbce typowo rozwijających się zdrowych 5-latków odkryliśmy szeroko zakrojone różnice międzypłciowe we frakcjonowanej anizotropii istoty białej. Dziewczynki miały wyższą wartość FA we wszystkich obszarach, a różnice te były istotne. [...] W naszych badaniach uwidoczniliśmy znacząco większe różnice niż wcześniej opisywane. Uzyskane przez nas wyniki pokazują dymorfizm płciowy w strukturze rozwijającego się 5-letniego mózgu, z wyraźnie wykrywalnymi zmianami w wielu regionach, czytamy na łamach Human Brain Mapping. Autorzy przypuszczają, że różnice te mogą wynikać z różnej dynamiki rozwoju mózgu u obu płci. Przypominają też, że z innych badań wynika, iż w późniejszym wieku dynamika ta jest wyższa u chłopców, przez co z wiekiem różnice się minimalizują. To zaś może wyjaśniać, dlaczego autorzy niektórych badań nie zauważali różnic w próbkach starszych osób. « powrót do artykułu
  18. Teleskop Webba zaobserwował szczegóły zawierających krzemiany chmur w atmosferze odległej planety. W jej atmosferze bez przerwy dochodzi do mieszania, wznoszenia i opadania materiału w 22-godzinym cyklu. Wynikiem tego są tak olbrzymie zmiany jasności, że wspomniana planeta jest najbardziej zmiennym znanym nam obiektem o masie planetarnej. Naukowcy, na czele których stoi Brittany Miles z University of Arizona, zauważyli też wyjątkowo wyraźne sygnały świadczące o obecności wody, metanu i tlenku węgla oraz dowód na występowanie w atmosferze dwutlenku węgla. Tym samym Teleskop Webba wykrył największą liczbę molekuł zauważonych jednorazowo w atmosferze egzoplanety. Wspomniana egzoplaneta, VHS 1256 b, znajduje się w odległości 40 lat świetlnych od Ziemi o okrąża 2 gwiazdy. Okres jej obiegu wynosi ponad 10 000 lat. VHS 1256 b znajduje się około 4-krotnie dalej od swoich gwiazd, niż Pluton od Słońca. To czyni ją idealnym celem dla obserwacji za pomocą Webba. Dobiegające z niej światło nie miesza się ze światłem z jej gwiazd macierzystych, mówi Miles. Uczona dodaje, że w górnych partiach temperatura jej atmosfery sięga 830 stopni Celsjusza. Webb zauważył też dwa rodzaje ziaren krzemianów w chmurach. Mniejsze mogą być wielkości cząstek dymu, większe zaś są jak bardzo gorące miniaturowe ziarenka piasku. VHS 1256 b ma bardzo słabą grawitację, dlatego też chmury występują bardzo wysoko w jej atmosferze, co pozwala na ich obserwację. Drugą przyczyną tak gwałtownych zjawisk w atmosferze jest młody wiek planety. Naukowcy szacują, że uformowała się ona zaledwie 150 milionów lat temu i przez najbliższy miliard lat będzie się schładzała i zmieniała. Wiele z cech, które zaobserwowano na VHS 1256 b zauważono wcześniej na innych planetach. Jednak w ich przypadku wymagało to wielu obserwacji za pomocą różnych teleskopów. Tutaj zaś Teleskop Webba dostarczył wszystkich informacji jednocześnie. A to nie wszystko. Naukowcy uważają, że przez najbliższe miesiące i lata, analizując dane dostarczone przez Webba, będą zdobywali kolejne informacje. Mamy tutaj olbrzymią ilość danych uzyskanych w niedługim czasie. Czujemy olbrzymi potencjał i mamy nadzieję na wiele odkryć w danych, zebranych w ciągu zaledwie kilku godzin obserwacji, cieszy się Beth Biller z Uniwersytetu w Edynburgu. « powrót do artykułu
  19. Artykuł Sponsorowany Procesory z roku na rok biją kolejne rekordy wydajności. Jeśli więc planujemy zakup nowego lub upgrade dotychczasowego sprzętu komputerowego, warto wiedzieć, jak wygląda aktualna oferta oraz czym różnią się najpopularniejsze modele. Oto wszystkie podstawowe informacje, które trzeba wiedzieć o procesorach! Czym jest i jak działa procesor? – Sprawdzamy AMD Ryzen 5 5600 By zająć się szczegółową specyfikacją najczęściej używanych procesorów, warto zastanowić się czym w zasadzie jest procesor i jakie spełnia funkcje. Procesory, zwane też CPU (Central Processing Unit) są w istocie niewielkim, lecz kluczowym komponentem każdego komputera, gdyż to właśnie w jego obrębie wykonywana jest znaczna część wszystkich obliczeń otrzymywanych z innych podzespołów. Przetworzone dane i polecenia (których część jest zapisywana na podręcznej pamięci procesora) trafiają następnie do odpowiednich pamięci i podzespołów wykonujących resztę pracy. Procesor zatem nie tylko przetwarza dane, ale i koordynuje pracę innych elementów w komputerze. Im większa wydajność procesora, tym sprzęt lepiej będzie sobie radził ze złożonymi zadaniami np. obróbką grafiki lub grami komputerowymi. Znając już podstawy, można zastanowić się nad wyborem odpowiedniego modelu. Od lat na rynku dominują dwie firmy: Intel i AMD. Obie posiadają zagorzałych zwolenników, obie też oferują świetną jakość i są popularnym wyborem wśród graczy. Dla tych ostatnich polecany jest na przykład model Intel Core i5-12400F o świetnym stosunku możliwości do ceny, który można znaleźć m.in. pod adresem https://www.komputronik.pl/product/743522/intel-core-i5-12400f.html. Z kolei ze strony AMD cenionym odpowiednikiem będzie przykładowo AMD Ryzen 5 5600. Parametry procesora – na co zwrócić uwagę? Czym się kierować przy zakupie procesora? To zależy od wielu czynników, ale najważniejsze będzie codzienne zastosowanie komputera, wedle którego dobierzemy potrzebne nam parametry procesora. Najważniejszymi z nich są: Liczba rdzeni – oczywiście zasadniczo im więcej, tym lepiej, gdyż odpowiadają one za szybkość działań i możliwość pracy nad kilkoma zadaniami jednocześnie. Co prawda procesory różnią się od siebie dodatkowo architekturą układów i ilością wątków przypadających na rdzeń, jednak dla użytkownika "niedzielnego", który gra sporadycznie w gry i wykonuje proste prace biurowe, nie są to szczegóły zbyt istotne. Taktowanie – podawane zwykle w gigahercach (GHz), wpływa na ilość poleceń wykonywanych w każdej sekundzie pracy układu. Warto mieć na uwadze, że współczesne procesory posiadają tzw. bazowe taktowanie procesora, którego używają podczas normalnej pracy, ale mogą także korzystać z trybu turbo, który znacznie zwiększa ten parametr podczas bardziej obciążających zadań. Pamięć podręczna cache – to nic innego, niż wbudowana w procesor niewielka pamięć, której używa on, by mieć szybszy dostęp do potencjalnie użytecznych danych, skracając tym samym czas potrzebny na wykonywanie obliczeń. Rozróżnia się 3 poziomy pamięci: L1, L2 i L3, a każdy kolejny będzie miał większą pojemność i dłuższy czas potrzebny na dostęp do niego. Socket – czyli rodzaj gniazda, którym procesor łączy się z płytą główną. Wiedza, czy procesor jest kompatybilny z danym socketem jest ważna przy samodzielnym składaniu komputera lub jego upgradzie. Poza powyższymi procesory różnią się parametrem TDP, czyli poziomem emitowanego podczas pracy ciepła, co może mieć wpływ na potrzebę zakupu mocniejszego układu chłodzenia. Jest on jednakże w praktyce różnie rozumiany przez Intel i AMD, a przy tym mało istotny dla przeciętnego użytkownika. Jak znaleźć idealny procesor? Biorąc pod uwagę powyższe cechy, można już bardziej świadomie porównywać możliwości różnych modeli, na przykład przeglądając najnowsze procesory na Komputronik.pl. Oczywiście najważniejszym pytaniem, które trzeba zadać sobie na początku, jest to, do jakich zadań będzie używany komputer. Prace biurowe, multimedia i starsze gry nie będą potrzebowały aż tak mocnych procesorów, jak najnowsze gry na najwyższych ustawieniach graficznych. « powrót do artykułu
  20. Z końcem ubiegłego roku Muzeum Archeologiczne w Gdańsku (MAG) zamknęło 2-letni projekt „W czym chodzili dawni gdańszczanie? Konserwacja skórzanych elementów obuwia i odzieży z badań archeologicznych”. Podczas prac konserwatorskich spontanicznie narodził się pomysł, by nakręcić film poklatkowy pokazujący rekonstrukcję zabytkowego obuwia. W 3-minutowym nagraniu można zobaczyć kolejne etapy pracy Anny Jędrzejczak-Skutnik. Za zdjęcia i montaż odpowiada Zofia Grunt. W ramach projektu „W czym chodzili dawni gdańszczanie?” przeprowadzono konserwację zabytków skórzanych z XIV-XVI w., pochodzących z badań archeologicznych, jakie w latach 2006-08 odbywały się w kwartale ulic Szeroka, Tandeta, Świętojańska. W ciągu 2 lat przeprowadzono pełną konserwację 9069 zabytków oraz rekonstrukcję 30 butów (wzbogaciły one kolekcję MAG). Jak podkreślono w katalogu wieńczącym prace (można go za darmo pobrać tutaj), "z ogromnego zbioru zabytków do konserwacji wytypowano obiekty wymagające pilnej interwencji konserwatorskiej, jak również te, które ukazywały najwięcej informacji o stanowisku lub pozwalające na całkowitą bądź częściową rekonstrukcję". We wstępie redaktorka publikacji, Anna Jędrzejczak-Skutnik, wyjaśniła, że w elementach obuwia widoczny był kunszt szewców. Duża liczba cholew i zdobienia wskazują, że to obuwie przeznaczone dla bogatszych mieszkańców. W projekcie wzięli udział eksperci z różnych dziedzin, w tym mikrobiolodzy, którzy wskazali potencjalne zagrożenia, z jakimi mogą się zetknąć konserwatorzy skórzanego materiału archeologicznego, specjalista analizy skór czy antropolog. W katalogu zaprezentowano wiele ciekawych zagadnień; Aleksandra Pudło poruszyła np. kwestię zmian chorobowych stóp, stwierdzanych na podstawie zniekształceń obuwia z XIV-XV w. Poniżej można zobaczyć film poklatkowy pomysłu Anny Jędrzejczak-Skutnik.   « powrót do artykułu
  21. Próbki pobrane z asteroidy Ryugu przez japońską misję Hayabusa 2 zawierają różne związki organiczne, w tym uracyl, wchodzący w skład RNA, poinformował międzynarodowy zespół naukowy, który analizuje zebrany materiał. Uczeni znaleźli też kwas nikotynowy (niacynę), czyli witaminę B3. Odkrycie dowodzi, że ważne elementy tworzące organizmy żywe powstają w przestrzeni kosmicznej i mogły zostać dostarczone na Ziemię przez meteoryty. Już wcześniej na niektórych bogatych w węgiel meteorytach znajdowano zasady azotowe nukleozydów i witaminy. Zawsze jednak pozostawała możliwość, że materiał został zanieczyszczony, gdyż doszło do jego interakcji ze środowiskiem ziemskim. Jednak pojazd Hayabusa 2 pobrał próbki bezpośrednio z asteroidy Ryugu i dostarczył je na Ziemię w zapieczętowanych kapsułach, więc możemy wykluczyć zanieczyszczenie, powiedział profesor Yasuhiro Oba z Hokkaido University. Naukowcy zanurzyli próbki asteroidy w gorącej wodzie, a następnie wykorzystali techniki chromatografii cieczy w połączeniu ze spektrometrią mas. W ten sposób wykryli uracyl, kwas nikotynowy i inne związki organiczne zawierające azot. Uracyl występował w stężeniu od 6 do 32 części na miliard (ppb), a witamina B3 w stężeniu 49–99 ppb. Znaleźliśmy tez inne molekuły biologiczne, w tym aminokwasy, aminy i kwasy karboksylowe, które występują w białkach i procesach metabolicznych, dodaje profesor Oba. Znalezione związki są podobne, ale nie identyczne, do tych, jakie wcześniej znajdowano na meteorytach. Badacze sądzą, że zawierające azot związki mogły, przynajmniej częściowo, powstać z prostszych molekuł, jak amoniak, formaldehyd czy cyjanowodór. Co prawda nie znaleziono ich na Ryugu, ale wiadomo, że są obecne w lodzie komet, a Ryugu mógł być w przeszłości częścią komety lub obiektu, który przebywał w niskich temperaturach. Odkrycie uracylu na Ryugu wzmacnia teorie mówiące o pochodzeniu zasad azotowych nukleotydów na Ziemi. W bieżącym roku sonda OSIRIS-REx NASA dostarczy próbki z asteroidy Bennu i będzie można przeprowadzić badania porównawcze, które dostarczą nowych danych do rozwoju tych teorii, dodaje Oba. « powrót do artykułu
  22. Naukowcy z University of Texas poinformowali o opracowaniu leku, który zapobiegł przybraniu na wadze oraz niekorzystnym zmianom wątroby u myszy karmionych przez całe życie wysokocukrową i wysokotłuszczową dietą zachodnią. Gdy przez krótki czas podawaliśmy ten lek myszom, zaczynały chudnąć i stały się szczupłe, mówi profesor Mades Muniswamy. Naukowcy z Teksasu i współpracujący z nimi eksperci z University of Pennsylvania i Cornell University odkryli lek podczas badania wpływu magnezu na metabolizm. Pierwiastek ten bierze udział w wielu niezwykle ważnych procesach zachodzących w organizmie, reguluje ciśnienie krwi, poziom cukru, wchodzi w skład kości. Naukowcy odkryli też, że zbyt dużo magnezu spowalnia produkcję energii w centrach energetycznych komórek, mitochondriach. Magnez wciska hamulec i wszystko spowalnia, mówi współautor badań, Travis R. Madaris. Gdy naukowcy usunęli u myszy gen MRS2, który odpowiada za transport magnezu do mitochondriów, metabolizm cukru i tłuszczu przebiegał bardziej efektywnie. Myszy były szczupłe i zdrowe. Podczas analizy wątroby i tkanki tłuszczowej naukowcy nie znaleźli śladów choroby stłuszczeniowej wątroby, otyłości, cukrzycy typu 2 ani nieprawidłowości spowodowanych ubogą dietą. Zachęceni tym sukcesem uczeni zaczęli się zastanawiać, czy można osiągnąć podobne efekty bez usuwania genu. Okazało się, że tak. Opracowana przez nich molekuła nazwana CPACC ogranicza ilość magnezu trafiającego do mitochondriów. Przyjmujące ją myszy, które karmiono dietą bogatą w tłuszcze i cukry, pozostały szczupłe i zdrowe. Zmniejszenie ilości magnezu trafiającego do mitochondriów zapobiegło niekorzystnym skutkom niewłaściwej diety, mówi inny z autorów badań, doktor Manigandan Venkatesan. Zespół naukowy złożył już wniosek patentowy na zsyntetyzowaną przez siebie molekułę. Uzyskane rezultaty to wynik wielu lat pracy. Lek, który może zmniejszyć ryzyko chorób układu krążenia, takich jak zawał serca czy udar, zmniejsza ryzyko nowotworu wątroby, mogącego pojawić się w wyniku choroby stłuszczeniowej wątroby, to znaczący krok naprzód. Będziemy pracowali nad jego dalszym rozwojem, dodaje Muniswamy. Ze szczegółami badań można zapoznać się na łamach Cell Reports [PDF]. « powrót do artykułu
  23. Kredyt gotówkowy na dowolny cel to najczęściej zaciągane zobowiązanie bankowe. Charakteryzuje się minimum formalności, decyzja kredytowa udzielana jest szybko i co najważniejsze, uzyskane środki kredytobiorca może przeznaczać na dowolne cele, a bank zupełnie w te decyzje nie ingeruje. Chcesz wziąć kredyt gotówkowy? Na co zwrócić uwagę przy wyborze najlepszej oferty? Pamiętaj, że na rynku usług finansowych panuje ogromna konkurencja, a każda instytucja bankowa realizuje własną politykę współpracy z klientami, dlatego propozycje są różne. Możesz wybrać kredyt gotówkowy, uwzględniając własne potrzeby, ale też możliwości spłaty. Jak wybrać najlepszą ofertę kredytu gotówkowego? Na co zwrócić uwagę przy kredycie gotówkowym? Istotnych jest wiele czynników. Przede wszystkim Polacy chcą zaciągać kredyty tanie, które wykazują niskie koszty całkowite. Pod uwagę bierze się więc oprocentowanie, ale też dodatkowe opłaty, jak prowizje czy koszty ubezpieczenia. Uwzględnij także wartość kredytu gotówkowego, okres jego spłaty i dodatkowe bonusy, jakie oferuje dana instytucja bankowa. Co warto wiedzieć o kredycie gotówkowym? Wszystko, co musisz wiedzieć o danym zobowiązaniu, sprawdzisz nie tylko w ofercie banku. Świetnie sprawdzają się rankingi kredytowe oraz kalkulatory kredytów gotówkowych, warty polecenia jest ten aktualny ranking: https://www.totalmoney.pl/kredyty_gotowkowe, dzięki któremu uda się porównać co najmniej kilka konkurencyjnych propozycji, aby wybrać tę najlepszą. Na pewno musisz wiedzieć, że samo złożenie wniosku o kredyt gotówkowy nie wystarczy. Bank zweryfikuje Twoją zdolność kredytową, a szanse na współpracę mają tylko w pełni wiarygodni i wypłacalni kredytobiorcy. Bank zażąda zaświadczenia o zatrudnieniu i generowanych dochodach, sprawdzi też raport BIK, aby ocenić Twoją historię kredytową. Jeśli masz długi albo spóźniasz się z płatnościami innych zobowiązań, raczej nie masz szans na kredyt gotówkowy. W takiej sytuacji dobrą opcją może być pożyczka pozabankowa. Na co zwrócić uwagę przeglądając ofertę kredytów gotówkowych? O co pytać przy braniu kredytu gotówkowego? Bez względu na to, czy udajesz się bezpośrednio do banku, korzystasz z usług doradcy kredytowego czy też szukasz informacji samodzielnie, na przykład na dedykowanych portalach o tematyce finansowej, zanim złożysz wniosek o konkretny wniosek kredytowy, musisz uzyskać szereg istotnych informacji. Na co zwrócić uwagę przy kredycie gotówkowym?Zapamiętaj tę listę: Jaka jest maksymalna wartość kredytu, jaki jest maksymalny okres spłaty. Im więcej rat, tym miesięczne płatności będą niższe, ale za to wzrosną koszty całego zobowiązania, jaka jest wysokość raty? Czy stać Cię na regularne płatności bez zaburzania płynności finansowej i utraty wiarygodności?, jakie jest oprocentowanie zobowiązania kredytowego? Chociaż banki muszą działać zgodnie z przepisami prawa i normami unijnymi, to jednak mogą stosować tzw. widełki, przez co oferty są mniej lub bardziej opłacalne kosztowo, jakie są dodatkowe opłaty, np. prowizje za udzielenie kredytu, konieczność nabycia dodatkowego ubezpieczenia, na jakie bonusy możesz liczyć, podejmując współpracę z wybraną instytucją bankową? Do takich zaliczają się między innymi wakacje kredytowe czy możliwość wydłużenia okresu spłaty już po podpisaniu umowy i w trakcie spłaty zobowiązania. Pamiętaj, aby warunki kredytu zawsze dobierać wedle własnych preferencji i potrzeb. Dzisiaj kredyt gotówkowy powinien być dosłownie „szyty na miarę” Twoich indywidualnych oczekiwań oraz możliwości spłaty. Koszty kredytu gotówkowego Jakie koszty poniesiesz, podpisując umowę z bankiem w ramach zobowiązania kredytowego na dowolny cel? Uświadom sobie, że banki nie są instytucjami charytatywnymi i zarabiają na dodatkowych opłatach, jakie narzucają swoim klientom. Podstawą jest oprocentowanie i marża, a odsetki stanowią czysty zysk dla instytucji bankowych. Ponadto kredytobiorca musi liczyć się z dodatkowymi opłatami, na przykład prowizją za udzielenie i uruchomienie kredytu, kosztami prowadzenia rachunku bankowego do obsługi kredytu czy wydatkami, jakie trzeba ponieść za wykupienie polisy ubezpieczeniowej. Aby oszacować całkowite koszty kredytu, czyli wskaźnik RRSO, skorzystaj z kalkulatora kredytów gotówkowych. Spłata kredytu gotówkowego Tak naprawdę tylko od Ciebie zależy, na jakie raty się zdecydujesz. Najczęściej kredytobiorcy stawiają na stabilne, stałe raty miesięczne, ale wszystko zależy od indywidualnej sytuacji finansowej klienta. Jeśli chcesz, możesz zdecydować się na raty malejące, dzięki temu na początku współpracy będziesz płacić większe raty miesięczne, a później o mniejszej wartości. To dobra opcja dla osób, które nie chcą ryzykować, zaciągając zobowiązanie kredytowe z długim okresem spłaty. Okres spłaty kredytu gotówkowego Im szybciej spłacisz kredyt gotówkowy, tym mniejsze koszty całkowite takiego zobowiązania poniesiesz. Z drugiej strony, długi okres spłaty pozwala cieszyć się niskimi ratami. Zdecyduj, czy stać Cię na większe raty, aby szybciej zakończyć współpracę z bankiem, a może jednak stawiasz na stabilne, niewysokie raty w długim okresie? Dodatkowe zabezpieczenie kredytu gotówkowego Banki stawiają różne warunki, jakie musi spełnić kredytobiorca ubiegający się o finansowe wsparcie. Nierzadko konieczne jest dodatkowe poręczenie osoby trzeciej, która wykazuje zdolność kredytową, zabezpieczenie, takie jak wkład własny w przypadku kredytu hipotecznego albo ubezpieczenie na życie kredytobiorcy. Dowiedz się, jakie warunki musisz spełnić, chcąc skorzystać z oferty kredytu, którą wybrałeś. Na co zwrócić uwagę podpisując umowę o kredyt gotówkowy? Na co uważać przy kredycie gotówkowym? Przede wszystkim potencjalni kredytobiorcy popełniają podstawowy błąd, ponieważ większość z nich nie czyta umów z bankiem ani regulaminów. Chociaż w takich zapisach nie mogą znaleźć się tzw. kruczki prawne czy stwierdzenia wprowadzające w błąd, już sam fakt nieznajomości dokumentu nie wpływa korzystnie na współpracę w ramach spłaty zobowiązania. Na co należy zwracać uwagę przy zawieraniu umowy kredytowej? Jeśli wiesz już, że musisz przeczytać umowę, sprawdź, czy jej zapisy zgadzają się z przedstawianą przez bank ofertą. Może okazać się, że nie wszystkie warunki zostały uzgodnione albo coś jest dla Ciebie niejasne i warto skorzystać z możliwości wytłumaczenia wszystkich zapisów. « powrót do artykułu
  24. Na drodze na kierowców czeka wiele wyzwań i nie na wszystkie można się przygotować. Prace drogowe zawsze mogą zaskoczyć na trasie, tak samo jak wypadki, korki i wiele innych. Nawet najbardziej ostrożny kierowca może wpakować się w sytuację, z której trudno będzie szybko wyjść. A przecież nikt nie lubi się ani spóźniać, ani tracić swojego czasu na stanie w korkach. Nikt też nie chce się denerwować z powodu mandatów, fotoradarów, których na drodze jest przecież całkiem sporo czy kontroli policyjnych. I choć części z tych rzeczy naprawdę nie da się obejść to można się na nie przygotować. Jak przygotować się na przykre niespodzianki w ruchu drogowym, by móc ich unikać? Natura wcale nie lubi próżni. Nie zawsze da się uniknąć kontroli prędkości — zresztą kontrola prędkości jest też przecież potrzebna, w końcu nikt nie chciałby, by nieodpowiedzialny, pędzący na złamanie karku kierowca spowodował dotkliwy w skutkach wypadek. Za przekroczenie prędkości na polskich drogach można zapłacić naprawdę wysoki mandat. A często przecież przekroczenie prędkości nie wynika ze złej woli, tylko z przyczyn niezależnych — zmiana przepisów na danej trasie też może powodować otrzymanie mandatu. Kontrola prędkości w ruchu drogowym Kontrola prędkości to coś, z czym z pewnością spotkał się każdy kierowca. Przestrzeganie przepisów ruchu drogowego ma ogromne znaczenie dla bezpieczeństwa na drogach i nikt tego nie neguje — pilnowanie pomiaru prędkości jest bardzo ważne dla bezpieczeństwa kierowców. Każdy użytkownik ruchu drogowego zgadza się na to, by przestrzegać przepisów. Musi je też znać — w końcu bez tego w ogóle nie otrzymałby prawa jazdy. Odcinkowy pomiar prędkości może być wykonywany praktycznie wszędzie — policja ma prawo mierzyć prędkość i zatrzymać pojazd do kontroli. Sprawdzana jest prędkość, ale też przy kontroli i zatrzymaniu policjanci mogą sprawdzić też wszystko inne — zapięte pasy, posiadanie apteczki w samochodzie i wszystko to, czego wymaga prawo od kierowców. Czy policja może dokonywać kontroli prędkości z ukrycia? Policjanci mogą dokonywać pomiaru prędkości na drodze. A dozwolone prędkości mogą być zupełnie inne — na pasach ruchu, w terenie zabudowanym, autostradzie — trzeba się w tym orientować, by wiedzieć, jakie prędkości można rozwijać. Policja może dokonywać też tych pomiarów z ukrycia. Bez użycia lamp błyskowych i żadnych ostrzeżeń. Ma to na celu pomoc w zapobieganiu wypadków i tylko jeśli pojazdy zostaną zatrzymane kierowca dowie się, że służby prowadziły pomiar. Kontrola może czekać każdego, nawet kogoś, kto jechał zgodnie z przepisami. Fotoradar też wcale nie musi być oznakowany — system pozwala na takie rozwiązanie. Antyradar — sposób, by dowiedzieć się o kontroli drogowej Kontrola drogowa nie jest niczym przyjemnym, a pomiar z ukrycia może stresować. Mandaty z kolei mogą być dotkliwe, dlatego warto uważać. Tutaj pomocnym rozwiązaniem może okazać się antyradar — system, który ostrzega kierowców przed fotoradarami, pomiarami prędkości, wskazuje odległość i pomaga uniknąć złamania przepisów. Jeśli są Państwo zainteresowani takim produktem, proszę zajrzeć tutaj: https://www.mediaexpert.pl/telewizory-i-rtv/car-audio/antyradary. Zawsze warto jeździć zgodnie z przepisami, to istotne dla bezpieczeństwa wszystkich. Jednak wiedza o tym, że kontrola się zbliża, może pomóc się przygotować i uwolnić od stresu. W ten sposób mogą Państwo zaoszczędzić też swój cenny czas i uniknąć mandatu. A to wszystko jest godne uwagi, dlatego warto zainteresować się antyradarami. « powrót do artykułu
  25. Albańscy ekolodzy odnieśli znaczące zwycięstwo. Jedna z największych swobodnie płynących rzek Europy, Wjosa, została uznana za park narodowy. Ochroną objęto 127 km2 rzeki, jej okolic i dopływów. Udało się więc ocalić wyjątkowe miejsce. Jeszcze 4 lata temu rząd Albanii planował wybudowanie na Wjosie 8 zapór, które miałyby wytwarzać energię. Zapory zmieniają naturalny przepływ rzek, prowadza do zmian temperatury wody, gromadzenia się osadów, zmian chemicznych i zakwitów toksycznych glonów. Wjosę czekałby więc podobny los, co inne europejskie rzeki, na których łącznie znajduje się ponad 1,2 miliona różnego typu barier, z których co najmniej 150 000 nie ma żadnego uzasadnienia ekonomicznego. Europa jest kontynentem z najbardziej pofragmentowanymi rzekami. W samej Polsce jest 77 000 barier. Gdy przegrodzimy rzekę, to właściwie nie ma już odwrotu. Zaczyna się proces głodzenia rzeki. Nic dziwnego, że jej mieszkańcy znikają, mówi Julian Olden z University of Washington, który bada wpływ zapór na rzeki w USA, Brazylii i Australii. Wjosa i jej główne dopływy płyną swobodnie przez ponad 400 kilometrów. Bieg rzeki – zwanej tam Aoös – rozpoczyna się w greckich górach Pindos, a kończy na adriatyckim wybrzeżu Albanii. Wjosa jest domem dla ponad 1100 gatunków zwierząt, z czego 13 jest zagrożonych w skali globalnej. Żyją tam też 2 gatunki globalnie zagrożonych roślin. Z rzeki korzystają m.in. zagrożony ścierwnik biały czy krytycznie zagrożony ryś bałkański. Rząd Albanii podjął decyzję o utworzeniu Parku Narodowego o powierzchni 12 727 hektarów, który obejmie 190 kilometrów biegu Wjosy, gdzie od wieków mieszka ponad 60 000 ludzi, powiedziała Mirela Kumbaro Furxhi, albańska minister turystyki i środowiska. Ekolodzy i naukowcy od dawna apelują o przywrócenie rzek naturze. W wielu krajach Europy likwiduje się coraz więcej barier wybudowanych w przeszłości na rzekach. W ciągu ostatnich 20 lat z europejskich rzek usunięto 4000 takich przeszkód. W samym tylko ubiegłym roku w 17 krajach zlikwidowano 239 barier, w tym ponad 100 w Hiszpanii. Powinno to pomóc migrującym gatunkom ryb, których europejska populacja spadła od 1970 roku aż o 93%. Zapory likwidowane są też w USA, gdzie niedawno usunięto 1200. zaporę. Jak mówią specjaliści, w niektórych systemach rzecznych Ameryki Północnej po usunięciu zapór doszło do „szokujących” zmian na lepsze. Nie wiadomo, jakich zmian możemy spodziewać się w Europie, gdzie rzeki są przegradzane nie od 100, a od 500 czy 1000 lat. « powrót do artykułu
×
×
  • Dodaj nową pozycję...