Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Nadciśnienie tętnicze może mieć nawet 17 mln Polaków, jeśli przyjmiemy obowiązujące od 2017 r. normy amerykańskie – przekonywali w środę specjaliści podczas konferencji prasowej w Warszawie. Polscy hipertensjolodzy zaproponowali nowe wytyczne leczenia nadciśnienia.

Według przedstawionych na spotkaniu z dziennikarzami danych, w Polsce nadciśnienie tętnicze ma 14 mln Polaków w wieku 19-99 lat. Wskazuje na to Wieloośrodkowe Ogólnopolskie Badanie Stanu Zdrowia Ludności WOBASZ II z 2014 r. Wszystko zależy jednak, jakie przyjmuje się kryteria nadciśnienia tętniczego krwi – twierdzą hipertensjolodzy (lekarze specjalizujący się w leczeniu nadciśnienia).

Jeśli przyjmiemy normy amerykańskie, jakie obowiązują od listopada 2017 r., w naszym kraju zbyt wysokie ciśnienie tętnicze krwi może mieć nawet 17 mln osób – powiedział prezes Polskiego Towarzystwa Nadciśnienia Tętniczego prof. Krzysztof J. Filipiak.

Według Amerykańskiego Towarzystwa Kardiologicznego (AHA) prawidłowo ciśnienie tętnicze krwi nie powinno przekraczać 130/80 mmHg. W Europie za prawidłowe uznaje się wciąż ciśnienie nieprzekraczające 140/90 mmHg i przy takim kryterium w Polsce jest 14 mln osób z nadciśnieniem.

Rektor Uniwersytetu Medycznego w Poznaniu, były prezes Polskiego Towarzystwa Nadciśnienia Tętniczego, prof. Andrzej Tykarski powiedział, że najnowsze polskie wytyczne uwzględniają normy amerykańskie, jeśli chodzi o leczenie nadciśnienia tętniczego.

Za prawidłowe, podobnie jak w innych krajach europejskich, uznajemy wartość ciśnienia 140/90 mmHg, ale zalecamy, żeby u osób do 65. roku życia obniżać je lekami tak, by nie przekraczało 130/80 mmHg - wyjaśniał. Jedynie u osób starszych, które ukończyły 65 lat, można w terapii ograniczyć się do wartości 140/90 mmHg.

Specjalista podkreślił, że według nowych proponowanych przez PTNT zaleceń, leczenie nadciśnienia powinno być bardziej intensywne niż dotychczas. Oznacza to zmianę filozofii terapii – dodał. Wynika ona z tego, że uzyskanie niższego ciśnienia niż dotąd zalecano pozwoli zwiększyć skuteczność leczenia tej dolegliwości i ochronić więcej osób przed jej groźnymi powikłaniami, głównie takimi jak zawał serca i udar mózgu.

Sekretarz Zarządu Głównego Polskiego Towarzystwa Nadciśnienia Tętniczego dr. hab. n. med. Filip Szymański przypomniał, że nadciśnienie może doprowadzić do wielu innych schorzeń. Poza chorobami sercowo-naczyniowymi może ono spowodować tętniaki aorty i tętnic mózgowych, rozwarstwienie aorty, a także przewlekłą niewydolność nerek oraz uszkodzenia wzroku – wyliczał.

W Polsce skuteczność leczenia nadciśnienia tętniczego wciąż jest niewystarczająca – alarmowali specjaliści PTNT. Z omawianego podczas spotkania badania WOBASZ II wynika, że leczy się 46,1 proc. chorych z nadciśnieniem, a właściwą kontrolę ciśnienia uzyskuje się jedynie u 23 proc. pacjentów.

Nie wynika to z tego, że źle leczymy – wyjaśniał prof. Tykarski. Jego zdaniem wiele osób wciąż nie wie, że ma nadciśnienie tętnicze krwi, a inni wiedzą o tym, ale nie zgłaszają się do lekarza i nie podejmują leczenia. Zdecydowana większość pacjentów z tą dolegliwością - przyznali specjaliści – może się leczyć u lekarza podstawowej opieki zdrowotnej. Jedynie 0,5 mln chorych wymaga opieki hipertensjologa.

Eksperci przekonywali, że do większej skuteczności leczenia nadciśnienia tętniczego mogłoby się przyczynić większe wykorzystanie w naszym kraju tzw. polipigułek, zawierających w jednej tabletce kilka leków, najczęściej dwa lub trzy. Pacjenci chętniej zażywają jedną pigułkę niż dwie lub trzy, duża liczna leków bardziej zniechęca do terapii, szczególnie na początku leczenia – powiedział prof. Filipiak.

Z informacji przekazanych podczas konferencji prasowej przez hipertensjologów wynika, że w naszym kraju są refundowane tylko niektóre polipigułki w leczeniu nadciśnienia, a powinno być ich znacznie więcej, aby lepiej dopasować je do poszczególnych chorych. Takie leki złożone są droższe, ale w dłuższym okresie stosowania są jednak bardziej opłacalne, bo pozwalają lepiej w dłuższym kontrolować ciśnienie tętnicze pacjenta. W sumie są zatem bardziej opłacalne i warto w nie zainwestować – przekonywał.

Według prof. Tykarskiego, w naszym kraju zaledwie 8-12 proc. pacjentów stosuje polipigułki w leczeniu nadciśnienia, mniej niż w innych krajach. W Portugalii zażywa je prawie połowa pacjentów z nadciśnieniem, ale kontrolę ciśnienia uzyskano tam u 60 proc. osób z tą dolegliwością – dodał.

Dr hab. Filip Szymański podkreślił, że w leczeniu nadciśnienia tętniczego bardzo ważna jest zmiana stylu życia, głównie zapobieganie otyłości, zwiększenie aktywności fizycznej oraz ograniczenie spożycia soli. Światowa Organizacja Zdrowia (WHO) zaleca, żeby być aktywnym fizycznie przez co najmniej 150 minut tygodniowo (np. 30 minut pięć razy w tygodniu).

Taka aktywność jest jednak zbyt mała. W nowych zaleceniach sugeruje się, żeby być aktywnym przez 300 minut tygodniowo – powiedział prof. Tykarski. Specjaliści Polskiego Towarzystwa Nadciśnienia Tętniczego zalecają głównie spacery, pływanie oraz jazdę na rowerze.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Za mało leków widocznie się sprzedaje.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nadciśnienie występowało zawsze, ale dopiero niedawno zaczęliśmy je skutecznie leczyć. Dawniej ludzie w średnim wieku dostawali apopleksji, czy też trafiał ich szlag. Nikogo to specjalnie nie dziwiło, ale przecież dziś się tych pojęć nie używa. Zdecydowanie mniej ludzi umiera nagle, jedną z przyczyn jest właśnie leczenie nadciśnienia.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Jaskinia w Obłazowej na Podhalu to bardzo ważne stanowisko archeologiczne z paleolitu. Prace archeologiczne prowadzone tam są od 1985 roku, a w ich trakcie dokonano odkryć, które całkowicie zmieniły poglądy na prehistorię polskiej części Karpat Zachodnich. Dzięki nim wiemy, że jaskinia była wielokrotnie zamieszkiwana przez neandertalczyków od około 100 do 40 tysięcy lat p.n.e., a przez kolejne tysiąclecia korzystał z niej H. sapiens.
      Najbardziej niezwykłym znaleziskiem w jaskini w Obłazowej jest bumerang wykonany z ciosu mamuta. Do czasu jego znalezienia sądzono, że bumerang został wynaleziony przez australijskich Aborygenów. Przedmiot z jaskini w Obłazowej jest niezwykle podobny do bumerangów z Queensland, a badania wykazały, że mógł być używany jako bumerang, który nie powracał po rzucie.
      Od dawna uważany jest za jeden z najstarszych, o ile nie najstarszy bumerang na świecie. Z nowych badań wynika zaś, że jest znacznie starszy, niż dotychczas sądzono, a to zmienia pogląd nie tylko na historię samego narzędzia, ale i na zasiedlenie jaskini przez Homo sapiens.
      Bumerang został znaleziony w Warstwie VII, a obok odkryto kość ludzkiego palca. Międzynarodowy zespół, w skład którego wchodzili uczeni z Uniwersytetu Jagiellońskiego i naukowcy z Włoch, Kanady, Szwajcarii, Niemiec i Wielkiej Brytanii, datował kość na pomiędzy 34 100 a 33 310 lat przed naszą erą, czyli na okres rozwoju kultury oryniackiej. Datowanie Warstwy VII wykazało zaś, że pochodzi ona z okresu 40 860 a 36 600 lat przed naszą erą. Największą sensacją jest zaś wiek bumerangu. Narzędzie pochodzi najprawdopodobniej z okresu 40 340 a 37 330 lat przed naszą erą.
      Potwierdza to przypuszczenia, że bumerang z Podhala może być najstarszym tego typu narzędziem na świecie. Najstarszym zaś drewnianym bumerangiem jest narzędzie znalezione w Australii Południowej i datowane na od 8300 do 7000 lat przed naszą erą.
      Źródło: Boomerang and bones: Refining the chronology of the Early Upper Paleolithic at Obłazowa Cave, Poland, https://journals.plos.org/plosone/article?id=10.1371/journal.pone.0324911

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Wendelstein 7-X, największy stellarator na świecie, pobił światowy rekord w kluczowym parametrze fuzji jądrowej, potrójnym iloczynie (triple product). Stellaratory to, po tokamakach, najbardziej popularna architektura reaktorów fuzyjnych. Oba rodzaje mają swoje wady i zalety, jednak stellaratory są trudniejsze do zbudowania, dlatego też świat skupia się głównie na tokamakach. Obecnie istnieje około 50 tokamaków i 10 stellaratorów.
      Znajdujący się w Greifswald w Niemczech Wendelstein 7-X został wybudowany przez Instytut Fizyki Plazmy im. Maxa Plancka. Zainwestowała w niego też Polska. Przed dwoma tygodniami, 22 maja zakończyła się tam kampania badawcza OP 2.3. W ostatnim dniu jej trwania międzynarodowy zespół pracujący przy W7-X utrzymał nową rekordową wartość potrójnego iloczynu przez 43 sekundy. Tym samym przebił najlepsze osiągnięcia tokamaków.
      Dlaczego potrójny iloczyn jest tak ważny?
      Potrójny iloczyn to jeden z kluczowych elementów opisujących wydajność i warunki potrzebne do osiągnięcia zapłonu, czyli do samopodtrzymującej się reakcji fuzji jądrowej. Jest to iloczyn trzech wielkości: gęstości plazmy (n), jej temperatury (T) oraz czasu uwięzienia energii w plazmie (τE). Żeby reakcja fuzji jądrowej była efektywna i samowystarczalna, potrójny iloczyn musi osiągnąć lub przekroczyć pewną minimalną wartość. W praktyce oznacza to konieczność osiągnięcia odpowiedniej temperatury plazmy, która jest konieczna do pokonania sił odpychających jądra atomów od siebie, osiągnięcia wysokiej gęstości, co zwiększa szanse na zderzenia między jądrami oraz osiągnięcia długiego czasu uwięzienia energii, gdyż jeśli energia ucieka zbyt szybko, plazma się schładza. Po przekroczeniu wartości granicznej iloczynu reakcja fuzji zaczyna samodzielnie się podtrzymywać, bez konieczności dogrzewania plazmy z zewnątrz.
      Dotychczas minimalną wartość potrójnego iloczynu przekroczono – zatem osiągnięto zapłon – jedynie w impulsowym inercyjnym reaktorze laserowym NIF. O osiągnięciu tym było głośno przed ponad dwoma laty. Pisaliśmy o tym w tekście Fuzja jądrowa: co tak naprawdę osiągnięto w National Ignition Facility?
      Rekordowy stellarator pokonał tokamaki
      Tokamaki są prostsze w budowie i łatwiej w nich osiągnąć wysoką temperaturę plazmy. W bardziej skomplikowanych stellaratorach łatwiej zaś plazmę ustabilizować. Tokamaki są więc bardziej popularne wśród badaczy. Stellaratory pozostają w tyle, ale w ostatnich latach dokonano w badaniach nad nimi kilku znaczących przełomów, o których wcześniej informowaliśmy.
      Czytaj:
      Jak załatać magnetyczną butelkę? Rozwiązano problem, który od 70 lat trapił fuzję jądrową
      Duży krok naprzód w dziedzinie fuzji jądrowej. Stellaratory mogą wyjść z cienia tokamaków 
      Najwyższymi osiągnięciami potrójnego iloczynu wśród tokamaków mogą pochwalić się japoński JT60U (zaprzestał pracy w 2008 roku) i europejski JET w Wielkiej Brytanii (zaprzestał pracy w 2023 r.). Oba na kilka sekund zbliżyły się do minimalnej wartości granicznej. W7-X wydłużył ten czas do 43 sekund. Pamiętamy, co prawda, że niedawno Chińczycy pochwalili się utrzymaniem reakcji przez ponad 1000 sekund, jednak nie podali wartości potrójnego iloczynu, zatem nie wiemy, czy ten kluczowy parametr został osiągnięty.
      Klucz do sukcesu: wstrzykiwanie kapsułek z wodorem
      Kluczem do sukcesu W7-X było nowe urządzenie zasilające plazmę w paliwo, które specjalnie na potrzeby tego stellaratora zostało zbudowane prze Oak Ridge National Laboratory w USA. Urządzenie schładza wodór tak bardzo, że staje się on ciałem stałym, następnie tworzy z niego kapsułki o średnicy 3 mm i długości 3,2 mm i wystrzeliwuje je w kierunki plazmy z prędkością 300 do 800 metrów na sekundę. W ten sposób reakcja jest wciąż zasilana w nowe paliwo. W ciągu wspomnianych 43 sekund urządzenie wysłało do plazmy około 90 kapsułek. Dzięki precyzyjnej koordynacji grzania plazmy i wstrzeliwania kapsułek możliwe było uzyskanie optymalnej równowagi pomiędzy ogrzewaniem, a dostarczaniem paliwa. Podczas opisywanego przez nas eksperymentu temperatura plazmy została podniesiona do ponad 20 milionów stopni Celsjusza, a chwilowo osiągnęła 30 milionów stopni.
      Ponadto wśród ważnych osiągnięć kampanii OP 2.3 warto wspomnieć o tym, że po raz pierwszy w całej objętości plazmy ciśnienie plazmy wyniosło 3% ciśnienia magnetycznego. Podczas osobnych eksperymentów ciśnienie magnetyczne obniżono do około 70%, pozwalając wzrosnąć ciśnieniu plazmy. Ocenia się, że w reaktorach komercyjnych ciśnienie plazmy w całej jej objętości będzie musiało wynosić 4–5% ciśnienia magnetycznego. Jednocześnie szczytowa temperatura plazmy wzrosła do około 40 milionów stopni Celsjusza.
      Rekordy pobite podczas naszych eksperymentów to znacznie więcej niż cyfry. To ważny krok w kierunku zweryfikowania przydatności samej idei stellaratorów, posumował profesor Robert Wolf, dyrektor wydziału Optymalizacji i Grzania Stellaratora w Instytucie Fizyki Plazmy im. Maxa Plancka.
      Czym jest fuzja jądrowa
      Fuzja jądrowa – reakcja termojądrowa – to obiecujące źródło energii. Polega ona na łączniu się atomów lżejszych pierwiastków w cięższe i uwalnianiu energii w tym procesie. Taki proces produkcji energii ma bardzo dużo zalet. Nie dochodzi do uwalniania gazów cieplarnianych. Na Ziemi są olbrzymie zasoby i wody, i litu, z których można pozyskać paliwo do fuzji, czyli, odpowiednio, deuter i tryt. Wystarczą one na miliony lat produkcji energii. Fuzja jądrowa jest bowiem niezwykle wydajna. Proces łączenia atomów może zapewnić nawet 4 miliony razy więcej energii niż reakcje chemiczne, takie jak spalanie węgla czy gazu i cztery razy więcej energii niż wykorzystywane w elektrowniach atomowych procesy rozpadu atomów.
      Co ważne, w wyniku fuzji jądrowej nie powstają długotrwałe wysoko radioaktywne odpady. Te, które powstają są na tyle mało radioaktywne, że można by je ponownie wykorzystać lub poddać recyklingowi po nie więcej niż 100 latach. Nie istnieje też ryzyko proliferacji broni jądrowej, gdyż w procesie fuzji nie używa się materiałów rozszczepialnych, a radioaktywny tryt nie nadaje się do produkcji broni. Nie ma też ryzyka wystąpienia podobnych awarii jak w Czernobylu czy Fukushimie. Fuzja jądrowa to jednak bardzo delikatny proces, który musi przebiegać w ściśle określonych warunkach. Każde ich zakłócenie powoduje, że plazma ulega schłodzeniu w ciągu kilku sekund i reakcja się zatrzymuje.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      We Wrocławskim Centrum Sieciowo-Superkomputerowym Politechniki Wrocławskiej uruchomiono pierwszy w Polsce i Europie Środkowo-Wschodniej komputer kwantowy, który wykorzystuje kubity nadprzewodzące w niskiej temperaturze. Maszyna Odra 5 została zbudowana przez firmę IQM Quantum Computers. Posłuży do badań w dziedzinie informatyki, dzięki niej powstaną nowe specjalizacje, a docelowo program studiów w dziedzinie informatyki kwantowej.
      Odra 5 korzysta z 5 kubitów. Waży 1,5 tony i ma 3 metry wysokości. Zwisający w sufitu metalowy walec otacza kriostat, który utrzymuje temperaturę roboczą procesora wynoszącą 10 milikelwinów (-273,14 stopnia Celsjusza).
      Rektor Politechniki Wrocławskiej, profesor Arkadiusz Wójs przypomniał, że sam jest fizykiem kwantowym i zajmował się teoretycznymi obliczeniami na tym polu. Idea, żeby w ten sposób prowadzić obliczenia, nie jest taka stara, bo to lata 80. XX w., a teraz minęło kilka dekad i na Politechnice Wrocławskiej mamy pierwszy komputer kwantowy nie tylko w Polsce, ale też
      w tej części Europy. Oby się po latach okazało, że to start nowej ery obliczeń kwantowych, stwierdził rektor podczas uroczystego uruchomienia Odry 5.
      Uruchomienie komputera kwantowego to ważna chwila dla Wydziału Informatyki i Telekomunikacji Politechniki Wrocławskiej. Jego dziekan, profesor Andrzej Kucharski, zauważył, że maszyna otwiera nowe możliwości badawcze, a w przyszłości rozważamy również uruchomienie specjalnego kierunku poświęconego informatyce kwantowej. Powstało już nowe koło naukowe związane z kwestią obliczeń kwantowych, a jego utworzenie spotkało się z ogromnym zainteresowaniem ze strony studentów. Mamy niepowtarzalną okazję znalezienia się w awangardzie jeśli chodzi o badania i naukę w tym zakresie i mam nadzieję, że to wykorzystamy.
      Odra 5 będzie współpracowała z czołowymi ośrodkami obliczeń kwantowych. Dzięki niej Politechnika Wrocławska zyskała też dostęp do 20- i ponad 50-kubitowych komputerów kwantowych stojących w centrum firmy IQM w Finlandii.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na zbyt wysokie ciśnienie cierpi ponad 30% dorosłych ludzi. Nadciśnienie jest główną przyczyną niedokrwiennej choroby serca, udarów, bierze udział w rozwoju wielu innych chorób. Chorzy biorą leki, zaleca się im ograniczenie spożycia soli (sodu). Tymczasem wyniki badań przeprowadzonych na kanadyjskim University of Waterloo sugerują, że utrzymanie w diecie odpowiedniego stosunku potasu do sodu może być lepszym sposobem na obniżenie ciśnienia krwi, niż samo ograniczenie spożywania sodu.
      Nasze badania wskazują, że dodanie do diety większej ilości pokarmu zawierającego potas, jak banany czy brokuły, ma większy pozytywny wpływ na ciśnienie, niż samo tylko ograniczenie sodu, mówi doktor Anita Layton, wykładowczyni matematyki stosowanej, informatyki, farmacji i biologii.
      Sód i potas to elektrolity, pomagają w przesyłaniu sygnałów elektrycznych w organizmie, wpływają na ilość wody i spełniają wiele innych istotnych funkcji. Wcześni ludzie jedli dużo warzyw i owoców, więc nasz organizm mógł ewoluować tak, że najlepiej działa na diecie zawierającej dużo potasu i mało sodu. Dzisiejsza dieta zachodnia jest pełna sodu i uboga w potas. To może wyjaśniać, dlaczego problem nadciśnienia dotyczy przede wszystkim krajów uprzemysłowionych, dodaje główna autorka badań, doktorantka Melissa Stadt.
      Nie od dzisiaj wiadomo, że zwiększenie spożycia potasu może pomóc w kontrolowaniu ciśnienia krwi. Uczeni z Kanady opracowali model matematyczny, który pokazuje, jak stosunek potasu do sodu wpływa na organizm. Ich model uwzględnia też różnice pomiędzy płciami. Dzięki niemu dowiedzieliśmy się, że co prawda u mężczyzn nadciśnienie rozwija się łatwiej niż u kobiet przed menopauzą, ale jednocześnie mężczyźni z większym prawdopodobieństwem reagują pozytywnie na zwiększenie stosunku potasu do sodu.
      Ze szczegółami można zapoznać się w artykule Modulation of blood pressure by dietary potassium and sodium: sex differences and modeling analysis, opublikowanym na łamach American Journal of Physiology.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Plecaki zaliczane są do najchętniej wybieranych akcesoriów męskich. Pozwalają na wygodne przechowywanie i przenoszenie niezbędnych przedmiotów osobistych. Znajdują zastosowanie w codziennym życiu, w czasie treningu, wędrówki oraz w podróży. Jak dopasować odpowiedni plecak męski do swojego stylu życia?


      Jak dopasować plecak do stylu życia? W pierwszej kolejności określ swoje potrzeby i preferencje. Zastanów się, jakie będzie główne zastosowanie Twojego plecaka. W ten sposób wybierzesz odpowiedni rodzaj torby. Szukasz modelu na co dzień? Chcesz zmieścić w nim wszystkie najpotrzebniejsze rzeczy osobiste, dokumenty oraz laptopa? W takiej sytuacji sięgnij po plecak miejski z dodatkową kieszenią na sprzęt elektroniczny. Tak zaprojektowany plecak wykazuje właściwości przeciwwstrząsowe, dzięki czemu zabezpieczy Twój sprzęt przed uszkodzeniem. Jego ogromną zaletą jest także duża liczba przegródek i kieszonek na portfel, telefon oraz dokumenty. Model ten sprawdzi się również w czasie wakacji i w roli bagażu podręcznego.
      Na rynku dostępne są jednocześnie plecaki turystyczne, które zostały zaprojektowane z myślą o miłośnikach górskich wędrówek. Dostępne są w różnych kształtach i rozmiarach. W ten sposób dopasujesz pojemność do długości trasy. Ich ogromną zaletą jest wysoki poziom odporności na uszkodzenia i działania czynników zewnętrznych. Wyróżniają się nadzwyczajnie wysokim poziomem żywotności. Pamiętaj o tym, że mniejsze z nich możesz wykorzystać w roli plecaka podróżnego i miejskiego.
       
      Jaki materiał plecaka warto wybrać? Niezależnie od przeznaczenia plecak męski powinien zapewniać wysoki komfort użytkowania oraz funkcjonalności. Właśnie dlatego kluczowym parametrem powinien być wykorzystany materiał. Jeśli szukasz torby na co dzień, możesz zwrócić się w stronę skóry naturalnej. Skórzane plecaki staną się ciekawym i eleganckim dopełnieniem stylizacji. Dzięki temu będziesz mógł sięgnąć po nie także w czasie wyjścia do pracy. Skóra naturalna wyróżnia się przy tym odpornością i wytrzymałością, przez co stanie się świetną inwestycją na długie lata.
      Ciekawą alternatywą są modele wykonane z nylonu i poliestru. Tkaniny syntetyczne zapewniają wysoki poziom odporności na wilgoć i zabrudzenia, co znacznie podnosi komfort użytkowania. Kwestie te szczególnie ważne są w przypadku modeli turystycznych, które często narażone są na działanie trudnych warunków pogodowych.
       
      Na co jeszcze zwrócić uwagę podczas wyboru plecaka? Ważnym czynnikiem pozostaje także kształt plecaka. Warto wybierać torby, które równomiernie rozkładają ciężar na całych plecach. W ten sposób unikniesz bolesnego przeciążenia kręgosłupa. Na nasz komfort wpływa również szerokość szelek. Najlepiej sięgać po te szersze z pianką ochronną. Miękkie wykończenie znacznie podniesie wygodę noszenia plecaka – nawet w przypadku dłuższych wypraw.
      Co więcej, kluczowym aspektem pozostaje rozmiar, pojemność i waga plecaka. Pamiętaj o tym, aby dobrać parametry do swoich indywidualnych potrzeb i preferencji. Należy zwracać przy tym uwagę na dodatkowe elementy wyposażenia, liczbę kieszonek i przegródek oraz wzmocnienie dna, które sprawi, że będziesz mógł postawić plecak na ziemi bez ryzyka upadku. Ostateczna decyzja zależeć będzie jednak przede wszystkim od Twoich indywidualnych potrzeb i preferencji.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...