Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'Polska' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 24 wyników

  1. Najbardziej zagrożone suszą są rzeki spływające do środkowej Odry i Wisły. Wysychające warstwy gleby spowodują dalsze pustynnienie obszarów na Kujawach, Pomorzu, w Wielkopolsce i na Lubelszczyźnie. To wynik braku opadów i wyższych temperatur – poinformował hydrolog i rzecznik IMGW Grzegorz Walijewski. Od 2015 r. z krótką przerwą na zeszły rok, mieliśmy do czynienia z permanentną suszą. W tym roku po dosyć wilgotnym lutym, kiedy spadło łącznie 113 proc. normy w całym kraju, wydawało się, że problem suszy może być mniejszy, ale od 25 lutego jest bezwietrza i bezdeszczowa, słoneczna pogoda. W większej części kraju, oprócz Polski południowej, południowo-wschodniej i częściowo wschodniej, nie było deszczu. Dodatkowo stosunkowo wysokie temperatury w dzień powodowały większe parowanie, co spowodowało, że sytuacja staje się z dnia na dzień coraz gorsza – powiedział Walijewski. W ocenie hydrologa już mamy do czynienia z pierwszymi symptomami suszy meteorologicznej. O zjawisku tym mówimy wówczas, kiedy przez przynajmniej 20 dni występuje brak opadów, bądź jest ich niedobór – wyjaśnił. To przekłada się na coraz mniejszą wilgotność gleby. We wschodnich województwach – w lubelskim, częściowo podkarpackim, ale także w centrum, czyli w woj. mazowieckim, oraz na zachodzie lubuskiego, Wielkopolski i zachodniopomorskiego, w wierzchniej warstwie gleby (do 7 cm) wilgotność spada poniżej 45 proc. To pierwsza oznaka problemów dla rolników, bo przesusza się wierzchnia warstwa gleby – wskazał Walijewski. We wschodniej części kraju, w głębszej warstwie gleby (od 8 do 28 cm) wilgotność jest poniżej 50-45 proc. Sytuacja się pogorszy, bo w następnych dniach wyż sprawi, że niedobór opadów będzie przynajmniej do 24 marca. Później ok. 25-26 marca mogą pojawić się niewielkie deszcze, jednak nie zmieni to faktu, że marzec będzie w całym kraju z opadami poniżej normy – oznajmił. Obecnie stan wód na rzekach osiąga przeważnie poziom średni, ale pojawia się coraz więcej rzek z niskim poziomem. Do tego brak wody z topniejących śniegów sprawia, że przed nami tendencja spadkowa – dodał. Najbardziej zagrożone suszą są rzeki na Niżu Polskim i dorzecza Odry, szczególnie zlewnia Warty i środkowej Odry, a także wszystkie rzeki, które spływają do środkowej Wisły. Wody w Polsce będzie coraz mniej. Są takie prognozy, że do 2040 r. w niektórych miejscach naszego dostępność wody pitnej może się zmniejszyć nawet o ok. 30 proc. – powiedział rzecznik IMGW. Zwrócił uwagę, że w centralnej części kraju, np. w Płocku roczny niedobór opadów notowany jest od 2010 r. Co roku było mniej opadów i w sumie ich deficyt wynosi ok. 600 mm. To tak, jakby przez cały rok w ogóle nie padało – wyjaśnił. W innych rejonach Polski, na Kujawach, Pomorzu, w Wielkopolsce, na Lubelszczyźnie, a nawet w niektórych miejscach na Mazurach są również są niedobory wody. Te obszary pustynnieją. W ostatnich 4–5 latach coraz częściej obserwowane są burze pyłowe. Dwa lata temu w Lubelskiem czarnoziemy zostały bardzo mocno przesuszone, a następnie silny wiatr spowodował burze piaskowe. Unoszący się pył było widać wyraźnie nawet na zdjęciach satelitarnych – powiedział Walijewski. Podkreślił, że to zjawisko będzie się pogłębiało. « powrót do artykułu
  2. Europa ma prawdopodobnie jedne z najbardziej rozdrobnionych rzek na świecie. W samej Polsce jest 77 tys. sztucznych barier – średnio jedna na km rzeki czy strumyka – wynika z badań opublikowanych w Nature. Naukowcy komentują, że konstrukcje te szkodzą bioróżnorodności, a istnienie wielu z nich nie ma ekonomicznego sensu. W ramach projektu AMBER koordynowanego przez walijski Uniwersytet Swansea oszacowano, że w 36 europejskich krajach jest co najmniej 1,2 mln barier w nurcie wodnym rzeki. A to oznacza, że na 4 kilometry rzeki przypadają średnio 3 bariery zbudowane przez człowieka (0,74 bariery na 1 km). Polska jest powyżej europejskiej średniej: na 1 km strumyka przypada u nas 1 bariera. Rekordzistką jest jednak Holandia, gdzie na kilometr rzeki przypada prawie 20 barier. To zaskakująco wysokie liczby w stosunku do tego, co wiadomo było wcześniej. Ponad 60 proc. konstrukcji jest bowiem na tyle niewielkich (mają np. poniżej 2 m wysokości), że były dotąd pomijane w statystykach. W zakrojonych na dużą skalę badaniach opracowano Atlas Zapór AMBER – pierwszą kompleksową ogólnoeuropejską inwentaryzację zapór. Zarejestrowano tam tysiące dużych zapór, ale i znacznie większą liczbę niższych struktur, takich jak jazy, przepusty, brody, śluzy i rampy, które były dotąd niewidoczne w statystykach, a są głównymi sprawcami fragmentacji rzek. Wyniki badań – koordynowanych przez Barbarę Belletti – opublikowano w Nature. W ramach projektu powstała też aplikacja AMBER, w której każdy może pomóc dokumentować brakujące dotąd w statystykach bariery. Ponieważ policzenie wszystkich barier nie było fizycznie możliwe, naukowcy w badaniach terenowych przewędrowali wzdłuż 147 rzek (2,7 tys. km) i odnotowywali wszelkie sztuczne bariery w ich nurtach. Na tej podstawie oszacowano, ile barier może być w Europie. Jeden ze współautorów badania prof. Piotr Parasiewicz, kierownik Zakładu Rybactwa Rzecznego w Instytucie Rybactwa Śródlądowego im. S. Sakowicza zaznacza, że bariery te są ogromnym utrudnieniem w migracji ryb rzecznych nie tylko takich jak łososie, pstrągi, jesiotry, węgorze, ale także płotki czy leszcze. Za sprawą konstrukcji rzecznych gatunki te mają coraz trudniejsze warunki do przeżycia. To jednak nie jedyny minus. Jeśli na rzekach mamy tysiące barier, to zamieniamy nasze rzeki w stawy - mówi naukowiec. Powyżej bariery tworzy się bowiem często zalew, w którym woda płynie bardzo powoli, a lepiej radzą sobie tam organizmy charakterystycznie nie dla rzek, ale właśnie stawów. Z ryb są to choćby karpie czy leszcze. A to zwykle gatunki mniej wyspecjalizowane i bardziej pospolite. Bariery zmieniają też temperaturę wody (powyżej bariery jest często ona cieplejsza niż poniżej). A w dodatku blokują przepływ osadów i materii. A w poprzegradzanej rzece wolniej zachodzą procesy samooczyszczania. Ponadto z danych dostarczonych przez wolontariuszy w ramach aplikacji AMBER wynikło, że ponad 10 proc. europejskich barier jest nieużytecznych. Gdyby więc je usunąć, nie miałoby to żadnego ekonomicznego znaczenia. A to by oznaczało, że w Europie można by było rozebrać ok. 150 tys. barier bez żadnych strat ekonomicznych. Za to z zyskiem dla środowiska i dla ludzi – ocenia prof. Parasiewicz. Jednym z praktycznych wyników naszego projektu jest to, że Unia Europejska zadeklarowała w swoim Programie Bioróżnorodności do 2030 r., że udrożni 25 tys. km rzek – komentuje prof. Parasiewicz. AMBER otrzymał finansowanie z unijnego programu badań naukowych i innowacji "Horyzont 2020". Celem tego projektu jest zastosowanie zarządzania adaptacyjnego do eksploatacji zapór i innych barier w celu osiągnięcia bardziej zrównoważonego wykorzystania zasobów wodnych i skuteczniejszego przywrócenia ciągłości ekosystemów rzecznych. W ramach projektu opracowano narzędzia i symulacje, które mają pomóc przedsiębiorstwom wodociągowym i zarządcom rzek zmaksymalizować korzyści płynące z barier i zminimalizować ich wpływ na środowisko. « powrót do artykułu
  3. Ludzie zamieszkujący południe Polski w neolicie byli blisko spokrewnieni z populacją z okresu epoki brązu. Doktor Anna Juras wraz z zespołem z Uniwersytetu Adama Mickiewicza przeprowadziła analizy genetyczne 150 kości 80 osób żyjących w epoce brązu. Badani zmarli byli przedstawicielami kultur mierzanowickiej, strzyżowskiej oraz trzcinieckiej. Naukowcy skupili się na genomie mitochondrialnym, dziedziczonym po matce. Jak czytamy na łamach American Journal of Physical Anthropology, wyniki analizy genetycznej wykazały bliskie pokrewieństwo po linii matki społeczności kultury mierzanowickiej i trzcinieckiej ze społecznościami kultury ceramiki sznurowej. Bardziej odległa od nich społeczność kultury strzyżowskiej wykazywała bliższe podobieństwo genetyczne do populacji stepu powiązanej z wcześniejszymi kulturami grobów jamowych i kultury grobów katakumbowych oraz z późniejszymi Scytami. Autorzy pracy zauważają, że istnieje ciągłość genetyczna pomiędzy kulturą sznurową późnego neolitu a kulturami mierzanowicką i trzciniecką reprezentującymi kultury brązu. Ponadto pod koniec III tysiąclecia przed Chrystusem ludy stepu mogły wnieść swój wkład w rozwój kultury strzyżowskiej. Jak już wiemy z poprzednich badań, tereny dzisiejszej zachodniej Polski we wczesnej epoce brązu zostały zasiedlone przez przedstawicieli kultury unietyckiej, a południowo-wschodnie tereny kraju zamieszkali najpierw przedstawiciele kultury mierzanowickiej, a po nich pojawili się ludzie reprezentujący kulturę strzyżowską, którzy zamieszkali niewielki region w południowo-wschodniej Polsce i zachodniej Ukrainie. Kultury strzyżowska i mierzanowicka rozwijały się niemal równocześnie do mniej więcej 1600 roku przed naszą erą. Później ustąpiły one kulturze trzcinieckiej, która przetrwała do około 1100 roku przed Chrystusem. EDIT: w poprzedniej wersji umieściliśmy nieuprawniony wniosek o ciągłości genetycznej od neolitu po czasy współczesne. Chodziło o ciągłość genetyczną neolit-epoka brązu « powrót do artykułu
  4. Im politykowi bliżej do myślistwa, tym gorsze jego nastawienie do wilków. Wskazują na to analizy wypowiedzi parlamentarzystów zawarte w sejmowych stenogramach. Niewiele jest gatunków dzikich zwierząt, które by tak rozpalałyby dyskutantów, jak wilk. Polskie organizacje pozarządowe już od początku lat 90. XX wieku prowadziły kampanie na rzecz jego ochrony. Dzięki temu, po wiekach eksterminacji, a następnie dekadach intensywnej eksploatacji łowieckiej, wilk jest ściśle chroniony w całym kraju od 1998 r. Jednak nieustannie trwa ożywiona debata na temat jego statusu prawnego. Nastawienie polityków do ochrony wilka nie jest zależne od ich politycznych barw, lecz od związku z łowiectwem. Im polityk był bliższy myślistwu, tym bardziej negatywnie wypowiadał się na temat samego drapieżnika Literatura politologiczna wskazywała, że zagadnienia ochrony przyrody są bliższe partiom lewicowym, podczas gdy partie prawicowe mają do przyrody bardziej utylitarne podejście. Naukowców intrygowało więc, czy podobnie jest w kwestii ochrony wilka. Aby to sprawdzić, przeanalizowali wypowiedzi polityków od 1989 r., zawarte m.in. w stenogramach sejmowych. Wyniki badań ukazały się w najnowszym numerze czasopisma Zoophilologica. Polish Journal of Animal Studies. Rezultaty naszych analiz nie potwierdziły przewidywań wynikających z wcześniejszych badań na temat nastawienia polityków do ochrony przyrody – wyjaśnia główny autor badań, Michał Figura, absolwent politologii na Akademii Humanistyczno-Ekonomicznej w Łodzi, cytowany w materiale przesłanym PAP. Okazało się, że nastawienie polityków do ochrony wilka nie jest zależne od ich politycznych barw, lecz od związku z łowiectwem. Im polityk był bliższy myślistwu, tym bardziej negatywnie wypowiadał się na temat samego drapieżnika. Eksperci w swoim artykule podkreślili także rolę, jaką w ochronie dzikich zwierząt pełnią organizacje społeczne. Zaraz po przemianach demokratycznych w 1989 r. w Polsce zaczęły powstawać oddolne ruchy społeczne, skupiające się na zachowaniu resztek dzikiej przyrody – podkreśla współautor badań dr hab. Robert Mysłajek z Instytutu Genetyki i Biotechnologii Wydziału Biologii Uniwersytetu Warszawskiego. I to właśnie im zawdzięczamy ochronę wielu cennych gatunków, w tym wilka i rysia. « powrót do artykułu
  5. Polski Narodowy Instytut Leków (NIL) informuje, że aż 25% przebadanych przezeń suplementów diety ma skład inny niż deklarują producenci. Dobra wiadomość jest taka, że w żadnym z 50 popularnych suplementów nie odkryto zanieczyszczeń ani szkodliwych związków. Jak powiedziała „Gazecie Prawnej” Anna Kowalczyk, dyrektor NIL, standardy wymagają, by zawartość składników aktywnych w produkcie była nie mniejsza niż 90%. Tymczasem okazało się, że w jednym z preparatów zawierających ostryż długi, który ma pomagać na problemy z wątrobą, środka tego jest zaledwie 3%. Niektóre suplementy z witaminami B2 i B6 zawierały ich 30% ilości zadeklarowanych na ulotce, preparaty reklamowane jako pomagające w walce z objawami menopauzy miały w sobie 18% deklarowanej ilości izoflawonów soi i 38% obiecywanych izoflawonów koniczyny czerwonej. W preparatach stwierdzono też mniej niż deklarowana ilość witaminy D. Ulotki suplementów podawały natomiast prawdziwe dane odnośnie zawartości składników mineralnych jak żelazo czy wapń. Rynek suplementów rozwija się w Polsce bardzo dynamicznie. Do końca listopada ubiegłego roku klienci wydali na te preparaty 3,4 miliarda PLN. To o 200 milionów więcej, niż w analogicznym okresie roku poprzedniego. Szacuje się, że suplementy przyjmuje 20% Polaków. Większość z nich nie dostrzega różnicy pomiędzy lekami bez recepty a suplementami, uznaje je za środki całkowicie bezpieczne. Znaczna część sądzi też, że suplementy można przyjmować bez ograniczeń. Suplementy od dawna budzą liczne kontrowersje. Niejednokrotnie informowaliśmy, że – w przeciwieństwie do prawidłowej diety – nie przyczyniają się one na zmniejszenie ryzyka zgonu, o pojawiających się coraz częściej ostrzeżeniach przed suplementami czy o szkodliwych skutkach ich nadmiernego spożywania. Mogą jednak pomagać osobom chorym, a być może również przynosić korzyści zdrowym. « powrót do artykułu
  6. Upały, które właśnie nadciągnęły nad Polskę, mogą oznaczać problemy dla elektrowni. Im jest cieplej, tym więcej urządzeń chłodzących włączają ludzie, a to oznacza duże wzrosty zużycia prądu. Tymczasem polskie elektrownie są chłodzone głównie wodą z rzek. To powoduje dwa problemy. Po pierwsze stany rzek są niskie, po drugie, ze względu na wymogi ochrony środowiska, woda użyta do chłodzenia bloków energetycznych nie może być zbyt gorąca przed zrzuceniem jej do rzeki. To zaś oznacza, że albo trzeba obniżyć moc elektrowni, czyli produkować mniej prądu, albo włączyć dodatkowe schładzacze, a to zwiększa straty energii. Jak powiedział Rzeczpospolitej profesor Władysław Mielczarski z Politechniki Łódzkiej, w tym roku jeszcze polski system energetyczny powinien dać sobie radę, jednak sytuacja będzie się pogarszała i w kolejnych latach powinniśmy przygotować się na wyłączenia prądu. W Polsce przemysł węglowy pobiera aż 70% całej używanej wody. Dla porównania w Niemczech jest to 18%, a w całej UE – 13,7%. To jednak nie oznacza, że tylko Polska jest narażona na kłopoty. Jak mówi Mielczarski, cała Europa może już w ciągu najbliższych 2–3 lat doświadczyć blackoutów spowodowanych upałami. Oczywiście Polska może w razie potrzeby kupić prąd za granicą, jednak to zabezpieczenie coraz bardziej iluzoryczne. Naszymi potencjalnymi dostawcami prądu mogą być Czesi lub Niemcy. Tymczasem w samym tylko czerwcu niemiecki system energetyczny aż czterokrotnie był na granicy załamania. Polskim problemem jest energetyka oparta w dużej mierze na węglu oraz fakt, że nasze elektrownie były budowane głównie w latach 60. i 70. ubiegłego wieku, kiedy nawet w lecie występowały obfite opady. Wówczas nie brakowało wody do chłodzenia elektrowni. Obecnie jest z tym coraz większy kłopot. « powrót do artykułu
  7. Polska onkologia i medycyna opiera się na zbyt malej ilości twardych danych; nie wiemy tak naprawdę, jakie są dokładnie wyniki leczenia nowotworów – powiedział PAP prof. Piotr Rutkowski, przewodniczący powołanego niedawno zespołu ds. tzw. cancer planu. Do 30 listopada 2019 r. zespół ds. tzw. cancer planu ma opracować Narodową Strategię Onkologiczną, której głównym celem jest poprawa wykrywalności oraz skuteczności leczenia nowotworów. Zdaniem prof. Piotra Rutkowskiego, chirurga Centrum Onkologii w Warszawie, zespół specjalistów ds. Narodowej Strategii Onkologicznej (wśród których są onkolodzy z centrów onkologii, jak i przedstawiciele ministerstwa zdrowia, Narodowego Funduszu Zdrowia oraz uczelni medycznych), potrzebuje przede wszystkim wiarygodnych danych. Polska onkologia i polska medycyna opiera się na zbyt malej ilości twardych danych i tak naprawdę nie wiemy, jakie są dokładnie wyniki leczenia, za co płaci płatnik, ale przede wszystkim jakie korzyści odnosi z tego chory. To jest niezbędne – powiedział w rozmowie z dziennikarzem PAP. Skutkiem braku danych o wynikach leczenia jest to – podkreślił specjalista - że pacjent nie wie, jaka jest jakość danego zabiegu, ale też płatnik tego w ogóle nie kontrolował. Wykazał to niedawno opublikowany raport Narodowego Funduszu Zdrowia "Nowotwory złośliwe. Koncentracja leczenia zabiegowego" (opracowany na podstawie danych dotyczących realizacji świadczeń medycznych w 2017 r.). NFZ postanowił, że powyżej pewnej liczby wykonywanych procedur za zabieg będzie płacić więcej. Okazuje się jednak, że mało ośrodków spełnia przyjęte warunki, przykładowo w jednym z nowotworów [jelita grubego – PAP] 30 ośrodków spełnia określone kryteria, a 300 innych - nie spełnia. Opublikowane w raporcie dane ujawniły zatem olbrzymie rozproszenie ośrodków zajmujących się leczeniem nowotworów – podkreślił szef zespołu ds. cancer planu. Chirurgią w wielu nowotworach jest podstawą leczenia. W skomplikowanych zabiegach, do jakich często zaliczane są operacje nowotworów, bardzo ważne jest zatem, żeby w danej placówce wykonywano ich jak najwięcej. Chirurdzy, którzy często je przeprowadzają, uzyskują lepsze efekty, z korzyścią dla chorego. W chirurgii onkologicznej często jest tak, że ilość faktycznie przechodzi w jakość, ale musi być również odpowiednia jakość sprawozdawania tych wyników, zarówno o liczbie wykonywanych procedur, jak też osiąganych wynikach leczenia – wyjaśnił prof. Rutkowski. Podkreślił, że w krajach zachodnich istnieje dobrze pojęta konkurencja między placówkami specjalizującymi się w danym typie nowotworów. Zdarza się, że znikają kliniki, które w kolejnych audytach odstawały jakościowo od innych pod względem uzyskiwanych wyników i dlatego je zamknięto. Byłem w szoku, kiedy po raz pierwszy się zetknąłem się z tym, że pewnego ośrodka po jakimś czasie już nie było. Czy można sobie wyobrazić, żeby w Polsce zamknięto jakakolwiek klinikę, bo nie spełniała kryteriów – zapytał. Zdaniem przewodniczącego zespołu, który ma opracować Narodową Strategię Onkologiczną, wyspecjalizowane ośrodki powinny przez dłuższy czas opiekować się pacjentem. Przykładem tego, o co nam chodzi, są tzw. Breast Cancer Units [ośrodki specjalizujące się leczeniu raka piersi – PAP]. Opieka w takich placówkach powinna być skoordynowana i kompleksowa, czyli od diagnozy poprzez leczenie skojarzone, ale również po jego zakończeniu chory musi mieć zapewnioną dalszą rehabilitację. Teraz często jest tak, że pacjent, który zachorował na nowotwór, kończy leczenie i nie ma dalszej opieki, pozostawiony jest samu sobie. Tak jest niestety w wielu ośrodkach – przyznał prof. Rutkowski. Dodał, że w Polsce chorych nie poddaje się rehabilitacji z tego tylko powodu, że mają oni nowotwory i koło się zamyka. Jest u nas wiele przesądów po wyleczeniu i w trakcie leczeniu nowotworów. Chodzi w tym przypadku o całościową rehabilitację, nie tylko o fizykoterapię, ale także o wsparcie psychoonkologiczne i możliwość powrotu do pracy - ale w taki sposób, żeby pacjent mógł korzystać z dalszego leczenia – wyjaśnił specjalista. Specjalista zwrócił uwagę, że chirurgia onkologiczna jest dynamicznie rozwijającą się specjalnością, która dotyczy również leczenia okołooperacyjnego, za pomocą napromieniania, chemioterapii i nowych terapii. Nie zawsze trzeba od razu zoperować pacjenta. Na zjazdach naukowych coraz więcej jest o leczeniu okołooperacyjnym – dodał. Chodzi nie tylko o leczenie, ale i nowoczesne diagnozowanie, które jest bardzo trudne. To jest kosztowne, ale przynosi też oszczędności zarówno dla pacjenta, jak i płatnika, bo gdy rozpoznanie zostanie właściwie postawione to oszczędzamy pieniądze i leczymy właściwie, bardziej skutecznie - powiedział prof. Rutkowski. Jako przykład podał Francję, gdzie 95 proc. mięsaków jest diagnozowanych histopatologicznie jedynie w trzech ośrodkach. Po takich specjalistycznych badaniach zmieniono rozpoznania w 40 proc. przypadków, a w 10 proc. okazało się, że wcale nie było nowotworu, czyli w co drugim przypadku chorzy powinni być leczeniu całkowicie inaczej lub w ogóle niepotrzebnie poddano ich terapii. Chodzi o przeprowadzenie pełnej diagnostyki jeszcze przed operacją, żeby wypracować właściwą strategię leczenia, chemioterapię czy radioterapię. Przecież to są wszystko koszty – podkreślił specjalista. W ocenie szefa zespołu ds. cancer planu, chirurgią onkologiczną nie muszą się zajmować tylko wielospecjalistyczne ośrodki: To może być mały ośrodek specjalistyczny, a także placówki uniwersyteckie, np. w Krakowie czy Warszawie. Wykonują one dobrą robotę także w zakresie chirurgii onkologicznej. Prof. Rutkowski uważa, że system [opieki onkologicznej – PAP] trzeba w Polsce dopiero zbudować, bo był on postawiony na głowie. Skoncentrowana była chemioterapia, a zdekoncentrowana chirurgia. Tymczasem powinno być odwrotnie, bo wtedy uzyskuje się największy odsetek wyleczeń. Z kolei leczenie uzupełniające i paliatywne powinno być bliżej miejsca zamieszkania pacjenta. Bez sensu jest to, żeby na standardową chemioterapię pacjent jeździł 200 km. To jest to co mam nadzieję, że się zmieni - mówił. Według niego świadczenia medyczne powinny być jednak rozsądnie wycenione. Duża część procedur w chirurgii generalnie wykonywana jest poniżej kosztów. To jest totalna fikcja. Dlatego szpitale nie są zainteresowane wysokojakościową chirurgią, bo ona tylko przynosi straty - podkreślił. Zrobiliśmy ostatnio wyliczenie – dodał - bo po raz pierwszy wzięła się za to Agencja Oceny Technologii Medycznych i Taryfikacji, która wreszcie ocenia realne koszty w chirurgii. Okazało się, że u nas - w Centrum Onkologii - koszty realne są trzy razy wyższe od tego, co płaci NFZ. Bo tak niskie są te wyceny. Oczekuję, że wzrosną nakłady na służbę zdrowia, ale wiele zależy od organizacji opieki. Dotąd jak nie było pieniędzy, to wszyscy markowali, jak ten system ma działać. Jeżeli pieniędzy będzie więcej, to będzie on działał sprawnie – powiedział prof. Rutkowski. Specjalista poinformował PAP, że pierwsze posiedzenie zespołu ds. cancer planu planowane jest na 18 czerwca 2019 r. Przewiduje się, że omawiane będą wstępne priorytety Narodowej Strategii Onkologicznej. « powrót do artykułu
  8. Prawie 700 tys. osób w naszym kraju ma tzw. otyłość patologiczną wymagającą leczenia chirurgicznego, które pomaga w odchudzaniu, jak i chroni przed poważnymi chorobami – przekonywali w czwartek eksperci. Podkreślono, że pacjentów tych trzeba objąć kompleksową i skoordynowaną opieką. Specjaliści podczas konferencji naukowej w Warszawie wyjaśnili, że otyłość patologiczna występuje wtedy, gdy wskaźnik masy ciała BMI przekracza 40 punktów. Osoby z tak dużą masą ciała wymagają specjalistycznej pomocy, u wielu z nich konieczne jest operacyjne leczenie polegające np. na zmniejszeniu różnymi metodami objętości żołądka. Są to tzw. zabiegi bariatryczne i najlepiej, gdy są wykonywane małoinwazyjną metodą laparoskopową. Prezes Towarzystwa Chirurgów Polskich prof. Krzysztof Paśnik powiedział w rozmowie z PAP, że operacyjnego leczenia otyłości może wymagać w naszym kraju 700 tys. osób, u których występuje otyłość patologiczna. W 2018 r. zabiegi bariatryczne przeprowadzono u zaledwie 3,8 tys. tych pacjentów, o ponad 500 więcej niż rok wcześniej – wynika z danych przedstawionych podczas konferencji przez ekspertów Instytutu Zarządzania w Ochronie Zdrowia Uczelni Łazarskiego w Warszawie. Liczba wykonywanych u nas operacji to wciąż zatem kropla w morzu potrzeb. Tymczasem badania naukowe wykazują, że chronią one przed wieloma powikłaniami i przedłużają życie osobom z otyłością – podkreślił prof. Paśnik, który od wielu lat specjalizuje się w operacjach bariatrycznych. Specjaliści przekonują, żeby zwiększyć w naszym kraju liczbę operacji bariatrycznych, a jednocześnie wprowadzić kompleksową i skoordynowaną opiekę nad pacjentami poddawanymi tym zabiegom. Sama operacja to jeszcze nie wszystko – podkreślił prof. dr hab. Łukasz Kaska z Centrum Leczenia Otyłości i Chorób Metabolicznych Gdańskiego Uniwersytetu Medycznego. Tym bardziej, że operacja nie jest panaceum na otyłość. Po 10 latach od 20 do 30 proc. operowanych wraca do poprzedniej masy ciała. Jak podkreślił prof. Paśnik, leczeniem otyłości olbrzymiej powinny zajmować się wyłącznie wyspecjalizowane w tej dziedzinie ośrodki, dysponujące doświadczonymi w tych zabiegach chirurgami i odpowiednimi specjalistami, np. od dietetyki, psychologii i rehabilitacji. Ośrodki takie muszą zapewnić pacjentom wieloletnią opiekę, czasami do końca życia. Co roku powinno się w nich wykonywać co najmniej 150 operacji bariatrycznych, bo to gwarantuje odpowiednią ich jakość. Trzeba też zmienić nastawienie lekarzy w Polsce do operacji bariatrycznych. Wielu z nich nie mówi nawet o nich pacjentom, bo nadal nie jest przekonanych do tych zabiegów. To błąd – twierdzą chirurdzy. Chirurgia bariatryczna przestała być jedynie leczeniem nadmiernej masy ciała. Pozostaje jedyną metodą leczenia otyłości olbrzymiej o udowodnionej skuteczności – przekonuje prof. Andrzej Budzyński, kierownik Oddziału Klinicznego Chirurgii Endoskopowej, Metabolicznej oraz Nowotworów Tkanek Miękkich Szpitala Uniwersyteckiego w Krakowie. Z postulatami specjalistów zgodził prezes Narodowego Funduszu Zdrowia Andrzej Jacyna. Powiedział, że poza zabiegami na najwyższym poziomie niezbędne jest zapewnienie operowanym pacjentom kompleksowej i długofalowej opieki. Obecnie wielu z nich nie wraca do ośrodka, w którym byli operowani, a po operacji muszą radzić sobie sami – podkreślił. Prezes NFZ zwrócił uwagę, że bardzo ważne jest przygotowanie do operacji pacjenta, które powinno trwać około 6 miesięcy. Większość ośrodków wykonujących takie operacje tego jednak nie przestrzega. Szpitale decydujące się na chirurgię bariatryczną muszą być wyposażone w odpowiedni sprzęt, np. w stół operacyjny przystosowany do osób z otyłością olbrzymią. Zdaniem dr. Jerzego Gryglewicza z Instytutu Zarządzania w Ochronie Zdrowia, chirurgia bariatryczna powinna mieć zapewnione oddzielne finansowanie w ramach kompleksowej i skoordynowanej opieki nad operowanymi pacjentami. "Wprowadzenie tej opieki poprzedziłby program pilotaży realizowany w wybranych ośrodkach. Nie wyobrażam sobie, żeby było inaczej" – dodał. Nie wiadomo jednak, kiedy taki pilotaż miałby się rozpocząć. Dr Gryglewicz powiedział, że program kompleksowej opieki w zakresie chirurgii bariatrycznej jest na etapie konsultacji ze specjalistami. Jest jednak przekonany, że efektywny i kompleksowy model opieki nad chorymi może poprawić ich sytuację, jak też zmniejszyć koszty leczenia otyłości. Ekspert ds. zdrowia zwrócił uwagę, że operacjom bariatrycznym często poddawani są ludzie młodzi. Średnia wieku operowanych to zaledwie 43 lata, w 2018 r. najmłodsi pacjenci byli w wieku 14-16 lat, z kolei najstarsi mieli od 70 do 77 lat - powiedział. Z danych NFZ wynika, że na chirurgiczne leczenie otyłości w 2018 r. przeznaczono 43,5 mln zł, o 7 mln zł więcej niż rok wcześniej. Dzięki zabiegom osoby z otyłością olbrzymią mogą być nadal aktywne i uniknąć wielu powikłań związanych z nadmierną masą ciała, takich jak zaburzenia metaboliczne, cukrzyca czy zaburzenia kostno-stawowe. Bardzo ważne jest zatem, żeby pacjenci ci byli operowani jeszcze przed wystąpieniem powikłań, a nie dopiero wtedy, gdy się już pojawią – powiedział PAP prof. Paśnik. Z analizy ekspertów Instytutu Zarządzania w Ochronie Zdrowia wynika, że koszty pośrednie utraconej produktywności chorych z otyłości w 2015 r. wyniosły 77,55 mln zł, a w 2016 r. zwiększyły się one do 85,14 mln zł. « powrót do artykułu
  9. Niemal połowa Polaków wywodzi się z żeńskiej linii genetycznej Helena, nazwanej tak od imienia jednej z „pramatek Europy”. Linia ta występuje najczęściej w Europie Zachodniej, a szczególnie w Hiszpanii i w Portugalii. Najnowsze badania Pracowni Biobank Katedry Biofizyki Molekularnej Uniwersytetu Łódzkiego wykazały, że populacja polska, podobnie jak europejska, pochodzi od siedmiu głównych żeńskich linii genetycznych (haplogrup). W książce prof. Bryana Sykes’a linie te zostały umownie określone jako „pramatki Europy”: Urszula, Xenia, Helena, Katarzyna, Tara, Velda oraz Jaśmina. Poziom zróżnicowania populacji polskiej jest niski i jest ona dosyć jednorodna pod względem genetycznym. Najwięcej Polaków – ok. 43 proc. – wywodzi się z linii genetycznej zwanej Heleną – wynika z badania łódzkich naukowców, którzy wyniki swojej pracy opublikowali w prestiżowym czasopiśmie European Journal of Human Genetics. Badania Pracowni Biobank UŁ dotyczyły określenia różnorodności mitochondrialnego DNA, czyli dziedziczonego po linii żeńskiej w populacji polskiej. Ich celem było określenie udziałów poszczególnych linii genetycznych mtDNA w populacji, a także zobrazowanie genetycznych powiązań między Polakami. Dr Justyna Jarczak z Pracowni Biobank UŁ przypomina, że w DNA zapisana jest informacja nie tylko o tym jak wyglądamy i jak funkcjonuje nasz organizm, ale też o naszych przodkach. Możemy dowiedzieć się, z jakiej linii genetycznej, a w uproszczeniu, jakiej grupy pierwszych mieszkańców Europy się wywodzimy. Warto podkreślić, że za pomocą mitochondrialnego DNA możemy określić żeńską linię genetyczną, ponieważ ten rodzaj DNA jest przekazywany prawie wyłącznie przez kobiety. Co więcej, zmiany zachodzą w nim bardzo rzadko a więc możemy cofnąć się w czasie o wiele pokoleń, do czasów bardzo odległych – dodaje dr Jarczak. Badania łódzkich naukowców po raz pierwszy zostały przeprowadzone na tak licznej grupie osób (5852) reprezentujących wszystkie województwa i zdecydowaną większość powiatów. Dodatkowo zastosowano podział na tak zwane klastry, które mniej lub bardziej odpowiadały regionom geograficznym czy regionom etnograficznym. To pozwoliło nałożyć wyniki różnic genetycznych na tło historyczne i kulturowe. Wiadomo, że 95 proc. dzisiejszych Europejczyków pochodzi z siedmiu żeńskich linii genetycznych. Z badań łódzkiego Biobanku wynika, że najwięcej Polaków – ok. 43 proc. – wywodzi się z linii genetycznej H (Helena). Występuje ona najczęściej w Europie Zachodniej, a najwyższe frekwencje tej haplogrupy są obserwowane w Hiszpanii i Portugalii. Z kolei na północnych krańcach Europy, wśród Lapończyków, występuje ona z bardzo niską częstością – od 0 do 7 proc. Uważa się, że pierwsze grupy ludzi należące do tej linii genetycznej pojawiły się w Europie ok. 20 tys. lat temu na terenach południowej Francji – dodała badaczka. Inne dość częste linie genetyczne w Polsce to U (Urszula) - ok. 20 proc. oraz J (Jaśmina) - ok. 10 proc. Haplogrupa U jest najstarszą linią genetyczną mtDNA zidentyfikowaną na terenie Europy. Jej pierwsze ślady pochodzą sprzed 45 tys. lat z terenów dzisiejszej Grecji. Haplogrupa J natomiast pojawiła się w Europie stosunkowo niedawno – ok. 8 tys. lat temu. Najwyższe częstości występowania obserwowane są na Bliskim Wschodzie i na Bałkanach i tam prawdopodobnie pojawiła się na naszym kontynencie po raz pierwszy – wyjaśniła dr Jarczak. Pozostałe linie genetyczne występują już rzadziej: T (Tara) – 9 proc., HV – 4,5 proc. (jedna z haplogrup, występująca m.in. w Europie i na Bliskim Wschodzie), K (Katarzyna) – 4 proc.; W – 2,4 proc., I – ok. 2 proc. oraz V (Velda) – 1 proc. W polskiej populacji zdarzają się też haplogrupy rzadkie wskazujące na udział linii genetycznych pochodzenia innego niż europejskie. Są to haplogrupy pochodzenia azjatyckiego (C, D, R, A, G, Z, B, F) oraz afrykańskiego (N, L, M). Jednak ich frekwencja w populacji jest bardzo niska i nie przekracza 1 proc. Po raz pierwszy naukowcy przedstawili także rozkład haplogrup mtDNA z podziałem na regiony Polski. Wyniki badań wskazują, że poziom zróżnicowania w obrębie populacji polskiej jest niski, a sama populacja polska dosyć jednorodna pod względem genetycznym. Zaobserwowano jednak, że mieszkańcy niektórych regionów geograficznych naszego kraju wykazują pewne zróżnicowanie genetyczne. Zwłaszcza województwo łódzkie i świętokrzyskie różnią się od średniej populacji polskiej. Zróżnicowanie to można wyjaśnić historią procesów demograficznych w Polsce, takich jak przesiedlenia i migracje ludności lub relatywnie słabsza urbanizacja i wyższy wskaźnik zatrzymania ludności wiejskiej w niektórych regionach – dodała dr Jarczak. Pracownia Biobank Uniwersytetu Łódzkiego prowadzi badania naukowe z zakresu genetyki człowieka z wykorzystaniem metod biologii molekularnej. Posiada kolekcję próbek DNA pozyskanych od prawie 10 tys. ochotników z całej Polski. Połączenie najnowocześniejszych technik molekularnych z możliwością wykorzystania próbek z danej populacji pozwala na prowadzenie badań z zakresu genetyki populacyjnej. Za pomocą badań populacyjnych możemy na przykład oceniać stan zdrowia ludzi z danego terenu, możemy sprawdzać wpływ różnych czynników na występowanie chorób, a tym samym wpływać na rozwój profilaktyki i leczenia chorób cywilizacyjnych – wyjaśnił dr Dominik Strapagiel, kierownik Pracowni Biobank. Badania populacyjne umożliwiają także prześledzenie historii danej populacji. Dzięki wynikom takich badań możemy poznać jej strukturę genetyczną czy też pokusić się o wskazanie ważnych momentów w istnieniu danej populacji, które znajdują odzwierciedlenie w genach – podsumował dr Strapagiel. « powrót do artykułu
  10. Z powodu dławicy piersiowej, która bywa pierwszym objawem choroby niedokrwiennej serca, może cierpieć w naszym kraju 1,5 mln osób – alarmowali eksperci w poniedziałek w Warszawie, z okazji rozpoczęcia kampanii edukacyjnej „Poznaj Dławicę Piersiową”. Międzynarodową kampanię „Angina Awareness Initiative” (Poznaj Dławicę Piersiową) w październiku 2017 r. zainicjowało Europejskie Towarzystwo Kardiologiczne (ESC). W marcu 2019 r. organizowana jest jej druga edycja, w której po raz pierwszy uczestniczy Polska. Patronat nad kampanią w naszym kraju objęło Polskiego Towarzystwo Kardiologiczne. Podejrzewamy, że dławica piersiowa występuje u około 1,5 mln Polaków, a u 50 proc. pacjentów jest pierwszą manifestacją choroby niedokrwiennej serca. W USA cierpi z jej powodu 8,5 mln osób – powiedział kierownik Katedry i Kliniki Kardiologii Uniwersytetu Medycznego w Łodzi prof. Jarosław Kasprzak. Eksperci wyjaśniali, że za mało się mówi o dławicy piersiowej, nazywanej również dusznicą bolesną (angina pectoris), stąd inicjatywa edukacyjna Europejskiego Towarzystwa Kardiologicznego. Najczęściej ostrzega się przed chorobą niedokrwienną serca, zawałem serca oraz niewydolnością serca. Tymczasem pierwszym niepokojącym sygnałem może być nawracający dławicowy ból w klatce piersiowej, szczególnie za mostkiem. Dławica – podkreślił prof. Kasprzak – powodowana jest niedokrwieniem serca na skutek zawężenia tętnic wieńcowych doprowadzających krew do mięśnia sercowego. Powodem zwężenia jest postępująca miażdżyca, co może się objawiać bólem w klatce piersiowej, a także uciskiem, gnieceniem, ciężarem lub zaciskaniem w klatce piersiowej – dodał. Najczęściej dolegliwości te występują podczas wysiłku fizycznego, ale mogą się pojawić także w trakcie silnego stresu lub przy innej okazji. Trwają zwykle kilka minut. Jeśli występują dłużej, np. 15 minut, lepiej wezwać karetkę pogotowia, gdyż może to świadczyć o ostrym zawale serca, wymagającym natychmiastowej interwencji kardiologicznej (zabiegu angioplastyki). Powtarzająca się dusznica bolesna zwykle poprzedza wystąpienie zawału serca. Początkowo nie jest dostrzegalna podczas zwykłych codziennych czynności, takich jak chodzenie i wspinanie się po schodach. Pojawia się jedynie podczas nasilonego, szybko wykonywanego lub długotrwałego wysiłku fizycznego – wyjaśniał prof. Miłosz Jaguszewski z I Katedry i Kliniki Kardiologii Gdańskiego Uniwersytetu Medycznego. Specjalista podkreślił, że objawy dławicy z czasem się nasilają, kiedy postępuje choroba niedokrwienna serca. Dolegliwości coraz częściej dają o sobie znać w trakcie mniej już intensywnych czynności, jak wchodzenie po schodach w normalnym tempie, a także po pokonaniu krótszych, niż wcześniej, odcinków drogi. Jednym z objawów poza bólem w klatce piersiowej może być skrócenie oddechu. Później dochodzi do znacznego ograniczenia zwykłej aktywności. Trudno wykonać jakąkolwiek czynność bez dyskomfortu, a dławica może się pojawić nawet w spoczynku. Powodem tego może być dławica mikronaczyniowa, czyli skurcz dotkniętych zaawansowaną miażdżycą tętnic – podkreślił prof. Jaguszewski. Dodał on, że warto zwrócić uwagę na nietypowe objawy, takie jak kołatanie serca, zimne poty, kaszel, nudności i wymioty, które częściej występują u kobiet, osób starszych i chorych z cukrzycą. Inne nietypowe dolegliwości to skrajne zmęczenie, niestrawność lub uczucie dyskomfortu w nadbrzuszu oraz ból poza klatką piersiową, np. w ręku – powiedział prof. Piotr Jankowski z I Kliniki Kardiologii i Nadciśnienia Tętniczego Instytutu Kardiologii Collegium Medicum Uniwersytetu Jagiellońskiego w Krakowie oraz Polskiego Towarzystwa Kardiologicznego. Nie powinniśmy lekceważyć objawów bólu w klatce piersiowej, ponieważ wizyta u lekarza i rozpoczęcie leczenia może nas uchronić przed zawałem serca - przekonywali eksperci. Z danych przedstawionych podczas spotkania z dziennikarzami wynika, że dławica piersiowa pozostaje nierozpoznana u ponad 43 proc. pacjentów z chorobą wieńcową, mimo że zgłaszali oni objawy dusznicy w minionym miesiącu. Z kolei ci, którzy byli leczeni z powodu dławicy, otrzymywali zbyt małe dawki leków kardiologicznych. Warto pamiętać także o tym, że dławica piersiowa może pogarszać jakość życia – przekonywała prof. Hanna Szwed z II Kliniki Choroby Wieńcowej Instytutu Kardiologii w Warszawie, konsultant wojewódzki w dziedzinie kardiologii dla województwa mazowieckiego. Przytoczone przez ekspertów dane sugerują, że dławica trzykrotne zwiększa ryzyko niepełnosprawności (na skutek pogarszającej się wydolności fizycznej) i czterokrotne wzrasta groźba depresji, bo wywołuje ona niepokój i lęk przed nagłym zgonem sercowym. « powrót do artykułu
  11. Znaleziono nowe dowody na poparcie tezy, że jeden z najbardziej zabójczych nowotworów mózgu — glejak złośliwy — jest skutkiem nieprawidłowego namnażania komórek macierzystych. W Polsce zachorowalność na glejaki, a więc nowotwory powstające z tkanki glejowej, to ok. 1300 przypadków rocznie, w tym gwiaździaki złośliwe (glejaki wielopostaciowe oraz glejaki anaplastyczne) stanowią ok. 600 przypadków. Nowotwory złośliwe tworzą nacieki i bardzo szybko rosną. Szczególnie złe rokowania występują przy glejaku wielopostaciowym. Chorzy przeżywają średnio 7-11 miesięcy. Niewielu pacjentów po radioterapii przeżywa 5 lat. Glejaki złośliwe bardzo często dają nawroty. Specjalne receptory na powierzchni komórek macierzystych uruchamiają kancerogenny podział w odpowiedzi na działanie szczególnego hormonu wzrostu (PDGF). Ujawniły to eksperymenty na myszach. Jak donoszą naukowcy, nieobecność hormonu prowadziła do obkurczania się guza, co daje nadzieję wielu chorym. Arturo Alvarez-Buylla i jego koledzy z Uniwersytetu Kalifornijskiego w San Francisco zbadali pośmiertnie mózgi trzech zdrowych osób. Testy chemiczne strefy przykomorowej komór bocznych mózgu (ang. subventricular zone, SVZ), która jest jednym z dwóch obszarów podziałów komórkowych w mózgu, wykazały obecność receptorów hormonu PDGF na powierzchni komórek. Znajdowane tam receptory PDGF są takie same, jak te występujące na komórkach glejaków złośliwych — komentuje Charles Stiles z Dana-Farber Cancer Institute w Bostonie. Zespół naukowców ostrożnie wszczepił do mózgów myszy pompy dostarczające przez 2 tygodnie hormon PDGF. U 4 gryzoni, którym podano największą dawkę hormonu (3,4 mikrograma), wystąpił największy wzrost guzów. Kiedy po 2 tygodniach badacze przestawali pompować PDGF, myszy pozostawały pod obserwacją. Kiedy po 21 dniach ponownie zbadano ich mózgi, nieprawidłowe komórki były prawie nieobecne (guz zanikał). To sugeruje, że jeżeli możemy zidentyfikować guzy nadreagujące na PDGF, możemy je też zmusić do regresji — spekuluje Alvarez-Buylla. Wcześniejsze studia wykazały, że inhibitory tego hormonu mogą blokować formowanie się glejaka u myszy (Cancer Research, wolumin 62.). Nadal nie wiadomo, dlaczego nagle nerwowe komórki macierzyste zaczynają się nieprawidłowo dzielić, rozpoczynając formowanie guza. Wyniki omawianych badań można znaleźć w piśmie Neuron.
  12. Rzeczpospolita dotarła do raportu „Zainteresowanie pracą badawczą w Polsce wśród naukowców pracujących za granicą" przygotowanego przez Fundację na rzecz Nauki Polskiej. Raport przygotowano na podstawie ankiet przeprowadzonych wśród 160 znanych naukowców z całego świata. O ich wypełnienie poproszono też Polaków pracujących za granicą. Badani mieli odpowiedzieć, czy są gotowi do podjęcia pracy naukowej w Polsce i jak wygląda porównanie warunków w Polsce i na świecie. Wnioski są zatrważające. Badacze ocenili, że polskim naukowcom brakuje motywacji i zaangażowania, a czasami profesjonalizmu. Ich zdaniem struktura zatrudniania jest skostniała i bardzo zhierarchizowana, a wydajność pracy niska w stosunku do ponoszonych nakładów finansowych. Styl pracy naukowców okazał się argumentem ważniejszym niż wynagrodzenie przy podejmowaniu decyzji o pracy w Polsce. Badani stwierdzili, że wynagrodzenie nie może być niższe niż za granicą, ale nie chcą pracować w środowisku, które uważają za mniej twórcze i które nie cieszy się prestiżem, bo wyniki polskich badań rzadko pojawiają się w prestiżowych czasopismach. Praca w naszym kraju kojarzy się też ze „spowolnieniem kariery", a nawet „przekreśleniem szans na udział w światowej nauce". Ostatecznie jednak tylko 15 proc. ankietowanych wykluczyło pracę w Polsce - pisze Rzeczpospolita. Wyraźnie zatem widać, że nie wystarczy samo zwiększanie nakładów. Konieczna jest radykalna zmiana struktury polskiej nauki, uzależnienie zatrudnienia od wyników, ciągła weryfikacja wiedzy i umiejętności kadry naukowej oraz większa elastyczność zatrudnienia. Ministerstwo Nauki i Szkolnictwa Wyższego zapewnia, że sytuacja polskiej nauki będzie się poprawiała.
  13. Jak dowiedział się „Dziennik Gazeta Prawna" w przyszłym roku, w marcu lub kwietniu, na polski rynek wejdzie Amazon, największy na świecie sklep online'owy. Obecnie koncern prowadzi rozmowy z firmami kurierskimi i dystrybutorami poczty, takimi jak InPost czy Poczta Polska. Redaktorzy DGP o możliwym wejściu Amazona dowiedzieli się właśnie od polskich firm, które negocjują z gigantem. Rozmowy trwają podobno już od czerwca. Przedstawiciele Amazona sondują rynek, rozmawiają z dostawcami książek, poszukują programistów. Amazon nie ma zamiaru budować w Polsce centrum dystrybucji. Zamówione towary będą wożone z Lipska. Empik, największy polski online'owy sprzedawca książek i muzyki twierdzi, że nie boi się amerykańskiej konkurencji.
  14. Jak donosi portal Wirtualne Media do Polski wejdzie Facebook Deals. Nad wprowadzeniem usługi pracuje ARBOinteractive. Deals to usługa skierowana do osób korzystających z Facebooka za pomocą urządzeń mobilnych. Sprzedawcy mogą im oferować promocje i zniżki. Obecnie dostępne są cztery opcje: stały rabat na wybrany produkt, promocje dla osób, które określoną ilość razy zameldowali się w określonym miejscu za pośrednictwem Facebook Places, zakupy grupowe oraz akcja charytatywna, podczas której sprzedawca za każdego klienta wnosi datek dobroczynny.
  15. Światowe Forum Ekonomiczne ogłosiło 10. The Global Information Technology Report, w którym omówiono sposób i stopień wykorzystywania nowoczesnych technologii informatycznych i komunikacyjnych w różnych krajach. Raport skupia się na zmianach, jakie w najbliższych dekadach zostaną wywołane przez nowoczesne technologie. Stworzono także ranking najbardziej konkurencyjnych krajów, układany pod kątem wykorzystania nowych technologii do rozwoju gospodarki. W raporcie, w którym uwzględniono 138 państw, wzięto pod uwagę środowisko informatyczne dla biznesu, infrastrukturę oraz regulację prawne, gotowość rządu, obywateli oraz firm do adaptacji nowoczesnych technologii oraz ich obecne użycie. W zestawieniu najlepiej wypadła Szwecja. Tuż za nią uplasował się Singapur, następne były Finlandia, Szwajcaria i USA. W pierwszej dziesiątce zmieściły się jeszcze Tajwan, Dania, Kanada, Norwegia i Korea Południowa. Polsce przyznano dopiero 62. miejsce (3,84 pkt), tuż przed Trynidadem i Tobago, które tracą do nas jedynie 0,01 punktu. Wyprzedziły nas m.in. takie kraje jak Słowenia, Tunezja, Barbados, Chile, Puerto Rico, Czarnogóra, Kostaryka, Jordania czy Wietnam. To i tak lepiej niż w poprzednim raporcie opisującym lata 2009-2010. Wówczas byliśmy na 65. pozycji i mieliśmy o 0,10 punktu mniej. Przyjrzenie się wynikom cząstkowym możemy stwierdzić, że na słaby wynik naszego kraju wpływają działania administracji państwowej i polityków. W tabeli „Środowisko" zajmujemy 60. pozycję z 3,91 pkt. Najsłabiej wypadamy w kolumnie „środowisko polityczne i prawne" (81. pozycja), nieco lepiej jest w kolumnie „środowisko biznesowe" (74. pozycja), natomiast pod względem infrastruktury zajmujemy 43. miejsce. W podtabeli „Gotowość" Polska znalazła się na 73. pozycji. Wynika z niej, że najlepiej przygotowany do wykorzystywania nowoczesnych technologii jest biznes (54. pozycja), następnie obywatele (83. pozycja), a najgorzej rząd (103. miejsce). Również tabela „Rzeczywiste użycie" nie wystawia najlepszego świadectwa administracji i rządowi. Polska znajduje się w niej na 57. miejscu. W tej kategorii najlepiej wypadają osoby indywidualne (46. miejsce), następnie biznes (60. pozycja), a na szarym końcu ponownie administracja (93. miejsce). Autorzy raportu zauważyli, że od roku 2008 Polska zyskała 7 pozycji, jednak podkreślają, że główną słabością naszego kraju są regulacje administracyjne. Podobne uwagi zgłoszono do Rumunii i Bułgarii, jedynych krajów Unii Europejskiej, które wypadają gorzej od Polski. W całej UE penetracja szerokopsamowych połączeń kablowych wynosi średnio 25,6%. W Polsce jest to poniżej 15%. Dobrą informacją jest za to fakt, że tempo przyrostu tego typu łączy jest u nas szybsze niż średnia europejska. Zdecydowana większość, bo aż 60% łączy stałych w Polsce oferuje przepustowość nie większą niż 2 Mb/s. Około 35% to łącza o przepustowości 2-10 Mb/s, a 5% zapewnia przepustowość ponad 10 megabitów na sekundę.
  16. Nie od dzisiaj wiadomo, że gdyby Kalifornia była niepodległym państwem, to zaliczałaby się do ścisłej czołówki gospodarek świata. Specjaliści z pisma The Economist pokazali interaktywną mapkę, w której porównali PKB poszczególnych stanów USA do najbliższego odpowiadającego im państwa. Wspomniana na wstępie Kalifornia, mimo iż ostatnio przeżywa kolosalne kłopoty, uplasowałaby się na 8. miejscu największych światowych potęg gospodarczych. PKB Kalifornii (1,9 bilionaUSD) jest podobne do PKB Włoch (2,1 biliona). Inny wielki stan USA Teksas (1,1 biliona) niewiele ustępuje pod względem produktu brutto PKB Rosji (1,2 biliona). Skoro jesteśmy przy dużych stanach, to Alaska (45,7 miliarda) dorównuje Omanowi (46,1 miliarda), a Floryda (737 miliardów) może mierzyć się z Holandią (796 miliardów). Dla stanu Nowy Jork (1,1 biliona USD) najbliższym odpowiednikiem jest PKB Australii (994 miliardy), a niewielki Massachusetts (365 miliardów) dorównuje Arabii Saudyjskiej (376 mld). Na mapie znalazła się też i Polska. Nasz kraj z PKB rzędu 431 miliardów dolarów może się równać ze stanem Virginia (408 miliardów). Trzeba jednak pamiętać, że Virginia jest trzykrotnie mniejsza i ma sześciokrotnie mniej mieszkańców niż Polska. Dane o PKB poszczególnych stanów i krajów pochodzą z roku 2009 lub 2010.
  17. Jak donosi "Dziennik Gazeta Prawna" polski rząd chce cenzurować internet. Urzędnicy wpadli na pomysł, by przy okazji tworzenia ustawy zakazującej elektronicznego hazardu, stworzyć listę witryn, które będą musieli blokować dostawcy Sieci. Na listę trafią strony WWW zaproponowane przez służby specjalne, policję, Ministerstwo Finansów i Urząd Komunikacji Elektronicznej. Urzędnicy chcą do prawa telekomunikacyjnego dopisać artykuł 170a, który umożliwi blokowanie witryn.
  18. Agencja Bezpieczeństwa Wewnętrznego poinformowała, że przed miesiącem z terytorium Rosji przypuszczono atak na serwery polskich instytucji rządowych. W czasie, gdy Polska przygotowywała się do obchodów rocznicy 17 września i toczyły się spory na temat zbrodni katyńskiej, polskie sieci zostały zaatakowane. Atak został szybko wykryty przez tzw. cyberpatrole ABW, którym udało się go zneutralizować. Wiadomo jedynie, że przestępcy wykorzystali serwery proxy i próbowali zaatakować witryny Prezydenta, Kancelarii Prezesa Rady Ministrów, Ministerstwa Spraw Zagranicznych i Komendy Głównej Policji.
  19. Opublikowano kolejną, 32. edycję listy TOP500, na której wymieniono najpotężniejsze superkomputery na świecie. Na pierwszym miejscu uplasował się RoadRunner, pierwszy superkomputer, który przekroczył barierę petaflopsa czyli biliarda (1015) operacji zmiennoprzecinkowych na sekundę. RoadRunner (BladeCenter QS22/LS21 Cluster) korzysta ze 129600 rdzeni procesorów PowerXCell 8i oraz Opteron DC, a jego wydajność to 1,105 PFlops. Minimalnie wyprzedził on maszynę Jaguar (Cray XT5) ze 150152 rdzeniami procesora QC, którego wydajność to 1,059 PFlops. Kolejny na liście superkomputer Pleiades jest już wyraźnie wolniejszy, gdyż wykonuje 0,487 PFlops. Superkomputerowym mocarstwem pozostają Stany Zjednoczone. Aż 9 z 10 najpotężniejszych maszyn znajduje się na terenie tego kraju, z czego 7 jest własnością Departamentu Energii. Na 10. pozycji uplasował się pierwszy z nieamerykańskich superkomputerów. Jest to maszyna Dawning 5000A z Szanghaju. To jednocześnie najpotężnieszy superkomputer korzystający z systemu Windows. W USA znajduje się 291 superkomputerów z TOP500. Przed sześcioma miesiącami było ich 257. Na drugim miejscu znajdziemy Europę ze 151 systemami (to o 33 mniej niż pół roku temu), a na trzecim Azję (47 superkomputerów). Na obecnej liście znajdziemy aż 6 superkomputerów z Polski. Najpotężniejszy z nich to Galera, który uplasował się na 68. pozycji. Kolejne miejsca zajmowane przez polskie maszyny to 221., 311., 337., 373. i 495. Z obecności tylu polskich superkomputerów wypada cieszyć się tym bardziej, że coraz trudniej jest dostać się na listę. Jeszcze w pierwszej połowie roku na liście wymieniana była maszyna o wydajności 9 TFlops. Obecne minimum to 12,64 TFlops. System, który teraz uplasował się na 500. pozycji, w poprzedniej edycji listy zajmował 267. miejsce. Warto też zauważyć, że w ciągu roku wydajność najpotężniejszych systemów wzrosła ponaddwukrotnie. Obecnie łączna wydajność 500 supermaszyn to 16,95 PFlops. Pół roku temu było to 11,7 PFlops, a przed rokiem - 6,97 PFlops. To najlepszy dowód, jak bardzo rośnie zapotrzebowanie na moc obliczeniową. W 379 superkomputerach (75,8%) wykorzystano procesory Intela. Przed sześcioma miesiącami takich maszyn było o cztery mniej. Do budowy 60 maszyn użyto procesorów Power produkcji IBM-a, a 59 systemów korzysta z Opteronów AMD. Najbardziej popularnymi procesorami są układy czterordzeniowe, obecne w 336 systemach. W 153 superkomputerach spotkamy kości dwurdzeniowe, a w 4 - jednordzeniowe. Siedem supermaszyn korzysta z dziewięciordzeniowych procesorów Cell. Największym producentem superkomputerów jest obecnie HP. Firma ta stworzyła 209 maszyn, a jej główny konkurent - IBM - jest autorem 188 maszyn. Jeszcze pół roku temu na TOP500 znajdowało się 210 komputerów IBM-a i 183 maszyny HP. Błękitny Gigant wciąż pozostaje liderem pod względem zainstalowanej mocy obliczeniowej. Dominującym systemem operacyjnym są edycje Linuksa zainstalowane na 439 maszynach. Trzydzieści jeden superkomputerów wykorzystuje różne OS-y, na 23 maszynach znajdziemy Unix, a na 5 - Windows. Z ciekawostek warto też odnotować debiut Nvidii na liście TOP500. Maszyna Tsubame z Tokijskiego Instytutu Technologicznego, która uplasowała się na 29. pozycji korzysta m.in. z układów Nvidia GT200.
  20. W najnowszej edycji TOP500, listy 500 najpotężniejszych superkomputerów, znalazły się aż 3 maszyny z Polski. Tak wielu najbardziej wydajnych komputerów nasz kraj nie miał od 1995 roku. Pierwszym polskim superkomputerem na TOP500 (lista z czerwca 1995 roku) był Power Chellenge autorstwa SGI, który znalazł się 486. pozycji. W grudniu 1995 mieliśmy już trzy superkomputery SP2/15, z których najbardziej wydajny trafił na 479. pozycję. Czerwiec roku 1996 to dwie polskie maszyny. Bardziej wydajna z nich, SPP1200/XA-32 uplasowała się na 406. miejscu. W listopadzie 1996 komputer był już samotnym przedstawicielem naszego kraju. Zajmował 408. miejsce. Pół roku później Polskę reprezentuje, na 434. pozycji, samotny T3E. Nasz kraj na kilka lat wypada z listy superkomputerów. Ponownie pojawia się w czerwcu 2000 roku z maszyną HPC 1000 400 MHz Cluster autorstwa Suna, który zajmuje 242. pozycję. Mija pół roku i polska maszyna spada na 467. miejsce. W czerwcu 2001 roku HPC 10000 wypada z listy, ale pojawia się na niej ORIGIN 3000 500 MHz (376. pozycja). Polska jest nieobecna do listopada 2003 roku, kiedy to na listę trafia słynny Hołk i zajmuje na niej 231. miejsce. W czerwcu 2004 Hołk spada na 487. pozycję, ale na miejscu 366. pojawił sie SuperDome 875 MHz/HperPlex. Przez kilka lat żaden superkomputer nie reprezentuje Polski, aż w listopadzie ubiegłego roku na listę trafia BladeCenter HS21 Cluster (426. miejsce). Obecna edycja listy to trzy polskie superkomputery: - Galera (45. pozycja), - Cluster Platform 3000 BL460c (274. miejsce) oraz - Nova ACTION (318. pozycja). Szerzej o polskich superkomputerach i najnowszej liście TOP500 piszemy w artykule "Pierwsza taka lista TOP500".
  21. Wyciąg z kory drzewa Tabebuia avellanedae (Pau D'Arco, Ipê-roxo lub La Pacho) z Ameryki Południowej znajdzie prawdopodobnie zastosowanie w leczeniu glejaka siatkówki (siatkówczaka). Jest to rzadki nowotwór, występujący u niemowląt oraz małych dzieci.Źródła podają, że w Polsce odnotowuje się 20-30 przypadków siatkówczakarocznie (stanowi on 2-4% wszystkich chorób onkologicznych wiekudziecięcego). W 30% nowotwór występuje dwustronnie, w 70% tylko po jednej stronie. W ok. 40% przypadków ma on charakter dziedziczny. Podczas leczenia należy wyeliminować wszystkie zmienione chorobowo komórki, w krańcowych przypadkach konieczne staje się usunięcie gałki ocznej. Jeden z czynników ryzyka to starszy wiek rodziców. Jeśli dana osoba miała dwustronnego siatkówczaka, raczej nie powinna mieć dzieci. Guz rozwija się z komórek siatkówki, stąd jego nazwa. Rzadko rozpoznaje się go po urodzeniu, najczęściej chorobę diagnozuje się w wieku 18 miesięcy. Do objawów należą: zez, zaburzenia widzenia, tzw. kocie oko, wypchnięcie gałki ocznej, a także, gdy nowotwór bardzo się rozrósł i wypełnia gałkę oczną, jaskra, oczopląs i wylewy. Bardzo dużo przypadków glejaka siatkówki diagnozuje się w krajach rozwijających się. Jeśli choroba nie jest leczona, dziecko umiera w ciągu 2-4 lat. Odpowiednio wcześnie wykryty siatkówczak jest w 85-90% uleczalny. Terapia polega na chirurgicznym usunięciu tkanki nowotworowej, radio- i chemioterapii. Te ostatnie dają jednak sporo efektów ubocznych. Wskutek chemioterapii dziecko może utracić słuch, doznać uszkodzenia nerek czy zachorować na białaczkę. Coraz rzadziej stosowana obecnie radioterapia wywołuje z kolei zniekształcenia ciała. Dlatego też zespół dr Joan O'Brien z Uniwersytetu Kalifornijskiego w San Francisco postanowił wypróbować nietoksyczny środek roślinny, który wykazał już swoją skuteczność m.in. w walce z nowotworami piersi i prostaty. Na cel obrano ekstrakt z kory drzewa, który zawiera beta-lapachon. W niewielkich dawkach związek ten uruchamia śmierć komórek wskutek apoptozy, ponadto hamuje szybki wzrost komórek guza (Eye). Co ważne, wydaje się, że działa wybiórczo tylko na komórki zmienione chorobowo.
  22. Lekarstwo powszechnie używane do leczenia zakażeń HIV może się również przydać przy zapobieganiu nowotworom szyjki macicy. Co więcej, naukowcy uważają, że można mu nadać postać kremu. Obecnie w Irlandii rocznie diagnozuje się 200 nowych przypadków tego nowotworu (plus 1000 nowych przypadków stanów przednowotworowych), a 70 kobiet umiera z jego powodu. Niestety, Polska znajduje się w Europie na pierwszym miejscu pod względem zarówno zachorowalności, jak i liczby zgonów na raka szyjki macicy. Rocznie zapada na niego 3,6 tys. Polek, a umiera ok. 2 tys. Jeśli wykryje się stan przednowotworowy, można go wyleczyć, zanim komórki ulegną degeneracji i zaczną się rozprzestrzeniać po organizmie. Obecnie zespół z Uniwersytetu w Manchesterze opracowuje metodę leczenia miejscowego, skierowaną przeciwko wirusowi brodawczaka ludzkiego (HPV). Wirus ten jest przenoszony drogą płciową. Dwie jego odmiany (HPV-16 i HPV-18) odpowiadają za ponad 70% przypadków zachorowań. Według naukowców, u wielu kobiet, które przechodzą operację usunięcia zmienionych przednowotworowo tkanek, można by zastosować smarowanie kremem lub czopki. Taki krem byłby szczególnie użyteczny w krajach rozwijających się, gdzie nie zawsze można przeprowadzić operację. Lek jest uzyskiwany z podawanego obecnie doustnie medykamentu zwalczającego wirusy HIV. Zabija on selektywnie komórki zarażone wirusem HPV i jest już dostępny w postaci płynnej. Możliwe, że będzie działać po bezpośrednim naniesieniu na szyjkę macicy. To bardzo podniecające znaleźć nowe zastosowanie dla doustnego leku na AIDS, który jest już zarejestrowany i dopuszczony do użytku przez Amerykańską Agencję ds. Żywności i Leków (FDA). Obecnie badamy możliwości dostarczenia leku bezpośrednio do zmienionych chorobowo tkanek. Potem będziemy mogli przystąpić do prób klinicznych, a jeśli zakończą się one pomyślnie, ta forma leczenia stanie się dość szybko dostępna — powiedział jeden z jej twórców, dr Ian Hampson. Hampson podkreślił, że chociaż szczepionka przeciwko HPV jest już zarejestrowana, nie wszystkim nowotworom można w ten sposób zapobiec i nie wszystkie kobiety będą szczepione. Niechirurgiczna metoda terapii będzie przynosić znaczące korzyści, zachowując w większym stopniu funkcje rozrodcze, może też zostać wykorzystana w biednych krajach, gdzie nie ma odpowiedniego wyposażenia — sądzi Hampson. Według profesora Henry'ego Kitchenera, który będzie nadzorował próby kliniczne leku, wartość odkrycia polega na tym, iż będzie ono mogło zastąpić zabieg chirurgiczny. Wiele kobiet nie lubi operacji, a ta metoda pozwoli zachować całą szyjkę macicy. Najpierw musimy jednak zademonstrować jej skuteczność. Szczegółowe wyniki opublikowano na łamach pisma Anti-Viral Therapy.
  23. Polski oddział firmy Sony zaprasza na pierwszy w naszym kraju pokaz konsoli PlayStation 3. Odbywa się on w dniach 10-17 grudnia w CH Wola Park przy ulicy Górczewskiej 124 w Warszawie. PLAYSTATION 3 Show Truck to projekt, nad którym pracowała potężna grupa ludzi już od prawie pół roku – powiedział Marcin Ziobrowski, menedżer PlayStation w Sony Poland - Jesteśmy naprawdę szczęśliwi, że w ramach prezentu gwiazdkowego wszyscy chętni, którzy pojawią się w CH Wola Park, będą mogli zagrać na sześciu stanowiskach prezentacyjnych z PlayStation 3. Z kolei Marcin Kmiotek, kierownik ds. PR i marketingu handlowego zapowiedział, że jego firmy przygotowuje 2-miesięczny imprezę objazdową po całej Polsce. Z najnowszą konsolą japońskiej firmy będą mogli się więc zapoznać nie tylko mieszkańcy stolicy.
  24. Zamówione przez Microsoft badania wykazały, że pojawienie się na rynku systemu Windows Vista stworzy 100 000 nowych miejsc pracy w USA. Takie dane przekazała firma analityczna IDC. Jej zdaniem każdy 1 dolar wpływów, który zyska Microsoft dzięki Viście, przyniesie przemysłowi technologicznemu kolejne 18 dolarów. Podstawowy wniosek płynącym z raportu jest taki, że Windows Vista przyczynia się do powstawania nowych miejsc pracy – stwierdził Brad Goldberg, jeden z menedżerów Microsoftu. Koncern już wcześniej zamówił podobne badania dotyczące rynku sześciu europejskich krajów (Niemcy, Wielka Brytania, Francja, Dania, Polska, Hiszpania). Wynika z niego, że Vista "stworzy” w nich 50 000 nowych miejsc pracy. Wersja Business najnowszego systemu operacyjnego Microsoftu zadebiutowała w ubiegłym miesiącu. Pozostałe edycje trafią na rynek w styczniu przyszłego roku.
×
×
  • Dodaj nową pozycję...