Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'zanieczyszczenie' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 24 wyników

  1. Ken Busseler, chemik z Woods Hole Oceanographic Institute, poinformował o wynikach badań nad wpływem katastrofy elektrowni atomowej w Fukushimie na pobliskie środowisko oceaniczne. W miesiąc po katastrofie w oceanie w miejscu zrzutu wody z elektrowni stwierdzono, że stężenie cezu-137 jest o 45 000 000 razy większe niż normalnie. Jednak w związku z ruchem wód szybko zaczęło ono spadać. W lipcu, cztery miesiące po wypadku, stężenie przekraczało normę już „tylko“ 10 000 razy. Najnowsze analizy wykazują, że woda nie stanowi już zagrożenia dla ludzi i zwierząt. Jednak, jak ostrzega Busseler, osady morskie mogą być groźne przez wiele dziesięcioleci. Uczonego martwi jeszcze coś. Od lipca poziom cezu-137 w wodzie utrzymuje się na niemal stałym poziomie. Jego zdaniem, skażona woda wciąż wpływa do oceanu. To najprawdopodobniej woda, która wcześniej wsiąkła w grunt. Wraz z osadami dennymi będzie ona przez długie lata stanowiła zagrożenie. Firma TEPCO, operator elektrowni w Fukushimie, ujawniła, że w grunt mogło wsiąknąć nawet 45 ton wody skażonej strontem. Pierwiastek ten koncentruje się w kościach i wywołuje ich nowotwory. Zagrożeniem dla człowieka mogą być zatem małe ryby, które są spożywane wraz z ośćmi. Jak pamiętamy, morska woda była wykorzystywana do awaryjnego chłodzenia reaktorów po katastrofie. Mniej skażoną wodę odprowadzano bezpośrednio do oceanu, by zrobić w zbiornikach miejsce na wodę bardziej skażoną. Jednak jej część również wyciekła. FIrma TEPCO od czasu wypadku regularnie bada próbki wody. Buesseler i inni naukowcy przygotowali właśnie analizę tych danych. Szczególne obawy budzi cez-137, którego okres połowicznego rozpadu wynosi aż 30 lat. Dla Japończyków, to nie pierwsze zagrożenie tego typu. ZSRR od lat 50. ubiegłego wieku pozbywał się odpadów nuklearnych wrzucając je do oceanu. W latach 60. duże ilości cezu-137 pochodzącego z sowieckiej armii, zostały zatopione niedaleko Japonii. Prowadzone w 2010 roku badania wykazały, że jego koncentracja spadała już do 1,5 Bq/m3. Tymczasem wyciek z Fukushimy spowodował koncentrację rzędu 68 milionów Bq/m3. Nigdy wcześniej takie ilości pierwiastków radioaktywnych nie były obecne w oceanie. Naukowcy wzywają do przeprowadzenia badań osadów morskich. Jest to ważne także i z tego powodu, że w japońskiej kuchni dużą rolę odgrywają owoce morza. Tymczasem żyjące przy dnie zwierzęta mogą być przez dziesięciolecia wystawione na zwiększone dawki promieniowania, co w efekcie może zagrozić ludziom.
  2. Przed czterema miesiącami informowaliśmy o badaniach przeprowadzonych przez prestiżowy Cornell University, z których wynikało, że gaz łupkowy zanieczyszcza atmosferę gazami cieplarnianymi bardziej niż węgiel. Teraz uczeni z innej znanej uczelni - Carnegie Mellon University - przygotowali raport, który przeczy ustaleniom ich kolegów z Cornell. W artykule opublikowanym w Environmentla Research Letters czytamy, że emisja gazów cieplarnianych z gazu uzyskiwanego z łupków z formacji Marcellus jest o 3% większa od emisji z konwencjonalnego gazu, a wartość ta mieści się w zakresie dopuszczalnego błędu w badaniach. Problem z określeniem wpływu wydobycia i wykorzystania gazu łupkowego na środowisko polega na zbyt małej ilości dostępnych danych. Amerykańska Agencja Ochrony Środowiska (EPA) przygotowała propozycję, zgodnie z którą firmy zajmujące się eksploatacją gazu łupkowego miałyby zostać zobowiązane do zbierania danych na temat całkowitej emisji do środowiska - od początku jego wydobycia do momentu, gdy zostanie wykorzystany przez odbiorcę końcowego. Obecnie wiadomo, że podczas spalania gazu emisja dwutlenku węgla jest o 50% mniejsza niż podczas spalania węgla. Wielką niewiadomą jest jednak emisja, do której dochodzi przed spaleniem gazu. W procesie jego wydobycia wykorzystuje się dużo wody i energii oraz dochodzi do uwolnienia metanu do atmosfery. Uczeni z Carnegie Mellon, którzy zajęli się tym problemem, szacują jednak, że cały proces eksploatacji i wykorzystania gazu łupkowego z formacji Marcellus przyczynia się do zanieczyszczenia środowiska w takim samym stopniu, co eksploatacja i wykorzystanie gazu konwencjonalnego. Naukowcy rozpoczęli swoje badania już od etapu przygotowań do wydobycia. Ocenili wpływ na środowisko wszelkich działań podejmowanych jeszcze zanim rozpocznie się wiercenie studni, a zatem szacowali np. wpływ budowy dróg dojazdowych. Szacowali też, co dzieje się podczas hydraulicznego kruszenia skał czy przetwarzania gazu, zanim zostanie on wykorzystany. W końcu doszli do wniosku, że przygotowanie, wydobycie, przetwarzanie, dystrybucja i spalanie gazu łupkowego nie stwarzają większego zagrożenia niż te same działania podejmowane z gazem ziemnym.
  3. Oritsunagumono (dosł. "rzeczy złożone i połączone) to wyjątkowa kolekcja origami. Takayuki Hori wykorzystał przezroczyste arkusze, by pokazać, jak zanieczyszczenia zagrażają przedstawicielom japońskiej fauny przybrzeżnej. Najpierw nadrukowano na nich fragmenty szkieletu oraz obiekty często połykane przez zwierzęta, a następnie złożono, nadając odpowiednie kształty. Niektórzy nazywają kolekcję rentgenowskim origami, bo modele wyglądają na przygotowane z wywołanej przez radiologa kliszy. Kości są czarne lub utrzymane w odcieniach szarości, podczas gdy połknięte przedmioty mają jaskrawe barwy. Na wystawie nad każdym trójwymiarowym modelem na ścianie wisi oprawiona rozrysowana siatka do złożenia (co nieco przypomina siatki sześcianów czy innych wielościanów). Oritsunagumono robi spore wrażenie dzięki wysiłkom oświetleniowca. Modele stoją na postumencie, w którym jarzy się tylko ścianka wchodząca w kontakt ze zwierzęciem. To jedyne źródło światła w pomieszczeniu.
  4. Gaz naturalny jest postrzegany jako paliwo bardziej przyjazne środowisku niż węgiel. Biorąc bowiem pod uwagę wartość energetyczną metanu, głównego składnika naturalnego gazu, ma skutkować mniejszą niż w przypadku węgla emisją CO2 do atmosfery. Stąd też, m.in., rosnące zainteresowanie gazem łupkowym. I stąd też olbrzymia burza, jaką wywołały badania uczonych z Cornell University, które zostaną opublikowane w najbliższym numerze pisma Climate Change. Uczeni z Cornell dowodzą bowiem, że w perspektywie 20 lat gaz łupkowy może przynieść środowisku więcej szkody niż spalanie węgla. Tradycyjne źródła gazu też są zagrożeniem, ale szczególnie niebezpieczny ma być właśnie gaz łupkowy, który w najbliższej przyszłości stanie się głównym źródłem gazu wydobywanego w USA. Gaz łupkowy bardziej zanieczyści atmosferę z powodu wykorzystywanych metod produkcji, które już podczas wydobycia prowadzą do emisji metanu do atmosfery. Jak uważa biogeochemik Robert Howarth i jego koledzy, od 0,6 do 3,2% gazu łupkowego trafia do atmosfery podczas procesu wydobycia. Jest to tym bardziej niebezpieczne, że zawiera on metan, gaz znacznie silniej wpływający na globalne ocieplenie niż dwutlenek węgla. Badania zespołu Howartha już zostały skrytykowane przez firmy zajmujące się wydobyciem gazu. Badania są niewiarygodne i pełne sprzeczności. Ich główny autor jest biologiem ewolucyjnym i aktywistą organizacji sprzeciwiających się wydobyciu gazu naturalnego, a jako taki nie jest wiarygodny - mówi Russell Jones, doradca ekonomiczny American Petroleum Institute. Niezależni eksperci zgadzają się, że badania są co najmniej kontrowersyjne, a jednym z największych problemów jest przyjęcie 20-letniego horyzontu czasowego. To prawda, że metan ma ponad 70-krotnie silniejszy wpływ na ocieplenie niż dwutlenek węgla - mówią. Jednak, dodają, trzeba pamiętać, że metan rozpada się w atmosferze. Po 100 latach jest on tylko 25-krotnie silniejszy, podczas gdy dwutlenek węgla utrzymuje się przez setki lub tysiące lat. Inni eksperci nie są jednak aż tak krytyczni. Zauważają, że główna krytyka związana jest z... relacjami prasowymi, wyciągającymi z raportu najbardziej sensacyjne stwierdzenia. Alan Krupnick z Resources for the Future stwierdza, że badania nie mówią o tym, że gaz naturalny jest gorszy. „Zaprezentowano tam wyniki symulacji dla dwóch okresów - 20-letniego i 100-letniego" - mówi. Zwraca też uwagę, że w okresie 100-letnim gaz łupkowy nadal jest bardziej szkodliwy niż spalanie węgla, co rzeczywiście każe stawiać pod znakiem zapytania ekologiczne argumenty wysuwane przez jego zwolenników. Zdaniem krytyków badań, Howarth nie powinien porównywać dżuli, a kilowatogodziny wyprodukowanej energii. Jeśli by to zrobił, badania wykazałyby, że gaz łupkowy jest bardziej ekologiczny. Zgadzają się jednak z uczonym z Cornell, iż konieczne są badania pól wydobycia gazu. Niektóre z nich są podziurawione jak szer szwajcarski, a przez nieużywane otwory do atmosfery może trafiać metan. Sam Howarth przyznaje, że konkretne dane to poważna słabość jego badań. Zgadzam się z tym, że dane nie są takie, jakie powinny być. Ale mam nadzieję, że ten raport wymusi na przemyśle wydobywczym, by w końcu udostępnił swoje dane, których obecnie nie chce ujawnić. Dzięki temu każdy z nas będzie dysponował lepszym materiałem niż to, co udało mi się uzyskać.
  5. Uczeni z University of Southern California odkryli, że zanieczyszczenia związane z transportem samochodowym uszkadzają mózgi myszy. Toksyna uszkadzająca mózg nie pochodzi z rur wydechowych samochodów, ale jest mieszaniną spalin, zwietrzałych elementów samochodów i nawierzchni drogi. Naukowcom udało się w laboratorium odtworzyć skład powietrza, z którym mamy do czynienia przy drogach o dużym natężeniu ruchu. Następnie poddano myszy laboratoryjne oddziaływaniu takiego powietrza. Okazało się, że doszło do uszkodzenia neuronów odpowiedzialnych za pamięć i uczenie się, w mózgu znaleziono ogniska zapalne podobne do tych związanych z przedwczesnym starzeniem się oraz chorobą Alzheimera, a u młodych myszy neurony nie rozwinęły się tak dobrze, jak u zwierząt niepoddanych oddziaływaniu zanieczyszczonego powietrza. Cząsteczki, które uszkadzają mózg mają średnicę od kilkudziesięciu do 200 nanometrów. „Nie możemy ich zobaczyć, ale są one wdychane i wpływają na neurony, co grozi długoterminowymi konsekwencjami zdrowotnymi" - mówi profesor Celeb Finch, główny autor badań. Uczony dodaje, że przeprowadzono wiele badań, które wykazały związek pomiędzy spalinami samochodowymi a problemami zdrowotnymi, a jego badania są pierwszymi pokazującymi fizyczny wpływ zanieczyszczeń na komórki mózgu. Podczas badań myszy były wystawione na działanie zanieczyszczonego powietrza przez stosunkowo krótki czas. Było to 150 godzin rozłożone w trzech sesjach na 10 tygodni. Naukowcy chcą teraz zbadać, jak funkcjonuje pamięć zwierząt narażonych na tego typu zanieczyszczenia, jak wpływają one na ich płodność i rozwój płodu, czy mają wpływ na długość życia, jak takie zanieczyszczenia reagują na inne czynniki, jak np. temperatura czy obecność ozonu. Będą też szukali potencjalnych metod leczenia wspomnianych uszkodzeń mózgu, postarają się sprawdzić, czy istnieje jakaś różnica pomiędzy zanieczyszczeniami stworzonymi w laboratorium a występującymi przy drogach oraz jak przebiegają reakcje chemiczne pomiędzy cząsteczkami a komórkami mózgu. Profesor Finch zauważa, że nawet jeśli całkowicie zrezygnujemy z samochodów spalinowych i przesiądziemy się na pojazdy elektryczne, to nie rozwiąże to problemu. Z pewnością doprowadziłoby to do znacznego zmniejszenia zanieczyszczeń, ale obecnie i tak większość energii elektrycznej uzyskujemy ze spalania węgla, które jest wielkim źródłem nanocząsteczek w powietrzu - mówi uczony. Problemowi zaradziłoby zmniejszenie ilości nanocząsteczek, a zatem nie tylko rezygnacja z silników spalinowych, ale również czyste technologie produkcji energii - dodaje. Badania Fincha dostarczyły kolejnych dowodów na szkodliwość używania silników spalinowych. Wcześniej wykazano, że np. w mózgach mieszkańców Mexico City znaleziono więcej ognisk zapalnych i oznak przedwczesnego starzenia się niż u mieszkańców mniej zanieczyszczonego Veracruz. Bliskość autostrad połączono też ze zwiększonym ryzykiem występowania astmy i autyzmu.
  6. Niewykluczone, że dotychczasowe szacunki dotyczące wzrostu emisji dwutlenku węgla i innych pochodnych spalania ropy naftowej trzeba będzie skorygować w dół. Najnowsze badania wykazały bowiem, że ludzie - przynajmniej w krajach rozwiniętych - coraz rzadziej podróżują. Od lat 70. ubiegłego wieku w krajach rozwiniętych notowany jest ciągły wzrost liczby kilometrów przebytych samochodem i samolotem przez przeciętnego obywatela. Dotychczas przewidywano, że przez najbliższe kilkadziesiąt lat tych kilometrów będzie przybywało. Tymczasem Lee Schipper z University of California, Berkeley i Stanford University oraz Adam Millard-Ball ze Stanford University twierdzą, że od kilku lat podróżujemy liczba kilometrów nie rośnie. Obaj uczeni przeanalizowali dane z lat 1970-2008 z USA, Kanady, Wielkiej Brytanii, Australii, Francji, Szwecji, Niemiec i Japonii. Dla każdego z tych krajów sprawdzili liczbę kilometrów na obywatela, które przebyły samochody osobowe, ciężarówki, pociągi, tramwaje, metro i samoloty. Dane takie porównali z produktem krajowym brutto na mieszkańca. Okazalo się, że pomiędzy latami 1970-2003 istniała ścisła korelacja pomiędzy rosnącą liczbą przebytych kilometrów, a rosnącym PKB na głowę. Nagle, po roku 2003, doszło do zmiany trendu. PKB na głowę mieszkańca nadal się zwiększa, ale liczba przebytych kilometrów ustabilizowała się. Rok 2003 był rokiem największego ruchu. Wówczas w USA PKB na głowę wynosiło 37 000 dolarów, a w pozostałych wspomnianych krajach wahało się od 25 do 30 tysięcy dolarów na głowę. Wówczas też średnia liczba przebytych kilometrów na pojedynczą osobę ustabilizowała się np. w USA na poziomie 26 000 na osobę rocznie, w Japonii na 10 000 km/osoba/rok, a w pozostałych krajach jest to od 13 do 17 tysięcy kilometrów rocznie na osobę. "Od roku 2003 liczba kilometrów przejechanych pojazdami mechanicznymi ustabilizowała się lub nawet spadła w większości badanych krajów, liczba podróży prywatnymi pojazdami spadła. Ludzie nadal kupują coraz więcej samochodów, ale przejeżdżają one mniej kilometrów" - napisali autorzy raportu. Uczeni spekulują, że jedną z przyczyn takiego stanu rzeczy jest nasycenie liczba posiadanych pojazdów. W USA na 1000 osób jest 700 prywatnych samochodów, czyli więcej niż osób posiadających prawo jazdy. W pozostałych krajach liczba ta wynosi około 500 na 1000 osób. Od roku 2007 z powodu recesji Amerykanie kupują też mniej samochodów. Kolejne czynniki to fakt, że w podróży spędzamy codziennie około 66 minut, a jednocześnie limity prędkości na drogach pozostają niezmienione, zatem liczba przejechanych kilometrów nie rośnie. Ponadto bogate społeczeństwa starzeją się, są więc mniej mobilne. Rosną też ceny paliw, co zniechęca do podróży. Jednak, jak uważają uczeni, najważniejszą przyczyną ustabilizowania się liczby przejechanych kilometrów są... korki. W większości dużych miast na świecie poruszanie się samochodami jest bardzo utrudnione, gdyż na drogach po prostu brakuje miejsca. Pozytywnym rezultatem ustabilizowania się liczby przejechanych kilometrów będzie zmniejszające się zanieczyszczenie środowiska. Pojazdy są bowiem coraz bardziej ekonomiczne. W USA przeciętny samochód spala na 100 kilometrów o około 30% mniej paliwa niż w roku 1973, pomimo tego, że w międzyczasie bogacący się Amerykanie kupowali coraz większe pojazdy.
  7. Międzynarodowa grupa naukowców chce zrealizować prawdopodobnie najbardziej ambitny projekt obliczeniowy w historii ludzkości. W ramach Living Earth Simulator (LES) ma powstać symulacja wszystkiego, co dzieje się na Ziemi - od globalnych zmian pogodowych, poprzez rozprzestrzenianie się chorób czy transakcje finansowe po sytuację na drogach lokalnych. LES ma pozwolić naukowcom zrozumieć to, co dzieje się na naszej planecie, zbadać wpływ ludzi na zmiany w społeczeństwie czy działanie sił przyrody na naszą rzeczywistość. Doktor Dirk Helbing ze Szwajcarskiego Instytutu Technologicznego, przewodniczący projektu FuturICT w ramach którego ma powstać LES, zauważa, że wiele zmian i problemów na Ziemi jest związanych z ludzką aktywnością, ale wciąż w pełni nie rozumiemy tego, w jaki sposób działa społeczeństwo czy gospodarka. Dodaje, że dzięki takim narzędziom jak Wielki Zderzacz Hadronów wiemy więcej o wszechświecie niż o własnej planecie. Zgodnie z wizją Helbinga, LES najpierw musiałby zostać wyposażony w gigantyczną bazę danych dotyczących Ziemi i ludzkości. Symulator nie działałby na pojedynczym komputerze, ale w sieci potężnych superkomputerów, które jeszcze nie istnieją. Uczony dodaje, że o ile odpowiedni sprzęt jeszcze nie istnieje, to dysponujemy już danymi potrzebnymi do działania LES. Helbing planuje włączyć do LES wiele źródeł informacji, takich jak np. Planetary Skin. To rozwijany przez NASA projekt, w ramach którego ma powstać sieć czujników zbierających dane z ziemi, wody, powietrza i przestrzeni kosmicznej. Z LES mogłyby zostać zintegrowane też Wikipedia, Google Maps czy rządowa brytyjska baza data.gov.uk. Po zintegrowaniu dziesiątków takich źródeł danych musiałby framework (szkielet) do zbudowania modeli obliczeniowych, symulujących to, co dzieje się na planecie. Technologia konieczna do skonstruowania LES może pojawić się już w nadchodzącej dekadzie. Symulatorowi potrzebne będą np. dobrze rozwinięte sieci semantyczne, które nie tylko będą w stanie przetworzyć dane, ale również je zrozumieć. Dla obecnych systemów komputerowych informacje dotyczące np. zanieczyszczenia powietrza wyglądają tak samo jak dane dotyczące migracji ludności. Jednak jeśli chcemy stworzyć prawdziwą symulację procesów na Ziemi musimy dysponować komputerami, które potrafią odróżnić od siebie i zrozumieć takie dane w odpowiednim kontekście. Jednocześnie LES musi być w stanie zrozumieć, wyodrębnić i usunąć informacje dotyczące konkretnych osób. Tylko wówczas bowiem uda się osiągnąć pożądany efekt - symulować niemal wszystko, bez jednoczesnych obaw o zachowanie prywatności. Oczywiście taka symulacja będzie wymagała olbrzymiej mocy obliczeniowej, ale jej uzyskanie nie powinno stanowić większego problemu. Specjaliści szacują bowiem, że już obecnie Google dysponuje 39 000 serwerów, które miesięcznie przetwarzają eksabajt danych. Jeśli prace nad LES rzeczywiście rozpoczną się w nadchodzącej dekadzie, to uzyskanie znacznie większej mocy obliczeniowej będzie stosunkowo łatwe. Pete Warden, twórca projektu OpenHeatMap i specjalista ds. przetwarzania danych zauważa, że dla LES będzie przydatna jedynie niewielka część z kilkuset eksabajtów danych, jakie są corocznie wytwarzane przez ludzkość. A skoro tak, to moc obliczeniowa nie będzie wąskim gardłem systemu. Jego zdaniem znacznie trudniejsze będzie uzyskanie dostępu do danych oraz wstępna eliminacja nieprzydatnych informacji. W ciągu ostatnich lat stało się np. jasne, że potrzebujemy lepszych wskaźników niż PKB do oceny rozwoju społeczeństwa i jego dobrobytu - mówi Helbing. LES ma właśnie pokazać stan społeczeństwa, rozwoju opieki zdrowotnej, edukacji czy ochrony środowiska. Zdaniem Helbinga, dzięki takiemu projektowi ludzkość będzie mogła stać się szczęśliwsza.
  8. Zanieczyszczenie środowiska akroleiną, aldehydem, który wykazuje dość silne właściwości rakotwórcze, może się także przyczyniać do wystąpienia stwardnienia rozsianego (SR). Na szczęście naukowcy z Purdue University zauważyli, że śmierci neuronów można zapobiec, podając lek na nadciśnienie – hydralazynę. Podczas studium Amerykanie zauważyli, że w tkankach rdzenia kręgowego myszy z chorobą przypominającą stwardnienie rozsiane stężenie akroleiny było podwyższone o ok. 60%. Prof. Riyi Shi zaznacza, że uzyskane przez jego zespół wyniki stanowią pierwszy konkretny dowód laboratoryjny na związek między aldehydem jako neurotoksyną a stwardnieniem rozsianym. Dopiero ostatnio naukowcy zaczęli dostrzegać szczegóły oddziaływania akroleiny na ludzki organizm. My analizujemy jej wpływ na ośrodkowy układ nerwowy i to zarówno w przypadku urazów, jak i chorób neurodegeneracyjnych, takich jak stwardnienie rozsiane. Akroleina znajduje się m.in. w samochodowych spalinach i dymie tytoniowym. Powstaje także w organizmie po uszkodzeniu neuronów. Wcześniejsze badania tego samego zespołu sugerowały, że obumieraniu komórek nerwowych pod wpływem aldehydu akrylowego można zapobiec właśnie za pomocą wspomnianej wyżej hydralazyny. Najnowsze studium pokazało, że u myszy hydralazyna opóźnia początek stwardnienia rozsianego, zmniejsza też nasilenie objawów, neutralizując akroleinę. Leczenie nie wywołuje u myszy żadnych poważnych efektów ubocznych. Doza, którą stosowaliśmy u zwierząt, jest kilkakrotnie niższa od standardowego dawkowania doustnego u dzieci. Biorąc zatem pod uwagę skuteczność hydralazyny w wiązaniu akroleiny już przy tak niskich stężeniach, spodziewamy się, że nasze studium doprowadzi do opracowania nowych metod terapii neuroochronnej dla pacjentów z SR, które można by szybko zastosować w warunkach klinicznych. Shi tłumaczy, że w przebiegu SR to najprawdopodobniej akroleina odpowiada za zniszczenie otoczek mielinowych wokół wypustek komórek nerwowych. Gdyby więc można było zablokować ten efekt, udałoby się opóźnić początek choroby i złagodzić jej objawy. Poza tym Amerykanie ustalili, że akroleina uruchamia produkcję wolnych rodników, przyczyniających się do dalszych uszkodzeń. Na szczęście po podaniu hydralazyny stężenie aldehydu spada o połowę.
  9. W Geophysical Research Letter ukazał się artykuł, którego autorzy ostrzegają, że błyskawicznie rozwijający się przemysł turystyki kosmicznej może wpłynąć na... zmianę klimatu naszej planety. Z badań firmy Aerospace Corporation wynika, że jeśli wskutek rozwoju tego typu turystyki rocznie będzie dochodziło do startu 1000 pojazdów kosmicznych, to w wysokich partiach atmosfery pojawią się olbrzymie ilości sadzy pozostającej tam przez długi czas. To może spowodować wzrost średnich temperatur na obszarach polarnych o 1 stopień Celsjusza i zmniejszenie powierzchni lodów o 5-15 procent. Istnieją granice odnośnie ilości materiału, który ludzkość może pozostawić na orbicie bez wywierania znacznego wpływu na planetę - mówi Martin Ross, jeden z autorów badań. Prywatny przemysł kosmiczny rozwija się tak szybko, że już za trzy lata firmy takie jak Virgin Galactis mogą wykonywać nawet dwa loty dziennie. Ponadto, jak niedawno informowaliśmy, USA przeznaczą z budżetu 1,6 miliarda dolarów na dotacje dla prywatnych firm zainteresowanych eksploracją kosmosu. Obecnie komercyjne rakiety spalają mieszaninę nafty i ciekłego tlenu. Niewykluczone jednak, że prywatne firmy nastawią się na korzystanie z tańszej alternatywy - syntetycznych węglowodorów z tlenkiem azotu. To spowoduje większą emisję sadzy. Kolejny autor badań, Michael Mills z Narodowego Centrum Badań Atmosferycznych (NCAR) zauważa, że w stratosferze nie występują deszcze, przez co sadza może w niej krążyć od 3 do 10 lat. Naukowcy przeprowadzili swoje badania wykorzystując globalny model atmosfery ziemi i zakładając, że z jednego tylko miejsca - Las Cruces w Nowym Meksyku - będą startowały pojazdy, które w ciągu roku wyemitują do stratosfery 600 ton sadzy. Okazało się, że aż 80% sadzy pozostanie na półkuli północnej, rozciągając się od 25. do 45. stopnia szerokości północnej. Symulacje wykazały, że obecność sadzy spowoduje spadek temperatury w obszarach tropikalnych o około 0,4 stopnia Celsjusza, a w obszarach polarnych temperatura wzrośnie od 0,2 do 1 stopnia. Sadza przyczyni się też do zmniejszenia o 1,7% ilości ozonu w tropikach, a nad biegunami jego ilość wzrośnie o 5-6 procent. Wyniki badań zaskoczyły Simone Tilmes z NCAR, która nie brała w nich udziału. Interesujące jest to, że wymuszając przekształcenia w jednym punkcie lub na jednej półkuli, będziemy mieli do czynienia z dużymi zmianami w całym systemie - mówi. Naukowcy chcą udoskonalić swój model, by wyeliminować zeń jak największą liczbę niewiadomych. Mają też nadzieję, że uda im się zachęcić innych specjalistów do wspólnego zastanowienia się nad tym, jak usunąć problemy - takie jak emisja sadzy czy pozostawianie śmieci w przestrzeni kosmicznej - które mogłyby w przyszłości przeszkodzić w rozwoju prywatnego sektora kosmicznego.
  10. Jezioro Taihu jest jednym z wielu akwenów na terenie Chin, których wody w zastraszającym tempie spadają w klasyfikacji pod względem czystości. Aby to zmienić, tamtejsze władze planują wpuszczenie do zbiornika aż 20 milionów karpi - ryb znanych ze swojej zdolności do niszczenia winowajców spadku jakości wody, czyli glonów. Szacuje się, że operacja ta pozwoli na zachowanie przez jezioro Taihu czystości wystarczającej do utrzymania statusu rezerwuaru wody pitnej. Oczyszczanie wód Taihu, jednego z największych jezior w chińskiej prowincji Jiangsu, trwa od roku. Na najbliższe dni planowane jest jednak uwolnienie największej, bo liczącej aż 20 milionów osobników populacji karpi. Akcja, której koszty ocenia się na 1,3 miliona dolarów, ma pomóc w przywróceniu zbiornikowi jego dawnej czystości, która została utracona z powodu zanieczyszczenia przez ścieki z pól uprawnych, zakładów przemysłowych i osiedli ludzkich. Jak szacują chińscy badacze, karpie są idealnymi czyścicielami wód zagrożonych tzw. zakwitem, czyli nadmiernym rozwojem glonów w reakcji na podwyższone stężenie związków organicznych w wodzie. Dzieje się tak, ponieważ ryby te są w stanie pochłonąć ogromną ilość biomasy; ocenia się, że przybierają one na wadze zaledwie 1 kg na każdych 50 kg pochłoniętej przez nie biomasy. Pozostała część związków organicznych zostaje utleniona do prostych gazów i uwolniona do atmosfery, przez co utrudniony staje się wzrost niepożądanych glonów. Pomimo wielu oczywistych korzyści akcja organizowana przez chińskie władze spotyka się też z pewną dozą krytyki. Zdaniem sceptyków karpie uwolnione do Taihu mogą pochłonąć znaczną ilość toksyn, które mogą następnie zostać przekazane ludziom, gdy tylko ryby zostaną odłowione i trafią na stoły mieszkańców prowincji Jiangsu. Jest to bez wątpienia poważny argument, lecz brak reakcji władz na postępujący zakwit akwenu może doprowadzić do całkowitej utraty ważnego źródła wody pitnej dla mieszkańców prowincji Jiangsu.
  11. Pomiar całkowitego stężania toksyn w wodzie nie stanowi w dzisiejszych czasach większego problemu. Znacznie trudniejsza jest ocena ich potencjalnej toksyczności, ponieważ nie każda forma trucizny może zostać pochłonięta przez organizmy żywe. Problem ten udało się jednak rozwiązać dzięki zmodyfikowanym genetycznie kijankom, fluoryzującym w reakcji na kilka pospolitych zanieczyszczeń. Autorami nowej metody detekcji są badacze z University of Wyoming. Dzięki modyfikacjom genetycznym stworzyli oni nowe odmiany kijanek platany szponiastej (Xenopus laevis) - żaby występującej w naturze w Afryce. Sekwencje wprowadzone do ich genomu zaprojektowano tak, by komórki kijanek wytwarzały białko zielonej fluorescencji (GFP) w reakcji na obecność podwyższonych stężeń metali lub tworzyw sztucznych o działaniu zbliżonym do estrogenów. Równie ważne, co stworzenie samej konstrukcji genowej pozwalającej na wykrywanie toksyn, było opracowanie systemu detekcji fluorescencji kijanek. Pomiaru trzeba dokonywać w wąskiej rurce, do której młode osobniki nie wpływały zbyt chętnie. Rozwiązaniem był system wymuszający obieg wody i wtłaczający kijanki w odpowiednie miejsce, skomplikowany i innowacyjny na tyle, że jego autorowi, prof. Paulowi Johnsonowi, udało się zdobyć patent na jego ochronę. W porównaniu do metod czysto chemicznych nowy sposób wykrywania toksyn ma jedną podstawową zaletę. Jest nią uwzględnienie dostępności biologicznej toksyn. Sama obecność trujących substancji w wodzie nie oznacza bowiem, że będą one oddziaływały na organizmy żywe. Dzięki stworzeniu systemu opartego na kijankach można z łatwością stwierdzić, jak groźne są substancje zawieszone w wodzie. Warto wspomnieć, że podobny system został opracowany przez polskich naukowców i wdrożony w kilku stacjach uzdatniania wody w naszym kraju. Zamiast kijanek stosuje się w nich niezmodyfikowane genetycznie małże, które zamykają skorupy w reakcji na obecność dostępnych biologicznie trucizn. Wynalazek Polaków jest bardzo czuły, lecz mniej wybiórczy od tego opracowanego przez naukowców z University of Wyoming, ponieważ nie rozróżnia on rodzajów zanieczyszczeń obecnych w wodzie.
  12. Zmiany klimatyczne przyczyniają się nie tylko do spadku populacji niedźwiedzi polarnych, ale również do zmiany wielkości ciał tych zwierząt. W Journal of Zoology opublikowany artykuł opisujący wyniki badań nad związkiem pomiędzy wielkością i kształtem ciała niedźwiedzi, a zanieczyszczeniem środowiska i zmniejszaniem się pokrywy lodowej. Naukowcy zauważają, że zanieczyszczenie oraz większe trudności ze zdobyciem pokarmu przyczyniają się do tego, że zwierzęta są coraz mniejsze. Cino Pertoldi, profesor biologii z Aarhus University i Polskiej Akademii Nauk, mówi: Ponieważ lód się topi, niedźwiedzie muszą zużywać więcej energii podczas polowań. Wyobraźmy sobie, że mamy bliźnięta. Jedno z nich jest dobrze odżywione w okresie wzrostu, a drugie głoduje. To, które głoduje, będzie mniejsze. Naukowcy porównywali czaszki niedźwiedzi pochodzące z początków XX wieku z czaszkami osobników z drugiej połowy ubiegłego stulecia. Natrafili przy tym na fenomen, którego nie potrafią wyjaśnić. Okazało się, że czaszki nie tylko uległy zmniejszeniu ale również zmieniły kształt. Uczeni przypuszczają, że ma to związek z zanieczyszczeniem środowiska, ale nie znaleźli jeszcze konkretnej przyczyny. Na zmiany mogły mieć też wpływ polowania na niedźwiedzie na początkach XX wieku. Znacząco zmniejszyły one pulę genetyczną gatunku. Ponadto wcześniejsze badania wykazały, że niektóre zanieczyszczenia zawierające chlor negatywnie wpływają na płodność samic. Akademicy znaleźli też dowód na związek pomiędzy zanieczyszczeniem środowiska a zmniejszoną gęstością kości u niedźwiedzi. To powoduje, że są one bardziej podatne na kontuzje i rozwój osteoporozy. Przeprowadzenie badań było możliwe dzięki dostarczeniu niemal 300 czaszek przez Muzeum Zoologiczne w Kopenhadze. Biorąc pod uwagę wyniki badania zwierząt oraz wzrost zanieczyszczeń w Arktyce uczeni stwierdzili, że niedźwiedzie polarne są jednymi z najbardziej zatrutych zanieczyszczeniami ssaków na świecie.
  13. Od dawna wiadomo, że zanieczyszczenie powietrza może szkodzić embrionom. Amerykańscy naukowcy potwierdzili także wpływ smogu na mózg nienarodzonego dziecka oraz istnienie związku pomiędzy zanieczyszczonym powietrzem a niskim ilorazem inteligencji w dzieciństwie. Podczas badań obserwowano 249 dzieci, których matki mieszkały w Nowym Jorku. Kobiety w ostatnich miesiącach ciąży nosiły przez 48 godzin mierniki czystości powietrza. Matki 56 procent badanych dzieci mieszkały przy bardzo ruchliwych ulicach bądź np. w pobliżu dworców autobusowych. Do czynników wpływających na niski iloraz inteligencji u dzieci należy również doliczyć bierne palenie, kontakt ze smogiem po narodzinach oraz zainteresowanie nauką wśród pozostałych domowników. Kolejnym krokiem eksperymentu było poddanie dzieci w wieku pięciu lat testowi badającemu ich poziom inteligencji. Okazało się, że te, które przed urodzeniem przebywały w bardziej zanieczyszczonych miejscach, otrzymywały od czterech do pięciu punktów mniej niż pozostałe dzieci. Federica Perera, doktor prowadząca badania, twierdzi, że różnice te da się później zauważyć w szkolnych osiągnięciach maluchów.
  14. W powietrzu unoszącym się nad Madrytem i Barceloną wykryto ślady kokainy i substancji "spokrewnionej" z LSD. Do tej pory naukowcy uważali, że metropolie okrywa zwykły smog, w atmosferze znaleziono jednak kilka rodzajów narkotyków, głównie wspominaną kokainę. W oświadczeniu opublikowanym na witrynie internetowej Consejo Superior de Investigaciones Científicas (CSIC), czyli rządowego komitetu badań naukowych, poinformowano, że poza kokainą, stacje kontrolujące jakość powietrza nad miastami wytropiły amfetaminę, opiaty, THC i kwas lizergowy (LSD jest dietyloamidem kwasu D-lizergowego). Odkrycie środków odurzających w powietrzu to raczej ciekawostka, a nie powód do zmartwień. Nawet gdybyśmy żyli tysiąc lat, nie wchłonęlibyśmy odpowiednika dawki kokainy – twierdzi Miren Lopez de Alda. Co więcej, naukowcy uważają, że wyniki nie są reprezentatywne ani dla Madrytu, ani dla Barcelony. W stolicy Hiszpanii próbki pobierano bowiem w pobliżu zrujnowanego budynku, gdzie często pojawiają się dilerzy i narkomani. Poza tym zarówno w Madrycie, jak i w głównym mieście Katalonii badania prowadzono niedaleko uniwersytetów. Studium ujawniło też wyższe stężenia narkotyków w weekendy, co sugeruje, że podczas wolnych dni zażywano ich więcej. We wszystkich próbkach stwierdzono obecność kokainy i THC. Stężenie kokainy wynosiło od 29 do 850 pikogramów na metr sześcienny powietrza, a tetrahydrokannabinolu, benzoiloekgoniny (metabolitu kokainy) i 6ACM (6-acetylomorfiny, pochodnej heroiny) 23-33 pikogramy/m3. Tylko w jednym miejscu w Madrycie (w ruinach odwiedzanych przez uzależnionych) poziom THC sięgał 143 pikogramów. Amfetamina występowała w ilościach mniejszych niż 5 pikogramów na metr sześcienny. Badania przeprowadzano metodą chromatografii cieczowej i spektrometrii masowej.
  15. Samochód elektryczny kojarzy się wielu osobom z pojazdem przyszłości. Tymczasem prawdopodobnie pierwsza tego typu maszyna powstała w... 1884 roku. jej autorem jest brytyjski inżynier Thomas Parker, który brał również udział w pracach nad udoskonalaniem akumulatorów do pojazdów spalinowych. Parker zmarł w grudniu 1915 roku. Zdjęcie wynalazcy jadącego elektrycznym samochodem przechowuje jego praprawnuk, 75-letni Graham Parker. Sędziwy pan wciąż nie może wyjść ze zdumienia, jak aktywnym człowiekiem był jego przodek. W roku 1892 z ramienia Partii Liberalnej, w której zyskał sobie przydomek "uczciwy Tom Parker", bezskutecznie startował w wyborach do parlamentu. Był zwolennikiem wprowadzenia na Wyspach systemu metrycznego. Jak mówi jego praprawnuk "był jednym z niewielu martwiących się wówczas o zanieczyszczenie środowiska przez transport". Dlatego też interesował się rozwojem tramwajów i transportu kolejowego. Thomas Parker swoją pasją wywarł wpływ na kolejne pokolenia. Jego syn, Thomas Hugh, w 1901 roku zbudował samochód na parę, a później brał udział w pracach nad hamulcami hydraulicznymi i napędem na cztery koła. Z kolei jego najstarszy syn, Alun, był inżynierem i pracował przy budowie wielu linii kolejowych oraz Kanału Panamskiego. Obecnie Graham Parker, który pracował jako meteorolog dla BBC, żartuje, że sam jest największym wynalazcą w dziejach rodziny. Żaden z jego przodków nie wymyślił bowiem tak wielu rzeczy.
  16. Naukowcy ze Smithsonian Institute uważają, że rządy poszczególnych państw powinny lepiej przemyśleć wspieranie produkcji biopaliw w swoich krajach. Mają one co prawda liczne zalety, od politycznych poprzez ekonomiczne po ekologiczne, jednak z badań uczonych ze Smithsonian wynika, że niektóre biopaliwa, jeśli weźmiemy pod uwagę cały ich cykl produkcyjny, mogą bardziej zanieczyszczać środowisko niż paliwa kopalne. Jörn Scharlemann i William Laurance pracujący w Smithsonian Tropical Research Institute przyjrzeli się wynikom badań przeprowadzonych na zlecenie rządu Szwajcarii. W ich ramach sprawdzono wpływ 26 różnych biopaliw na środowisko i ludzkie zdrowie. Okazuje się, że wszystko zależy od tego gdzie i w jaki sposób uprawiane są rośliny, będące źródłem biopaliw. Najbardziej „brudnymi” biopaliwami, zanieczyszczającymi środowisko naturalne bardziej niż ropa naftowa i benzyna, są paliwa z północnoamerykańskiej kukurydzy, brazylijskiej soi i malezyjskiego oleju palmowego. Z kolei najbardziej przyjazne środowisku są te wyprodukowane ze zużytego oleju spożywczego oraz z trawy i drzew. Biopaliwa ogromnie różnią się między sobą pod względem wpływu na środowisko. Musimy być mądrzy i promować właściwe biopaliwa, w przeciwnym razie nie zmniejszymy zanieczyszczeń – mówi Laurance. To właśnie chęć redukcji zanieczyszczeń jest jednym z głównym powodów, dla których świat jest coraz bardziej zainteresowany biopaliwami. To kolejny argument za rozważeniem używania biopaliw. Ostatnio ONZ wykazał, że produkcja biopaliw przyczynia się do wzrostu cen żywności, a słynna Jane Goodall ostrzega, że produkcja biopaliw szkodzi lasom deszczowym.
  17. Z morza zatrważających informacji o zanieczyszczeniu środowiska udało nam się wydobyć chociaż jedną dobrą wiadomość: w spożywanej przez ludzi wodzie spada stężenie pestycydów. Badanie, dzięki któremu dowiedzieliśmy się o tym fakcie, przeprowadzono w ponad trzystu studniach w Stanach Zjednoczonych. Testy wykazały, że podziemne zbiorniki wody pitnej nie zatrzymują pestycydów na długi czas, dzięki czemu ryzyko ekspozycji na te szkodliwe substancje jest znacznie obniżone. Stosowanie chemicznych środków owadobójczych od dziesięcioleci jest ściśle związane z kontrowersjami i obawami o ludzkie zdrowie. Niektóre z tych substancji okazały się na tyle szkodliwe, że zakazano całkowicie ich stosowania, lecz w ich miejsce pojawiły się nowe. Dotychczas niewiele było wiadomo na temat długotrwałego wpływu tych związków na zdrowie i życie ludzkie. Wielką niewiadomą była także zdolność wód podziemnych oraz gleby do akumulowania pestycydów. Choć trudno w to uwierzyć, przeprowadzone testy są pierwszymi tak szeroko zakrojonymi badaniami wykrywającymi obecność tych szkodliwych związków w wodzie pitnej. Ich autorami są eksperci z U.S. Geological Survey - organizacji wchodzącej w skład amerykańskiego Departamentu Zasobów Wewnętrznych. Analizę przeprowadzono w ramach finansowanego przez rząd USA programu Narodowego Badania Jakości Wody (National Water-Quality Assessment - NAWQA). Wyniki tego studium są pocieszające z punktu widzenia stanu wód gruntowych w przyszłości, ze szczególnym uwzględnieniem pestycydów, ocenia główna autorka badania, Laura Bexfield. Badaczka dodaje: pomimo długotrwałego używania wielu popularnych pestycydów oraz wprowadzania nowych, zebrane wyniki nie wskazują na wzrastającą retencję lub stężenie [pestycydów - red.] w płytkich wodach gruntowych oraz wodzie pitnej w ciągu ostatnich dziesięciu lat. Pierwsze testy w ramach NAWQA przeprowadzono w latach 1993-1995. Uzyskane wyniki porównano następnie z rezultatami analizy próbek uzyskanych w latach 2001-2003. Prowadzone analizy pozwalały na wykrycie dawek aż tysiąckrotnie niższych od tych uznawanych za dozwolone w przypadku wód pitnych. Spośród osiemdziesięciu poszukiwanych związków zaledwie sześć wykryto w co najmniej dziesięciu studniach. Co więcej, żaden z nich nie występował w stężeniu przekraczającym 10% maksymalnej dozwolonej koncentracji w wodzie pitnej. Testy prowadzone przez U.S. Geological Survey trwają nadal. Dokładne zrozumienie procesów obiegu i akumulacji chemicznych środków ochrony roślin są bez wątpienia istotne dla zdrowia ludzi. Miejmy nadzieję, że zaprezentowane wyniki nie są ostatnimi optymistycznymi informacjami na temat otaczającego nas środowiska.
  18. Badania arktycznych lodowców dostarczają interesujących danych na temat skażenia środowiska przez przemysł - informują naukowcy z amerykańskiego Desert Research Institute. O swoich odkryciach donoszą na łamach czasopisma Proceedings of the National Academy of Sciences. Analiza pobranego z lodowców materiału, którego pochodzenie szacuje się na lata 1772-2003, wykazała wysoką zawartość zanieczyszczeń towarzyszących spalania węgla. Chodzi głównie o metale ciężkie, tal oraz ołów, których stężenie w badanych próbkach było znacznie wyższe, niż przewidywano. Co ciekawe, okresy maksymalnego zanieczyszczenia przypadały na inne lata, niż sugerowały zebrane dotychczas informacje. Zwykło się uważać, że toksyczne metale ciężkie wykazywały najwyższe stężenie w latach sześćdziesiątych i siedemdziesiątych dwudziestego wieku, u szczytu aktywności przemysłowej w Europie i w Stanach Zjednoczonych, przed podpisaniem ustawy o czystym powietrzu [ang. Clean Air Act - przyp. red.] we wczesnych latach siedemdziesiątych, mówi dr Joe McConnell, główny autor analizy. Okazuje się jednak, że stopień skażenia południowej Grenlandii był wyższy sto lat temu, gdy gospodarki Ameryki Północnej i Europy korzystały głównie z węgla, przed nadejściem czystszych, wydajniejszych metod spalania węgla oraz przejścia na gospodarkę opartą na ropie naftowej i gazie. Dość często narzekamy na poważne zanieczyszczenie powietrza w dzisiejszych czasach, lecz okazuje się, że na początku XX wieku stopień skażenia środowiska był 2 do 5 razy wyższy, niż obecnie, i 10 razy wyższy, niż przed rozpoczęciem rewolucji przemysłowej w połowie XIX wieku. Badacze zastrzegają jednak, że nawet występujący obecnie poziom zanieczyszczenia jest poważnym powodem do zmartwienia. W swoim raporcie naukowcy ostrzegają szczególnie przed konsekwencjami gwałtownego rozwoju krajów azjatyckich, których przemysł korzysta intensywnie z węgla jako podstawowego źródła energii. Według naukowców toksyczne metale wydzielane podczas spalania węgla zostaną uwolnione do atmosfery, a następnie mogą przenosić się aż do Europy i Stanów Zjednoczonych. Mogą przez to stać się poważnym zagrożeniem dla organizmów żywych, w tym, niestety, także dla ludzi. Wpływ [zanieczyszczenia] na zdrowie ludzi w rejonie Arktyki nie został jeszcze oceniony, mówi McConnell. Zastrzega jednak, że zastosowanie "czystych" technologii spalania węgla lub stopniowa rezygnacja z tego paliwa może zapobiec dalszemu pogarszaniu się sytuacji.
  19. Po przeprowadzeniu jednego z najdłuższych w historii eksperymentów związanych z badaniem czystości wód, kanadyjsko-amerykański zespół badaczy zaprezentował ostateczne wyniki swoich obserwacji. Zdaniem autorów studium stosowane w wielu krajach metody, uznawane za skuteczne w zapobieganiu procesowi tzw. zakwitu wód, są całkowicie nieskuteczne. Co więcej, ich ścisłe przestrzeganie może nawet przyśpieszyć proces zanieczyszczania akwenów. Do zakwitu wód (eutrofizacji) zachodzi, gdy do określonego zbiornika trafi zbyt wiele chemicznych prekursorów materii organicznej. Przyczyną rozwoju tego stanu jest najczęściej działalność człowieka, głównie odprowadzanie nieoczyszczonych ścieków oraz nawozów do wód gruntowych lub nawet bezpośrednio do jezior czy rzek. Substancje zawarte w odpadach płynnych są idealną pożywką dla glonów i sinic, które stopniowo opanowują niemal całą objętość toni wodnej. Efektem tego zjawiska jest odcięcie dopływu tlenu oraz światła słonecznego do dna, przez co dochodzi do masowego wymierania organizmów. W związku z istotnym wpływem zjawiska eutrofizacji na stan wód, badacze z amerykańskeigo Uniwersytetu Minnesota oraz kanadyjskiego Uniwersytetu Alberta i Freshwater Institute postanowili przeprowadzić wieloletnie badania nad sposobami kontroli i obserwacji procesu. Jako "poligon doświadczalny" wybrali Jezioro 227 - nieduży akwen w obrębie Strefy Jezior Eksperymentalnych (ELA, od ang. Experimental Lake Area) w kanadyjskiej prowincji Ontario. Zasadniczym celem trwacącej aż 37 lat analizy było obserwowanie wpływu ilości dodawanych związków azotu i fosforu na szybkość zakwitu wód. Ich odkrycia zaprzeczają niektórym dogmatom sozologii, czyli nauki o ochronie środowiska. Nasze odkrycie stoi w sprzeczności z praktykami stosowanymi w Unii Europejskiej oraz uznanymi przez wielu naukowców na całym świecie, tłumaczy David Schindler, profesor ekologii na Uniwersytecie Alberta. Kontrolowanie [stężenia związków] azotu nie poprawia poprawia stanu zanieczyszczonych jezior, a w rzeczywistości może nawet zwiększać skalę problemu. Prof. Schindler jest uznanym na świecie badaczem czystości zbiorników wodnych. Jego wcześniejsze obserwacje wykazały, że proces eutrofizacji jest powszechny na całym świecie - odsetek jezior dotkniętych zakwitem wynosi od 28% w Afryce aż do 48% w Ameryce Północnej, 53% w Europie i 54% w Azji. Nie dziwi w związku z tym wypowiedź badacza, że szkody wyrządzone w jeziorach są istotnym problemem dla praktycznie każdego kontynentu. Wpływ gospodarki człowieka na rozwój zjawiska jest niepodważalny. Zdaniem naukowców konieczne jest kompleksowe działanie na rzecz ochrony jezior przed zakwitem. Proces ten znacznie obniża jakość wody, przez co jest niezwykle szkodliwy dla organizmów wodnych oraz zmniejsza ilość dostępnej dla ludzi wody pitnej. O szczegółach swoich badań prof. Schindler donosi na łamach czasopima Proceedings Of National Academy of Sciences.
  20. Roztapiające się lody Arktyki i Antarktyki to widoczne objawy globalnego ocieplenia. Charlie Zender, klimatolog z University of California uważa, że za topnienie lodów nie jest odpowiedzialne ocieplenie klimatu, ale głównie zanieczyszczenie atmosfery. Jego zdaniem wszelkie pyły, które opadają na powierzchnię śniegu powodują, że staje się on ciemniejszy, a przez to absorbuje więcej energii słonecznej i, w efekcie, topi się. Mamy do czynienia z zaskakująco dużym wpływem niewielkich ilości zanieczyszczeń w śniegu – mówi Zender. Wystarczy bowiem już pięć cząsteczek zanieczyszczeń na miliard cząsteczek śniegu, by topnienie uległ przyspieczeniu. Naukowiec uważa, że zanieczyszczenia odpowiadają w 94% za przyspieszone topnienie lodu na biegunach. Zender wraz z fizykiem Markiem Flannerem i innymi akademikami stworzyli model, który miał im pomóc zbadać, w jaki sposób zanieczyszczenia wpływają na temperatury w Arktyce i Antarktyce. Wiadomo, że od początku Rewolucji Przemysłowej temperatury w regionach polarnych podniosły się o 1,6 stopnia Celsjusza. Uczeni uwzględnili dane dotyczące spalania paliw kopalnych, drewna, pożary lasów i inne źródła zanieczyszczeń. Porównali swój model z zanieczyszczeniami w regionach arktycznych od Alaski i Szwecji po Rosję oraz antarktycznych. Zebrali też dane z innych regionów, jak na przykład z Tybetu. Wzięli też pod uwagę fakt, że z wiekiem śnieg ciemnieje. Uczeni stwierdzili, że działalność człowieka odpowiada za 80% zanieczyszczeń w Arktyce. Oznacza to, że każdy metr kwadratowy powierzchni Arktyki absorbuje o 0,054 wata energii więcej. Gdy zanieczyszczony śnieg stopnieje całkowicie, odsłaniany jest ciemny grunt, który jeszcze bardziej przyspiesza ogrzewanie klimatu. Węgiel, który zanieczyszcza śnieg trzykrotnie mocniej wpływa na podniesienie się temperatury, niż dwutlenek węgla w atmosferze. Klimat jest bardziej wrażliwy na to, niż na cokolwiek innego – uważa Zender. Jego zdaniem w walce z globalnym ociepleniem powinniśmy skupić się na takich działaniach, jak skonstruowanie silników, które będą całkowicie spalały paliwa kopalne. Zender zauważa, że już teraz można podjąć takie kroki, które spowodują zahamowanie topnienia obszarów polarnych. Wystarczy spalać szczególnie „brudne” paliwa w określonych porach roku. Jeśli spalimy je jesienią lub zimą, pochodzący z nich pył zostanie szybko przykryty warstwą śniegu. W lecie, gdy opady są rzadsze, takie pyły będą bardziej szkodliwe. Badania Zendera odnosiły się tylko do lądu stałego. Zwraca on uwagę, że należy zbadać wpływ zanieczyszczeń na lód pokrywający oceany. Przestrzega, że bardzo szkodliwe mogą być lodołamacze, które wczesną wiosną oczyszczają z lodu trasy żeglugowe. Zanieczyszczenia emitowane przez ich silniki mogą mieć olbrzymi negatywny wpływ na okolice i przyspieszać topnienie oceanicznych lodów.
  21. Międzynarodowy Komitet Olimpijski obawia się, że zanieczyszczenie powietrza w Pekinie jest tak duże, iż olimpijczycy startujący w kategoriach wymagających długotrwałego wysiłku, mogą być narażeni na niebezpieczeństwo. Nie jest ono duże i dotyczy tych, którzy będą startowali w sportach związanych z długotrwałym intensywnym wysiłkiem, jak np. maraton czy wyścigi kolarskie. Komitet Olimpijski przygotował plan awaryjny, który zakłada, że jeśli w dniu wymienionych zawodów będzie wysokie zanieczyszczenie powietrza, zostaną one przeniesione na inny termin. Pekin to jedno z najbardziej zanieczyszczonych miast na świecie. W ciągu ostatnich 10 lat władze Chin wydały ponad 17 miliardów dolarów na poprawę jakości powietrza w stolicy, jednak wciąż jest ona daleka od międzynarodowych standardów. Konkurencje trwające krócej niż godzinę będą odbywały się normalnie, gdyż w takim przypadku nie ma zagrożenia dla zdrowia sportowców.
  22. Pięciomiesięczne badanie jakości wody pitnej w Stanach Zjednoczonych ujawniło, że w kranach w domach wielu Amerykanów płynie woda zawierająca śladowe ilości leków. Wśród wykrytych przez badaczy substancji znalazły się, m.in.: antybiotyki, hormony płciowe oraz związki zapobiegające udarowi mózgu. Skala problemu jest ogromna, gdyż niemal wszystkie badane źródła były zanieczyszczone farmaceutykami. Stężenie wspomnianych związków nie jest duże. Wynosiło zaledwie kilka cząsteczek na miliard, a w niektórych przypadkach było nawet niższe. Naukowcy są jednak zmartwieni, gdyż - w związku z brakiem odpowiednich badań - nie są w stanie przewidzieć efektu wieloletniego przyjmowania substancji leczniczych wraz z wodą. Leki oraz ich pochodne trafiają do wody głównie z odchodami. Dotyczy to przede wszystkim odchodów ludzi przechodzących farmakoterapię, jednak coraz częściej farmakoterapii poddawane są także zwierzęta domowe i hodowlane. Obecnie stosowane metody uzdatniania wody są niewystarczające, by całkowicie usunąć tak wielką ilość spływających do niej leków oraz ich metabolitów. Dane na temat zanieczyszczenia wody są wynikiem pięciomiesięcznego śledztwa dziennikarskiego agencji Associated Press (AP). Reporterzy odbyli ponad 200 spotkań z naukowcami i urzędnikami, przeanalizowali także tysiące publikacji naukowych na temat stanu czystości wody pitnej w USA. Wśród analizowanych dokumentów znaleźli m.in. raporty mówiące o jednoznacznej szkodliwości pobranych próbek wody na hodowane in vitro komórki. Co ciekawe, wyniki tych badań, mimo publikacji w czasopismach naukowych, nigdy nie zostały przedstawione opinii publicznej. Dziennikarze podkreślają, że dostawcy wody pitnej bardzo niechętnie publikują wyniki testów czystości wody. Argumentują to twierdzeniem, że statystyczny obywatel nie będzie w stanie poprawnie zrozumieć opublikowanych cyfr. Ich zdaniem, upublicznienie tego typu danych mogłoby wywołać niepotrzebną panikę w społeczeństwie. Urzędnicy z amerykańskiej Agencji Ochrony Środwiska w wypowiedziach podkreślają, że są świadomi narastającego problemu i traktują go bardzo poważnie. Dziennikarze zaznaczają jednak, że mimo tych deklaracji, nie istnieją przepisy regulujące testowanie wody w poszukiwaniu leków oraz produktów ich metabolizmu. Nie są także podane w amerykańskim prawie jakiekolwiek normy czy limity zawartości substancji leczniczych w płynącej z kranów wodzie. Wyniki analiz są zatrważające. Przebadano wodę wodociągową w 24 dużych amerykańskich miastach. Wśród wykrytych substancji wymienia się, m.in: leki psychotropowe, przeciwbólowe, hormony płciowe, środki powstrzymujące astmę i wiele innych. Niechlubny rekord padł w mieście Filadelfia, gdzie w wodzie pitnej wykryto aż 56 związków. Okazuje się, że także źródła wody są często zanieczyszczone. Dziennikarze AP dotarli do wyników analiz chemicznych wykonanych w 35 spośród 62 najważniejszych źródeł wody w USA. Zawartość leków wykryto w 28 z nich. Co ciekawe, zarządzający sześcioma z nich przyznali, że nie przeprowadzają jakichkolwiek badań wody na obecność substancji leczniczych. Prawdopodobnie liczne prywatne ujęcia wody, takie jak studnie, również są zanieczyszczone. Skażenie lekami potwierdzono również w przypadku wody mineralnej. Producenci tej ostatniej nie przeprowadzają jakichkolwiek testów na poszukiwanie tego typu substancji, a dodatkowo sprzedawany przez nich produkt często jest w rzeczywistości zwykłą wodą wodociągową zamkniętą w butelce. Na tym nie koniec. Żurnaliści skupili się także na wodach podziemnych. Udowodnili, że zanieczyszczenie jest obecne w 40 procentach przeanalizowanych poziomów wodonośnych. W związku z tym nawet woda pobierana z dużych głebokości może być dotknięta skażeniem. Problem nie kończy się na Stanach Zjednoczonych. Podobne zanieczyszczenia stwierdzano już wcześniej m.in. w jeziorach na terenie Kanady i Szwajcarii. W jeszcze innych miejscach, np. w Norwegii, udowodniono, że śladowe ilości hormonów płciowych w wodzie mogą wpływać na patologiczne zmiany w fizjologii ryb. Wykryto np. samce łososia norweskiego, które z powodu zaburzeń związanych z przyjmowaniem żeńskich hormonów płciowych, pochodzących z tabletek antykoncepcyjnych, zaczęły wytwarzać białka charakterystyczne dla produkcji ikry, a więc procesu zarezerwowanego dla samic. Zgodnie z obowiązującym w USA (i wielu innych krajach) prawem, woda jest aktualnie analizowana m.in. pod względem zawartości niektórych pestycydów i związków ołowiu. Postuluje się, by do listy analizowanych związków chemicznych dopisać najczęściej wykrywane w wodzie leki. Ich obecność w wodzie jest wyjątkowo groźna, gdyż zgodnie z założeniem, mają one mieć jak najsilniejszy wpływ na fizjologię człowieka. Określone leki mogą więc wywoływać niezwykle groźne efekty u ludzi cierpiących na liczne choroby. Warto dodać, że nie istnieją jednoznaczne wyniki badań nad wpływem przyjmowanych przez wiele lat śladowych ilości leków. Dodatkowy problem stanowi fakt, że pojedyncze źródło wody zawiera prawdziwy koktajl o niezdefiniowanym i niestałym składzie, przez co jego wpływ na ciało człowieka jest nieprzewidywalny. Z tego powodu naukowcy są zgodni: problem staje się coraz poważniejszy i należy poszukać odpowiednich środków, by go rozwiązać. Środowisko akademickie mówi jednym głosem, że należy rozszerzyć stosowane obecnie rutynowo testy jakości wody i uwzględnić w nich dodatkowe substancje.
  23. Badacze ze Zuyd University twierdzą, że tylko godzina wdychania spalin wystarczy, by zmienić sposób, w jaki działa mózg. Od dawna wiedziano, że cząsteczki inhalowanych związków docierają do tego ważnego organu, ale teraz po raz pierwszy udało się wykazać, że mogą one wpływać na przebieg przetwarzania informacji. Naukowcy odtwarzali warunki, w jakich pracuje się w garażu albo na poboczu dróg (Particle and Fibre Toxicology). Holendrzy poprosili 10 ochotników, by spędzili 60 minut albo w pomieszczeniu z czystym powietrzem, albo w pokoju wypełnionym gazami i innymi substancjami powstającymi przy spalaniu diesla. W tym czasie i przez następną godzinę monitorowano działanie ich mózgu za pomocą EEG. Po ok. półgodzinie u osób z drugiej grupy w zapisie pojawiły się oznaki reakcji stresowej. Były one widoczne także po opuszczeniu zanieczyszczonego pokoju. Szef zespołu naukowców, Paul Borm, podkreśla, że można się tylko domyślać, jak oddziałuje na mózg skażenie powietrza w dużych miastach, gdzie stężenie chociażby sadzy jest dużo wyższe, a ekspozycja chroniczna. Nanocząsteczki mogą interferować z normalnym działaniem mózgu i przetwarzaniem informacji. Trzeba jednak dalszych badań, by rozpoznać ten efekt. Ken Donaldson, profesor toksykologii układu oddechowego z Uniwersytetu w Edynburgu, podkreśla, że odpowiedź mózgu na nowy zapach nie jest niczym zaskakującym. Twierdzi, że reakcja fizjologiczna nie musi być negatywna, ponieważ jednak może występować efekt długoterminowy, warto go określić. Badanie wpływu zanieczyszczenia powietrza na mózg stwarza problemy natury metodologiczno-etycznej. Mimo zgody wyrażonej przez ochotników, podczas eksperymentu naraża się ich zdrowie. Jeśli naukowcy decydują się na podłużne badania populacyjne, także natrafiają na przeszkody. Choroby mózgu nie są bowiem często uwzględniane w aktach zgonu. Jako przykład podaje się pacjentów z chorobą Alzheimera, którzy często umierają z powodu infekcji. Co jednak bardzo istotne, podobne uszkodzenia jak u chorych z alzheimeryzmem odnotowano u psów żyjących w bardzo zanieczyszczonym mieście Meksyk.
  24. Jak wykazali naukowcy szwajcarscy, im bliżej ludzie mieszkają dużych dróg, tym większe ryzyko, że zapadną na choroby układu oddechowego, np. duszność czy świszczący oddech. Wyniki uzyskane z badań na populacji generalnej dostarczają mocnych dowodów na potwierdzenie tezy, że życie blisko dużych arterii komunikacyjnych wpływa niekorzystnie na układ oddechowy — piszą dr Lucy Bayer-Oglesby i zespół na łamach American Journal of Epidemiology. Szwajcarzy zauważyli, że zwracano uwagę na fakt, że zanieczyszczenie powietrza, zwłaszcza dostające się do płuc niewielkie cząsteczki, może być niebezpieczne dla zdrowia, do teraz nigdy jednak nie badano, w jaki sposób bliskość dróg oddziałuje na układ oddechowy. Aby to określić, przeanalizowano dane z 2-częściowego badania zanieczyszczenia atmosferycznego i chorób płuc. W 1991 roku do eksperymentu zaangażowano 9.651 losowo wybranych kobiet i mężczyzn w wieku od 18 do 60 lat (w 2002 roku w 2. fazie badania wzięło udział 8.047 wolontariuszy). Jednostkowe ryzyko wystąpienia ataków duszności wzrastało o 13% na każdy znajdujący się w odległości 200 metrów od domu 500-metrowy odcinek głównej drogi. Prawdopodobieństwo takich ataków u osób, które nigdy nie paliły, spadało o 12% na każde dodatkowe 100 metrów oddzielające ich domy od ulicy. Ludzie mieszkający w odległości 20 m od głównej drogi o 15% częściej cierpią z powodu flegmy zalegającej w ich drogach oddechowych, a ryzyko problemów z oddychaniem i świszczącego oddechu wzrasta aż o 34%. Wpływ ruchu ulicznego na układ oddechowy był większy w przypadku mężczyzn i osób, które nigdy nie paliły. Silniejsze oddziaływania odnotowano w 1991, a nie w 2002 roku, co może wynikać z zaostrzenia norm dotyczących emisji gazów przez samochody. Mieszkanie w pobliżu głównych ulic lub wśród gęstej sieci dróg zwiększa u dorosłych ryzyko wystąpienia określonych dolegliwości związanych z układem oddechowym, zwłaszcza z astmą (ataki duszności i świszczący oddech) oraz bronchitem (chroniczny kaszel i zaflegmienie).
×
×
  • Dodaj nową pozycję...