Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Niemieccy inżynierowie przeprowadzili udany test pierwszego na świecie czteroosobowego samolotu zasilanego ogniwami paliwowymi. Podczas trwającego 10 minut lotu na pokładzie maszyny HY4 znajdowało się dwóch pilotów i dwa manekiny. Samolot jest wspólnym dziełem firmy lotniczej Pipistrel, producenta ogniw paliwowych Hydrogenics, Uniwersytetu w Ulm oraz Niemieckiego Centrum Lotniczego DLR. Wykorzystuje on wodorowe ogniwa paliwowe, które pozwalają mu na osiągnięcie prędkości przelotowej 145 km/h i podróż na odległość 1500 kilometrów. Start i lądowanie odbywają się zaś dzięki energii z akumulatorów. HY4 to idealna platforma do rozwoju ogniw paliwowych dla samolotów. Niewielkie samoloty pasażerskie, takie jak HY4, będą w niedalekiej przyszłości używane w transporcie lokalnym, w roli powietrznych taksówek, stanowiąc realną alternatywę dla istniejących środków transportu - stwierdził profesor Josef Kallo, odpowiedzialny za projekt z ramienia DLR. « powrót do artykułu
  2. Naukowcy, którzy pracowali na RSS James Cook na środkowym Atlantyku i południowym zachodzie Oceanu Indyjskiego, znaleźli jako pierwsi dowody, że zwierzęta żyjące na dużych głębokościach, np. pustelniki czy strzykwy, połykają włókna mikroplastiku. Biolodzy z Uniwersytetów w Bristolu i Oksfordzie znaleźli mikrofragmenty tworzyw sztucznych w zwierzętach żyjących na głębokościach od 300 do 1800 m. To pierwszy raz, kiedy wykazano, że mikroplastik, który może się dostawać do mórz przez pranie ubrań wykonanych z tkanin syntetycznych czy z sieci rybackich, jest zjadany przez organizmy zamieszkujące głębiny. Wyniki naprawdę mnie zaskoczyły. To przypomnienie, że zanieczyszczenie plastikiem naprawdę sięgnęło najdalszych zakątków Ziemi - podkreśla prof. Laura Robinson z Uniwersytetu Bristolskiego. Mikrofragmenty tworzyw sztucznych definiuje się jako cząstki o długości poniżej 5 mm. Obejmują one uwzględnione w opisywanym badaniu mikrowłókna oraz wykorzystywane w kosmetykach mikrogranulki. Autorzy publikacji z pisma Scientific Reports wykryli u zwierząt głębinowych m.in. poliester, nylon i akryl. Mikroplastik ma podobne wymiary co detrytus (tzw. morski śnieg), czyli opadający z wyższych warstw wody materiał organiczny, którym często żywią się mieszkańcy głębin. Głównym celem naszej ekspedycji badawczej było zbieranie mikroplastiku z osadów głębokiego oceanu. Znaleźliśmy go naprawdę dużo. Zważywszy, że zwierzęta wchodzą z nim w kontakt, [...] w poszukiwaniu dowodów na spożycie postanowiliśmy zajrzeć do ich wnętrza. Szczególnie alarmujące jest to, że mikroplastiki odkryliśmy nie na terenach przybrzeżnych, ale w głębokim oceanie, tysiące mil od lądowych źródeł zanieczyszczenia - opowiada dr Michelle Taylor z Wydziału Zoologii Uniwersytetu w Oksfordzie. Zwierzęta zbierano za pomocą zdalnie kierowanego pojazdu podwodnego. Później naukowcy zastosowali metody kryminalistyczne. W ten sposób mieli pewność, że mikroplastik rzeczywiście występował w danym organizmie i nie był zanieczyszczeniem. « powrót do artykułu
  3. Grupa pracująca pod kierunkiem Krzysztofa Starnawskiego odkryła najgłębszą na świecie zalaną jaskinię. Znajduje się ona w pobliżu czeskiego miasta Hranice i liczy sobie co najmniej 404 metry głębokości. Hranicka Propast znana jest od dziesięcioleci, jednak nurkowie eksplorowali dotychczas jej górne części. Starnawski zdecydował się zejść niżej i dotarł na głębokość 200 metrów, do skalnego zwężenia. Wiedział, że ono tam będzie, gdyż w ubiegłym roku przepłynął przez zwężenie i wybrał się na głębokość 265 metrów. Musiał jednak później spędzić 6 godzin w kabinie dekompresyjnej, więc uznał, że dalsza eksploracja wymaga pomocy robota. zatem tym razem nie przepływał przez zwężenie, a wysłał robota, który przepłynął kolejnych 200 metrów w dół. To maksymalna długość kabla, który pozwala na operowanie robotem. Dzięki Starnawskiemu wiemy, że Hranicka Propast ma co najmniej 404 metry głębokości. Nie wiadomo, jaka jest jej rzeczywista głębokość, gdyż robot nie dotarł do dna. Wiemy jednak, że Hranicka Propast jest najgłębszą zalaną jaskinią, a od dotychczasowej rekordzistki, włoskiej Pozzo del Merro, jest głębsza o co najmniej 12 metrów. « powrót do artykułu
  4. Przed dwoma dniami, 1 października, rząd USA formalnie przestał nadzorować internet. Amerykański Departament Handlu poinformował o wygaśnięciu umowy pomiędzy nim a ICANN (Internet Corporation for Assigned Names and Numbers). ICANN zarządza domenami najwyższego rzędu i jest jedyną organizacją sprawującą kontrolę nad internetem na poziomie globalnym. Po wygaśnięciu umowy z rządem USA ICANN stał się niezależną organizacją, która będzie zarządzana przez "udziałowców internetu" - inżynierów, naukowców, środowiska akademickie, organizacje rządowe i pozarządowe. Uniezależnienie się ICANN od rządu USA - dotychczas organizacja formalnie podlegała Departamentowi Handlu - to zwieńczenie realizowanego od 10 lat planu "sprywatyzowania internetu". Zwolennicy uwolnienia ICANN od kontroli USA mówią, że to ruch w dobrym kierunku, gdyż pozwoli na zachowanie integralności sieci na poziomie ogólnoświatowym. Przeciwnicy tego pomysłu argumentują zaś, że teraz różnym autorytarnym reżimom łatwiej będzie przejąć kontrolę nad siecią. Niedawno przedstawiciele czterech amerykańskich stanów próbowali zablokować przekazanie ICANN pod międzynarodową kontrolę i wystąpili do sądu z wnioskiem o zablokowanie takich działań. Sąd federalny w Teksasie odmówił ich żądaniom. Zaczątkiem internetu był amerykański wojskowy ARPANET. Z czasem sieć się rozrastała, na przełomie lat 60. i 70. korzystało z niej coraz więcej ośrodków akademickich. W końcu w roku 1980 od całości odłączono sieć wojskową i powstał cywilny internet. W związku z jego szybkim rozwojem pojawiła się potrzeba uporządkowania systemu domen i adresów. Wtedy z Internet Engineering Task Force, nieformalnej organizacji zajmującej się ustanawianiem standardów technicznych w internecie wyłoniła się grupa robocza o nazwie IANA (Internet Assigned Numbers Authority). Mimo, że również i ona nie była sformalizowana otrzymała od rządu USA uprawnienia do zarządzania domenami, gdyż nikt inny nie był wówczas tego zrobić. IANA i rząd USA podpisały umowę, na podstawie której organizacja miała zarządzać domenami do roku 2006. W 1998 roku powołano do życia profesjonalną niedochodową ICANN, a IANA stała się jej częścią. ICANN podlegał kontroli amerykańskiego Departamentu Handlu. Już wtedy zaczął kiełkować pomysł, by uniezależnić ICANN od nadzoru rządu USA. W 2006 roku Waszyngton i ICANN przedłużyły na kolejne lata umowę podpisaną wcześniej z IANA. W roku 2009 została podpisana umowa przewidująca, że ICANN będzie zarządzany przez wielu "właścicieli". W końcu w marcu bieżącego roku podpisano kolejną umowę, na podstawie której Departament Handlu rezygnował z kontroli i nadzoru nad ICANN oraz IANA. Od 2 dni ICANN jest organizacją niezależną od nadzoru pojedynczego rządu. « powrót do artykułu
  5. Pokazanie, jaką pracę mogą zdobyć absolwenci kierunków ścisłych i jak na rozwoju tych nauk zyskują gospodarka i społeczeństwo – to główne zadanie programu STEM4youth. Badacze z kilku krajów Unii Europejskiej, koordynowani przez naukowców z Politechniki Warszawskiej, opracowują w tym celu platformę e-learningową i materiały dydaktyczne, które pokażą, że przedmioty ścisłe opłaca się studiować. Choć nasi maturzyści coraz częściej wybierają studia inżynierskie, to brak fachowców z nauk ścisłych jest problemem głównie za granicą. Europa zaniedbała ten temat – zaznacza dr inż. Przemysław Duda z Wydziału Fizyki Politechniki Warszawskiej, koordynator projektu. Studia inżynierskie są trudne, a młodzi ludzie widzą, że mogą dobrze zarabiać, studiując prostsze kierunki. Jednocześnie na skutek rozwoju technologicznego szybko wzrasta popyt na osoby ze ścisłym profilem wykształcenia. Dlatego pomysłodawcy postanowili stworzyć projekt międzynarodowy, włączając do udziału w nim uczelnie z Czech, Grecji, Hiszpanii, Włoch i Słowenii. Oswoić fizykę W Polsce w 2016 roku maturę z fizyki postanowiło zdawać zaledwie 9 % maturzystów. Fizyka postrzegana jest jako przedmiot bardzo trudny, a jednocześnie nauczany w sposób nieatrakcyjny. Nauczyciele w większości nie dysponują wystarczającą aparaturą badawczą, żeby przeprowadzić wspólnie z uczniami doświadczenie w czasie lekcji – tłumaczy Katarzyna Hołownicka, która zajmuje się ewaluacją projektu. Kiedy uczniowie odwiedzają nasz wydział, a my pokazujemy im różnego rodzaju doświadczenia, to często zmieniają podejście do fizyki. Widzą, że zjawiska fizyczne mają wpływ na życie, że można je ze sobą powiązać i że jest to rzeczywiście ciekawe. Zrób doświadczenie w politechnicznym laboratorium STEM4youth to niejako kontynuacja realizowanego już na PW projektu e-fizyka. W jego ramach przygotowano bezpłatny multimedialny podręcznik do nauki fizyki w liceach oraz filmy i animacje demonstrujące wybrane zjawiska fizyczne. Zarejestrowane w platformie szkoły mogą korzystać też ze zdalnego laboratorium. Przez Internet sterują urządzeniami znajdującymi się w laboratorium na Wydziale Fizyki PW, a wynik eksperymentu obserwują przez kamerę internetową. W laboratorium znajduje się rzeczywista aparatura, na której uczeń, z dowolnego miejsca na świecie, może wykonać eksperyment – tłumaczy dr Duda. Może nim sterować, obserwować efekty. Urządzenie wykonuje polecenia ucznia i odbywa się to automatycznie, bez udziału osób trzecich. Science, Technology, Engineering, Mathematics W analogiczny sposób będą odbywać się "zajęcia" na platformie STEM4youth. Będą umieszczane tam materiały do nauki matematyki, fizyki, astronomii, chemii, medycyny, inżynierii i medycyny. Jednocześnie zagadnienia te będą ze sobą powiązane, co pokaże, jak jedna dziedzina wpływa na drugą. Uczniowie będą mieli do dyspozycji: e-podręcznik, gry, multimedia, zdalne laboratoria. Każdy z uczestniczących w programie krajów stworzy informacje w swoim języku narodowym oraz po angielsku. Zespół z PW skupi się na przygotowaniu laboratoriów i materiałów do nauki fizyki oraz opracowaniu głównej platformy e-learningowej. Nauka nie zna granic Opracowywana w ramach programu STEM4youth platforma e-learningowa będzie służyć nie tylko edukacji, ale też prowadzeniu wspólnych prac przez uczniów z różnych krajów. Planujemy przygotować też konkurs dla uczniów – zdradza dr Mirosław Brzozowy. Chcemy, żeby uczniowie stworzyli międzynarodowe zespoły i rozwiązywali pewne problemy. W międzynarodowych korporacjach praca zdalna to codzienność, dlatego chcemy postawić uczniów przed takim wyzwaniem. Program rozpoczął się 1 maja 2016 roku i potrwa 3 lata. Będą mogły do niego przystąpić szkoły ponadgimnazjalne. Wszystkie zajęcia będą bezpłatne. « powrót do artykułu
  6. Pierwsze zamki na Śląsku powstały w drugiej poł. XII w. Tym samym ich początki zostały przesunięte o ok. pół wieku w głąb średniowiecza - wynika z analiz wrocławskich naukowców. Naukowcy skupili się na analizie danych pochodzących z zamków we Wleniu, Wrocławiu i Legnicy. Nowe ustalenia były możliwe dzięki wykonaniu badań fizykochemicznych, petrograficznych, radiowęglowych i wymiarowych materiału użytego do ich budowy. Do tej pory przeważał pogląd, że pierwsze śląskie zamki należy datować na lata 20. XIII wieku. Jednak już od lat 80. XX w. pojawiały się odkrycia wskazujące, że mogło stać się to już kilkadziesiąt lat wcześniej. Nasze badania potwierdzają taki kierunek ustaleń - pierwsze zamki powstały tam w drugiej poł. XII wieku - wyjaśnia PAP kierowniczka projektu naukowego, prof. Małgorzata Chorowska z Wydziału Architektury Politechniki Wrocławskiej. To ze Śląska po całej Polsce rozprzestrzeniła się koncepcja przekształcania drewniano-ziemnych grodów w zamki, lecz był to proces wieloetapowy i rozciągnięty w czasie - zaznacza badaczka. Z ustaleń zespołu naukowców wynika, że za pierwszy zamek na terenie Śląska należy uznać ten wzniesiony we Wleniu, kolejno - we Wrocławiu, a następnie w Legnicy. Dotąd archeolodzy i architekci musieli zaufać historykom i źródłom pisanym w kwestii powstania pierwszych zamków na Śląsku. Ciągle brakowało natomiast danych archeologicznych, które pochodziłyby z analizy samych zabytków. Naukowcy przebadali m.in. zaprawy murarskie i cegły, stosując analizę petrograficzno-mineralogiczną. W ten sposób poznali ich skład i mogli porównać między sobą warsztaty budowlane zamków z kilku ośrodków. Do tej pory odbywało się to na podstawie obserwacji różnic dostrzeganych w murach gołym okiem. Były to jednak metody nie w pełni obiektywne i sprawdzalne naukowo - dodaje prof. Chorowska. Dokonano również nowatorskich pomiarów wielkości cegieł, dzięki metodzie wypracowanej przez Mariusza Cabana, doktoranta na Politechnice Wrocławskiej. Sposób opiera się przede wszystkim na gromadzeniu dużej ilości wymiarów (do 360) w sposób parowany, czyli notowaniu wymiarów główki i wozówki zawsze z dostępną w licu muru wysokością cegły. Jak wynika z badań prof. Chorowskiej, cechą wspólną trzech najstarszych znanych zamków na terenie Śląska - w Legnicy, Wrocławiu i Wleniu - jest to, że wcześniej w tych samych miejscach znajdowały się grody (których początki należy łączyć nawet z X w.), a więc założenia obronne ujęte w wały drewniano-ziemne. Pod ich osłoną powstawały murowane palatia lub, jak w przypadku Wrocławia, monumentalna wieża mieszkalna. Mimo że początkowo każda z wymienionych rezydencji wyglądała inaczej, po pewnym czasie nawet we Wrocławiu stanął podłużny pałac. Zamki te łączy też to, że pałace współistniały z wieżami o charakterze typowo obronnym, a w przypadku Wlenia - z murem obwodowym. Były to jedne z największych rezydencji na terenie Europy w tym czasie - zaznacza badaczka. Profesor zapytana o powód zmiany wznoszenia fortyfikacji - z drewniano-ziemnych na ceglane, powiedziała, że był on związany z opłacalnością ich wykonywania. Mury ceglane nie poprawiały właściwości obronnych, ale były łatwiejsze do wzniesienia - nie wymagały tak dużych nakładów pracy, jak w przypadku obwarowań drewniano-ziemnych - dodaje. Wynik potwierdził nasze wcześniejsze przypuszczenia, że zamki na Śląsku powstawały już pół wieku wcześniej, niż uważano do tej pory. To zjawisko wiąże się z aktywnością polityczną księcia piastowskiego Bolesława Wysokiego - opowiada badaczka. Jak dodaje prof. Chorowska, był on jednym z wygnanych synów Władysława Wygnańca. To właśnie dzięki szeroko zakrojonej akcji polegającej na wznoszeniu konstrukcji obronnych - zamków, książę odzyskał utracone dziedzictwo. Badania umożliwiły środki uzyskane od Narodowego Centrum Nauki. « powrót do artykułu
  7. Inteligentny transformator, nad którym pracuje zespół pod kierunkiem dr. hab. inż. Mariusza Malinowskiego, prof. PW z Wydziału Elektrycznego Politechniki Warszawskiej, pomoże oszczędzać energię i rozwiąże problem z awariami sieci. Do końca 2020 roku przybędzie wiele miliardów urządzeń elektronicznych, które trzeba będzie zasilać – opowiada naukowiec. Są dwie drogi: poszukiwanie nowych źródeł albo oszczędne i rozsądne użytkowanie energii, która jest dostępna. Prof. Malinowski skupił się obecnie na drugiej możliwości i wykorzystał rosnącą popularność tzw. inteligentnych sieci (ang. smart grids). Rozwiązanie to zakłada, że różne urządzenia elektryczne się ze sobą komunikują w celu zwiększenia efektywności energetycznej. Można więc stworzyć taką sieć, która pozwoli na dynamiczne dopasowywanie ilości energii produkowanej i użytkowanej. Stosowane dzisiaj w energetyce rozwiązania pochodzą głównie z początków XX wieku. Mamy scentralizowane miejsca wytwarzające energię i przesyłające ją na dużą odległość do odbiorców sieci elektroenergetycznych, ale jest to rozwiązanie mało oszczędne. W sieci inteligentnej rozproszonej będzie inaczej. Komunikacja między wszystkimi urządzeniami pozwoli w sposób dynamiczny regulować zużycie energii, bo np. te, które nie będą jej potrzebować do prawidłowego działania, będą się wyłączały. Jeśli sieć elektroenergetyczna będzie się rozwijała w takim kierunku, będzie przypominać sieć internetową, w której w sposób dynamiczny następuje wymiana informacji pomiędzy wszystkimi jej węzłami – wyjaśnia badacz z Politechniki Warszawskiej. To oznacza, że będziemy potrzebować urządzeń działających jak routery w sieci informatycznej. Tę funkcję będzie spełniał transformator, który chcemy zbudować. Pomoże on zapewnić odpowiednią jakość energii dla odbiorcy końcowego, a oprócz tego będzie pozwalał na wymianę informacji między wszystkimi urządzeniami elektrycznymi w danej sieci. Koniec z wielogodzinnym brakiem prądu W odróżnieniu od klasycznego transformatora, nasz będzie zbudowany z elementów półprzewodnikowych sterowanych układem mikroprocesorowym z zaawansowanym algorytmem sterowania – dlatego mówimy o nim „inteligentny” – tłumaczy naukowiec z PW. Taka konstrukcja umożliwi odpowiednie reagowanie na zaburzenia w sieci elektroenergetycznej, jak np. wyłączenia linii bądź awarie. Ten układ będzie potrafił się tak automatycznie przekonfigurować, że odbiorca w ogóle nie zauważy problemu, np. związanego z zanikiem napięcia w sieci elektroenergetycznej. Dzięki temu zapomnimy o historiach pokazujących, jak domy, dzielnice, miejscowości czy całe regiony przez wiele godzin są pozbawione prądu z powodu burz czy wichur. To jednak nie wszystkie zalety urządzenia opracowywanego na Politechnice Warszawskiej. Transformator będzie mógł również integrować w łatwy sposób źródła i odbiorniki stało- i zmiennoprądowe oraz magazyny energii – mówi prof. Malinowski. Naukowiec dodaje, że transformator będzie miał także wiele funkcji, do których współczesna energetyka nie jest jeszcze przystosowana. Od pomysłu do podboju rynku Projekt inteligentnego transformatora został wyróżniony w pierwszej edycji programu TEAM-TECH, realizowanego przez Fundację na rzecz Nauki Polskiej (FNP). Na realizację pomysłu przyznano 3,5 mln złotych. Kierownikiem projektu jest prof. Malinowski, jego zastępcą – dr inż. Sebastian Styński. Pozostali członkowie zespołu, zgodnie z zasadami programu, zostaną wyłonieni w drodze konkursu. Budujemy demonstrator o mniejszej mocy niż standardowe transformatory, ale w pełni odpowiadający funkcjonalności w rzeczywistej sieci – wyjaśnia prof. Malinowski. Zbudujemy też mikrosieć, która będzie odpowiadała temu, co w normalnych warunkach dzieje się po stronie średniego i niskiego napięcia AC, magazynu energii oraz obwodu DC. Potem pozostaje zainteresować projektem producenta, który będzie chciał stworzyć prototyp takiego transformatora, a następnie wprowadzić produkt na rynek. Opracowana technologia inteligentnego transformatora zaoferuje także korzyści gospodarcze: większą niezawodność sieci elektroenergetycznej (dzięki większej integracji magazynów i odnawialnych źródeł energii, co zmniejsza liczbę awarii i przerw w dostawach energii), zmniejszenie zapotrzebowania szczytowego energii poprzez aktywne zarządzanie popytem konsumentów, zmniejszenie kosztów przeciążeń, przerw w dostawach prądu i zaburzeń jakości energii poprzez zwiększenie niezawodności i jakości dostaw dla konsumentów. Na razie takie urządzenia nie są stosowane w przemyśle. Nad tego typu technologią pracują jednak wiodące ośrodki naukowe: w Zurychu i Kilonii. Energetyczna przyszłość Co z wizją automatycznie włączających/wyłączających się urządzeń elektrycznych (co nie tylko ułatwia nam życie, ale też pozwala zaoszczędzić energię)? – Zmierzamy do tego, że każde urządzenie będzie podłączone do Internetu i przy pomocy np. smartfona będzie można w sposób łatwy i elastyczny ustawić sobie profil użytkowania energii w domu, np. na oszczędny – mówi prof. Malinowski. – Daje to możliwość wprowadzenia dynamicznych taryf energetycznych, dających również możliwość kontrolowania niektórych urządzeń w naszych domach przez zakłady energetyczne, co umożliwia w łatwy sposób dopasowanie ilości produkowanej i użytkowanej energii elektrycznej. Takie zabiegi mogą być świetnym rozwiązaniem dla tych, którzy zapominają o wyłączaniu sprzętów lub nie przywiązują wagi do tego, że każde podłączone do prądu urządzenie pobiera energię. Wprawdzie w domach zakładane są inteligentne liczniki energii elektrycznej, ale to za mało – uważa prof. Malinowski. Trzeba iść o krok dalej. Wiek XXI będzie wiekiem energii a opracowywany na PW transformator to projekt na miarę takiego wyzwania. « powrót do artykułu
  8. Airbus Defence and Space przygotowuje swoje zakłady w niemieckim Friedrichshafen na przyszłe projekty, budując nowe Zintegrowane Centrum Technologiczne (Integrated Technology Centre, ITC). W czteropiętrowym, podpiwniczonym budynku o powierzchni około 4200 m2 znajdzie się duże pomieszczenie czyste do projektowania i budowy satelitów. Budynek, który mierzy około 70 x 60 metrów i ma ponad 20 metrów wysokości, będzie przedłużeniem istniejącego Hallu 6 – obecnego zakładu integracji satelitów. Przeprowadzono już wstępne prace, czyli rozbiórkę istniejących niskich budynków, a prace budowlane mają zacząć się w listopadzie. Airbus Defence and Space zainwestuje 43 miliony dolarów w nowe centrum, które zacznie działalność latem 2018 roku. Według Eckarda Settelmeyera, szefa zakładów Airbus Defence and Space w Friedrichshafen, rozbudowa nie tylko zapewni nowe możliwości wykonywania dotychczasowych prac, ale pozwoli również na pozyskiwanie nowych projektów, takich jak budowa dużych teleskopów kosmicznych o średnicy 15 metrów i większej. Settelmeyer powiedział też, że firma będzie mogła realizować projekty, które wymagają pomieszczeń czystych klasy ISO 5 (poprzednio znanej jako klasa 100). Nowe centrum odegra kluczową rolę w przyszłej kompleksowej reorganizacji obszarów pracy oraz procesów w zakładach. Położone na brzegu jeziora zakłady w Friedrichshafen w Niemczech były wielokrotnie rozbudowywane i przebudowywane w ciągu swojej 60-letniej historii. W związku z tym laboratoria i ośrodki testowe są rozproszone po całym terenie. Nowy projekt umożliwi połączenie ich pod jednym dachem, co zoptymalizuje proces produkcji, zwiększy konkurencyjność oraz polepszy warunki pracy. Centralna sala integracyjna o powierzchni ponad 2000 m2 umożliwia jednoczesną budowę nawet ośmiu dużych satelitów oraz integrowanie skomplikowanych podsystemów i ładunków. Obszar ten pozwala prowadzić prace wymagających czystości powietrza od ISO 5 do ISO 8 bez dodatkowych pomieszczeń. W dwóch skrzydłach o łącznej powierzchni 1000 m2 znajdą się dodatkowe pomieszczenia integracyjne i laboratoryjne przeznaczone do produkcji komponentów, duża strefa dla gości oraz obszary techniczne. Ośrodek komputerowy centrum technologicznego zostanie podłączony do istniejącej sieci danych. Obszar przejściowy prowadzący do istniejącego budynku integracyjnego będzie zawierał śluzy na materiały i dla pracowników, a także punkt wejściowej kontroli towarów. Skomplikowany, zaawansowany technologicznie system wentylacji budynku będzie ograniczał liczbę cząstek w powietrzu i zapobiegał zanieczyszczeniom. Maksymalny 90-krotny wskaźnik wymiany powietrza umożliwi filtrowanie 600 000 m3 powietrza na godzinę. Najważniejsze parametry poszczególnych obszarów czystych – ciśnienie, temperatura, wilgotność i liczba cząstek – będą rejestrowane, regulowane i archiwizowane do celów kontroli jakości przez technologię kontroli budynku. Wyposażenie techniczne oraz budynki ITC będą zgodne z najnowszymi standardami i regulacjami. Przepisy, m.in. niemieckiej ustawy o ogrzewaniu energią ze źródeł odnawialnych (EEWärmeG), zostaną spełnione dzięki dobrym właściwościom termicznym okrycia budynku, właściwym proporcjom ciepła generowanego przez systemy ogrzewania i zasilania, a także bardzo efektywnemu odzyskiwaniu ciepła przez systemy wentylacyjne. W całym oświetleniu wewnętrznym i zewnętrznym zostanie zastosowana technologia LED. Na zewnętrznej fasadzie znajdą się ozdobne, izolowane, wentylowane od tyłu panele metalowe, a w oknach planuje się instalację statycznych i ruchomych żaluzji z aluminium. « powrót do artykułu
  9. Diagnoza: zapalenie opon mózgowych. Lecz jaka jest przyczyna konkretnego przypadku? Nowe techniki analizy płynu mózgowo-rdzeniowego, opracowane i przetestowane w Instytucie Chemii Fizycznej PAN w Warszawie, pozwalają w niecały kwadrans zdiagnozować bakteryjne podłoże choroby i na podstawie zaledwie jednej komórki bakterii ustalić gatunek intruza. Za wywołanie zapalenia opon mózgowo-rdzeniowych mogą odpowiadać różne czynniki. Im szybciej lekarz zdobędzie wiedzę o przyczynie konkretnego przypadku, tym wcześniej będzie w stanie dopasować właściwą terapię i zapobiec eskalacji choroby, nierzadko prowadzącej do śpiączki lub śmierci pacjenta. Dotychczasowe metody analizy nie ułatwiały zadania: wymagały na przykład prób namnażania bakterii, co trwało nawet kilkadziesiąt godzin. Okazuje się, że czas analizy można skrócić do mniej niż kwadransa! Szybka i pewna diagnoza zakażeń bakteryjnych stała się realna dzięki nowym technikom badania płynu mózgowo-rdzeniowego, opracowanym w Instytucie Chemii Fizycznej PAN (IChF PAN) w Warszawie. Do przeprowadzenia pomiaru jest potrzebna próbka płynu o objętości zaledwie mikrolitra, w której wystarczy znaleźć jedną bakterię, żeby zidentyfikować gatunek odpowiedzialny za rozwój choroby. W IChF PAN od dłuższego czasu trwają prace służące upowszechnieniu niezwykle czułej techniki analizy: wzmacnianej powierzchniowo spektroskopii ramanowskiej (SERS, czyli Surface-Enhanced Raman Spectroscopy). Głównym mechanizmem fizycznym, leżącym u podstaw tej techniki, jest znane od kilkudziesięciu lat nieelastyczne rozpraszanie fotonów. Zwykle gdy cząsteczka pochłonie foton, od razu emituje inny, o tej samej energii – takie rozpraszanie określa się jako elastyczne. Zdarza się jednak, że część energii pochłoniętego fotonu zostanie przekazana na wzbudzenie drgań lub obrotów cząsteczki i wtedy wyemitowany foton będzie miał nieco mniejszą energię. Może też zajść sytuacja odwrotna: wyemitowany foton będzie miał energię nieco większą, bo cząsteczka przekaże mu nadmiar energii rotacyjnej lub oscylacyjnej. Rozpraszanie nieelastyczne jest rzadkim zjawiskiem, ulega mu zaledwie jeden foton na dziesiątki milionów. To dlatego w normalnych warunkach sygnały z rozpraszania ramanowskiego są bardzo trudne do zarejestrowania. Sytuacja zmienia się dramatycznie, gdy cząsteczkę umieścimy na odpowiednio schropowaconej powierzchni. Okazuje się, że cząsteczki znajdujące się na krawędziach czy szczytach nierówności znacznie chętniej rozpraszają fotony właśnie nieelastycznie. Sygnał rozpraszania ramanowskiego jest wtedy wzmacniany od miliona do miliarda razy i możemy go bez większych problemów zaobserwować. Efekt ten jest znany od połowy lat 70. ubiegłego wieku - wyjaśnia dr Agnieszka Kamińska (IChF PAN). We współpracy z Instytutem Fizyki PAN w Warszawie, IChF PAN opracował specjalne podłoża z tlenku cynku, przeznaczone do prowadzenia badań za pomocą widm ramanowskich. Podłoża wykorzystano do pomiarów metodą SERS stężeń neopteryny w próbkach płynu mózgowo-rdzeniowego, udostępnionych przez Narodowy Instytut Leków (NIL) w Warszawie, a pochodzących od pacjentów z wcześniej zdiagnozowanym zapaleniem opon mózgowych. Wykryte stężenie neopteryny okazało się dziesięciokrotnie wyższe niż w próbce referencyjnej, pobranej od zdrowej osoby. Podwyższone stężenie neopteryny to cenna informacja, że organizm walczy z chorobą o podłożu bakteryjnym. Jednak zapalenie opon mózgowych może być efektem zakażenia różnymi gatunkami bakterii. Żeby działać naprawdę efektywnie, lekarz powinien wiedzieć, z którym gatunkiem ma właśnie do czynienia - mówi dr hab. Anna Skoczyńska, prof. NIL. Pomiary widm ramanowskich bakterii w płynie mózgowo-rdzeniowym okazały się trudne: w przeciwieństwie do cząsteczek chemicznych, które nie przemieszczają się po podłożu, bakterie znajdują się w ciągłym ruchu. Przed naukowcami pojawiło się wyzwanie: należało opracować podłoża, które nie tylko zapewnią wzmocnienie sygnału ramanowskiego, ale także odfiltrują bakterie z płynu oraz skutecznie je unieruchomią na czas pomiaru. Rozwiązaniem okazały się tanie, komercyjnie dostępne maty tkane, pokrywane w IChF PAN cienką warstwą stopu złota i srebra (jej grubość to ok. 70-80 nanometrów). Przez układ kilku takich mat, o malejących porach, przepuszczano strumień płynu mózgowo-rdzeniowego podawany przez pompę strzykawkową. Gdy bakteria docierała do maty o zbyt małych oczkach, grzęzła w jednym z nich, a odpowiednio dobrana prędkość przepływu strumienia płynu uniemożliwiała jej zmianę położenia. Przetestowaliśmy nasze podłoża na trzech gatunkach bakterii wywołujących zapalenie opon mózgowych: Neisseria meningitidis, Streptococcus pneumoniae i Haemophilus influenzae. Poprawnie wykrywaliśmy ich obecność w 95% przypadków, a gatunek identyfikowaliśmy z pewnością sięgającą 98%. A ponieważ mówimy o niezwykle czułej spektroskopii ramanowskiej, do otrzymania tak precyzyjnych wyników wystarczało nam znalezienie jednej komórki bakteryjnej! - podkreśla dr Kamińska. Cały przebieg analizy jest w znacznym stopniu zautomatyzowany i do minimum ogranicza kontakt laboranta z badaną próbką. W celu przeprowadzenia pomiaru należy jedynie pobrać pod wyciągiem laminarnym mikrolitrową porcję płynu mózgowo-rdzeniowego do strzykawki, a następnie tę umieścić w pompie strzykawkowej podłączonej do spektrometru Ramana. W celu zwiększenia pewności pomiaru zarejestrowane sygnały są przetwarzane przez oprogramowanie korzystające z zaawansowanych metod statystycznych i obsługującemu pozostaje jedynie odczytać wynik. W stosunku do dotychczasowych metod, rozwiązanie zaproponowane przez IChF PAN ma szereg zalet: wymaga niewielkich ilości płynu mózgowo-rdzeniowego, eliminuje konieczność długotrwałego namnażania bakterii, automatyzacja pomiaru gwarantuje wysoki poziom bezpieczeństwa, a wynik jest dostępny w ciągu minut. Istotnym argumentem jest także cena: zakup sprzętu niezbędnego do przeprowadzenia analizy nie przekracza kilkudziesięciu tysięcy dolarów, leży więc w zasięgu możliwości finansowych nawet małych placówek medycznych. « powrót do artykułu
  10. Polimer – w tym przypadku tworzywo sztuczne - pobudzony prądem elektrycznym może świecić jak laser! Naukowcy z Poznania jako pierwsi na świecie pokazali, że takie urządzenie da się zbudować. To otwiera drogę do laserów tańszych i łatwiejszych w produkcji. Naukowcy z całego świata od dawna rywalizowali, kto pierwszy skonstruuje polimerowy laser zasilany bezpośrednio prądem elektrycznym. Nie za bardzo wiedziano, jak sprawić, żeby sztuczne tworzywo pod wpływem prądu elektrycznego zaczęło emitować uporządkowaną laserową wiązkę światła. Ten nie lada wyczyn udał się jednak zespołowi prof. Jerzego Langera z Wydziału Chemii UAM. Lasery wykonywane z polimerów będą tańsze i łatwiejsze w produkcji niż tradycyjne lasery. Polimery bowiem można szybko i stosunkowo łatwo otrzymywać oraz przetwarzać, i nie są do tego potrzebne technologie stosowane przy wytwarzaniu i obróbce tradycyjnych półprzewodników, często z użyciem unikatowych materiałów. A JEDNAK ŚWIECI! Na prace nad naszym polimerowym laserem nie dostaliśmy grantu z instytucji finansujących badania. Recenzenci określali projekt jako interesujący i o przełomowym znaczeniu, lecz niemożliwy do zrealizowania - przyznaje w rozmowie z PAP prof. Langer. Na szczęście naukowcy nie poddali się i laser udało się im zbudować. Można sprawić, by emitował światło niebieskie, fioletowe albo czerwone. Można też dzięki niemu uzyskać światło białe, generowane poprzez tzw. wymuszony efekt Ramana. Efektem jest białe światło otoczone kolorowymi promieniami w formie stożków, które na ekranie tworzą barwne krążki. Dotąd znane już były polimery, które emitowały wiązkę światła laserowego, jednak akcja laserowa musiała być w nich wzbudzana intensywnym światłem z innego źródła, często lasera. Badacze z UAM natomiast jako pierwsi na świecie pokazali, że polimer można zmusić do emisji wiązki laserowej bezpośrednio za pomocą prądu elektrycznego. POLSKA POLIANILINA Polimerem, który udało się zmusić do emitowania wiązki laserowej, jest polianilina. To pierwszy polski polimer przewodzący. Zaprojektowałem go - jako materiał o oczekiwanym wysokim przewodnictwie elektrycznym - na podstawie analizy dostępnych informacji o strukturze i otrzymałem już na przełomie 1974/1975 - opowiada w rozmowie z PAP prof. Jerzy Langer. Badacz wyjaśnia, że przepis na polimer opracował, badając czerń anilinową - popularny barwnik, stosowany np. do zabezpieczania powierzchni stołów laboratoryjnych. Polianilina ma postać czarnego proszku, a w laserze używana jest w formie tabletki. Naukowiec opowiada, że podczas badań nad polianiliną zaobserwowano świecenie tabletki. Ona nie świeciła jednak tak, jak zwykła żarówka - dookoła, tylko pojawiało się w niej świecenie kierunkowe. Zainteresowaliśmy się tym zjawiskiem. Po szczegółowych badaniach okazało się, że jest to efekt laserowania - powiedział naukowiec. Upraszczając, badacz porównuje fotony tworzące wiązkę zwykłego światła, np. żarówki, do zachowania uczestników procesji - każdy foton jest inny, "idzie" swoim tempem i w nieco różne strony. A światło lasera przypomina marsz kolumny wojska - fotony są do siebie bardzo podobne i "idą" równym krokiem, dokładnie w tym samym kierunku. Światło lasera jest bardziej spójne i kierunkowe, a jego wiązka jest mało rozbieżna. Problemem było sprawienie, by polimer wymuszał na fotonach taki "żołnierski marsz". LASER? CZARNO TO WIDZĘ Trzeba przyznać, że pomysł, aby wykorzystać polianilinę w pracach nad laserem, był dość szalony. W końcu materiał jest całkiem czarny. A czarne materiały mają to do siebie, że w normalnych warunkach raczej pochłaniają światło, zamiast je przepuszczać. Okazało się jednak, że można sprawić, iż polianilina staje się przezroczysta dla światła i daje efekt laserowania - powiedział Langer. Otóż są materiały, które pod działaniem silnej wiązki światła stają się przezroczyste. Materiał intensywnie pobudzany światłem osiąga stan nasycenia i nie może już go więcej pochłaniać. To efekt znany jako "nasycalna absorpcja". We wnętrzu tabletki uformowanej z polianiliny, pod wpływem prądu elektrycznego powstaje lokalnie silne światło, które jest absorbowane. Wkrótce jednak, absorbujący polimer światłem tym się nasyca i nie może go dalej pochłaniać. Staje się więc w tym obszarze przezroczysty. Takie zjawisko jest stymulowane w polianilinie silnym prądem. My postanowiliśmy je wykorzystać w naszym urządzeniu. To klucz do sukcesu - wyjaśnia prof. Langer. PRACA DO WYKONANIA Na razie Polacy jako pierwsi na świecie pokazali, że laser polimerowy stymulowany prądem elektrycznym da się zbudować. Aby można to było wykorzystać, potrzebne są dalsze badania. Przed nami opracowanie technologii wytwarzania takich laserów, żeby były one stabilne i wygodne w użyciu - mówi naukowiec. Polianilina w formie nanostruktur była stosowana w naszym laboratorium jako podłoże do hodowli komórek i tkanek, w szybkich nanodetektorach bakterii oraz niebezpiecznych związków chemicznych. Teraz pokazujemy, że może ona znaleźć zastosowanie w laserach. Przed nami program rozszerzenia badań na podstawie wniosków z wcześniejszych eksperymentów, sugerujących, że materiał ten może być nadprzewodzący - zdradza rozmówca PAP. « powrót do artykułu
  11. To, jak mózg reaguje na nikotynę, zależy od przekonań palącego nt. zawartości alkaloidu w papierosie. Eksperymenty naukowców z Uniwersytetu Teksańskiego w Dallas pokazały, że wypalenie papierosa z nikotyną z przekonaniem, że jej tam nie ma, nie zaspokaja głodu związanego z uzależnieniem. Było to możliwe tylko wtedy, gdy palacz palił papierosa z nikotyną i uważał, że pali produkt nikotynowy. Wyniki sugerują, że by związek narkotyczny zadziałał, użytkownik musi wierzyć, że jest on obecny - podkreśla dr Xiaosi Gu. By zbadać aktywność wyspy, regionu mózgu związanego z samoświadomością, ale i uzależnieniem, naukowcy posłużyli się funkcjonalnym rezonansem magnetycznym (fMRI). W badaniu wzięło udział 28 palaczy (proszono ich, by przed eksperymentem od północy powstrzymywali się od palenia). W ramach 4 wizyt w laboratorium 2-krotnie dawano im papierosa z nikotyną (0,6 mg) i 2-krotnie placebo (dekotynizowanego papierosa z 0,06 mg alkaloidu). W przypadku obu rodzajów papierosów badanym raz mówiono prawdę o tym, co dostali, a raz celowo wprowadzano ich w błąd. Na początku każdej wizyty ochotnicy przechodzili fMRI. Potem realizowano 4 scenariusze, kiedy to: 1) badany wierzył, że papieros zawiera nikotynę, ale dostawał placebo, 2) badany sądził, że papieros nie zawiera nikotyny, lecz alkaloid w nim był, 3) badany uważał, że papieros zawiera nikotynę i nikotyna rzeczywiście w nim była i 4) badany wierzył, że w papierosie nie ma nikotyny i naprawdę dostawał placebo. Ochotnicy brali udział w zabawie w inwestowanie; na początku dostawali żetony, a psycholodzy informowali, że wypłata będzie zależała od uzyskanego wyniku. Podczas gry wykonywano fMRI. Przed wypaleniem papierosa i po ukończeniu zabawy należało ocenić natężenie głodu nikotynowego (do tego celu wykorzystano Shiffman-Javik Withdrawal Questionnaire). Za pomocą Positive and Negative Affect Schedule (SJWQ) badano też nastrój. Nie zaobserwowano znaczącego wpływu przekonania o rodzaju papierosa na czas reakcji. Średni czas reakcji w poszczególnych scenariuszach wynosił, odpowiednio, 2,93 ± 1,10 s, 2,78 ± 0,81 s, 2,88 ± 1,01 s oraz 2,92 ± 0,95 s. Palacze donosili o spadku głodu w przypadku wypalenia nikotynowego papierosa z przekonaniem, że zawiera on nikotynę. Spadek nie był zaś widoczny w przypadku palenia nikotyny w przeświadczeniu, że to placebo. Wynik testu SJWQ dodatnio korelował z aktywnością lewej środkowej wyspy, gdy palacze palili nikotynę z przekonaniem, że to nikotyna (w przypadku placebo i przekonania o braku nikotyny w papierosie nikotynowym nie obserwowano takiego efektu). « powrót do artykułu
  12. Badania pierścieni drzew mogą wyjaśniać, jak to się stało, że przed 800 laty niewielkie grupy mongolskich nomadów zjednoczyły się i w ciągu kilku dekad podbiły olbrzymie tereny, tworząc największe imperium lądowe w historii. Pierścienie drzew z górskich okolic środkowej Mongolii pokazują, że w tym samym czasie, gdy powstawało Imperium Mongolskie na stepach centralnej Azji panował najbardziej łagodny i najbardziej wilgotny klimat od ponad 1000 lat. Najprawdopodobniej pojawiła się olbrzyma ilość pożywnych traw, a dzięki nim rozrosły się stada koni i zwierząt hodowlanych. Mongolskie plemiona urosły w siłę i mogły myśleć o podboju. Przed pojawieniem się paliw kopalnych trawa i pomysłowość były paliwem Mongołów i otaczających je kultur. Energia przepływa z dołu ekosystemu ku górze, do szczebla społeczeństw ludzkich. Nawet dzisiaj wielu ludzi w Mongolii żyje tak, jak ich przodkowie. Ale w przyszłości mogą mierzyć się z poważnymi problemami - mówi główny autor badań, Neil Pedersen z Lamont-Doherty Earth Observatory należącego do Columbia University. Czyngis Chan zjednoczył skłócone plemiona na początku XIII wieku i stworzył z nich organizm państwowy, który dzięki świetnej kawalerii dokonywał podbojów we wszystkich kierunkach. Po śmierci Czyngis Chana (1227) jego dzieło kontynuowali synowie i wnukowie, którzy podbili tereny współczesnych Chin, Korei, Rosji, Indii, Iranu, ich armie dotarły do Europy Wschodniej i Bliskiego Wschodu. Pojawienie się Imperium Mongolskiego, mimo że szybko rozpadło się ono na różne organizmy państwowe, na kolejne wieki zdecydowało o granicach, językach, kulturze czy składzie etnicznym olbrzymich regionów świata. Niektórzy badacze twierdzili, że Mongołowie zaczęli najeżdżać sąsiadów i w efekcie utworzyli potężne imperium, gdyż uciekali przed niekorzystnymi warunkami klimatycznymi. Jednak Pederson doszedł do przeciwnych wniosków. W 2010 roku wraz z Amy Hessl z West Virginia University badali rozprzestrzenianie się pożarów w Mongolii, gdy natrafili na grupę starych sosen syberyjskich rosnących pomiędzy spękaną lawą w Górach Changajskich. Uczeni wiedzieli, że na takich suchych ubogich w składniki odżywcze glebach sosny rosną bardzo powoli, są niezwykle wrażliwe na zmiany pogodowe i mogą żyć bardzo długo. W czasie kolejnych wypraw badawczych Pederson, Hessl i ich koledzy badali pierścienie martwych drzew i pobierali próbki od roślin żyjących. Natrafili na okazy, których wiek z pewnością przekraczał 1100 lat i mogą przeżyć kolejne tysiąclecie. Panujący tam klimat powoduje, że nawet martwe drzewa mogą przetrwać 1000 lat zanim się rozłożą. Uczeni trafili nawet na próbkę, której pierścienie pozwoliły cofnąć im się w czasie do około 650 roku naszej ery. Naukowcy najpierw przeanalizowali pierścienie drzew z lat 1959-2009 i opierając się o znane nam dane pogodowe z tego okresu mogli zająć się badaniem lat wcześniejszych. Dowiedzieli się, że w latach 1180-1190 w Mongolii panowała intensywna susza. Natomiast w latach 1211-1225, które dokładnie zgadzają się z błyskawicznymi podbojami dokonywanymi przez Czyngis Chana, Mongolia doświadczyła łagodnego wilgotnego klimatu, który nie pojawił się nigdy wcześniej ani nigdy później. Przejście od ekstremalnej suszy do dużej wilgotności i dokładna zbieżność z wydarzeniami historycznymi sugerują, że klimat odegrał decydującą rolę. Nie był on oczywiście jedynym czynnikiem, ale powstały idealne warunki dla pojawienia się charyzmatycznego lidera, który wyprowadzi region z chaosu, stworzy armię i scentralizuje władzę. Tam, gdzie zwykle jest sucho wzrost opadów prowadzi do niezwykle dużej produktywności roślin, a to przekłada się na siłę w liczbie koni. Czyngis Chan wypłynął na tej fali - mówi Hessl. Badania wykazały, że po wspomnianym już okresie, w którym Czyngis Chan powiększał imperium, klimat w Mongolii powrócił do swojego zwyczajowego chłodu i niskiej wilgotności. W ciągu kolejnych kilkuset lat zdarzały się zwyczajne niewielkie wahania. Dopiero wiek XX i XXI przyniosły duże zmiany klimatyczne. W niektórych częściach kraju średnie temperatury wzrosły kilkukrotnie bardziej niż średnia światowa, miały miejsce dewastujące susze, po których następowała niezwykle długa mroźna zima (dzud). Pierścienie drzew wskazują, że susze z lat 2002-2009 są równie ciężkie jak te z okresu przed powstaniem Imperium Mongołów. Takie warunki znowu wpływają na ruchy ludności. Dzud z lat 2009/2010 zabiła co najmniej 8 milionów zwierząt hodowlanych, pasterze stracili dobytek i do stolicy kraju, Ułan Bator, napłynęły rzesze migrantów. Teraz żyje w niej już połowa populacji Mongolii. Prace Pdersona i Hessl to pierwsze z całej serii badań, jakie zostaną przeprowadzone przez multidyscyplinarny zespół naukowy. Ekolog Hanqin Tian z Auburn University w Alabamie, który specjalizuje się w badaniach współczesnych użytków zielonych, tworzy model łączący produkcję traw z pogodą wnioskowaną na podstawie pierścieni drzew. Z kolei Avery Cook Shinneman, biolog z University of Washington, przeanalizuje w najbliższych miesiącach osady z mongolskich jezior, co powinno pozwolić na stwierdzenie, czy w omawianym okresie rzeczywiście zwiększyła się populacja zwierząt. Kolejny członek zespołu - historyk Nicola Di Cosmo z Institute of Advanced Study w New Jersey - podjął się analizy dokumentów z Chin, Persji i Europy dotyczących Mongołów i ich podbojów. Sami Mongołowie pozostawili bowiem po sobie niewiele zabytków pisanych. « powrót do artykułu
  13. Obecność gatunku inwazyjnego może ograniczyć częstość występowania chorób. Biolodzy z Uniwersytetu Michigan, Purdue University i Uniwersytetu Stanowego Utah sprawdzali, jak pojawienie się inwazyjnej rozwielitki Daphnia lumholtzi wpływa na dominującą rodzimą rozwielitkę Daphnia dentifera i wspólne dla obu gatunków pasożytnicze grzyby Metschnikowia bicuspidata. Autorzy publikacji z pisma The American Naturalist zauważyli, że inwazyjna rozwielitka bardzo łatwo zakaża się grzybem, dlatego sądzili, że obecność inwazyjnego gatunku będzie skutkować większą zachorowalnością. By przetestować tę hipotezę, naukowcy stworzyli miniatury jezior w wiadrach. Do niektórych wprowadzili D. lumholtzi, do innych nie. Ku swojemu zaskoczeniu zauważyli, że w miniaturowych ekosystemach z gatunkiem inwazyjnym parazytoza była rzadsza. Chcąc zrozumieć, co się stało, biolodzy posłużyli się modelowaniem matematycznym. Dzięki temu ustalili, że rozwielitki inwazyjne konkurują z rodzimymi, co zmniejsza ogólną liczbę rozwielitek w wiadrze. Przy mniejszej liczbie gospodarzy grzybom trudniej jest znaleźć kogoś do zakażenia i przeżywa ich mniej. Wszystko wskazuje więc na to, że przewidując, jak gatunek inwazyjny oddziałuje na częstość choroby, każdorazowo naukowcy muszą uwzględnić jego ekologiczne cechy, w tym to, jak wpływa na liczebność innych organizmów w społeczności. « powrót do artykułu
  14. Wykorzystując ekstrakt błonowy z liści szpinaku, naukowcy z Instytutu Technologii Technion skonstruowali hybrydowe ogniwo bio-foto-elektrochemiczne (ang. bio-photo-electro-chemical cell, BPEC), które wykorzystując światło słoneczne, wytwarza z wody elektryczność i wodór. Izraelczycy podkreślają, że połączenie BPEC z roślinnymi błonami, które pochłaniają światło i skutecznie generują przepływ elektronów, toruje drogę rozwojowi nowych technologii uzyskiwania czystych paliw ze źródeł odnawialnych. By wykorzystać fotosyntezę do produkcji prądu, naukowcy dodali do roztworu związek żelaza (Fe(III)CN). Pośredniczy on w transferze elektronów z błon biologicznych do obwodu elektrycznego. Produkcja wodoru jest możliwa dzięki dodatkowej mocy elektrycznej z niewielkiego ogniwa fotowoltaicznego, które absorbuje nadmiar światła. W ten sposób energia słoneczna jest przekształcana w energię chemiczną, przechowywaną w BPEC jako gazowy wodór. W miarę potrzeb energię tę można na drodze spalania konwertować w ciepło i elektryczność. Choć przypomina to spalanie paliw węglowodorowych, w przypadku BPEC nie ma mowy o emisji gazów cieplarnianych (CO2). Tu powstaje wyłącznie czysta woda. Mamy więc do czynienia z cyklem zamkniętym, gdzie wszystko zaczyna się od wody i kończy na wodzie. « powrót do artykułu
  15. Australijscy Aborygeni stworzyli pierwszą wciąż istniejącą cywilizację na Ziemi. Takie wnioski płyną z badań DNA, dzięki którym udało się cofnąć początki cywilizacji Aborygenów do ponad 50 000 lat temu. Niedawno informowaliśmy, że Aborygeni byli pierwszymi ludźmi, którzy zamieszkali Australię. To historią, którą nauka dopiero poznała. Teraz wiemy, że przodkowie Aborygenów byli pierwszymi prawdziwymi odkrywcami. Podczas gdy nasi przodkowie siedzieli na miejscu bojąc się świata zewnętrznego, ich przodkowie podjęli podróż przez Azję i przez ocean - mówi profesor Eske Willerslev, genetyk ewolucyjny z Uniwersytetu w Kopenhadze. Zespół Willersleva wykorzystał analizę DNA 83 Aborygenów i 25 Papuasów i na tej podstawie wykazał, że ludzie ci są spokrewnieni z pierwszymi Homo sapiens, którzy przybyli do Australii oraz że przez ostatnie 4000 lat byli niemal całkowicie izolowani od innych grup ludzkich. Oni są prawdopodobnie najstarszą ludzką grupą na świecie, którą można połączyć z konkretnym miejscem - mówi Willerslev. Dzięki najnowszym badaniom wiemy też, że na swojej drodze do Australii przodkowie Aborygenów mieszali się z innymi homininami, w tym z nieznanym gatunkiem, od którego pochodzi około 4% genomu współczesnych Aborygenów. Już wcześniejsze badania wykazały, że ludzie spoza Afryki mają od 1 do 6 procent DNA Neandertalczyków. Zdaniem Willersleva zarówno wiedza o DNA Neandertalczyków jak i najnowsze odkrycie DNA nieznanego hominina u Aborygenów wskazują, że - skoro dochodziło do częstego krzyżowania się gatunków - ludzie ci nie różnili się zbytnio od Homo sapiens. Pogląd ten znajduje potwierdzenie w sztuce jaskiniowej, gdyż nawet zmiana zachowania polegająca na zdobieniu ścian jaskiń czy wytwarzaniu bardziej złożonych narzędzi nie wydaje się być związana z jakąś znaczącą mutacją genetyczną. Brak jest dowodów na istnienie jakiejś magicznej mutacji, która uczyniła nas ludźmi - mówi Willerslev. Nowe badania rozwiązują też pozorną sprzeczność polegającą na tym, że Australia czy Nowa Gwinea są zamieszkane od dziesiątków tysięcy lat, a języki, jakimi się posługują, liczą zaledwie 4000 lat. Ludzie rozprzestrzeniali się po kontynencie i zostawili po sobie ślady. W tym czasie rozprzestrzeniał się też nowy język. To taka mała sygnatura. To tak, jakby dwóch mężczyzn weszło do wioski i powiedziało mieszkańcom "od teraz będziemy mówili innym językiem, używali innych kamiennych narzędzi", później trochę by się krzyżowali z miejscowymi i zniknęli. Nasz genom zawiera historię wszystkich przodków, jakich kiedykolwiek mieliśmy - mówi Swapan Mallick, genetyk z Harvard Medical School, który w swoim czasie analizował genom ludzi ze 142 różnych populacji. « powrót do artykułu
  16. Analiza 8 badań wykazała, że o ile geny można obwiniać za podwyższone ryzyko otyłości, o tyle będzie to już nadużyciem w przypadku niepowodzeń w odchudzaniu. Akademicy przypominają, że będący homozygotami nosiciele pewnego wariantu genu FTO są średnio o 3 kg ciężsi. W porównaniu do osób będących homozygotami z allelami niższego ryzyka, prawdopodobieństwo otyłości jest w ich przypadku o 1,7 razy wyższe. Metaanaliza 8 badań, które łącznie objęły ponad 9 tys. ludzi, wykazała, że bycie nosicielem wersji ryzyka nie przeszkadza w zrzuceniu zbędnych kilogramów. Nie można dłużej obwiniać swoich genów. Nasze studium pokazuje, że poprawa diety i zwiększenie aktywności fizycznej pomoże w schudnięciu bez względu na "urodę genetyczną" - podkreśla prof. John Mathers z Uniwersytetu w Newcastle. Autorzy publikacji z British Medical Journal wykorzystali dane 9536 dorosłych z całego świata, którzy wzięli udział w randomizowanych (z losowaniem do grup, w tym kontrolnej) testach utraty wagi. Sprawdzali, czy nosicielstwo "feralnego" alellu FTO wpływa na to, ile ludzie chudną. Byliśmy podekscytowani, widząc, że osoby z wersją ryzyka genu reagują na interwencje zorientowane na utratę wagi tak samo dobrze jak wszyscy inni. Dla pracowników publicznej służby zdrowia oznacza to, że niekorzystny wpływ genotypu FTO na tycie nie stanowi przeszkody dla proponowanych terapii. Naukowcy zauważyli, że w przypadku nosicieli wspominanej wersji FTO reakcja na interwencje odchudzające była podobna dla kobiet i mężczyzn, osób starszych i młodszych oraz różnych nacji. Ponieważ w analizowanych badaniach większość stanowili przedstawiciele rasy białej, zespół podkreśla, że w przyszłych badaniach trzeba by dokładniej określić wpływ FTO na utratę wagi w innych grupach etnicznych. Istotne jest też zidentyfikowanie wpływu innych powiązanych z otyłością genów na odchudzanie. « powrót do artykułu
  17. Międzynarodowy zespół naukowy poinformował, że trzykrotnie zwiększył liczbę znanych nam wirusów zamieszkujących wody morskie i lepiej poznał rolę, jaką odgrywają one w ekosystemie. Uczeni, pracujący pod kierunkiem specjalistów z Ohio State University, opublikowali artykuł w najnowszym numerze Nature. Obecnie oceany pochłaniają znaczną część węgla z atmosfery, jednak dzieje się to kosztem zakwaszenia wód, co zagraża wielu organizmom morskim. Zrozumienie, w jaki sposób przebiega interakcja pomiędzy wirusami, a całym środowiskiem morskim może być niezbędne przy podejmowaniu decyzji o ochronie oceanów przed skutkami emitowanego przez ludzi węgla. Najnowsze badania były możliwe dzięki trwającej trzy lata Tara Ocean Expedition, w ramach której ponad 200 ekspertów prowadziło szczegółowe analizy oceanów oraz dzięki ekspedycji Malaspina z 2010 roku, kiedy to badano zmiany zachodzące w oceanach oraz studiowano ich bioróżnorodność. Naukowcy z Ohio State analizowali pod kątem występujących w nich wirusów próbki wody, zebrane podczas obu ekspedycji. Znaleźli 15 222 genetycznie odmienne wirusy i skatalogowali je w 867 grupach o podobnych właściwościach. Te badania mają znaczenie wykraczające daleko poza ekosystem oceaniczny, pozwalają nam lepiej rozumieć bioróżnorodność mikroorganizmów w skali całego globu - mówi biolog Melissa Duhaime z University of Michigan. Zanim zrozumiemy, w jaki sposób przebiegają interakcje pomiędzy organizmami i poznamy konsekwencje tych interakcji - a mają one wpływ zarówno na zdrowie całej planety, jak i człowieka - musimy się dowiedzieć, co to są za organizmy, w jaki sposób są zorganizowane w grupy podobnie wyglądających i zachowujących się organizmów i jak te grupy są rozłożone w czasie i przestrzeni - dodaje uczona. Z kolei Simon Roux z Ohio State University przypomina, że mikroorganizmy morskie wytwarzają połowę tlenu, którym oddychamy, a to oznacza, że wirusy, które infekują te mikroorganizmy, odgrywają dla nas niezwykle ważną rolę. Nasza praca nie tylko pozwoliła na stworzenie dość kompletnego katalogu wirusów żyjących na powierzchni oceanów, ale poznaliśmy dzięki niej nowe drogi, jakimi wirusy wpływają na gazy cieplarniane i energię w oceanach - stwierdza. W każdej chwili co trzecia komórka w oceanach jest infekowana przez wirusa, który wpływa na sposób jej działania. Wirusy odgrywają więc kolosalną rolę w ekosystemie oceanów. Naukowcy nie wykluczają, że w przyszłości - za kilka dziesięcioleci - konieczne stanie się manipulowanie wirusami i wspomaganie w ten sposób oceanów w redukowaniu negatywnych skutków globalnego ocieplenia. Oceany to potężny bufor chroniący nas przed zmianami klimatu. Podejrzewamy, że ludzie w przyszłości to wykorzystają. Mogą znaleźć sposoby na takie manipulowanie wirusami, by składowały one węgiel głęboko pod powierzchnią oceanów - spekuluje profesor mikrobiologii Matthew Sullivan. « powrót do artykułu
  18. Od wielu lat ogromnym wyzwaniem dla chemików było opracowanie prostej i efektywnej metody pozwalającej na wytwarzanie stabilnych kropek kwantowych podatnych na funkcjonalizację z zachowaniem ich unikalnych właściwości luminescencyjnych. Temu zadaniu podołał zespół pod kierownictwem prof. Janusza Lewińskiego z Wydziału Chemicznego Politechniki Warszawskiej. Wszystko zaczęło się 10 lat temu, kiedy z jednym z moich doktorantów gościliśmy w laboratorium, gdzie wytwarzano nanomateriały i zobaczyliśmy, jakie to jest proste – wspomina prof. Janusz Lewiński. Wtedy też zapytałem, dlaczego nie robimy tego w naszym laboratorium. Kropka kropce nierówna Kropki kwantowe to nanometrycznej wielkości kryształy (o wielkości ok. 2-10 nm), w przybliżeniu sferyczne, zbudowane z materiału półprzewodnikowego – tłumaczy doktorantka prof. Lewińskiego, Małgorzata Wolska-Pietkiewicz. Właściwości optyczne kropek kwantowych zależą głównie od ich rozmiaru, tzn. im mniejsza nanocząstka, tym kolor emitowanego światła przesunięty jest w kierunku barwy niebieskiej, a im większa – tym bardziej zbliżony do koloru czerwonego. Dlaczego kropki kwantowe intrygują świat nauki? Wykonane są z materiałów półprzewodnikowych, a dzięki swojej wielkości wykazują szereg interesujących cech typowych dla obiektów kwantowych, m.in. pochłaniają i emitują promieniowanie wyłącznie o ściśle określonej energii. Wyjątkowe cechy optyczne kropek kwantowych powodują, że znajdują one coraz więcej zastosowań. Jeszcze do niedawna pojęcie kropka kwantowa popularne było tylko wśród naukowców, ale obecnie producenci telewizorów i monitorów LCD wprowadzają na rynek technologie oparte na „świecących” kropkach kwantowych. Gdzie tkwi problem? W celu nadania kropkom kwantowym pożądanych właściwości, ich nieorganiczny rdzeń musi być osłonięty odpowiednio zaprojektowaną otoczką zbudowaną ze związków organicznych. Jednym z najlepszych sposobów efektywnej modyfikacji takich "nanokapsułek" są proste i wydajne reakcje typu „click”, które pozwalają na łatwe przyłączanie różnorodnych związków chemicznych do organicznego płaszcza kropki kwantowej. W najbardziej wydajnych reakcjach typu "click", funkcję katalizatora pełnią zazwyczaj związki miedzi(I). Niestety, do tej pory obecność jonów miedzi sprawiała, że wytwarzane tradycyjnymi metodami kropki kwantowe ZnO traciły swoje unikalne właściwości luminescencyjne. Kluczem do sukcesu zespołu prof. Lewińskiego było zatem opracowanie nowej, oryginalnej, metaloorganicznej metody syntezy kropek kwantowych ZnO z wyjątkowo szczelną otoczką organiczną, która efektywnie zabezpiecza rdzeń przed bezpośrednim kontaktem z jonami miedzi. Tak wytworzone kropki kwantowe ZnO po sfunkcjonalizowaniu metodą "click" zachowały swoje pierwotne właściwości luminescencyjne. Jest to znaczący postęp w porównaniu z powszechnie stosowaną metodą syntezy kropek kwantowych ZnO, jaką jest proces zol-żel z wykorzystaniem nieorganicznych prekursorów. Kropki kwantowe otrzymywane metodą zol-żel pokryte są nieszczelną otoczką ochronną, co powoduje bezpośredni kontakt jonów miedzi z powierzchnią ZnO i całkowite wygaszenie luminescencji. Unikatowa metoda Jak otrzymać świecące kropki kwantowe ZnO? Odpowiednio zaprojektowany prekursor cynkoorganiczny poddajemy w sposób kontrolowany ekspozycji na powietrze atmosferyczne i otrzymujemy nanocząstki tlenku cynku – wyjaśnia Małgorzata Wolska-Pietkiewicz. W zależności od czasu i temperatury, możemy sterować wielkością otrzymywanych nanocząstek. Metoda opracowana przez zespół prof. Lewińskiego została już opatentowana. W klasycznej metodzie zol-żel, w której proces wytwarzania nanokryształów jest kontrolowany kinetycznie, trudno jest zachować powtarzalność. Metoda naukowców z PW jest kontrolowana termodynamicznie i dlatego łatwiej było uzyskać wysoką jakość kropek kwantowych oraz powtarzalność procesu. Naukowcy wykazali również, że potrafią tak "zaprogramować" kropki kwantowe, aby tworzyły układy koloidalne, stabilne w środowisku wodnym oraz aby były niemal całkowicie nietoksyczne względem materiału biologicznego. Pozwoli to w przyszłości na zastosowanie kropek kwantowych tlenku cynku jako m.in. nanoznaczników fluorescencyjnych w zastosowaniach biologicznych lub diagnostyce medycznej. Takie nanoobiekty mogą być używane do znakowania zarówno pojedynczych komórek, jak też całych tkanek. Wyjątkowe właściwości kropek kwantowych umożliwiają ponadto długotrwałe monitorowanie znakowanego elementu, np. drogi dostarczania leku. Chemia bez granic Droga do tak wyjątkowego odkrycia jest długa i wyboista. Nie jest to wynik genialnego przebłysku, lecz raczej wieloletnich badań na poziomie podstawowym. Staramy się zrozumieć dogłębnie poszczególne etapy przemian chemicznych i wówczas łatwiej jest nam racjonalnie projektować układy reakcyjne. My uprawiamy 'chemię bez granic' – śmieje się prof. Lewiński. Nie postrzegamy chemii poprzez wąskie specjalizacje. Dla nas chemia to dziedzina nauki polegająca na wysoce kontrolowanym rozrywaniu i tworzeniu wiązań chemicznych w celu nadawania pożądanej funkcji molekułom lub materiałom. Post scriptum Obecnie najczęściej stosowane są kropki kwantowe zawierające w swojej strukturze metale ciężkie, co znacznie ogranicza stosowanie ich np. do celów medycznych. Tę przeszkodę musieli ominąć naukowcy z Wydziału Chemicznego Politechniki Warszawskiej i Instytutu Chemii Fizycznej PAN. Opracowaliśmy nową metodę syntezy kropek kwantowych ZnO i wstępne badania pokazują, że nasze kropki mają wyjątkowe właściwości – podkreśla prof. Lewiński. Poza niemal identycznym kształtem i rozmiarem, nie ulegają one agregacji oraz pokryte są jednorodną, szczelną otoczką organiczną, która jest odporna zarówno względem środowiska chemicznego, jak i biologicznego. Wykazują one także wyjątkowo długie czasy życia luminescencji (setki mikrosekund), setki milionów razy dłuższe w porównaniu z klasycznymi kropkami kwantowymi, otrzymywanymi z prekursorów nieorganicznych. Wyjątkowa jakość otrzymywanych nanomateriałów otwiera nowe możliwości do ich różnorodnych zastosowań. W celu dalszego rozwijania technologii wytwarzania kropek kwantowych ZnO, zespół planuje założyć własne centrum badawczo-rozwojowe. Obecnie trwają intensywne prace nad pozyskiwaniem funduszy zarówno z projektów rządowych, jak i inwestorów prywatnych. « powrót do artykułu
  19. Przed tygodniem, w ramach misji Magnetospheric Multiscale (MMS), NASA pobiła rekord bliskości lotu formacji w przestrzeni pozaziemskiej. Cztery pojazdy MMS leciały w odległości zaledwie 7,2 kilometra jeden od drugiego. Poprzedni rekord - z października 2015 roku - również należał do MMS i wynosił około 10 kilometrów. Formacja MMS ma kształt piramidy. Każdy z pojazdów znajduje się w jedym z rogów. Dzięki takiemu kształtowi, zwanemu tetrahedron, MMS może dokonywać trójwymiarowych obserwacji rekoneksji magnetycznej. Misja MMS wystartowała 12 marca 2015 roku. Jej zadaniem jest badanie wspomnianej rekoneksji magnetycznej. To zjawisko występujące w plazmie. MMS krąży wokół Ziemi i przelatuje przez obszary, o których wiadomo, że zachodzi tam rekoneksja magnetyczna. Od strony oświetlanej przez Słońce rekoneksja prawdopodobnie łączy linie pola magnetycznego Słońca z liniami ziemskiego pola magnetycznego, dzięki czemu materiał i energia ze Słońca trafiają do ziemskiej magnetosfery. Od strony nieoświetlonej przez Słońce rekoneksja prawdopodobnie powoduje powstawanie zorzy polarnej. Rekoneksja magnetyczna to jeden z najważniejszych procesów we wszechświecie. W jej wyniku energia przechowywana w postaci pól magnetycznych zostaje zamieniona w ciepło oraz energię napędzającą cząstki i przepływ materii. Wiele sond gromadziło dane dotyczące rekoneksji magnetycznej. Misja MMS jest pierwszą, której celem jest zbadanie tego zjawiska. Zacieśnianie formacji MMS i przybliżanie do siebie sond nie ma na celu bicia rekordów. Im mniejsze są odległości pomiędzy czterema pojazdami, z tym większą dokładnością można badać rekoneksję magnetyczną. « powrót do artykułu
  20. Filtr z elastomerycznej pianki z fusami z kawy skutecznie usuwa z wody metale ciężkie, np. ołów. Rokrocznie restauracje i gospodarstwa domowe z całego świata produkują miliony ton fusów z kawy. Większość trafia na wysypiska, a część zostaje wykorzystana jako nawóz czy dodatek do paszy dla zwierząt. Naukowcy badają także możliwość zastosowania fusów w uzdatnianiu wody. Dotychczasowe eksperymenty pokazały, że proszek z fusów usuwa z wody jony metali ciężkich. Potrzebny był jednak dodatkowy krok, by oddzielić proszek od oczyszczonej wody. Upraszczając proces, zespół Despiny Fragouli z Włoskiego Instytutu Technologii osadził proszek z fusów z kawy w elastomerycznej piance. W stojącej wodzie w ciągu 30 godzin pianka usuwała do 99% jonów ołowiu i rtęci (Pb2+ i Hg2+). Gdy woda przepływała przez piankę, udawało się usunąć do 67% jonów ołowiu. W kompozytowej piance udział wagowy fusów wynosi 60%, a silikonowego elastomeru 40%. « powrót do artykułu
  21. Hiszpańska policja prowadzi dochodzenie w sprawie dekapitacji dominującego samca żubra europejskiego z małego stada z prywatnego rezerwatu Valdeserillas w Walencji. Martwego Saurona znaleziono w piątek - poinformował rzecznik rezerwatu Rodolfo Navarro. Jego głowa została odcięta toporem i zabrana jako trofeum. Navarro dodaje, że 3 żubry zaginęły. Mogą być ranne lub przestraszone. Załoga rezerwatu przeszukuje teren o powierzchni 330 ha (do niektórych miejsc można dotrzeć tylko pieszo). Na początku września żubry zachorowały, prawdopodobnie wskutek zatrucia. Warto dodać, że rezerwat przygotowuje się do rozpoczęcia programu rozrodu żubrów. « powrót do artykułu
  22. Eksperci z chińskiej firmy Tencent's Keen Security Lab znaleźli dziurę w samochodach Tesla Model S. Luka pozwala napastnikowi na uzyskanie dostępu do Controller Area Network pojazdu i przejęcie kontroli nad nim. Badacze z Keen pokazali, że są w stanie zdalnie otworzyć drzwi i bagażnik samochodu oraz przejąć kontrolę nad wyświetlaczem na desce rozdzielczej. Jednak dla kierującego najbardziej niebezpieczny był fakt, że hakerzy mogli zdalnie uruchomić hamulce poruszającego się samochodu. Już wcześniej prezentowano ataki na samochody Tesli, jednak zawsze wymagały one fizycznego dostępu do pojazdu. Tym razem było inaczej. Chińczycy wykorzystali lukę w przeglądarce Tesli. Gdy samochód połączył się z hotspotem założonym lub przejętym przez hakerów, byli oni w stanie przeprowadzić atak typu man-in-the-middle. Eksperci powiadomili o problemie firmę Bugcrowd, która zarządza uruchomionym przez Teslę programem, w ramach którego odkrywcy dziur otrzymują nagrody finansowe. Informacje została przekazana do Tesli i 10 dni później opublikowano odpowiednią łatę. Szczegóły dziury nie zostały ujawnione. Wiadomo, że badacze zaatakowali samochód w czasie, gdy jego właściciel poszukiwał informacji o najbliższej stacji ładowania akumulatorów. Przejęli kontrolę nad zamkami w drzwiach, ustawieniami foteli i wyświetlaczem. Podczas jazdy zaś byli w stanie, korzystając z komputera znajdującego się w odległości około 20 kilometrów od zaatakowanego pojazdu, uruchomić hamulce. « powrót do artykułu
  23. Odnaleziono ostatni wrak okrętu zatopionego podczas bitwy jutlandzkiej. W tej największej bitwie morskiej I wojny światowej i jedynym w dziejach starciu flot liniowych wzięło udział 250 okrętów Grand Fleet (151 jednostek) i Hochseeflotte (99 okrętów) oraz około 105 000 marynarzy. W starciu zatonęło 14 jednostek brytyjskich i 11 niemieckich. Teraz odnaleziono wrak ostatniej z nich. HMS Warrior zachował się w świetnym stanie. To jedyny wrak z Bitwy Jutlandzkiej, o którym możemy stanowczo powiedzieć, że nie uległ zniszczeniu. Odwrócił się do góry nogami i zatonął w miejscu, w którym jest bardzo miękkie dno. Wszystko aż do poziomu górnego pokładu zostało całkowicie zagrzebane w mule - mówi Innes McCartney, archeolog morski z brytyjskiego Bournemouth University. Krążownik pancerny HMS Warrior został w czasie bitwy poważnie uszkodzony przez ogień z dział niemieckiego krążownika SMS Derfflinger i jego dowódca podjął decyzję o powrocie do Wielkiej Brytanii. Po drodze silniki okrętu zawiodły, okręt był przez noc holowany przez lotniskowiec HMS Engadine. Rankiem okazało się jednak, że HMS Warrior mocno nabiera wody. Pozostała przy życiu załoga - około 700 osób - opuściła jednostkę i pancernik zatonął. Miejsca jego spoczynku nie znano. Odkryto je dopiero w bieżącym roku, 25 sierpnia. HMS Warrior to drugi duży okręt znaleziony w regionie w czasie ostatnich kilku miesięcy przez McCartneya i duńską firmę JD-Contractor AS, która na zlecenie Sea War Museum Jutland w duńskim Thyboron prowadzi prace badawcze. Wcześniej, w marcu, specjaliści znaleźli wrak HMS Tarpon, brytyjskiego okrętu podwodnego, który wraz z 50 członkami załogi poszedł na dno w 1940 roku po stoczeniu bitwy z uzbrojonym niemieckim okrętem handlowym. Tarpon i Warrior są chronione przez prawo jako cmentarze wojenne. Mimo to zagrażają im rabusie, poszukujący na okrętach cennych metali. McCartney mówi, że najcenniejszymi częściami są wykonane z brązu kondensatory, których używano w silnikach wielu okrętów wojennych. Po przetopieniu brąz może być wart dziesiątki tysięcy dolarów. Szacujemy, że w ciągu ostatnich 10 lat z wraków wokół Jutlandii zrabowano brąz wartości 1,5 miliona funtów - mówi McCartney. Niestety, niewiele można zrobić, by uchronić wraki. Na dnie morskim leżą miliony wraków, to największe morskie muzeum - stwierdza McCartney. Jego zdaniem władze powinny na bieżąco monitorować ruch statków zdolnych do prac na wrakach. A gdy taki statek zatrzyma się nad wrakiem, mimo że nie powinien się tam zatrzymywać, należy go skontrolować po wpłynięciu do portu - uważa McCartney. « powrót do artykułu
  24. Progesteron chroni samice myszy przed skutkami zakażenia wirusem grypy, zmniejszając stan zapalny i poprawiając funkcjonowanie płuc. Dzieje się tak głównie wskutek podwyższania poziomu amfireguliny w komórkach płuc. Immunomodulacyjny wpływ antykoncepcji progesteronowej badano w kontekście chorób przenoszonych drogą płciową, np. zakażenia wirusem HIV czy opryszczki, niewiele badań poświęcono jednak ewentualnemu wpływowi tego hormonu na infekcje wirusowe poza układem rozrodczym. By uzupełnić tę lukę w wiedzy, zespół Sabry Klein z Uniwersytetu Johnsa Hopkinsa sprawdzał, czy poziomy progesteronu stanowiące odpowiednik stężeń występujących po owulacji (także stosowanych w pigułkach) wpływają jakoś na reakcję organizmu na grypę. Eksperymenty prowadzono na myszach, którym usunięto jajniki. Progesteron był utrzymywany na stałym poziomie przez uwalniające go implanty. Okazało się, że choć progesteron nie obniżał poziomu wirusa, ograniczał stan zapalny i uszkodzenie tkanki płuc. Sprzyjał też szybszej rekonwalescencji. Amerykanie zauważyli, że terapia progesteronem wiązała się z podwyższonym poziomem limfocytów Th17, które biorą udział w zapewnieniu prawidłowego funkcjonowania bariery ochronnej błon śluzowych i usuwaniu z patogenów z powierzchni komórek epitelialnych śluzówki. Oprócz tego progesteron podwyższał stężenie białka amfireguliny (AREG). Kiedy autorzy publikacji z pisma PLoS Pathogens podawali AREG pozbawionym progesteronu i jednocześnie zakażonym grypą myszom, przebieg choroby i rekonwalescencja przebiegały podobnie jak u samic poddawanych terapii progesteronem. Akademicy potwierdzili, że progesteron działa, zwiększając stężenie amfireguliny w płucach: progesteron nie chronił już bowiem przed grypą samic pozbawionych AREG. By ocenić wpływ progesteronu na naprawę uszkodzonej tkanki płuc, zespół analizował mechanicznie uszkodzone komórki układu oddechowego z hodowli. Okazało się, że po urazie progesteron zwiększał stężenie AREG. Przyspieszał też naprawę rany. « powrót do artykułu
  25. Polscy archeolodzy wykonali trójwymiarowe skanowanie pochodzącej z IV w. bazyliki Chabukauri we wschodniej Gruzji. Po raz pierwszy w tym kraju na tak dużą skalę wykorzystaliśmy możliwości technologii obrazowania 3D na potrzeby archeologii - poinformowała PAP Marta Bura z UW. Polscy eksperci otrzymali zaproszenie do wzięcia udziału w badaniach od Gruzińskiego Muzeum Narodowego w Tbilisi. Celem była świątynia chrześcijańska Chabukauri położona w regionie Kacheti. Oprócz trójwymiarowego skanu konstrukcji, którą odkopali gruzińscy archeolodzy, przygotowaliśmy szereg dodatkowych produktów, m.in. w postaci panoram 360 stopni, wirtualnego zwiedzania czy ortofotoskanów - wyjaśnia PAP kierownik Pracowni Skanerów 3D Instytutu Archeologii Uniwersytetu Warszawskiego, Marta Bura. Naukowiec dodaje, że przygotowane materiały można wykorzystać zarówno do celów naukowych - zobrazowania są bowiem bardzo dokładne, jeśli chodzi o precyzję pomiaru, jak również na potrzeby popularyzacji. Kończymy przygotowywać animację, która umożliwi wirtualne zwiedzanie bazyliki - dodaje Janusz Janowski z Pracowni Skanerów 3D. Wynik będzie można obejrzeć na ekranie komputera lub za pomocą gogli do wirtualnej rzeczywistości (VR). W jego opinii, przygotowana dokumentacja jest bardzo wszechstronna i może służyć do dalszych analiz bez pracy w terenie. Pliki z dokumentacją trafiły do Gruzińskiego Muzeum Narodowego, gdzie zostaną wykorzystane m.in. do analizy przestrzennej i architektonicznej. Kościół Chabukauri odkryto kilkanaście lat temu. W czasie wykopalisk prowadzonych przez prof. Nodara Bakhtadze odsłonięto trójnawową konstrukcję wykonaną z dużych wapiennych bloków kamiennych. Nawy rozdzielają dwie pary pięciu prostokątnych w planie filarów. Zabytek przetrwał częściowo do naszych czasów - zachowane mury mają miejscami kilka metrów wysokości. Z częścią pracy polskich naukowców przeprowadzonej w Gruzji można zapoznać się na tej stronie. Gruzja jest drugim po Armenii krajem, który przyjął chrześcijaństwo jako religię państwową. Stało się to w pierwszej poł. IV w. Do dziś na terenie obu zachowały się liczne kamienne kościoły datowane na pierwsze tysiąclecie. « powrót do artykułu
×
×
  • Dodaj nową pozycję...