-
Liczba zawartości
37638 -
Rejestracja
-
Ostatnia wizyta
nigdy -
Wygrane w rankingu
247
Zawartość dodana przez KopalniaWiedzy.pl
-
Bakteria steruje powstawaniem odrębnych gatunków motyli
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Naukowcy zidentyfikowali mikroorganizm uśmiercający wszystkich synów zakażonej nim samicy motyla Danaus chrysippus. Spiroplasma ixodeti zakaża motyle w większej części Afryki i nie ma wpływu na ich potomstwo, ale w wąskiej strefie wokół Nairobi, gdzie żyją i rozmnażają się 2 podgatunki D. chrysippus (D. c. dorippus i D. c. chrysippus), wewnątrzkomórkowy patogen powoduje, że męskie jaja się nie wykluwają i są często zjadane przez siostry. Naukowcy sądzą, że to zjawisko to pierwszy etap przekształcenia dwóch podgatunków w niekrzyżujące się dwa odrębne gatunki. Strefa hybrydowa z centrum w okolicach stolicy Kenii rozdziela dwa gatunki allopatryczne o innych wzorach ubarwienia. U samic przekazujących synom zabójczą bakterię doszło do połączenia autosomu z chromosomem płci W, przez co powstał nowy chromosom - neo-W. Mamy tendencję, by myśleć, że nowe gatunki powstają wskutek zmian środowiskowych, ale tutaj jasno widać, że to bakteria napędza rozdzielanie podgatunków - opowiada prof. Richard Ffrench-Constant z Uniwersytetu w Exeter. Choć nie rozumiemy mechanizmu molekularnego [...], w praktyce oznacza to, że w strefie hybrydowej nie ma samców, a sukces reprodukcyjny jest zerowy. W ten sposób powstaje bariera z nowymi gatunkami po obu stronach. Artykuł opublikowany na łamach Proceedings of the Royal Society B to zwieńczenie 13 lat badań terenowych wokół Nairobi, w czasie których zespół dr. Iana Gordona odnotowywał płeć i ubarwienie motyli. Do przełomu doszło, gdy samice z wyłącznie żeńskiej strefy wysłano do Niemiec i prof. Walther Traut z Uniwersytetu w Lubece odkrył, że doszło u nich do zlania 2 chromosomów. Wydaje się, że podatność na działanie S. ixodeti napędza rozdzielanie się motyli w dwa odrębne gatunki - podsumowuje Ffrench-Constant. « powrót do artykułu -
Naukowcy z Purdue University we współpracy z kolegami z Tennessee University opracowali niechemiczną metodę znacznego wydłużania przydatności mleka do spożycia. Uczeni wykazali, że temperaturę pasteryzowanego mleka podniesiemy gwałtownie o 10 stopni Celsjusza na mniej niż 1 sekundę, to pozbędziemy się ponad 99% bakterii pozostałych po pasteryzacji. To proces dodatkowy do pasteryzacji, jednak pozwala na wydłużenie przydatności mleka do spożycia o kolejnych kilka tygodni. Przebiega też w znacznie niższej temperaturze niż sama pasteryzacja, która wymaga podgrzania mleka do 70 stopni Celsjusza. Technika LTST (low-temperature, short-time) polega na przepuszczeniu kropli mleka przez specjalną komorę, w której płyn jest gwałtownie ogrzewany o 10 stopni Celsjusza i szybko schładzany. Nie zmienia się przy tym ani kolor, ani zapach, ani smak mleka. Dzięki zaś dodatkowej procedurze możliwe jest wydłużenie jego przydatności do spożycia do 63 dni. Badania wykazały, że dzięki LTST liczba bakterii w mleku spada poniżej poziomów możliwych do wykrycia. Jest ich więc niezwykle mało, dzięki czemu bardzo wolno się namnażają i późno powodują psucie się mleka. Co więcej, proces LTST można przeprowadzić wykorzystując ciepło z pasteryzacji, zatem nie jest on kosztowny, a pozwala na znacznie zmniejszenie ilości mleka, które się marnuje. Naukowcy chcą teraz sprawdzić swoją technologię na mleku, które nie było wcześniej pasteryzowane, by stwierdzić, czy samo LTST nie wystarczy do wydłużenia czasu przydatności mleka do spożycia. « powrót do artykułu
-
Graham to postać z ciałem idealnie dostosowanym do przeżycia wypadku samochodowego. Na zlecenie australijskiej Komisji Wypadków Komunikacyjnych (TAC) stworzyła go Patricia Piccinini. Artystka współpracowała z Christianem Kenfieldem, chirurgiem urazowym ze Szpitala Królewskiego w Melbourne i dr. Davidem Loganem, ekspertem od badania wypadków z Monash University. Graham ma grube kości czaszki. Wbudowane strefy zgniotu jak kask pochłaniają siły uderzenia. Oprócz tego jego mózg jest chroniony przez większą ilość płynu mózgowo-rdzeniowego oraz dodatkowe więzadła. By zapobiec uszkodzeniom kości nosa i zatok, twarz Grahama jest płaska. Wokół wystających rejonów, np. przy kościach policzkowych, dodano więcej tkanki tłuszczowej. Szyja praktycznie zlewa się z tułowiem, a między wzmocnionymi żebrami umieszczono worki spełniające funkcje poduszek powietrznych. Skóra postaci jest grubsza i bardziej wytrzymała (zwłaszcza na ramionach, łokciach i dłoniach, za pomocą których staramy się zatrzymać upadek). Kolana Grahama poruszają się we wszystkich kierunkach. Piccinini pomyślała też o dodatkowych ścięgnach. W nogach zakończonych kopytowatymi stopami znajdują się dodatkowe stawy. Interaktywną postać wyprodukowano z silikonu, włókna szklanego, żywicy i ludzkich włosów. Ludzie mogą przeżyć wpadnięcie z pełną prędkością na ścianę, ale kiedy mówimy o kolizji z udziałem pojazdów, prędkości i działające siły są większe, a szanse przeżycia o wiele mniejsze. Samochody ewoluowały o wiele prędzej niż ludzie i Graham pomaga nam zrozumieć, czemu by zabezpieczyć się przed własnymi błędami, powinniśmy poprawić każdy aspekt systemu drogowego - podkreśla Joe Calafiore, dyrektor wykonawczy TAC. Od 21 lipca do 8 sierpnia Grahama można zobaczyć na żywo w Bibliotece Stanu Wiktoria. Można też skorzystać z witryny internetowej Meet Graham. « powrót do artykułu
-
ASML informuje o rosnącej liczbie zamówień na systemy do produkcji półprzewodników w technologii ekstremalnie dalekiego ultrafioletu (EUV). W ostatnim kwartale zamówiono 4 takie systemy, a ASML spodziewa się, że w przyszłym roku sprzeda ich 12. Wzrost zamówień daje nadzieję, że w 2020 roku skanery EUV będą gotowe do masowej produkcji. Prawdopodobnie zostaną wykorzystane do wytwarzania procesorów w technologii 5 nanometrów. Holenderska firma zapowiada też, że jest gotowa do zwiększenia w 2018 roku produkcji systemów EUV do 24 rocznie. Obecnie jeden taki system kosztuje około 100 milionów dolarów, a producenci półprzewodników zainstalowali dotychczas osiem z nich. Analityk Robert Maire z Semiconductor Advisors LLC przypomina, że ostatnio TSMC zapowiedziało wykorzystanie EUV do produkcji w technologii 5 nanometrów. Maire twierdzi, że co prawda większość producentów półprzewodników wykorzysta EUV właśnie do technologii 5 nanometrów, jednak wyjątek od reguły może stanowić Intel. Gigant opóźnił produkcję procesorów w technologii 10 nm, niewykluczone zatem, że wykorzysta EUV przy technologii 7 nm, którą będzie wdrażał w czasie, gdy TSMC rozpocznie produkcję 5-nanometrowych układów. Obecnie najnowsze układy scalone produkuje się w technologii DUV (głęboki ultrafiolet). Za pomocą maszyn DUV można produkować układy w technologii 10 nanometrów i mniejsze, jednak wymagałoby to kilkukrotnego naświetlania masek, co jest trudne technicznie i bardzo kosztowne. Dzięki systemom EUV można będzie uniknąć takich działań i obniżyć koszty. Na razie jednak systemy EUV nie są gotowe do masowej produkcji. Ich instalacja miałaby ekonomiczny sens, gdyby za ich pomocą można było produkować co najmniej 125 plastrów krzemowych na godzinę. Do tego jednak potrzebne jest źródło światła o mocy 250 watów. Wspomniane już zainstalowane systemy EUV korzystają ze źródła światła o mocy 125 watów i są w stanie przetwarzać 85 plastrów na godzinę. Ostatnio ASML zaprezentowała 210-watowe źródło światła. Firma pracuje też nad zwiększeniem efektywności swoich maszyn. Chce, by były one w stanie pracować przez 90% czasu. Dotychczas najlepsze z nich mogły pracować przez ponad 80% czasu w czasie czterotygodniowego okresu próbnego. Na tym właśnie polega różnica pomiędzy systemem znajdującym się w fazie badawczo-rozwojowej, a systemem gotowym do masowej produkcji - mówi Michael Lercel, dyrektor ds. marketingu w ASML. Stworzenie systemu do produkcji masowej nie jest prostym zadaniem. Dość wspomnieć, że jego źródło światła musi całymi godzinami niezwykle precyzyjnie wystrzeliwać po 50 000 miniaturowych kropli stopionej cyny w ciągu sekundy. Najnowsze źródła światła są znacznie bardziej złożone od tych używanych w systemach poprzedniej generacji. Tamte są wielkości lodówki, nowe są większe. « powrót do artykułu
-
Donosowe szczepionki przeciw grypie mogą zapewniać długotrwałą ochronę przed pandemicznymi szczepami wirusa grypy. Naukowcy z Centrum Medycznego Uniwersytetu Columbii odkryli, że donosowa szczepionka FluMist prowadziła do produkcji w płucach myszy limfocytów T, które zapewniały długotrwałą ochronę przed wieloma szczepami wirusa grypy (także przed szczepami niewystępującymi w szczepionkach). Gryzonie, którym podano tradycyjną wstrzykiwaną szczepionkę, taką jak Fluzone, nie wytwarzały tych komórek. Nasze wyniki pokazują, że każdy rodzaj szczepionki zapewnia inny rodzaj ochrony przed grypą. Producenci mogą zechcieć połączyć ich atrybuty w uniwersalną szczepionkę, która zapewni ochronę zarówno przed znanymi szczepami, które spodziewamy się ujrzeć w czasie typowego dorocznego sezonu grypowego, jak i nowymi, które są w stanie wywołać pandemię - wyjaśnia prof. Donna Farber. Ostatnie badania zakażeń grypą pokazały, że uniwersalną ochronę przed szerokim wachlarzem szczepów mogą zapewniać specjalne limfocyty T. Rezydują one w płucach i potrafią szybko eliminować zakażone wirusem komórki, nie dopuszczając do poważnej choroby. Najnowsze badania, których wyniki ukazały się w Journal of Clinical Investigation/Insight, pokazują, że donosowe szczepionki prowadzą do produkcji tych limfocytów. Komórki te mogą nie zapobiec chorobie, ale pomogą szybciej pozbyć się wirusa i zmniejszą nasilenie objawów. Co ciekawe, w eksperymentach zespołu z Uniwersytetu Columbii szczepionki donosowe wyzwalały ograniczoną produkcję przeciwciał przeciw szczepom wirusa z preparatu. Ostatnio panel doradczy ds. sposobów szczepień Centrum Zwalczania i Zapobiegania Chorobom (CDC) opowiedział się przeciwko donosowym szczepionkom na grypę sezonową. Studium grupy Faber pokazuje jednak, że takie szczepionki mogą prowadzić do innych odpowiedzi odpornościowych, szczególnie skutecznych w walce z nowymi szczepami wirusów. « powrót do artykułu
-
Kilkanaście tajwańskich instytucji badawczych podpisało kontrakt z NASA, w ramach którego wspólnie stworzą księżycowy łazik lądownik. Ma on trafić na Srebrny Glob już w 2020 roku. Pojazd ma zostać dostarczony w USA w październiku 2018 roku. Po przejściu testów zostanie użyty podczas misji zaplanowanej za cztery lata. Jak informują przedstawiciele tajwańskiego Narodowego Instytutu Nauki i Technologii Chung-Shan (NCSIST), NASA chce zbadać możliwość pozyskiwania wody z Księżyca. Tajwańczycy mają stworzyć system czujników lądownika, NASA zbuduje zaś jego napęd. Wspomniana misja będzie pierwszą księżycową misją z udziałem Tajwanu. NASA wybrała do współpracy instytucje z tego kraju, gdyż sprawdziły się one podczas innych misji, np. podczas projektu Alpha Magnetic Spectrometer, w czasie którego badano wysokoenergetyczne cząstki występujące w przestrzeni kosmicznej. NCSIST powstało w 1969 roku jako rządowa jednostka badawcza prowadząca prace na potrzeby wojska. W 1994 roku Instytut zaczął zajmować się też technologiami cywilnymi. W miarę rozwoju tajwańskiego programu kosmicznego NCSIST brało udział w coraz większej liczbie prac nad satelitami i systemami ich wynoszenia. Teraz Tajwańczycy zdobędą doświadczenia związane z pracą na powierzchni Księżyca. « powrót do artykułu
-
Sahel zielenieje dzięki globalnemu ociepleniu
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Wydaje się, że globalne ocieplenie odpowiada za zazielenianie się Sahelu. Naukowcy z Instytutu Meteorologii im. Maksa Plancka w Hamburgu informują na łamach Nature Climate Change, że z powodu wyższych temperatur w regionie Morza Śródziemnego do południowych granicy Sahary dociera w czerwcu, gdy rozpoczyna się monsun, więcej wilgoci ze wschodnich regionów Morza Śródziemnego. Co więcej, najnowsze badania wykazują, że opady w Sahelu są bardzo mocno uzależnione od ocieplania się Morza Śródziemnego. Sahel, obszar rozciągający się na kilkaset kilometrów na południe od Sahary, to prawdopodobnie najbardziej zróżnicowany klimatycznie region Ziemi. Obejmuje on kraje od Senegalu po Erytreę, a decydujący wpływ na jego klimat ma monsun zachodnioafrykański. Rozpoczyna się on w czerwcu i do września w całym regionie pada. Zima jest natomiast sucha. Przyczyną takiego stanu rzeczy jest wyższa pozycja Słońca w miesiącach letnich. Temperatura w regionie wzrasta, jednak nasza gwiazda różnie działa na ląd i wodę. Ląd ogrzewa się mocniej i szybciej. Powietrze nad lądem unosi się, a na jego miejsce napływają wilgotne masy powietrza znad wody - wyjaśnia Jürgen Bader. Siła monsunu jest bardzo zróżnicowana. W latach 50. i 60. ubiegłego wieku był on dość silny i Sahel miał zapewnioną sporą ilość wody. Później aż do połowy lat 80. monsun przynosił niewiele wilgoci, co kosztowało życie ponad 100 000 ludzi. Później, niespodziewanie dla specjalistów, monsun znowu się wzmocnił. Teraz Jong-yeon Park, Jürgen Bader i Daniela Matei z Instytutut Meteorologii w Hamburgu odkryli przyczynę takiego stanu rzeczy. Wykazaliśmy, że ocieplanie się regionu Morza Śródziemnego, spowodowane antropogeniczym ociepleniem klimatu, to najważniejszy czynnik, który tu zadziałał - mówi Matei. Jeśli naukowcy mają rację, to zjawiska, które będą zachodziły w regionie Śródziemiomorza będą miały decydujący wpływ na poziom opadów w Sahelu. Naukowcy wiedzą, że do osłabienia monsunu i suszy z lat 70. i 80. doszło wskutek pojawienia się szczególnego układu temperatur nad Atlantykiem, Pacyfikiem i Oceanem Indyjskim. Różnice temperatur pozwalają wyjaśnić też wzrost siły monsunu od lat 90. Można powiedzieć, że różne regiony morskie 'walczą ze sobą'. Jeśli rośnie temperatura powierzchni wód w tropikach, spada ilość opadów w Sahelu. Jeśli jednak rośnie temperatura wód powierzchniowych poza tropikami, w Sahelu mamy więcej opadów - mówi Bader. Naukowcy z Hamburga wykorzystali modele komputerowe, za pomocą których odkryli, że monsun zachodnioafrykański jest od dwóch dekad silniejszy, gdyż temperatura wód Morza Śródziemnego była wyższa od temperatur w tropikach. Przyszłe opady w Sahelu będą więc zależały od różnicy temperatur w tych regionach świata. Jong-yeon Park przeprowadził symulacje, w czasie których sprawdzał różne scenariusze. Okazało się, że jeśli temperatura Morza Śródziemnego pozostanie na stałym poziomie, opady w Sahelu nie zwiększą się. Jeśli jednak będzie ona rosła, a temperatury wód Północnego Atlantyku i Pacyfiku pozostaną na stałym poziomie, mieszkańcy Sahelu mogą liczyć na zwiększone opady. Powinni więc oni trzymać kciuki za to, by Śródziemiomorze ogrzewało się szybciej niż oceany. « powrót do artykułu -
Wykonanie hologramu pojedynczego fotonu uchodziło dotąd za niemożliwe z przyczyn fizycznie fundamentalnych. Naukowcom z Wydziału Fizyki Uniwersytetu Warszawskiego udało się jednak w oryginalny sposób przenieść idee klasycznej holografii do świata zjawisk kwantowych. Nowa technika pomiarowa nie tylko umożliwiła rejestrację pierwszego hologramu pojedynczej cząstki światła, ale także pozwoliła w nowy sposób spojrzeć na fundamenty mechaniki kwantowej. Na Wydziale Fizyki Uniwersytetu Warszawskiego (FUW) wykonano pierwszy hologram pojedynczej cząstki światła. Spektakularny eksperyment, opisany na łamach prestiżowego czasopisma „Nature Photonics”, przeprowadzili dr Radosław Chrapkiewicz i mgr Michał Jachura pod kierownictwem dr. hab. Wojciecha Wasilewskiego i prof. dr. hab. Konrada Banaszka. Zarejestrowanie hologramu fotonu oznacza początek nowego rodzaju holografii: holografii kwantowej, która odsłania nowy widok na świat zjawisk kwantowych. W stosunkowo prostym eksperymencie zmierzyliśmy i zobaczyliśmy coś, co dostrzec jest bardzo trudno: kształt frontów falowych pojedynczego fotonu, mówi dr Radosław Chrapkiewicz. W standardowej fotografii w poszczególnych punktach obrazu rejestruje się wyłącznie natężenie światła. W klasycznej holografii dzięki zjawisku interferencji zapisuje się także fazę fali świetlnej (to właśnie faza niesie informację o głębi obrazu). Wykonanie hologramu polega na tym, że na dobrze znaną, niezaburzoną falę świetlną (odniesienia) nakłada się drugą falę o tej samej długości, lecz odbitą od obiektu trójwymiarowego (a zatem z grzbietami i dolinami fali świetlnej poprzesuwanymi w różnym stopniu w różnych punktach obrazu). Dochodzi do interferencji, która wskutek różnic w fazach obu fal tworzy skomplikowany układ prążków. Tak zarejestrowany hologram wystarczy oświetlić wiązką odniesienia, żeby odtworzyć przestrzenną strukturę frontów falowych światła odbitego od obiektu, a tym samym jego trójwymiarowy kształt. Wydawałoby się, że podobny mechanizm powinien działać także wtedy, gdy liczbę fotonów tworzących obie fale zredukuje się do minimum, a więc do jednego fotonu odniesienia i jednego odbitego od obiektu. Tak się jednak nie dzieje! Faza fali pojedynczego fotonu wciąż fluktuuje, co uniemożliwia klasyczną interferencję z innym fotonem. Fizycy z FUW stali więc przed zadaniem pozornie niemożliwym. Spróbowali jednak rozwiązać problem w inny sposób i zamiast klasycznej interferencji pól elektromagnetycznych podjęli próbę zarejestrowania innej interferencji, kwantowej, w której oddziaływałyby funkcje falowe fotonów. Funkcja falowa to absolutny fundament mechaniki kwantowej, rdzeń jej najważniejszego równania (równania Schroedingera). W rękach sprawnego fizyka funkcja ta pełni podobną rolę jak glina w rękach rzeźbiarza: umiejętnie ukształtowana, pozwala „ulepić” model układu cząstek kwantowych. Fizycy zawsze starają się poznać funkcję falową cząstki w danym układzie, ponieważ kwadrat jej modułu to rozkład prawdopodobieństwa znalezienia cząstki w określonym stanie – a więc wiedza bardzo praktyczna. Wszystko to być może brzmi nieco skomplikowanie, ale w praktyce główna idea naszego eksperymentu jest prosta: zamiast patrzeć na zmiany natężenia światła, popatrzmy na to, jak zmienia się prawdopodobieństwo zarejestrowania par fotonów po interferencji kwantowej, wyjaśnia doktorant Jachura. Skąd pary fotonów? Rok temu Chrapkiewicz i Jachura za pomocą nowatorskiej kamery skonstruowanej na FUW sfilmowali, po raz pierwszy na świecie, zachowanie par rozróżnialnych i nierozróżnialnych fotonów wysłanych ku płytce światłodzielącej. Gdy fotony były rozróżnialne, pojawiały się za płytką przypadkowo: po jednym fotonie z każdej strony płytki bądź razem po jednej z jej stron. Fotony nierozróżnialne interferowały kwantowo i w efekcie zachowywały się inaczej: łączyły się w pary i opuszczały płytkę światłodzielącą zawsze razem, po jednej ze stron. Zjawisko to jest znane jako interferencja dwufotonowa lub efekt Hong-Ou-Mandela. Po takim eksperymencie trudno było nie zadać sobie pytania, czy kwantowej interferencji dwufotonowej nie można byłoby wykorzystać podobnie jak interferencji klasycznej w holografii, do zebrania za pomocą znanego fotonu jakichś dodatkowych informacji o drugim, nieznanym fotonie. Z naszych analiz wyłonił się dość niespodziewany wniosek: okazało się, że gdy dwa fotony interferują kwantowo, przebieg tej interferencji zależy od kształtów ich frontów falowych, mówi dr Chrapkiewicz. Interferencję kwantową można zaobserwować rejestrując jednocześnie parę fotonów. Eksperyment musiał być powtarzany wielokrotnie, zawsze z dwoma fotonami o cechach identycznych jak we wcześniejszym pomiarze. Aby zapewnić te warunki, doświadczenie za każdym razem zaczynano od dwóch fotonów o płaskich frontach falowych i prostopadłych polaryzacjach (co oznacza, że pole elektryczne każdego fotonu drgało tylko w jednej płaszczyźnie, a płaszczyzny te u obu fotonów były do siebie prostopadłe). Różna polaryzacja pozwalała rozdzielać fotony w odpowiednim krysztale i jeden z nich czynić „nieznanym” poprzez wykrzywienie jego frontów falowych za pomocą soczewki cylindrycznej. Po odbiciu od zwierciadeł oba fotony kierowano ku „płytce światłodzielącej”, której rolę pełnił kryształ kalcytu. Nie zmieniał on kierunku biegu fotonów spolaryzowanych pionowo, za to odchylał fotony spolaryzowane poziomo (aby wybór każdej drogi był jednakowo prawdopodobny i kryształ rzeczywiście działał jak płytka światłodzieląca, płaszczyzny polaryzacji fotonów skręcano przed nim o 45 stopni). Do rejestrowania fotonów użyto zaawansowanej kamery z poprzedniego eksperymentu. Powtarzając pomiary wielokrotnie otrzymano obraz interferencyjny odpowiadający hologramowi nieznanego fotonu oglądanemu z jednego punktu w przestrzeni. Obraz ten pozwalał w pełni zrekonstruować zarówno amplitudę jak i fazę funkcji falowej nieznanego fotonu. Eksperyment warszawskich fizyków ma istotne znaczenie dla lepszego zrozumienia najgłębszych podstaw mechaniki kwantowej. Do tej pory nie istniał żaden łatwy doświadczalny sposób zdobycia informacji o fazie funkcji falowej. I choć mechanika kwantowa znalazła liczne zastosowania, a w ciągu niemal stu lat istnienia potwierdzono ją wielokrotnie ze znakomitą dokładnością, do dziś nikt nie potrafi wyjaśnić, czym jest funkcja falowa: czy to tylko wygodne narzędzie matematyczne, czy może coś istniejącego realnie? Nasz eksperyment jest jednym z pierwszych, który umożliwia bezpośrednią obserwację jednego z podstawowych parametrów funkcji falowej, jej fazy, przybliżając nas do zrozumienia, czym naprawdę może być funkcja falowa, mówi doktorant Jachura. Holografię kwantową fizycy z FUW wykorzystali do zrekonstruowania funkcji falowej pojedynczego fotonu. Badacze mają nadzieję, że w podobny sposób w przyszłości uda się odtworzyć funkcję falową bardziej złożonych obiektów świata kwantów, np. niektórych atomów. Czy jednak holografia kwantowa znajdzie zastosowania poza laboratoriami, równie szerokie jak holografia klasyczna, której używa się dziś w różnego typu zabezpieczeniach (hologramy są trudne do podrobienia), w rozrywce, transporcie (w skanerach mierzących rozmiary przestrzenne ładunków), w obrazowaniu mikroskopowym oraz w optycznych technikach przechowywania i przetwarzania informacji? Dziś trudno odpowiedzieć na to pytanie. Wszyscy – mam tu na myśli ogół fizyków – dopiero musimy się oswoić z nowym narzędziem. Prawdziwe zastosowania holografii kwantowej pojawią się prawdopodobnie za kilkadziesiąt lat i jeśli czegoś można być pewnym, to tylko tego, że z pewnością nas zaskoczą, podsumowuje prof. Konrad Banaszek. « powrót do artykułu
-
LUX zakończył poszukiwania ciemnej materii
KopalniaWiedzy.pl dodał temat w dziale Astronomia i fizyka
Large Underground Xenon (LUX) - najbardziej czuły eksperyment mający na celu poszukiwania ciemnej materii - zakończył badania. Podczas dzisiejszej międzynarodowej konferencji w Sheffield w Wielkiej Brytanii zaprezentowano wyniki badań prowadzonych pomiędzy październikiem 2014 a majem 2016 roku. Naukowcy poinformowali, że czułość LUX znacznie przewyższyła wstępne założenia. Mimo tego nie znaleziono żadnych śladów ciemnej materii. Uczeni są przekonani, że gdyby doszło do interakcji LUX z ciemną materia, to niemal na pewno zostałaby ona wykryta. Dlatego też uważają, że wyniki eksperymentu pozwalają na wykluczenie wielu modeli dotyczących ciemnej materii. To z kolei pozwoli skupić się w przyszłości na prowadzeniu kolejnych eksperymentów. Od czasu gdy został po raz pierwszy uruchomiony w 2013 roku LUX dostarczył najlepszych danych jakie kiedykolwiek uzyskano. Podczas badań w latach 2014-2016 czułość LUX zwiększono czterokrotnie bardziej niż pierwotnie zakładano. Byłoby wspaniale, gdybyśmy dzięki temu zarejestrowali ciemną materię. Niestety, to co zaobserwowaliśmy jest całkowicie zgodne z szumem tła - powiedział rzecznik prasowy eksperymentu LUX profesor fizyki Rick Gaitskell z Brown University. Ocenia się, że ciemna materia stanowi 80% masy wszechświata. Naukowcy są przekonani o jej istnieniu, gdyż widać jej oddziaływanie grawitacyjne. Dotychczas jednak nie odkryto jej bezpośrednio. Zadaniem eksperyment LUX było poszukiwanie WIMP (weakly interacting massive particles, słabo oddziałujące masywne cząstki), które są jednym z potencjalnych rodzajów ciemnej materii. LUX, znajdujący się 1478 metrów pod ziemią w byłej kopalni złota w Dakocie Południowej składa się ze zbiornika zawierającego 300 kilogramów ksenonu otoczonego niezwykle czułymi detektorami. Całość znajduje się w zbiorniku zawierającym 265 000 litrów wody. W czasie trwających 20 miesięcy uzyskano 500 terabajtów danych, które przeanalizowano za pomocą ponad 1000 węzłów obliczeniowych komputerów z Brown University oraz poddawana zaawansowanym symulacjom na Lawrence Berkeley National Laboratory. Dzięki temu, że LUX niczego nie wykrył, można było z teorii nt. WIMP wyeliminować cały szereg mas i możliwych sił interakcji tych cząstek z materią. Model WIMP nadal jednak pozostaje ważny. Postrzegaliśmy nasze badania jak starcie Dawida z Goliatem, podczas którego mierzyliśmy się z Wielkim Zderzaczem Hadronów (LHC) w CERN. LUX przez trzy lata szukał sygnałów ciemnej materii. Teraz musimy poczekać i przekonać się, czy po ponownym uruchomieniu LHC znajdzie dowody na istnienie ciemnej materii, czy też będziemy musieli poczekać na powstanie większych wykrywaczy przyszłej generacji - mówi Gaitskell. Jednym z następców eksperymentu LUX będzie LUX-ZEPLIN (LZ). Zostanie w nim wykorzystane nie 300 kilogramów, a 10 ton ksenonu. Pojemnik z nim zostanie zanurzony w tym samym zbiorniku, z którego korzystał LUX. Spodziewamy się, że czułość LZ będzie 70-krotnie większa od czułości LUX - mówi rzecznik prasowy LZ Harry Nelson z Uniwersytetu Kalifornijskiego w Santa Barbara. LZ ma ruszyć w 2020 roku. « powrót do artykułu -
Nowy związek opracowany przez zespół z Uniwersytetu w Bath i Królewskiego College'u Londyńskiego (KCL) zapewnia niespotykaną ochronę przed skutkami promieniowania UVA, w tym przed fotostarzeniem czy uszkodzeniami komórek. Naukowcy podkreślają, że większość dostępnych na rynku filtrów słonecznych zapewnia ochronę przed UVB, lecz ich skuteczność przeciw negatywnym skutkom UVA jest ograniczona. Związek, nazywany przez Brytyjczyków "pazurem mitożelazowym", zapewnia ochronę wewnątrz komórek, czyli dokładnie tam, gdzie UVA powoduje największe szkody. Naukowcy mają nadzieję, że ich wynalazek trafi do kosmetyków już w ciągu 3-4 lat. Stężenia wolnego żelaza są szczególnie wysokie w mitochondriach (jest ono niezbędne dla ich prawidłowego działania). Pod wpływem ekspozycji na UVA nadmiar jonów żelaza działa jednak jak katalizator reakcji powstawania toksycznych reaktywnych form tlenu. Opisywany związek jest chelatorem żelaza, który przemieszcza się do mitochondriów, gdzie bezpiecznie wiąże nadmiar wolnego żelaza (nie szkodząc organellom komórkowym). Gdy ludzkie fibroblasty wystawiano na oddziaływanie dawki UVA będącej odpowiednikiem 140 min ciągłej ekspozycji na słońce na poziomie morza komórki potraktowane pazurem mitożelazowym były całkowicie chronione przed śmiercią. W komórkach kontrolnych obserwowano zaś nasiloną nekroptozę na drodze nagłej utraty ATP. Przez długi czas rola pośredniczonego przez żelazo uszkodzenia komórek skóry przez UVA była niedoceniana. Do skutecznej ochrony przed tym zjawiskiem potrzeba silnych chelatorów, dotąd jednak zagrażały one toksycznymi efektami powodowanymi przez niecelowane pozbawianie komórek żelaza - wyjaśnia dr Charareh Pourzand. Nasz związek rozwiązuje ten problem, bo obiera na cel mitochondria [...]. Teraz zespół chce szerzej zbadać potencjał medyczny swojego związku, przyglądając się np. jego zastosowaniom w terapii chorób związanych z zaburzeniem mitochondrialnego metabolizmu żelaza, m.in. choroby Friedreicha. « powrót do artykułu
-
Naukowcy z Moskiewskiego Instytutu Fizyki i Technologii (MIPT) opracowali ceramiczny laser o dużej mocy. Można go wykorzystywać jako minimalnie uszkadzający skalpel laserowy lub do cięcia czy grawerowania materiałów kompozytowych. Ivan Obronov z MIPT oraz współpracownicy z Instytutu Fizyki Stosowanej Rosyjskiej Akademii Nauk i Uniwersytetu Alabamy posłużyli się ceramiką z tlenku lutetu domieszkowanego jonami Tm3+ (Tm3+:Lu2O3). Ceramika to obiecujący rodzaj medium lasera, ponieważ produkuje się ją na drodze spiekania proszku w masę polikrystaliczną. Jest tańsza i łatwiejsza do uzyskania niż pojedyncze kryształy, co ma olbrzymie znaczenie dla upowszechnienia. Dodatkowo bez problemu można zmieniać chemiczny skład ceramiki, zmieniając w ten sposób właściwości lasera. Rosyjsko-amerykański laser przetwarza energię w promieniowanie z ponad 50% wydajnością (średnia wydajność innych laserów półprzewodnikowych wynosi zaledwie 20%). Generuje on promieniowanie podczerwone o długości fali ok. 2 mikronów (1966 i 2064 nanometrów), przez co świetnie nadaje się do zastosowań medycznych. Promieniowanie najpopularniejszych laserów podczerwonych z długością fali rzędu ok. 1 mikrona cechuje się małą absorpcją i głęboko penetruje tkanki, powodując koagulację i duże obszary martwicy. Tymczasem laser chirurgiczny powinien operować na specyficznej głębokości. Z tego powodu wykorzystywane są lasery 2-mikronowe [...]. Obronov podkreśla, że lekarze często posługują się 2-mikronowym laserem holmowym, pompowanym przez błysk lampy (flesza). Wg niego, jest on jednak bardzo drogi, stosunkowo duży i nie do końca niezawodny. Przewagą laserów ceramicznych ma być niski koszt produkcji, prostota, niezawodność oraz 4-krotnie mniejsze rozmiary (kompaktowość). Lasery ceramiczne przydadzą się też w przemyśle kompozytowym. O ile bowiem lasery 1-mikronowe dobrze tną metal, o tyle polimery są dla nich praktycznie przezroczyste. Tymczasem lasery 2-mikronowe skutecznie tną i grawerują materiały kompozytowe. « powrót do artykułu
-
Polska policja aresztowała założyciela KickAssTorrents
KopalniaWiedzy.pl dodał temat w dziale Technologia
Polska policja aresztowała mężczyznę podejrzanego o prowadzenie popularnej witryny z torrentami KickAssTorrents (KAT). Zatrzymania dokonano na wniosek z USA, przejęto również pieniądze z konta bankowego na Łotwie. Z wniosku złożonego przez Stany Zjednoczone dowiadujemy się też, że władze USA spróbują przejąć domeny kickasstorrents.com, kastatic.com, thekat.tv, kat.cr, kickass.to, kat.ph oraz kickass.cr. Zatrzymany to 30-letni Ukrainiec Artiom Vaulin. Amerykanie oskarżają go o prowadzenie witryny, naruszenie praw autorskich i pranie brudnych pieniędzy. USA zwrócą się do Polski o jego ekstradycję. Vaulin jest oskarżany o prowadzenie najpopularniejszej witryny z torrentami, która rozprowadziła ponad miliard plików chronionych prawem autorskim. Jego zatrzymanie w Polsce dowodzi, że cyberprzestępcy mogą uciec z jednego kraju, ale nie unikną oskarżenia - stwierdził rzecznik Departamentu Sprawiedliwości. Szacuje się, że KickAssTorrents generuje roczne przychody rzędu 12-22 milionów dolarów. Witryna jest dostępna w 28 językach. W tej chwili wiele witryn KAT nie działa. Amerykański Departament Sprawiedliwości twierdzi, że Vaulin stworzył KAT w 2008 roku. Z dostępnych dokumentów dowiadujemy się, że KAT wyświetlał reklamę zakupioną przez pracujących pod przykrywką amerykańskich agentów. Płacono za nią 300 USD dziennie. KAT posiada serwery w USA i Kanadzie, a amerykańscy śledczy już wykonali ich kopie. Serwery pracowały na Linuksie Gentoo i zawierały "unikatowe informacje o użytkownikach, logi i inne dane". Zdobyto wiele danych dowodzących, że to właśnie Vaulin był administratorem witryny. To on zarejestrował i opłacił pierwsze domeny, na których działał KickAssTorrents. To on stworzył pierwszy projekt graficzny witryny. Na nazwisko Vaulina zarejestrowano konto w sklepie Apple'a i tego samego dnia wykorzystano je zarówno do zakupów w sklepie iTunes jak i do przeprowadzenia modyfikacji na Facebookowym profilu KickAssTorrents, a obie czynności wykonano z tego samego adresu IP. Ponadto adres, na który można było wpłacać bitcoiny dla KAT był zarejestrowany w Coinbase na koncie, które założono za pomocą konta w sklepie Apple'a, którego używał Vaulin. Za naruszenie praw autorskich Vaulinowi grozi kara do 5 lat więzienia. Pranie brudnych pieniędzy zagrożone jest karą do 20 lat więzienia. KickAssTorrents to jedna z najpopularniejszych witryn w internecie. Każdego miesiąca odwiedza ją ponad 50 milionów unikatowych użytkowników. « powrót do artykułu -
Profesor Adam Summers z University of Washington postawił sobie niezwykle ambitny cel. Chce stworzyć cyfrowe repliki 3D wszystkich gatunków ryb żyjących na Ziemi. Jest ich około 25 000. Uczony wykorzystuje niewielki tomograf komputerowy, za pomocą którego skanuje dziesiątki przedstawicieli różnych gatunków znajdujących się w zbiorach muzeów na całym świecie. Uczony ma zamiar udostępnić wyniki swojej pracy w sieci tak, by każdy - od ichtiologa-amatora, poprzez studentów, nauczycieli czy naukowców - miał dostęp do szczegółowych trójwymiarowych obrazów każdego gatunku. Summers chce, by dzięki temu można było łatwo porównywać morfologię tych zwierząt i zrozumieć, dlaczego poszczególne gatunki wyglądają tak, a nie inaczej. Dotychczas nikt nie podjął się podobnego zadania, a zdobycie trójwymiarowych obrazów ryb nie jest łatwe. Sam profesor Summers wspomina, jak niejednokrotnie musiał błagać szpitale i wykonanie tomografów interesujących go ryb, w tym płaszczki, która w 2000 roku była pierwszą rybą, jakiej obraz z tomografu został opublikowany w czasopiśmie naukowym. Przez lata pracy Summers i jego zespół opracowali metodę masowego skanowania ryb w szpitalnych tomografach, jednak wciąż było to bardzo kosztowne przedsięwzięcie. Za pojedynczy skan trzeba było zapłacić od 500 do 2000 dolarów. Summers stwierdził, że potrzebuje własnego tomografu komputerowego. Udało mu się uzbierać 340 000 dolarów i w ubiegłym roku kupił niewielką maszynę, która stoi obecnie we Friday Harbor Laboratories. Uczony udostępnia ją bezpłatnie, ale stawia warunek - skanowana ryba musi pochodzić z muzeum. Z oferty Summersa korzystają naukowcy i studenci z całego świata. Przyjeżdżają osobiście lub przysyłają mu do zeskanowania całe pudła wypełnione okazami. Po zeskanowaniu obrazy trafiają do sieci. Summers i jego zespół skanują wiele ryb jednocześnie. Zawijają je w cylinder, który umieszczają w tomografie. Po wykonaniu zdjęć każda ryba jest zapisywana we własnym pliku. Ponadto skany nie są wykonywane w najwyższej możliwej rozdzielczości, gdyż naukowcy bardzo rzadko potrzebują tak dobrej jakości zdjęć. Dzięki temu oszczędza się czas a cała kolekcja będzie zajmowała mniej miejsca i będzie łatwiej dostępna, gdyż obejrzenie zdjęć wymaga przesłanie mniejszej ilości danych. Dotychczas wykonano dokładne skany około 515 gatunków ryb. Summers ma nadzieję, że wszystkie gatunki uda się zeskanować w ciągu najbliższych 3 lat. Uczony ma już pomysł na kolejny ambitny projekt. Chce zeskanować wszystkie 50 000 gatunków kręgowców występujących na Ziemi. Sądzi, że można tego dokonać w ciągu kilku lat za pomocą około 6 tomografów. Specjaliści z kilku amerykańskich muzeów chcą pomóc Summersowi i już złożyli wnioski sfinansowanie zakupu tomografów. « powrót do artykułu
-
Wkrótce po wyginięciu dinozaurów grupa mrówek z Ameryki Południowej zajęła się uprawą grzybów. Badania genetyczne grzybów i mrówek dowodzą niezwykle długiej historii rozwoju wzajemnej adaptacji. Przez miliony lat mrówki wypracowały takie metody uprawy grzybów, które przewyższają wydajnością ludzkie rolnictwo. Podczas procesu adaptacji grzyby i mrówki wymieniały się genami, dzięki czemu teraz mogliśmy prześledzić, jak proces przebiegał. Z artykułu opublikowanego w Nature Communications dowiadujemy się, że przed 60-55 milionami lat mrówki z rodzaju Attini porzuciły łowiecko-zbieracki tryb życia i zajęły się uprawą grzybów, które rosły na rozkładających się roślinach. Wolno rosnące grzyby mogły zapewnić pożywienie niewielkim koloniom mrówek. Był to jednak pierwszy, istotny krok w kierunku bardziej wydajnej uprawy i większych kolonii. Mrówki straciły wiele genów, gdy poświęciły się uprawie grzybów - mówi profesor Jacobus Boomsma z Uniwersytetu w Kopenhadze i Smithsonian Tropical Research Institute. Z jednej strony mrówki uzależniły swój byt od grzybów, z drugiej zaś grzyby - produkując więcej bardziej pożywnych owocników - zwiększyły szanse na przetrwanie. Doprowadziło to do całej kaskady zmian ewolucyjnych, jakich nie można porównać ze zmianami u żadnych innych zwierząt - dodaje uczony. Badania wykazały, że przed około 25 milionami lat jedna z linii mrówek zaczęła uprawiać grzyby, których owocniki miały formę niewielkich bogatych w białka kul. Były one bardziej pożywne, dzięki czemu możliwe było rozrośnięcie się kolonii mrówek i dalszego zacieśniania współpracy pomiędzy nimi a grzybami. W efekcie tego procesu przed 15 milionami lat pojawiły się współczesne mrówki z rodzajów Atta i Acromyrmex, czyli tzw. leafcutter ants. Mrówki te codziennie zajmują się swoimi grzybami, dostarczają im świeżą materię organiczną. W ten sposób dysponują w pełni udomowionymi gatunkami grzybów, które uprawiają na skalę przemysłową, dzięki czemu kolonie mrówek mogą liczyć miliony osobników. Udomowienie grzybów miało swoje konsekwencje. W przeciwieństwie do swoich przodków czy do gatunków dziko żyjących, grzyby uprawiane przez mrówki utraciły zdolność do rozkładania ligniny, przez co są całkowicie zależne od roślin zielonych dostarczanych przez mrówki. Zamiast tego, grzyby wytwarzają atrakcyjne dla mrówek zarodniki zawierające proteiny niezbędne uprawiającym je zwierzętom. U mrówek zaś pojawiły się enzymy, dzięki którym łatwo trawią wysoko wydajne grzyby, jednak nie mogą jeść niczego innego. Po milionach lat ewolucji mrówki i grzyby są całkowicie od siebie zależne. Stały się dominującymi roślinożercami lasów tropikalnych. Profesor Boomsma, porównując osiągnięcia mrówek z ludzkimi mówi, że to tak, jakby człowiekowi udało się wyhodować superpożywienie, roślinę zawierającą wszystkie potrzebne składniki odżywcze, odporną przy tym na choroby, szkodniki oraz susze i uprawiać ją na skalę przemysłową. « powrót do artykułu
-
Biorusztowanie z hydrożelu wspomaga regenerację rdzenia
KopalniaWiedzy.pl dodał temat w dziale Medycyna
Sing Yian Chew i zespół z Uniwersytetu Technologicznego Nanyang wykazali, że rusztowanie z hydrożelu wspomaga naprawę tkanek po uszkodzeniu rdzenia nerwowego. Za pomocą dostępnych wcześniej biorusztowań często nie udawało się kierować wzrostem nerwów, a wokół implantu tworzyły się blokujące regenerację blizny. Singapurczycy postanowili więc stworzyć nowy typ rusztowania. Naukowcy połączyli kolagenowy hydrożel z luźno rozmieszczonymi nanowłóknami kopolimeru PCL, czyli poli(ε-kaprolaktonu), z EEP (fosforanem trietylu), uzyskując trójwymiarowe rusztowanie, które można wszczepić w miejscu uszkodzenia rdzenia. Sprawdzali też, czy pomocny jest dodatek neurotrofiny 3 (NT3). Neurotrofiny spełniają wiele różnych funkcji, np. regulują wzrost dendrytów, modulują uwalnianie neuroprzekaźników oraz ekspresję ich receptorów, biorą udział w kształtowaniu obwodów neuronalnych, a także kontrolują namnażanie, różnicowanie i plastyczność neuronalną. Po 3 miesiącach stwierdzono, że u szczurów z rdzeniem uszkodzonym na poziomie kręgu C5 implant, zwłaszcza wysycony NT3, sprzyjał wzrostowi nerwów wzdłuż nanowłókien, nie powodując przy tym stanu zapalnego czy bliznowacenia (w przypadku zastosowania NT3 średnia długość aksonu wynosiła 391,9 ± 12,9 μm). Co ważne, gryzonie z rusztowaniem z NT3 odzyskały więcej funkcji ruchowych. Autorzy raportu z pisma ACS Biomaterials Science & Engineering podsumowują, że ich hybrydowe rusztowanie zapewniało skuteczne kierowanie kontaktowe dla aksonów in vivo. « powrót do artykułu -
By ugasić pieczenie po zjedzeniu papryczek chili, najlepiej wypić mleko - twierdzą naukowcy z Uniwersytetu Stanowego Nowego Meksyku. Okazuje się, że mleku występuje białko, które może wypierać kapsaicynę z receptorów na języku. To najszybszy sposób na pozbycie się pieczenia - opowiada Paul Bosland. Amerykanin wyjaśnia, że gdy kapsaicyna przyłączy się do receptorów w jamie ustnej, do mózgu wysyłany jest taki sam sygnał, jak po dotknięciu czegoś gorącego. To dlatego niektórzy ludzie pocą się po zjedzeniu pikantnych papryczek. W takiej sytuacji pomogą mleko i produkty mleczne, np. śmietana czy lody. Bosland dodaje, że węglowodany również zastępują kapsaicynę w receptorach, ale nie tak skutecznie jak mleko. Jeśli weźmie się pod uwagę chleb i cukier, cukier będzie lepszy [...]. Naukowiec podkreśla, że ani alkohol, ani woda nie pomogą, bo nie zablokują kapsaicyny, tylko rozprowadzą ją po całej jamie ustnej. Ludzie często pytają, które papryczki są bardziej pikantne: czerwone czy zielone. To [oczywiście] zależy od odmiany, ale generalnie czerwone będą łagodniejsze, bo zawierają więcej pomagających zneutralizować pieczenie cukrów. « powrót do artykułu
-
W czasie pierwszej połowy bieżącego roku padło wiele rekordów temperatury. Wszystko wskazuje na to, że rok 2016 będzie najgorętszym w historii pomiarów. Częściowo za wysokie temperatury odpowiada wyjątkowo silne tegoroczne El Niño. Po jego zakończeniu temperatury nieco spadły, nadal jednak utrzymują się na rekordowo wysokich poziomach. Przyczyną takiego stanu rzeczy jest globalne ocieplenie. Według NOAA (Narodowa Agencja Oceaniczna i Atmosferyczna)czerwiec był o 0,9 stopnia Celsjusza cieplejszy od średniej XX-wiecznej. Z danych NASA wynika, że miesiąc ten był o 0,79 stopnia Celsjusza cieplejszy od średniej z lat 1951-1980. Jeśli weźmiemy pod uwagę dane NOAA to czerwiec był 14. rekordowo gorącym miesiącem z rzędu. Musimy spojrzeć na to z odpowiedniej perspektywy. Nawet jeśli temperatura nie ustanawia rekordów, to trend ociepleniowy jest widoczny. Zostawiliśmy daleko w tyle temperatury z XX wieku - mówi Deke Arndt, dyrektor wydziału monitorującego klimat w National Centers for Environmental Information. Bieżący rok, łącznie z czerwcem, jest dotychczas - według NOAA - o 1,05 stopnia Celsjusza cieplejszy od średniej z XX wieku. Z danych NASA wynika zaś, że jest o 1,09 stopnia Celsjusza cieplejszy od średniej z lat 1951-1980. Różnica pomiędzy obiema agencjami wynika z faktu, że używają one różnych metod przetwarzania danych o temperaturze oraz różnych skali porównawczych. Jednak obie zgadzają się co do tego, że mamy do czynienia z długoterminowym trendem ocieplania się klimatu. Zwiększa się nie tylko temperatura nad lądami. Szybko ogrzewają się również oceany. NOAA informuje, że w pierwszej połowie bieżącego roku średnia temperatura wód oceanicznych była o 0,79 stopnia Celsjusza wyższa od średniej z XX wieku. Skutkiem tego mamy do czynienia z trzecim z rzędu rekordowym rokiem blaknięcia raf koralowych. Temperatura wody zmienia się wolniej niż temperatura lądu czy powietrza, dlatego też należy spodziewać się, że nawet jeśli w drugiej części roku nad lądami dojdzie do szybkich spadków temperatury, to oddające ciepło oceany utrzymają globalną temperaturę na rekordowo wysokim poziomie. O tym, czy cały rok 2016 będzie gorętszy od roku 2015 zdecydują nadchodzące miesiące. Wszystko wskazuje bowiem na to, że sprawdzą się prognozy i wkrótce pojawi się La Niña. Zjawisko to obniża temperatury. Jeśli nawet bieżący rok nie będzie cieplejszy od roku ubiegłego, to trendy globalne są jasne. Spośród 15 najgorętszych lat w historii pomiarów aż 14 miało miejsce w XXI wieku. « powrót do artykułu
-
Starsza młodszej zawsze przyjdzie z pomocą
KopalniaWiedzy.pl dodał temat w dziale Nauki przyrodnicze
Japońscy prymatolodzy zaobserwowali, że starsze samice bonobo przychodzą z pomocą młodszym samicom, gdy te padają ofiarą agresywnych samców. Nahoko Tokuyama i Takeshi Furuichi z Uniwersytetu w Kioto obserwowali bonobo z Wamba w Demokratycznej Republice Konga. Samice naczelnych nawiązują czasem sojusze, by atakować innych. Zazwyczaj koalicje tworzą się między krewnymi, które w ten sposób chronią przed obcymi cenne zasoby. U bonobo w okresie dojrzewania samice opuszczają jednak grupę urodzenia, dlatego generalnie samice w stadzie nie są ze sobą spokrewnione. Mimo to często tworzą sojusze. Głównym celem naszego badania było zbadanie dynamiki grupowej leżącej u podłoża formowania takich koalicji - wyjaśnia Tokuyama. Po 4 latach obserwacji okazało się, że wszystkie koalicje samic powstawały, by atakować samce, zazwyczaj po tym, jak samiec zachowywał się agresywnie w stosunku do jednej bądź większej liczby samic. Starsze samice miały większe szanse, by wygrać z samcem w walce dwóch osobników. Gdy samice tworzyły koalicje, zawsze wygrywały z samcami. Co istotne, bliskość stosunków starszych i młodszych samic nie miała wpływu na tworzenie koalicji (prawdopodobieństwo udzielenia pomocy). Wg Tokuyamy, tworzenie koalicji samic bonobo mogło wyewoluować jako sposób radzenia sobie z molestowaniem. Młode samice stoją niżej w hierarchii niż samce, ale ochrona ze strony starszych samic wydaje się pozwalać młodym samicom przyłączyć się do grupy bez ryzyka ataku ze strony samców. Kontrolując w ten sposób agresję samców, samice utrzymują ogólną nadrzędność w hierarchii społecznej. Jest to korzystne również dla starszych samic, ponieważ w nadziei na ochronę młode samice zaczynają spędzać z nimi więcej czasu, a dzięki temu synowie starszych małp mają większe szanse na kopulację z młodszymi partnerkami. « powrót do artykułu -
Na University of Illinois at Urbana-Champaign udało się odpowiedzieć na postawione przed 70 laty pytanie o granice czułości ludzkiego wzroku. Okazało się, że jesteśmy w stanie wykryć pojedynczy foton. W końcu odpowiedzieliśmy na pytanie, czy człowiek może zobaczyć pojedynczy foton - tak, może - cieszy się Paul Kwiat, specjalista ds. optyki kwantowej. Najbardziej zadziwiające jest, że nie tyle widzimy to światło, co je czujemy. To coś na granicy wyobraźni - mówi Alipasha Vairi, fizyk z Rockefeller University, który stał na czele grupy badawczej i prowadził eksperymenty również na sobie. Technika wykorzystana podczas badań może posłużyć również do sprawdzenia, w jaki sposób właściwości kwantowe, takie jak np. jednoczesna obecność fotonu w dwóch miejscach, wpływają na systemy biologiczne. Naukowcy wiedzieli od pewnego czasu, że komórki pręcików oczu żaby reagują na pojedyncze fotony. Jednak, jako że siatkówka filtruje szum z obrazu, nie było jasne, czy reakcja pręcika na foton wytworzy sygnał, który jest w stanie dotrzeć do mózgu. W ubiegłym roku Rebecca Holmes, która współpracuje z Kwiatem, przeprowadziła badania (jeszcze nieopublikowane), z których wynikało, że ludzkie oczy reagują na zestaw trzech fotonów. Teraz Vaziri przeprowadził eksperyment z pojedynczym fotonem. W eksperymencie wzięło udział trzech ochotników. Najpierw przez 40 minut siedzieli oni w kompletnych ciemnościach. Następnie mieli się patrzeć w specjalny system optyczny. Gdy naciskali guzik słyszeli dwa sygnały dźwiękowe, które następowały sekundę jeden po drugim. Czasem jednemu z tych sygnałów towarzyszyła emisja pojedynczego fotonu. Zadaniem badanych było stwierdzenie, kiedy foton został wyemitowany i określenie, w skali 1-3, na ile są pewni, że do emisji doszło. W sumie wszyscy trzej ochotnicy mieli do czynienia z 2400 próbami, w czasie których foton wyemitowano i ze znacznie większą liczbą takich, podczas których foton się nie pojawił. W wielu przypadkach się mylili, co nie jest zaskakujące, biorąc pod uwagę fakt, że ponad 90% fotonów docierających do naszych oczu nigdy nie trafia do pręcików, gdyż są absorbowane lub odbijane od innych części oka. Jednak liczba prawidłowych odpowiedzi była wyższa niż wynikałoby to tylko z przypadkowego zgadywania, a tam, gdzie odpowiedź była prawidłowa badani oceniali ją jako bardziej pewną niż tam, gdzie się mylili. Nie wszyscy naukowcy są przekonani do powyższego eksperymentu. Leonid Krivitskiy z singapurskiej Agencji Nauki, Technologii i Badań mówi, że w eksperymencie powinno wziąć udział więcej osób i nie powinni być to wyłącznie mężczyźni, gdyż wzrok kobiet i mężczyzn nieco się różni. Przyznaje jednak, że eksperyment został dobrze zaprojektowany i może dać odpowiedź na pytanie o możliwość wyłapania pojedynczego fotonu przez ludzkie oko. Vaziri planuje teraz przeprowadzenie eksperymentów badających, w jaki sposób oczy reagują na fotony znajdujące się w różnych stanach kwantowych. Szczególnie interesuje go superpozycja. Chce odpowiedzieć na pytanie, czy ludzki mózg jest w stanie ją zarejestrować. « powrót do artykułu
-
Toshiba ogłosiła, że w trzecim kwartale bieżącego roku rozpocznie produkcję pierwszych 64-warstwowych układów 3D NAND. To wyzwanie rzucone Samsungowi, który podobne układy będzie produkował kwartał później. Pierwsze kości 3D NAND powstały w 2013 roku w fabrykach Samsunga. W układach tego typu komórki pamięci są ułożone warstwami, co poprawia pojemność oraz tempo transferu danych. Toshiba zaczęła wytwarzać 3D NAND dopiero w ubiegłym roku. Korzysta jednak przy tym z technologii SONOS (semiconductor-oxide-nitride-oxide-semiconductor, półprzewodnik-tlenek-azotek-tlenek-półprzewodnik) podczas gdy Samsung wykorzystuje TANOS (Titanium, Alumina, Nitride, Oxide, Silicon - tytan, tlenek glinu, azotek, tlenek, krzem). Technika Toshiby pozwala łatwiej zwiększać liczbę warstw, jest jednak ogólnie bardziej skomplikowana i mniej produktywna. « powrót do artykułu
-
Amerykańskie badania wykazały, że składając zamówienie bezpośrednio przed jedzeniem, ludzie wybierają bardziej kaloryczne dania. Jeśli zamówienie jest składane godzinę przed posiłkiem lub jeszcze wcześniej, dania są mniej kaloryczne. Nasze badania pokazują, że zamawianie dań, gdy jest się już głodnym i gotowym do jedzenia, prowadzi do ogólnego wzrostu energetyczności wybieranych potraw i sugerują, że zamawianie z wyprzedzeniem znacząco zmniejsza prawdopodobieństwo ulegania pokusom - podkreśla dr Eric M. VanEpps z Uniwersytetu Pensylwanii. Wiele wskazuje na to, że restauracje oraz inni dostawcy jedzenia mogą zadbać o zdrowie swoich klientów, oferując im możliwość składania zamówień zawczasu. Naukowcy przyglądali się online'owym zamówieniom 690 pracowników w firmowej restauracji, a także 195 studentom, wybierającym z menu dostarczanych lunchów. We wszystkich 3 badaniach stwierdzono, że zawartość kalorii była wyższa, gdy między zamówieniem a jedzeniem upływał krótszy czas albo konsumpcja następowała właściwie od razu. W ramach 1. studium analizowano ponad 1000 online'owych zamówień. Można je było składać po siódmej rano i odbierać o dowolnej porze między jedenastą a czternastą. W ramach 2. losowo przypisywano uczestników do składania zamówień przed dziesiątą albo po jedenastej. W 3. losowano studentów do grup, które zamawiały lunch przed lub po zajęciach (posiłki dostarczano tuż po zajęciach). W 1. badaniu zauważono, że każda dodatkowa godzina między złożeniem zamówienia a odbiorem gotowego posiłku (średni czas wynosił 105 minut) oznaczała spadek energetyczności o ok. 38 kalorii. W 2. badaniu stwierdzono, że w porównaniu do ludzi, którzy złożyli zamówienie bliżej pory lunchu ze średnim odroczeniem rzędu 40 min, średnie zmniejszenie kaloryczności w przypadku osób, które złożyły zamówienie z wyprzedzeniem (średnio 168 minut wcześniej), sięgało 30 kcal (kaloryczność posiłku to 568 vs. 598 kcal). Trzecie studium zademonstrowało, że studenci, którzy składali zamówienie z wyprzedzeniem, wybierali mniej kaloryczne dania (średnio 890 kcal) niż osoby zamawiające w porze lunchu (średnio 999 kcal). We wszystkich trzech badaniach niższa kaloryczność nie ograniczała się do jakiejś specyficznej podgrupy. Na stwierdzoną korelację nie wpływało pomijanie śniadania. Nie zauważono też różnic w zadowoleniu z posiłków zamawianych z wyprzedzeniem i niedługo przed jedzeniem. Badania dostarczają kolejnych dowodów, że decyzje podejmowane pod wpływem chwili nie są tak dalekowzroczne jak te podejmowane z wyprzedzeniem - dodaje dr George Loewenstein z Carnegie Mellon. Autorzy publikacji z Journal of Marketing Research podkreślają, że w ramach przyszłych badań należałoby ustalić, czy ludzie nie nadrabiają mniejszej kaloryczności lunchów podczas innych posiłków lub podjadając między nimi. Ponieważ w firmowej restauracji ceny były obniżone, a lunche studentów darmowe, warto też sprawdzić, jak ludzie by się zachowywali, płacąc za dania pełne stawki. « powrót do artykułu
-
W Watykanie zdigitalizowano ocalałe fragmenty manuskryptu Vergilius Vaticanus. Zawiera on jedną z najstarszych znanych wersji Eneidy. Księga powstała około roku 400, a w jej tworzeniu brał udział skryba i trzech iluminatorów. Niezwykły zabytek udostępniono w internecie. Digitalizacja Vergilius Vaticanus to część większego projektu prowadzonego od lat przez Digita Vaticana, organizację założoną przy Bibliotece Watykańskiej. Jej celem jest digitalizacja znajdujących się tam manuskryptów. Bibliotekę Watykańską zaczął tworzyć w 1451 roku papież Mikołaj V, wielki miłośnik książek. Chciał, by była to biblioteka publiczna, przyciągająca uczonych do Stolicy Apostolskiej. Papież zebrał kodeksy ze zbiorów swoich poprzedników oraz swoje własne, zatrudnił tłumaczy, którzy przekładali greckie dzieła na łacinę. Dzięki niemu ocalało wiele cennych zabytków literatury. W 1455 roku zbiory biblioteki liczyły już 1200 ksiąg. Niestety, Mikołaj V zmarł w tym samym roku, co wstrzymało prace nad uczynieniem biblioteki publiczną. Jego dzieło dokończył w 1475 roku Sykstus IV, który oficjalnie otworzył Bibliotekę Palatyńską. W 1481 roku zbiory liczyły 2527 ksiąg. Była to największa biblioteka w świecie zachodnim. Vergilius Vaticanus, obok Eneidy, zawiera też fragmenty Georgik Wergiliusza, dzieła o rolnictwie i walce człowieka z naturą. Obecnie Vergilius Vaticanus składa się z 76 stron z 50 ilustracjami. Zaginął niemal cały początek księgi. Jeśli rzeczywiście zawierała ona najważniejsze dzieła Wergiliusza, to początkowo musiała składa się z około 440 stron i 280 ilustracji. W swoim dziele digitalizacji manuskryptów Digita Vaticana współpracuje z japońską firmą NTT DATA. Używany jest specjalistyczny sprzęt, który ma ochronić cenne zabytki przed uszkodzeniem. Podczas skanowania specjaliści korzystają ze źródła światła, które nie emituje ultrafioletu, a księgi leżą na specjalnych kołyskach pozwalających na skanowanie bez pełnego ich otwierania. Jako, że mamy do czynienia z niezwykle cenną i delikatną materią cały projekt zeskanowania 80 000 manuskryptów potrwa 15 lat i pochłonie 50 milionów euro. Digita Vaticana zbiera fundusze m.in. oferując drukowaną reprodukcję Vergilius Vaticanus pierwszym 200 osobom, które wpłacą co najmniej 500 euro. « powrót do artykułu
-
Zoolog: kwestia kleszczy staje się problemem psychologicznym
KopalniaWiedzy.pl dodał temat w dziale Zdrowie i uroda
Zmiany klimatyczne, głównie ciepłe zimy, przyczyniają się do zwiększenia liczebności kleszczy - wskazuje większość naukowców. Kwestia kleszczy, choć poważna, jest jednak często wyolbrzymiana i powoli staje się problemem psychologicznym - mówi zoolog Krzysztof Dudek. Obecny rok jest kolejnym, w którym sezon na kleszcze zaczął się dość wcześnie. Większość naukowców wskazuje, że zmiany klimatyczne - głównie ciepłe zimy - przyczyniają się do zwiększenia liczebności kleszczy. Jest to powodowane głównie przez ich większą przeżywalność zimą, ale też wydłużenie ich aktywności w sezonie, a co za tym idzie - większą szansę na znalezienie żywicieli i reprodukcję - mówi PAP Krzysztof Dudek z Instytutu Zoologii Uniwersytetu Przyrodniczego (UP) w Poznaniu. Przypomina badania, zgodnie z którymi zmienia się zasięg występowania różnych gatunków kleszczy. Coraz bardziej na północ rozprzestrzeniają się gatunki ciepłolubne. Np. w Skandynawii, gdzie na północy pojawiają się gatunki obecne dotychczas bardziej na południu. To oznacza, że na nasze tereny równie dobrze mogą napływać gatunki kleszczy z południa Europy - mówi zoolog. W całej Polsce występuje kleszcz pospolity, natomiast na wschód od Wisły coraz częściej można spotkać kleszcza łąkowego, uznawanego właśnie za gatunek bardziej ciepłolubny - zauważa Krzysztof Dudek. Zdaniem zoologa kwestia kleszczy - choć poważna - jest jednak ostatnio często wyolbrzymiana i powoli staje się problemem psychologicznym. Naukowiec sugeruje, by informacje na temat kleszczy czerpać nie tylko z mediów i reklam, ale przede wszystkim ze źródeł naukowych. Ostatnio często obserwuję wywoływanie paniki wśród ludzi, a zwłaszcza wśród właścicieli psów i kotów. W skrócie: mówi się im, że jeżeli nie będą stosować profilaktyki przeciw kleszczom, to ich pupilom na pewno stanie się coś złego. Oczywiście zakażenie boreliozą czy babeszjozą może skończyć się nawet śmiercią zwierzęcia, jednak nie możemy mówić, że są to choroby bardzo częste i spacery z psem po lesie na pewno skończą się zarażeniem. Jednocześnie coraz więcej firm sprzedaje repelenty, specjalne obroże, płyny itp. przy jednoczesnych akcjach marketingowych posługujących się nie do końca naukowymi argumentami. A ludzi, którzy znaleźli u siebie lub swojego zwierzęcia kleszcza, namawia się, żeby po wyciągnięciu wysyłali go na badanie genetyczne, kosztujące 200-300 zł. Ale jeśli nawet badania wykażą obecność patogenów - to prawdopodobieństwo, że uległo się zakażeniu, przy prawidłowym usunięciu kleszcza, wciąż jest niewielkie - uspokaja. Tymczasem - zauważa Dudek - wpajany przez producentów repelentów strach przed kleszczami powoduje, że ludzie zaczynają unikać kontaktu z przyrodą. Sam znam przypadki, gdy rodzice nie przyprowadzają dzieci do przedszkola, bo tego dnia planowana jest wycieczka do lasu. Takie postępowanie na dłuższą metę może mieć znacznie gorsze skutki zdrowotne dla społeczeństwa, związane np. z otyłością, niż choroby odkleszczowe - uważa. Duża liczba przypadków boreliozy wykrywanych wśród ludzi nie musi też oznaczać, że aż tak gwałtownie przybywa zakażeń - dodaje. Niekoniecznie musimy mieć do czynienia z prostym przełożeniem: jeśli coraz więcej osób choruje na boreliozę, to znaczy, że ma ją więcej kleszczy lub że więcej osób się nią zaraża. Dawniej ludzie też chorowali na boreliozę, ale nawet o tym nie wiedzieli, gdyż choroba ta daje nieswoiste objawy. Jeśli ktoś zdejmie z siebie kleszcza, a za jakiś czas ma objawy grypopochodne i pójdzie do lekarza, to dziś często lekarz nawet rutynowo zleca badanie w kierunku boreliozy. Kiedyś tak nie postępowano, a leczeniem obejmowano najczęściej tylko osoby, u których w okolicy ugryzienia pojawił się rumień wędrujący, niestety występuje on tylko u ok. jednej trzeciej zakażonych. Większa liczba zachorowań w ostatnich latach może wynikać nie tylko ze wzrostu liczby zakażeń, ale też z coraz lepszej diagnostyki tej choroby - mówi Krzysztof Dudek. Borelioza jest chorobą najczęściej przenoszoną przez kleszcze. Według danych Narodowego Instytutu Zdrowia Publicznego - Państwowego Zakładu Higieny liczba notowanych w Polsce przypadków zakażenia tą chorobą od kilku lat rośnie. W 2012 r. było ich 8 806, w 2013 r. - 12 760, w 2014 r. - 13 886, a w 2015 - prawie 14 tys. przypadków. Kleszcze przenoszą też chorobę ośrodkowego układu nerwowego, kleszczowe zapalenie mózgu (ZKM). Wywołującym ją wirusem zakażonych jest 3-15 proc. populacji kleszczy w Polsce. Do zachorowania na ZKM w ostatnich latach dochodzi u ok. 200 osób rocznie. Najwięcej przypadków było w 2009 r. - prawie 350; w 2014 r. zachorowało prawie 200 Polaków. Ryzyko zachorowania na KZM w Polsce jest rozłożone nierówno, największe jest w północno-wschodniej części kraju i na południu. Przeciwko kleszczowemu zapaleniu mózgu (KZM) można się szczepić. Jeśli chodzi o boreliozę, najskuteczniejszą metodą zapobiegania jest unikanie ukąszenia kleszczy. Kleszcze żyją głównie w lasach liściastych i mieszanych, na obszarach trawiastych, w gęstych zaroślach, paprociach, a także w parkach miejskich i na obrzeżach osiedli mieszkaniowych otoczonych terenami zieleni. Przyciąga je biały kolor, ciepło, ruch powietrza i zapach kwasu masłowego obecnego w pocie. Zaleca się, aby przed wyjściem do lasu czy parku założyć obcisłe spodnie, zakryte buty, a na głowę kapelusz. Po powrocie do domu dokładnie należy się obejrzeć, sprawdzić każde miejsce na ciele, a szczególnie te, które najbardziej upodobały sobie pasożyty - pod pachami, w zgięciach kolanowych, łokciowych, za uszami. Jeśli już dojdzie do wkłucia się kleszcza, należy go jak najszybciej wyjąć z ciała. « powrót do artykułu -
W pierwszej połowie 2016 r. jakość powietrza w Pekinie się poprawiła. Jak poinformowało Miejskie Biuro Ochrony Środowiska, poziom pyłu PM2,5, zawierającego cząstki o średnicy poniżej 2,5 mikrometra, które mogą docierać do górnych i dolnych dróg oddechowych oraz przenikać do krwi, spadł w porównaniu do tego samego okresu roku 2015 o 17,9%. Liczba dni, w których jakość powietrza uznawano za dobrą, wzrosła o o19 (do 107), zaś liczba dni z dużym zanieczyszczeniem spadła o 2 (do 14). Poprawę przypisano paru zjawiskom, w tym zamykaniu 174 najbardziej zanieczyszczających pekińskich fabryk, zamianie węgla na alternatywne źródła energii w 463 społecznościach, wycofaniu dziesiątków tysięcy zanieczyszczających powietrze pojazdów oraz wprowadzeniu 6803 pojazdów wyłącznie elektrycznych. Najważniejszym źródłem zanieczyszczenia powietrza w Chinach jest spalanie węgla. Państwo Środka jest obecnie największym emitentem gazów cieplarnianych na świecie (Stany Zjednoczone wyprzedzają je jednak pod względem emisji per capita). Naukowcy z Instytutu Maxa Plancka oszacowali, że smog prowadzi tu do 1,4 mln przedwczesnych zgonów rocznie. Wg kalifornijskiej Berkeley Earth, statystyki są jeszcze gorsze i sięgają nawet 1,6 mln. « powrót do artykułu
-
Teleskop Keplera, pomimo poważnej awarii, jakiej uległ przed 3 laty, wciąż pomaga odkrywać egzoplanety. Z The Astrophysical Journal Supplement Series dowiadujemy się, że połączeniu danych z misji K2 z obserwacjami z teleskopów Gemini, Automated Planed Finder oraz Large Binocular Telescope odkryto ostatnio ponad 100 nowych planet pozasłonecznych. Jest wśród nich pierwszy znany system planetarny składający się z czterech planet podobnych do Ziemi. Podczas swojej pierwotnej misji Kepler obserwował mały wycinek nieba, gdyż jego zadaniem było przeprowadzenie 'spisu demograficznego' planet różnego typu. To oznaczało, że do badań Keplera włączona była niewielka liczba najjaśniejszych i najbliższych czerwonych karłów. W ramach obecnej misji, K2, liczba małych czerwonych karłów wzrosła 20-krotnie - mówi Ian Crossfield z University of Arizona. Jednym z najważniejszych z najnowszych odkryć jest zauważenie systemu składającego się z czterech potencjalnie skalistych planet wielkości 120-150 procent wielkości Ziemi, które okrążają gwiazdę o połowę mniejszą i słabiej świecącą niż Słońce. Okres orbitalny tych planet wynosi od 5,5 do 24 ziemskich dni. Dwie z nich mogą otrzymywać od swojej gwiazdy tyle energii, co Ziemia od Słońca. Obserwowanie małych gwiazd i ich systemów planetarnych z większym prawdopodobieństwem pozwoli nam odkryć planetę, na której istnieje życie. Mniejsze gwiazdy powszechnie występują w Drodze Mlecznej. Niewykluczone więc, że życie pojawia się w ich systemach planetarnych częściej niż wokół gwiazd podobnych do Słońca - mówi Crossfield. « powrót do artykułu