Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    226

Zawartość dodana przez KopalniaWiedzy.pl

  1. Amerykańska Unia Geofizyczna informuje, że pod płytkimi arktycznymi jeziorami topi się wieczna zmarzlina. Od około 30 lat cieplejsze zimy i związane z tym większe opady śniegu powodują, że na jeziorach pojawia się coraz mniejsza pokrywa lodowa. W wyniku tego jeziora o głębokości mniejszej niż 1 metr zwiększyły swoją średnią temperaturę aż o 2,4 stopnia Celsjusza, a w ciągu ostatnich 7 lat ich średnioroczna temperatura znajduje się powyżej punktu zamarzania. Tempo ocieplania się wiecznej zmarzliny pod jeziorami jest podobne do tempa ocieplania się pozostałych części wiecznej zmarzliny. Jednak o ile w przypadku fragmentów nie pokrytych wodą zmarzlina ma temperaturę znacznie poniżej punktu zamarzania, to w płytkich jeziorach punkt ten został przekroczony. To poważny problem, gdyż wieczna zmarzlina pokryta wodą stanowi 20-40 procent Arktyki. Jeszcze w latach 70. ubiegłego wieku na północy Alaski każdej zimy jeziora pokrywały się ponad 2-metrową pokrywą lodową. W ciągu ostatniej dekady grubość tego lodu spadła do 1,5 metra, a w wielu miejscach wynosi 1,2 metra. To zaś powoduje, że osady w płytkich jeziorach nie zamarzają jak niegdyś i wieczna zmarzlina się topi. Vladimir Romanowsky z University of Alaska Fairbanks ostrzega, że jeśli wieczna zmarzlina pod jeziorami będzie się topiła, osady opadną, jeziora staną się głębsze, co spowoduje dalsze roztapianie się wiecznej zmarzliny. To inny proces, niż może zajść na lądzie, gdzie wraz z roztapianiem się wiecznej zmarzliny może pojawić się na niej warstwa roślinności, która częściowo ją ochroni i opóźni dalsze topienie się. « powrót do artykułu
  2. U Nyctibatrachus humayuni odkryto nieznaną wcześniej u płazów pozycję spółkowania. Naukowcy z zespołu prof. Sathyabhamy D. Biju z Uniwersytetu w Delhi nazwali ją "rozkrokiem grzbietowym". By przyłapać płaza in flagranti, biolodzy przez 40 nocy zaczajali się w lasach w pobliżu Humbarli (N. humayuni to endemit zamieszkujący Ghaty Zachodnie). Naukowcy ujawniają, że u N. humayuni nie występuje typowy ampleksus (samiec nie chwyta samicy przednimi i tylnymi łapami). Zamiast tego przednie kończyny leżącego na grzbiecie samicy amanta spoczywają na liściu czy gałązce albo je obejmują. W tym czasie samica uwalnia skrzek na powierzchnię, na której siedzi spółkująca para. Samiec ejakuluje na grzbiet samicy. Przed zapłodnieniem sperma spływa po jej plecach i tylnych kończynach - wyjaśniają autorzy publikacji z pisma PeerJ. Choć N. humayuni znajdują się w odległości kilku milimetrów od siebie, w większości przypadków w ogóle się nie dotykają. Odsuwając się pod koniec aktu, samiec nadyma policzki i unosi się nad jajami. Zespół Biju sądzi, że w ten sposób chroni skrzek przed wężami. Ostatecznie zapłodniony skrzek spływa po liściu do strumienia, gdzie rozwijają się kijanki. U N. humayuni podczas godów nawołują nie tylko samce. Nie wiadomo jednak, czemu ma służyć takie zachowanie samic. Rozkrok grzbietowy to 7. opisany rodzaj pozycji przyjmowanej przez płazy podczas kopulacji. « powrót do artykułu
  3. Nowy chiński superkomputer, Sunway TaihuLight, znalazł się na czele najnowszej listy TOP500. Wydajność maszyny w teście Linpack wyniosła 93 petaflopsy, jest więc trzykrotnie większa od dotychczasowego lidera, również chińskiego Tianhe-2. Jednak tym, o czym należy przede wszystkim wspomnieć, jest fakt, że Sunway TaihuLight to w pełni chińska konstrukcja. Najnowszy superkomputer korzysta z procesorów ShenWei i chińskich łączy. Jego twórcy rozwiali więc wszelkie wątpliwości dotyczące kwestii chińskiego uzależnienia od zachodnich technologii na rynku superkomputerów. TaihuLight pracuje w Narodowym Centrum Superkomputerowym w Wuxi. Jego przeznaczeniem są obliczenia z dziedziny klimatologii, meteorologii, modelowania systemów biologicznych, analizy danych oraz z pomoc przy opracowywaniu zaawansowanych systemów inżynieryjnych. Jako pierwszy w pełni chiński superkomputer, który trafił na pierwsze miejsce najpotężniejszych maszyn świata, system Sunway TaihuLight to dowód olbrzymiego postępu, jaki poczyniły Chiny w dziedzinie projektowania i wytwarzania olbrzymich systemów komputerowych - powiedział profesor Guangwen Yang, dyrektor Centrum Superkomputerowego w Wuxi. Twórcą TaihuLight jest Narodowe Centrum Badawcze Inżynierii i Technologii Obliczeń Równoległych (NRCPC). To właśnie ta organizacja opracowała procesor SW26010, będący mózgiem superkomputera. Układ ten to 260-rdzeniowy chip o wydajności nieco ponad 3 teraflopsów. TaihuLight składa się z 40 960 węzłów, z których każdy posiada jeden procesor. Szczytowa wydajność takiej konfiguracji to 125 petaflopsów. Procesor ShenWei dorównuje więc wydajnością intelowskiemu Xeonowi Phi z rdzeniem Knights Landing. Co ciekawe, to właśnie amerykańskie embargo, które uniemożliwiło Chinom importowanie highendowych procesorów, przyczyniło się do zwycięstwa TaihuLight na TOP500. Najprawdopodobniej bowiem twórcy Tianhe-2 planowali wyposażyć swój superkomputer w najnowsze procesory Intela, dzięki czemu osiągnąłby on wydajność rzędu 100 PFlops na długo przed superkomputerem z Wuxi. Procesor ShenWei to 64-bitowy układ RISC z zestawem instrukcji SIMD z wykonywaniem poza kolejnością (out-of-order execution). Szczegółowe dane na temat jego architektury nie zostały upublicznione, jednak prawdopodobnie została ona wykonana na wzór DEC Alpha. Procesor podzielony jest na cztery grupy rdzeni. W skład każdej z nich wchodzą 64 rdzenie obliczeniowe (CPE) i jeden zarządzający (MPE). Każda grupa rdzeni posiada własny kontroler pamięci o przepustowości 136,5 GB/s. Całość współpracuje z zegarem 1,45 GHz i obsługuje jeden wątek na rdzeń. Nie wiadomo, w jakiej technologii wykonano procesor. Każdy z węzłów ma do dyspozycji 32 gigabajty pamięci, w sumie cały superkomputer dysponuje 1,3 PB. Tylko pozornie jest to dużo. Większość superkomputerów charakteryzuje się znacznie lepszym stosunkiem pamięci do wydajności. Ponadto TaihuLight korzysta z kości DDR3, które są wolniejsze i zużywają więcej energii niż DDR4. Superkomputer dysponuje też niewielką ilością pamięci podręcznej. Nie jest ona podzielona na poziomu. Każdy z rdzeni ma do dyspozycji 12 kB pamięci na instrukcje oraz 64 kB pamięci notatnikowej, w której przechowuje wyniki obliczeń. O ile podsystem pamięci nie jest mocną stroną superkomputera, to można go pochwalić za energooszczędność. TaihuLight potrzebuje do pracy 15,3 MW, podczas gdy trzykrotnie mniej wydajny pobiera 17,8 MW. Dzięki takim osiągom TaihuLight z pewnością trafi na listę Green500, gdyż jego wydajność na wat wynosi aż 6 gigaflopsów. Trzeba jednak wspomnieć, że gdyby maszyna dysponowała większą ilością pamięci, pobierałaby znacznie więcej mocy. Połączenia pomiędzy poszczególnymi węzłami superkomputera również są rodzimego autorstwa. Bazują one na technologii PCIe 3.0, co zapewnia przepustowość rzędu 16 GB pomiędzy węzłami, a opóźnienia wynoszą 1 mikrosekundę. System operacyjny maszyny to Sunway Raise OS. Wykorzystuje on standardową dystrybucję Linuksa, do której wprowadzono zmiany niezbędne, by system działał na specyficznej architekturze superkomputera. Dla porządku wspomnimy, że na drugim miejscu najnowszej TOP500 znalazł się chiński Tianhe-2 (33,8 PFlops), następny jest amerykański Titan (17,6 PFlops), na czwartej pozycji ulokował się również amerykański Sequoia (17,2 PFlops). Kolejne miejsca zajmują K Computer (10,5 PFLops, Japonia), Mira (8,6 PFlops, USA), Trinity (8,1 PFlops, USA), Piz Daint (6,3 PFlops, Szwajcaria), Hazel Hen (5,7 PFlops, Niemcy) oraz Shaheen II (5,6 Pflops, Arabia Saudyjska). Na liście znajdziemy też 6 superkomputerów z Polski. Są to Prometheus (48. pozycja, 1,7 PFlops), Hetman (90. pozycja, 1 PFlops), Okeanos (107. pozycja, 0,9 PFlops), BEM (147. pozycja, 0,7 PFlops), Tryton (209. pozycja, 0,5 PFlops) oraz maszyna z Centrum Komputerowego w Świerku (292. pozycja, 0,4 PFlops). « powrót do artykułu
  4. U nastolatków z cukrzycą typu 2. występują zmiany w ogólnej objętości substancji szarej, a także zmiany w ilości substancji szarej w regionach powiązanych z widzeniem i słyszeniem, pamięcią, emocjami, mową, podejmowaniem decyzji oraz samokontrolą. Naukowcy z Centrum Medycznego Szpitala Dziecięcego w Cincinnati odkryli, że w 6 regionach znajduje się znacząco mniej istoty szarej, a w 3 znacząco więcej. Natrafili też na związek między zmniejszoną ilości istoty szarej w mózgu i zdolnością do wymawiania i analizowania nieznanych słów. Wcześniejsze badania sugerowały, że u młodych osób z cukrzycą typu 2. występują zmiany w budowie mózgu. W porównaniu do rówieśników, typowe są także słabsze wyniki funkcjonowania poznawczego. Dotąd nie oceniano [jednak] kompleksowo ogólnej i regionalnej objętości mózgu. Zależało nam również na sprawdzeniu, czy zaobserwowane zjawiska wyjaśniają słabsze wyniki - wyjaśnia dr Amy Sanghavi Shah. Amerykanie porównywali 20 nastolatków z cukrzycą typu 2. z grupą 20 zdrowych osób w podobnym wieku (dopasowywano też rasę i płeć). Wszystkich poddano rezonansowi magnetycznemu w wysokiej rozdzielczości. W żadnej z grup nie występowały zaburzenia neurologiczne czy psychologiczne. Nie było też nieprawidłowości w wykonywanych wcześniej MRI. Nasze wyniki nie pokazują związku przyczynowo-skutkowego. Nie wiemy, czy zaobserwowane zmiany są bezpośrednim skutkiem cukrzycy, ale badania dorosłych z dłużej trwającą cukrzycą typu 2. także pokazują zmiany w objętości mózgu i unaczynieniu oraz pogorszenie funkcjonowania poznawczego [...] - dodaje dr Jacob Redel. W przyszłości naukowcy chcą przeprowadzić kolejne badanie z dodatkową grupą otyłych osób bez cukrzycy. Planują także powiększenie próby. W ten sposób będzie można ustalić, czy zaobserwowane zmiany są związane z otyłością, czy raczej z wysokim poziomem cukru we krwi i sprawdzić, czy różnice w objętości mózgu wpływają też na inne funkcje poznawcze, np. pamięć. « powrót do artykułu
  5. KELT-9b to rzadki przypadek planety krążącej wokół bardzo młodej masywnej gwiazdy. Powierzchnia planety jest cieplejsza niż powierzchnia niektórych czerwonych karłów. Wspomniana planeta została odkryta dzięki Kilodegree Extremely Little Telescope (KELT), dwóm automatycznym teleskopom umieszczonym w Arizonie i RPA. Okrąża ona gwiazdę ponaddwukrotnie bardziej masywną od Słońca, a sama ma średnicę i masę dwukrotnie większą od Jowisza. Na powierzchni KELT-9b temperatura dochodzi do 3400 stopni Celsusza. Planeta wpadła w spiralę śmierci i opada na powierzchnię swojej gwiazdy. Karen Collins z University of Tennessee, członkini zespołu, który odkrył planetę, informuje, że obecnie krąży ona wokół jednego z biegunów gwiazdy. Zdaniem uczonej to spowoduje zmianę orbity planety. Za kilkadziesiąt lat zniknie nam ona z oczu na tysiąc albo i więcej lat, a później znowu się pojawi - stwierdza Collins. Zdaniem profesora Aarona Boleya z kanadyjskiego University of British Columbia, orbita KELT-9b jest niezwykle intrygująca. Planety powstają z dość płaskiego dysku gazu i pyłu, który zwykle formuje się wokół równika gwiazdy. Fakt, że nowo odkryta planeta krąży wokól bieguna sugeruje, że mogła ona wejść w interakcje z inną planetą. KELT-9b jest skazana na zagładę. Albo rozerwą ją siły pływowe gwiazdy, albo opadnie na jej powierzchnię. Tak czy inaczej jest ona niezwykle interesującym obiektem i naukowcy będą ją badać, póki mają okazję. « powrót do artykułu
  6. W recenzowanym piśmie AIP Advances 6 ukazał się artykuł na temat kontrowersyjnego silnika EmDrive. Jego autorzy, profesor fizyki Arto Annila z Uniwersytetu w Helsinkach, doktor chemii organicznej Erkki Kolehmainen z Uniwersytetu w Jyväskylä oraz fizyk Patrick Grahn z firmy Comsol, twierdzą, że EmDrive zyskuje ciąg dzięki ucieczce fotonów z zamkniętej komory. Brytyjski naukowiec Roger Shawyer opracował i zaprezentował koncepcję EmDrive w latach 90. ubiegłego wieku. Jego zdaniem silnik ten mógłby całkowicie zmienić przemysł kosmiczny, pozwolić na zaoszczędzenie energii i umożliwić szybsze i tańsze podróżowanie poza naszą planetą. Wielu ekspertów wątpi w to, czy EmDrive w ogóle działa. Jednak w ostatnim czasie ukazało się kilka prac naukowych z Niemiec, Chin, nawet NASA, których autorzy stwierdzili, że EmDrive działa, chociaż nie wiedzą dlaczego. Jeśli Finowie mają rację i ich wyjaśnienie pojawienia się ciągu w EmDrive jest prawdziwe, to specjaliści będą mogli udoskonalić silnik, zbadać go i wyjaśnić zasadę jego działania. Profesor Annila to znany badacz sił natury. Jest on autorem niemal 50 prac opublikowanych w prestiżowych pismach. Jego teorie znalazły zastosowanie w badaniach ciemnej energii i ciemnej materii, ewolucji, ekonomii czy neurologii. Teraz Annila stwierdza: EmDrive jest jak każdy inny silnik. Pobiera paliwo i wytwarza ciąg. Od strony paliwa wszystko jest proste i zrozumiałe dla każdego - do silnika wysyłane są mikrofale. Problemy w tym, że nie widać niczego, co by się z niego wydostawało, dlatego też ludzie sądzą, że silnik nie działa. Jak więc możesz niego wydostawać się coś, czego nie można wykryć? Fotony odbijają się w komorze w tę i z powrotem. Część z nich podąża w tym samym kierunku i z tą samą prędkością, jednak ich faza jest przesunięta o 180 stopni. Jeśli więc podróżują w takiej konfiguracji, nawzajem znoszą swoje pole elektromagnetyczne. To jak fale wody podróżujące razem, gdy jedna fala jest przesunięta względem drugiej tak, że nawzajem się niwelują. Woda nie znika, nadal tam jest. Tak samo nie znikają fotony, które są nośnikiem pędu, chociaż nie widać ich w formie światła. Jeśli zaś fale nie mają już właściwości elektromagnetycznych, gdyż nawzajem je sobie zniwelowały, nie odbijają się od ścian komory i się z niej wydostają. Mamy więc napęd dzięki fotonom występującym w parach. Wszystko, co dzieje się w naturze, to proces. Każdy silnik to proces - potrzebuje paliwa i wydechu. EmDrive działa według tych samych zasad co wszystko inne. Podstawowe prawa natury są niezwykle przemyślane, a wielu specjalistów w nie nie wierzy, gdyż czynią one każdą teorię redundantną - stwierdza Annila. Uczony dodaje, że zamiast z góry odrzucać i krytykować EmDrive, środowisko naukowe powinno prowadzić więcej eksperymentów z udziałem tego silnika. Wspomina tutaj teorię kwantowej inercji brytyjskiego fizyka Mike'a McCullocha i zgadza się z McCullchem, który twierdzi, że nawet sam Shawyer nie w pełni rozumie, jak działa jego silnik. « powrót do artykułu
  7. Amerykańscy naukowcy ujawnili mechanizm, za pośrednictwem którego antybiotyki zmieniają mikrobiom, zwiększając ilość składników odżywczych sprzyjających rozwojowi patogenów, w tym przypadku bakterii z rodzaju Salmonella. Franziska Faber podkreśla, że badania zespołu z Uniwersytetu Kalifornijskiego w Davis po raz pierwszy pokazały, że Salmonella [enterica] świetnie się rozwijają po antybiotykoterapii, bo podanie streptomycyny skutkuje zwiększeniem dostępności produktów utleniania cukrów prostych galaktozy i glukozy. Zjawisko to napędza ekspansję serotypu (wariantu serologicznego) S. enterica Typhimurium. Nasilając ekspresję genu kodującego indukowaną syntazę tlenku azotu (ang. inducible nitric oxide synthase, iNOS) w błonie śluzowej kątnicy, antybiotyk zwiększa dostępność produktów utleniania cukrów. Dokładnie rzecz ujmując, enzym (iNOS) prowadzi do powstawania reaktywnych form azotu, które mogą utleniać cukry do kwasów cukrowych. To dlatego leczenie antybiotykami zwiększa ryzyko wystąpienia nieżytu żołądkowo-jelitowego wywołanego serotypami S. enterica, a pacjenci dłużej rozsiewają patogeny w kale (w sprzyjających dla bakterii okolicznościach częściej następują też nawroty choroby). « powrót do artykułu
  8. Odkryto kolejnego quasi-satelitę Ziemi. Asteroida 2016 HO3, jak wykazały obliczenia, od kilkudziesięciu lat znajduje się na stabilnej orbicie wokół naszej planety i pozostanie na niej przez kolejne stulecia. Asteroida o średnicy 37-91 metrów została odkryta 27 kwietnia bieżącego roku przez teleskop Pan-STARRS 1 na Hawajach. NASA informuje, że obiekt nigdy nie zbliża się do Ziemi na odległość mniejsza niż 14 milionów kilometrów, zatem nie uderzy w naszą planetę. Specjaliści mówią, że asteroida znajduje się w tak dużej odległości od nasze planety, że nie może być uznana za kolejny księżyc czy satelitę. Dlatego też 2016 HO3 zyskała miano quasi-satelity. Nie po raz pierwszy astronomowie zauważają obiekt krążący wokół naszej planety. W przeszłości Ziemi towarzyszyła asteroida 2003 YN107, opuściła jednak nasze sąsiedztwo. 2016 HO3 jest znacznie mocniej związana z Ziemią, zatem pozostanie z nami dłużej. Niektórzy specjaliści sądzą, że Ziemia ma znacznie więcej tego typu towarzyszy. Część z nich jest tutaj czasowo, część na stałe. W 2012 roku astronomowie z Uniwersytetu w Helsinkach, Obserwatorium Paryskiego i University of Hawaii przeprowadzili obliczenia, z których wynika, że w każdej chwili Ziemi towarzyszy - nie licząc Księżyca - co najmniej jeden naturalny satelita o średnicy większej niż 1 metr. « powrót do artykułu
  9. Z raportu GAO (Government Accountability Office), amerykańskiego odpowiednika NIK, dowiadujemy się, że FBI dysponuje systemem rozpoznawania twarzy, który obecnie ma do dyspozycji bazy danych składające się z niemal 412 milionów zdjęć. W raporcie skrytykowano FBI za niepoinformowanie opinii publicznej o wszystkich aspektach dotyczących programu i prywatności obywateli. Kontrolerzy stwierdzili również, że system nie został odpowiednio przetestowany pod kątem udzielania dokładnych odpowiedzi. GAO zdradza również, że w FBI działa specjalny wydział Facial Analysis, Comparison and Evaluation (FACE). Wydział ten ma dostęp do bazy Next Generation Identification (NGI), w której znajduje się niemal 30 milionów zdjęć osób, które były aresztowane przez policję oraz wiele zdjęć z miejsc publicznych. Pracownicy FACE mogą tez przeszukiwać wiele innych stanowych i federalnych baz danych, w tym bazę Departamentu Stanu zawierającą zdjęcia z paszportów i wiz oraz bazy danych kierowców z 16 stanów. Obecnie FBI negocjuje z 18 kolejnymi stanami kwestie dostępu do ich baz danych. Skądinąd wiadomo tez, że w NGI zbierane są też inne dane biometryczne, w tym odciski palców i skany tęczówek. O dostęp do tej bazy mogą też wnioskować inne agencje rządowe. W swoim raporcie GAO zaznacza, że Prokurator Generalny powinien zbadać, dlaczego FBI nie opublikowało wymaganego prawem raportu nt. wpływu swojej bazy danych na prywatność. Zwrócono się również do FBI z wnioskiem o przeprowadzenie testów dotyczących dokładności wyników uzyskiwanych przez bazę, wykonywania corocznych audytów NGI oraz sprawdzania każdej bazy danych używanej przez FACE pod kątem jej przydatności dla FBI. Departament Sprawiedliwości, odpowiadając na zarzuty GAO, stwierdza, że żaden wynik zwracany przez algorytmy przeszukujące bazę nie jest traktowany jako wynik pozytywny, nie jest on uważany za podstawę do wydania jakiejkolwiek decyzji o zatrzymaniu czy przeszukaniu, a baza służy jedynie prowadzeniu śledztw. Senator Al Franken, na wniosek którego GAO zajęło się zbadaniem systemu FBI mówi: technologia rozpoznawania twarzy to nowe potężne narzędzie, które może być przydatne organom ścigania. Obawiam się jednak, że jeśli nie będziemy pewni jej dokładności i nie zabezpieczymy się przed nadużyciami, to niewinni Amerykanie mogą zostać wplątani w śledztwa kryminalne. « powrót do artykułu
  10. Naukowcy odkryli, że ludzie, którzy ćwiczyli 4 godziny po uczeniu, 2 dni później pamiętali opanowywany materiał lepiej niż ci, którzy ćwiczyli bezpośrednio po sesji albo nie ćwiczyli w ogóle. Holendrzy podkreślają, że aktywność fizyczna po uczeniu utrwala ślady pamięciowe, ale tylko wtedy, gdy ćwiczenia są wykonywane w pewnym oknie czasowym i nie bezpośrednio po sesji. To pokazuje, że możemy poprawić konsolidację pamięci, uprawiając sport po uczeniu - twierdzi Guillén Fernández z Radboud University Medical Center. W ramach eksperymentu Fernández, Eelco van Dongen i inni badali wpływ pojedynczej sesji aktywności fizycznej na konsolidację i pamięć długotrwałą. Najpierw 72 ochotników przez ok. 40 min uczyło się 90 skojarzeń obraz-lokalizacja. Później losowano ich do trzech grup. Jedna ćwiczyła bezpośrednio po zakończeniu uczenia, druga 4 godziny później, a trzecia nie ćwiczyła w ogóle. Jako aktywność fizyczną wybrano 35-min trening interwałowy na rowerze stacjonarnym (ćwiczenia wykonywano z intensywnością do 80% maksymalnego tętna). Dwa dni później badani wracali do laboratorium na test pamięciowy. W tym czasie wykonywano im badanie obrazowe mózgu (rezonans magnetyczny). Okazało się, że najwięcej pamiętali ludzie, którzy ćwiczyli 4 godziny po uczeniu. Skany zademonstrowały także, że ćwiczenia z odroczeniem wiązały się z bardziej precyzyjnymi reprezentacjami w hipokampie (uwidaczniało się to w czasie udzielania poprawnej odpowiedzi). Nasze wyniki pokazują, że ćwiczenia właściwie zsynchronizowane czasowo mogą poprawić pamięć długotrwałą. Wskazują też na potencjał aktywności fizycznej jako metody interwencji w edukacji i warunkach klinicznych. Nie wiadomo dokładnie, czemu odroczone ćwiczenia tak wpływają na pamięć. Wcześniejsze badania na zwierzętach sugerowały jednak, że aminy katecholowe (dopamina czy noradrenalina) wspominają konsolidację pamięci, a jedynym ze sposobów na podwyższenie ich poziomu jest właśnie wysiłek fizyczny. « powrót do artykułu
  11. Rosyjskie media donoszą o... ucieczce robota, który wałęsał się po ulicach, powodując korki. Robot rozwijany jest przez Promobot Labs w Permie. Jego twórcy mówią, że jest on uczony samodzielnego poruszania się, a do jego "ucieczki" z laboratorium doszło, gdy jeden z naukowców zapomniał o zamknięciu bramy. Urządzenie wydostało się poza teren laboratorium i przebył 50 metrów, docierając do pobliskiej ulicy, zanim wyczerpały mu się baterie. Niektóre doniesienia mówią, że robot przebywał na wolności przez około 40 minut. Nie wszyscy jednak wierzą w spontaniczne wydostanie się urządzenia. Część rosyjskich mediów twierdzi, że była to akcja promocyjna firmy Promobot, która chciała w ten sposób zwrócić na siebie uwagę. Przedstawiciele Promobota informują, że ich maszyna może wchodzić w interakcje z ludźmi np. odpowiadając na pytania czy udzielając wskazówek co do lokalizacji miejsc. Jednak, jak sugeruje sama nazwa Promobot, głównym zadaniem urządzenia jest emitowanie reklam przez wbudowane głośniki. « powrót do artykułu
  12. Microsoft zaistniał na rynku, z którym wiele przedsiębiorstw nie chce mieć nic wspólnego - rynku legalnej marihuany. Koncern ogłosił,że podpisał umowę z firmą Kind Financial, przedsiębiorstwem, które sprzedaje systemy do śledzenia legalnej sprzedaży narkotyku. Na podstawie umowy Kind Financial uzyskała licencję na sprzedaż instytucjom rządowym microsoftowej chmury. Ma to być część oferty Kind Financial, firmy, której oprogramowanie trafia do producentów i sprzedawców legalnej marihuany oraz do urzędów nadzorujących cały proces. Marihuana jest legalna w niektórych stanach, w tym w stanie Waszyngton, gdzie Microsoft ma swoją siedzibę. Pozostaje jednak nielegalna według prawa federalnego, przez co np. wiele banków odmawia jakiejkolwiek współpracy z firmami mającymi do czynienia z legalną marihuaną. Obecnie około 25 stanów dopuszcza, pod różnymi warunkami, używanie marihuany. Zwykle jest to marihuana lecznicza, wydawana na receptę. Jednak w stanach Waszyngton, Oregon i Colorado dopuszczono też rekreacyjne używanie narkotyku. Tej jesieni co najmniej cztery stany planują głosowanie nad uchwaleniem u siebie podobnych przepisów. Kind Financial zdecydował się na korzystanie z chmury Azure, gdyż Azure Government jest jedyną chmurą spełniającą rządowe warunki dotyczące uczestnictwa w programie monitorowania sprzedaży marihuany. Pracownicy Microsoftu z wydziału zajmującego się kontraktami rządowymi będą brali udział, obok pracowników Kind, w negocjacjach dotyczących wykorzystania Azure. « powrót do artykułu
  13. Eksperyment LIGO po raz drugi wykrył fale grawitacyjne. Tym razem powstały one wskutek zderzenia dwóch czarnych dziur odległych od nas o 1,4 miliarda lat świetlnych, które wpadły na siebie z prędkością równą połowie prędkości światła. W przeciwieństwie do pierwszego przypadku odkrycia fal grawitacyjnych, gdy mieliśmy do czynienia z bardzo wyraźnym sygnałem, tym razem sygnał był słaby i został zauważony dopiero dzięki wykorzystaniu zaawansowanych technik analitycznych. Gdy po raz pierwszy zanotowaliśmy fale grawitacyjne, sygnał był krótki i wyraźny, od razu było go widać w danych. Teraz zaś mamy zupełnie inny obraz. Nie wystąpił łatwy do zauważenia skok sygnału. Jest on całkowicie ukryty w szumie tła - mówi Salvatore Vitale z MIT i członek zespołu LIGO. Szczegółowe badania pozwoliły stwierdzić, że czarne dziury, które się zderzyły, miały masę o 14,2 i 7,5 większa od masy Słońca. Fale grawitacyjne powstały bezpośrednio przed ostatecznym połączeniem się dziur. W ostatniej sekundzie przed połączeniem pędziły one w swoim kierunku z prędkością 150 000 km/s i okrążały się 55 razy na sekundę. Wynikiem połączenia jest czarna dziura o masie 20,8 mas naszej gwiazdy. Pozostałe 0,9 masy Słońca zostało wyemitowane w formie energii fal grawitacyjnych. Pierwszy sygnał świadczący o obecności fal grawitacyjnych zarejestrowano 14 września ubiegłego roku. Najnowszy sygnał pochodzi z 26 grudnia. Naukowcy mają nadzieję, że dzięki odkrywaniu i analizie kolejnych fal grawitacyjnych dowiedzą się, w jaki sposób pochodzi do połączenia czarnych dziur. Jedna hipoteza zakłada, że czarne dziury łączą się, gdy dwie krążące wokół siebie gwiazdy zamieniają się w czarne dziury i z czasem dochodzi do ich spotkania. Zgodnie z inną hipotezą w obszarach, gdzie występuje duże zagęszczenie niezależnych czarnych dziur zdarza się, że tego typu obiekty zbliżą się do siebie na tyle, iż zaczynają się przyciągać i w końcu się łączą. To bardzo różne scenariusze i chcemy się dowiedzieć, który z nich zachodzi częściej - mówi Vitale. Analiza fal grawitacyjnych może też powiedzieć nam dużo o początkach wszechświata. Przez pierwszych około 380 000 lat istnienia wszechświat był nieprzenikalny dla światła. Jednak fale grawitacyjne mogły się w nim przemieszczać. Naukowcy mają nadzieję, że w przyszłości uda się wykryć te wczesne fale grawitacyjne i lepiej zrozumieć ewolucję wszechświata. « powrót do artykułu
  14. Sąd w Helsinkach zdecydował, że Peter Sunde, współzałożyciel serwisu The Pirate Bay musi zapłacić grzywnę w wysokości 350 000 euro. Kwota taka musi zostać zapłacona fińskim oddziałom Sony Universal, Warner oraz EMI za umożliwianie przez TPB nielegalnej wymiany plików muzycznych. Sąd uznał, że działalność serwisu zaszkodziła 60 artystom. Peter Sunde rozstał się z The Pirate Bay przed kilkoma laty, wciąż jednak jest pozywany w związku ze swoją dawną działalnością. Serwis The Pirate Bay został, po wielu pozwach, zablokowany w Finlandii, a jego właściciele byli niejednokrotnie skazywani na kary grzywny. « powrót do artykułu
  15. Wydobywając torf z bagna Emlagh w hrabstwie Meath w Irlandii, Jack Conway natrafił na duży blok masła. Mężczyzna skontaktował się miejscowym muzeum, które zwrotnie poinformowało go, że 10-kg gomółka ma szacunkowo ponad 2 tys. lat. Savina Donohoe, kurator z Cavan County Museum, porównuje zapach masła do bardzo ostrego sera i podkreśla, że po wydobyciu na powierzchnię prehistoryczny nabiał zapewne wyschnie. Fakt, że masło było tak głęboko zakopane [znaleziono je 3,6 m pod ziemią], wskazuje, że mogło zostać złożone w ofierze bogom, których proszono o opiekę na rolą oraz inwentarzem - przekonuje Donohoe. W przeszłości często wykorzystywano niskie temperatury, małą zawartość tlenu i wysoką kwasowość bagien do konserwacji i przechowywania. Zwykle masło chowano wtedy w drewnianych pojemnikach. Tutaj czegoś takiego nie było, a to kolejna wskazówka, że ktoś, kto je zakopał, nie myślał w ogóle o odkopywaniu. Tak jak inne obiekty związane z krową, masło traktowano jak symbol bogactwa i znaczenia. Postrzegano je jako towar luksusowy. Ludzie wytwarzali je z zamiarem zjedzenia bądź sprzedaży, by zdobyć środki na opłacenie podatków i dzierżawy. Masło z Emlagh zostało przekazane do Muzeum Narodowego w Dublinie. Tam przejdzie datowanie węglowe, a następnie trafi na wystawę. « powrót do artykułu
  16. Pojedyncza kropla o objętości milionowej części litra jest naprawdę niewielka i z pewnością nie wygląda na coś, z czym można wiele zrobić. Jednak proste urządzenie, skonstruowane w Instytucie Chemii Fizycznej PAN w Warszawie, potrafi podzielić mikrokroplę na zbiór równych nanokropel. Od teraz zawarte w pojedynczej mikrokropli cenne substancje chemiczne czy materiał genetyczny mogą dać początek nawet setkom eksperymentów – lub zostać zarchiwizowane w formie bibliotek nanokropel. Kropelki wytwarzane za pomocą elektronicznych pipet czy w wyrafinowanych urządzeniach mikroprzepływowych do tej pory różniły się objętością o kilkanaście, a nawet kilkadziesiąt i więcej procent. W Instytucie Chemii Fizycznej Polskiej Akademii Nauk (IChF PAN) w Warszawie powstało jednak urządzenie kładące kres niedokładnościom i wytwarzające krople o praktycznie identycznej objętości, na dodatek liczonej w nanolitrach (miliardowych częściach litra). Co ciekawe, przyrząd jest tak prosty, że może być używany np. jako nakładka na pipety. Jego opracowanie to ważny krok w rozwoju układów mikroprzepływowych, o których mówi się, że zrewolucjonizują chemię podobnie, jak zrobiły to z elektroniką układy scalone. We współczesnej mikrofluidyce kropelki produkuje się za pomocą mniej lub bardziej złożonej aparatury, w procesach starannie kontrolowanych przez komputery. Nasz pomysł był inny: zdecydowaliśmy się przekazać kontrolę nad powstawaniem kropel nie urządzeniom, a samej fizyce. Jak by nie patrzeć, ma ona przecież w tej dziedzinie kilkanaście miliardów lat doświadczenia więcej niż my, prawda? - mówi prof. dr hab. Piotr Garstecki (IChF PAN). Układy mikroprzepływowe zwykle buduje się, trwale sklejając dwie płytki z przezroczystego tworzywa (poliwęglanu), przy czym jedna jest od strony sklejki pokryta siecią odpowiednio zaprojektowanych, bardzo cienkich wyżłobień. Po zespoleniu płytek wyżłobienia te tworzą kanaliki, w które można wtłoczyć ciecz nośną (zwykle jest nią olej). Wprowadzając do wnętrza tak skonstruowanego układu drugą ciecz, niemieszającą się z cieczą nośną (np. roztwór wodny), można wytwarzać kropelki, transportować je, dzielić, łączyć, mieszać ich zawartość. Świętym Graalem mikrofluidyki jest stworzenie laboratorium o rozmiarach zbliżonych do współczesnych układów scalonych, zdolnego do realizowania złożonych eksperymentów chemicznych i biologicznych. Innymi słowy: lab on a chip. To cel, bo na razie mamy raczej... chip in a lab - mówi dr Filip Dutka (IChF PAN, Wydział Fizyki Uniwersytetu Warszawskiego) i wyjaśnia: Obecne układy mikrofluidyczne potrafią już wiele, ich rozmiary są małe, ale żeby taka płytka działała, wokół niej stoją jakieś pompy strzykawkowe, komputery sterujące przepływem, wszystko w plątaninie wężyków. Nasze urządzenie eliminuje znaczną część tej kłopotliwej i drogiej infrastruktury. Przyrząd, zaprojektowany w IChF PAN na zlecenie firmy Curiosity Diagnostics przy wsparciu grantu Fundacji na rzecz Nauki Polskiej oraz europejskiego grantu ERC Starting Grant, to nic innego jak kanalik o starannie zaprojektowanej geometrii. Gdy z jednej strony wprowadza się w niego ciecz roboczą, zaczyna ona uchodzić przez wylot tak ukształtowany, że w chwili, gdy przedostanie się przez niego odpowiednia ilość cieczy, siły napięcia powierzchniowego naturalnie zamykają jej powierzchnię. Za każdym razem dzieje się to w tym samym momencie. W efekcie każda nanokropla odrywająca się od wylotu ma zawsze tę samą objętość. Za pomocą różnych egzemplarzy nowego przyrządu grupa prof. Garsteckiego wytwarzała serie kropelek o rozmiarach od ok. 0,5 do ok. 50 nanolitrów. Nasze urządzenie tworzy nanokrople z szybkością kilkudziesięciu na sekundę, czyli nieco wolniej niż w tradycyjnych, kontrolowanych technikach. Liczba kropel jest mniejsza, ale wzrosła ich jakość. Testy wykazały, że wielkość nanokropel praktycznie nie zależy od szybkości przepływu czy lepkości cieczy roboczej, a dany egzemplarz urządzenia zawsze generuje krople tego samego rozmiaru. To naprawdę niesamowite, że w zakresie nawet dziesięciokrotnych różnic w prędkości przepływu objętości kropel różnią się od siebie o ledwie kilka procent. Dzięki temu użytkownik ma pełną swobodę w realizacji eksperymentu, a wynik jest zawsze dokładnie zgodny z zaprojektowanym protokołem - mówi doktorant Adam Opalski, biotechnolog z IChF PAN. Urządzenie opracowane w IChF PAN nie ma części ruchomych, nie zużywa się i nie wymaga zasilania. Zastosowane w układach mikroprzepływowych, pozwoli w znacznym stopniu zredukować towarzyszącą im infrastrukturę, co powinno przyspieszyć proces upowszechniania sprzętu mikrofluidycznego. Prawdopodobnie już za kilka lat przyrząd, zgłoszony do opatentowania, będzie także szeroko dostępny w formie nakładek na pipety. Dzielenie nawet niewielkich ilości cieczy na nanokrople otwiera nowe perspektywy badawcze. Zamiast jednego doświadczenia na mikrokropli możliwe będzie teraz przeprowadzenie wielu pomiarów w setkach odrębnych eksperymentów. Wzrośnie dokładność analiz statystycznych, a w konsekwencji pewność wyników badań laboratoryjnych i diagnostycznych. Szczególnie ciekawy obszar zastosowań wiąże się z faktem, że nanokrople zawieszone w cieczy nośnej nie wykazują tendencji do łączenia się. Za pomocą przyrządu mikrofluidycznego z IChF PAN stworzenie trwałej i łatwej w składowaniu biblioteki nanokropel, liczącej setki i tysiące egzemplarzy kropelek z cennymi substancjami chemicznymi czy biologicznymi, staje się wręcz dziecinnie proste: elektroniczną pipetę z odpowiednią końcówką wystarczyłoby zanurzyć w oleju, nacisnąć guzik i... poczekać. « powrót do artykułu
  17. Pyłek roślin z rodziny astrowatych (Asteraceae) nie jest zbyt dobrej jakości (karmione tylko nim owady rosną wolno lub nie rosną wcale), a mimo to specjalizacja w jego zbieraniu wyewoluowała wśród przedstawicieli Apiformes kilkakrotnie. Teraz 3 panie biolog wykazały, że zabieg ten pomaga ochronić się przed pasożytami. W ramach studium porównywano wskaźnik pasożytnictwa lęgowego u murarek (Osmia) żywiących się m.in. pyłkiem astrowatych i wyspecjalizowanych w pyłku Fabeae. Sarah Silverman (wtedy studentka McGill University) prowadziła z prof. Jessiką Forrest z Uniwersytetu w Ottawie badania w Rocky Mountain Biological Laboratory (RMBL) w Kolorado. Porównując różne stanowiska na przestrzeni paru lat, panie zauważyły, że murarki wyspecjalizowane w zbieraniu pyłku astrowatych nie są atakowane przez pasożyty z rodzaju Sapyga. Sapyga często składają jaja w gniazdach murarek, gdzie ich larwy zabijają gospodarzy i zjadają cudze zapasy pyłku. Silverman i Forrest dywagowały, że Sapyga mogą się nie być w stanie rozwijać na pyłku Asteraceae. Później badaniem tego zjawiska zajęła się Dakota M. Spear, która hodowała larwy Sapyga na 3 rodzajach mieszanin pyłku (Asteraceae, Fabeae i mieszaninie pyłku głównie nieastrowatych) i monitorowała ich rozwój oraz przeżywalność. Na pyłku astrowatych przeżywalność larw pasożytów była znacznie zredukowana. To sugeruje, ze specjalizacja w pyłku niskiej jakości wyewoluowała w obronie przed naturalnymi wrogami. « powrót do artykułu
  18. Muffiny przygotowane według nowej receptury amerykańskiego Departamentu Rolnictwa korzystnie (i bardzo szybko) wpływają na zdrowie osób z zespołem metabolicznym. Testy kliniczne wypieku przeprowadzono w Szkole Medycznej Uniwersytetu w Maryland. Autorzy studium, którego wyniki ukazały się w Journal of Clinical Lipidology, próbowali zastąpić zwierzęce tłuszcze nasycone nienasyconymi tłuszczami roślinnymi. Amerykanie skupili się na 2 rodzajach tłuszczów nienasyconych: jedno- i wielonienasyconych kwasach tłuszczowych (MUFA i PUFA, od ang. monounsaturated fatty acids i polyunsaturated fatty acids). Okazało się, że w porównaniu do grupy MUFA, pacjenci z grupy PUFA więcej schudli, mieli też niższe ciśnienie krwi i poziom trójglicerydów. Poprawiała się za to funkcja śródbłonka naczyń (mierzono wazodylatację indukowaną przepływem w tętnicy ramiennej). Dwadzieścia pięć procent pacjentów z grupy PUFA nie miało już zespołu metabolicznego i kwalifikowano ich jako reprezentujących normę metaboliczną. Podobną zmianę kategorii odnotowano tylko u 10% grupy MUFA. Wyniki nas zaskoczyły, bo w oparciu o inne badania dywagowaliśmy, że jednonienasycone kwasy tłuszczowe sprawdzą się lepiej niż wielonienasycone zarówno w przypadku spadku wagi, jak i poprawy parametrów zdrowotnych. Muffiny zrobiono wg przepisu USDA opracowanego specjalnie do tego studium. Obie wersje były równie smaczne - podkreśla dr Michael Miller. Miller dodaje, że małe badanie (wzięło w nim udział tylko 39 osób) stanowi dobry punkt wyjścia dla kolejnych studiów i pokazuje, że PUFA mogą być zastępnikiem z wyboru dla tłuszczów nasyconych, zwłaszcza u ludzi z nadwagą, nadciśnieniem, cukrzycą czy zespołem metabolicznym. Ostatnie dane sugerują, że PUFA, ale nie MUFA aktywują szlak sygnałowy w mózgu, który prowadzi do spadku apetytu. To może być jedną z przyczyn, dla których w grupie PUFA nastąpił większy spadek wagi. Przed przystąpieniem do półrocznego badania wagę 39 ochotników stabilizowano na jeden-dwa miesiące za pomocą kroku 1. diety AHA (American Heart Association). Badanych zachęcano także do ruchu - chodzenia przynajmniej 3 dni w tygodniu przez 30-45 minut. Później ochotników losowano do grup z niskokaloryczną dietą wzbogaconą MUFA i PUFA. O ile względny procent węglowodanów, tłuszczu i białka pozostawał taki sam, o tyle udział tłuszczów nasyconych w tłuszczach ogółem zmniejszano w obu grupach z 30 do 25% (różnicę zastępowano, oczywiście, MUFA lub PUFA). Badani zjadali 3 wzbogacane MUFA (wysokooleinowym olejem słonecznikowym, HOSO) lub PUFA (olejem z krokosza) muffinki dziennie. Każda z muffinek to 275 kalorii. Wszystkie przygotowano w laboratorium metabolicznym USDA w Beltsville i zamrażano. Przez pierwsze 4 miesiące ochotnicy spotykali się z dietetykiem co tydzień, w końcowych 2 miesiącach co 2 tygodnie. Dostawali wtedy zapas świeżych muffinek i mogli zasięgać fachowej porady. « powrót do artykułu
  19. Z badań przeprowadzonych przez biologów z University of Chicago dowiadujemy się, że w latach 70. ubiegłego wieku muszle omułków kalifornijskich znajdowane na plażach Kalifornii nad Pacyfikiem były średnio o 32% grubsze niż muszle obecnie tam zbierane. Z kolei muszle zbierane przez Indian przed 1000-1300 lat były średnio o 27% grubsze od obecnych. Spadająca grubość muszli wspomnianego gatunku to prawdopodobnie skutek zwiększającego się zakwaszenia oceanów spowodowanego rosnącym stężeniem węgla w atmosferze. Znaczna część węgla emitowanego przez ludzi do atmosfery jest absorbowana przez oceany. To powoduje spadek pH wody, czyli jej większą kwasowość. Z kolei w bardziej zakwaszonej wodzie organizmy morskie mają kłopoty z produkowaniem węglanu wapnia potrzebnego do tworzenia muszli i szkieletów. Badania były prowadzone pod kierunkiem profesor Cathy Pfister z University of Chicago. Już podczas wcześniejszych badań Pfister i jej zespół udokumentowali spadek poziomu pH wód wokół wyspy Tatoosh u wybrzeży stanu Waszyngton. Wówczas na potrzeby swoich badań analizowali współczesne muszle, muszle zebrane przez biologów w latach 70. oraz muszle zbierane przez plemię Makah w latach 668-1008. Na potrzeby najnowszych badań porównano podobne zestawy muszli z muszlami z Kalifornii. Dodatkowo sprawdzono też muszle z Sand Point w stanie Waszyngton, których wiek oceniono na 2150-2420 lat. Te najstarsze muszle były o 94% grubsze niż muszle współczesne. Mamy więc do czynienia z długoterminowym spadkiem grubości muszli omułków kalifornijskich, a głównym podejrzanym jest wzrost zakwaszenia oceanów, chociaż naukowcy nie wykluczają innych czynników, jak np. zmiany w źródłach pożywienia małży kalifornijskich. Niezależnie od przyczyn, dla których muszle małży stają się coraz cieńsze, jest to niezwykle niepokojące zjawisko. Cieńsze muszle oznaczają, że małże łatwiej padają ofiarami drapieżników i są mniej odporne na zaburzenia środowiska zewnętrznego. Jako, że jest to powszechnie występujący gatunek, który pełni bardzo ważną rolę w łańcuchu pokarmowym, to, co się z nim dzieje, wpływa na wiele innych gatunków zwierząt. « powrót do artykułu
  20. Naukowcy z US Forest Service's Pacific Southwest Research Station oszacowali, że drzewa na ulicach miast Kalifornii przynoszą każdego roku korzyści o łącznej wartości około 1 miliarda USD. Eksperci zakończyli właśnie najnowszy spis kalifornijskich drzew i przeanalizowali uzyskane dane. Nie tylko liczono drzewa, ale opisywano ich lokalizację, gatunki, rozmiary i korzyści z nimi związane. Z raportu dowiadujemy się, że w kalifornijskich miastach rośnie 9,1 miliona drzew, a autorzy wcześniej opublikowanego studium twierdzą, że można zasadzić 16 milionów dodatkowych. Czasami ludzie myślą, że drzewa mają tylko znaczenie estetyczne lub są uciążliwe, ze względu na spadające liście i gałęzie czy korzenie niszczące chodniki. Jednak nasze badania dowodzą, że drzewa przynoszą korzyści finansowe miastom i ich mieszkańcom - mówi Greg McPherson, główny autor badań. Wynika z nich bowiem, że drzewa wychwytują węgiel z atmosfery (wartość tego procesu oszacowano na 10,32 miliona USD), usuwają zanieczyszczenia (18,15 miliona), przechwytują wodę z opadów (41,5 miliona) pozwalają zaoszczędzić na ogrzewaniu i chłodzeniu domów (101,15 miliona USD) oraz zwiększają wartość nieruchomości (838,94 miliona dolarów). Wyliczyliśmy, że na każdego dolara wydanego na posadzenie drzewa i zajmowanie się nim mamy średnio 5,82 USD przychodu. Społeczność ma pożytek z drzew przez 24 godziny na dobę i 365 dni w roku - mówi McPherson. W raporcie przeanalizowano też trendy i demografię drzew, co ma pozwolić na lepsze planowanie ich nasadzeń w przyszłości. Od roku 1988 liczba drzew w miastach Kalifornii zwiększyła się z 5,9 do 9,1 miliona sztuk, ale ich gęstość spadła ze 105 do 75 na milę. Kolejnym problemem jest też poleganie miast na monokulturach. O ile w skali całego stanu różnorodność jest zachowana i tylko jeden gatunek zajmuje tam więcej niż 10% powierzchni leśnej, to aż 39 z 49 badanych społeczności miejskich zbytnio polegało na jednym gatunku, co naraża drzewa na wybuchy epidemii. « powrót do artykułu
  21. W jednym ze szwedzkich kamieniołomów znaleziono kawałek nieznanej dotychczas skały. Był on tam pogrzebany przez około 470 milionów lat. Fragment nie przypomina ani skał ziemskich, ani znanych meteorytów, niewykluczone zatem, że zdradzi nam nowe tajemnice na temat historii i tworzenia się Układu Słonecznego. Oest 65, bo tak został nazwany, to kawałek skały o średnicy 20-30 kilometrów, która w przestrzeni kosmicznej zderzyła się z innym znacznie większym obiektem, doszło do jej rozpadu, a Ziemia została zbombardowana fragmentami skał. Naukowcy uważają, że zderzenie obu asteroid, z których większy miał średnice 100-150 kilometrów i również się rozpadł, doprowadziło do pojawienia się dużej liczby fragmentów pomiędzy Marsem a Jowiszem. Część z nich spadła na Ziemię. Dotychczas znaliśmy jednak tylko fragmenty większej asteroidy, chondrytowej. Teraz znaleziono pierwszy znany fragment drugiej ze skał. Dotychczas nie znaliśmy meteorytu tego typu - mówi Birger Schmitz z Lund University. W dalekiej przeszłości fragment ten spadł w towarzystwie około 100 fragmentów większej asteroidy do oceanu, w miejscu którego znajduje się obecnie Półwysep Skandynawski. Obiekt ten zawiera bardzo dużą koncentrację irydu, który na Ziemi jest bardzo rzadki. Zawiera też wysoką koncentrację izotopów neonu - stwierdza Schmitz i dodaje, że izotopy te są w różnych proporcjach niż występują w chondrytach. Naukowcy zmierzyli poziom promieniowania w meteorycie, co pozwoliło im na obliczenie, jak długo przebywał on w przestrzeni kosmicznej i kiedy spadł na Ziemię. Znalezienie wspomnianego fragmentu dowodzi, że znane dotychczas meteoryty nie reprezentują wszystkich skał obecnych w Układzie Słonecznym. « powrót do artykułu
  22. Miłośnicy kawy z Uniwersytetu w Bath odkryli, że kluczem do smaczniejszego i bardziej aromatycznego naparu jest schłodzenie palonych ziaren przed zmieleniem. Autorzy publikacji z pisma Scientific Reports badali, co daje mielenie kawy w różnych temperaturach: od pokojowej po -196°C. Okazało się, że im zimniejsze ziarna, tym drobniejsze i bardziej jednorodne cząstki uzyskiwano. To ważne, bo pozwala to lepiej wyekstrahować składniki smakowe. Tym, czego szukamy, jest proszek o jak najmniejszej różnicy między największą i najmniejszą cząstką [wąskim rozkładzie wielkości]. Dysponując mniejszymi drobinami, można lepiej ekstrahować smak. Odkryliśmy, że schładzanie ziaren sprzyja temu procesowi, zapewniając większą wydajność ekstrakcji i mniejszą zmienność smaku. Można więc stosować krótszy czas parzenia albo z tej samej ilości ziaren uzyskiwać więcej kawy - opowiada Christopher Hendon, który obecnie pracuje na MIT. Należy się liczyć ze zmianą smaku, bo subtelne zmiany rozkładu wielkości cząstek silnie wpływają na wskaźnik ekstrakcji. Nie byłbym zaskoczony, gdyby ludzie mieli problem z uzyskaniem zrównoważonych naparów. Maxwell Colonna-Dashwood, współwłaściciel sklepu z kawą Colonna & Smalls, który wspomagał eksperyment, podkreśla, że badania sugerują, że by uzyskać bardziej jednolity proszek, temperatura ziaren musi być bardziej stała. [...] Niższe temperatury pozwalają zmaksymalizować pole powierzchni i lepiej wykorzystać kawę. Mogę się założyć, że zobaczymy, jak opisane wyniki wpływają na poczynania baristów w konkursach organizowanych na całym świecie, a także na [...] rozwój nowych technologii mielenia [...]. Naukowcy posłużyli się kawą z Gwatemali. Dwadzieścia gramów ziaren kawy wsypywano do papierowego kubka, przykrywano i umieszczano w ciekłym azocie, suchym lodzie, zamrażarce i na blacie. Każdą z próbek poddawano wybranej temperaturze przez 2 godziny przed mieleniem. « powrót do artykułu
  23. Określenie "ptasi móżdżek" dawno powinno odejść do lamusa, a nauka dostarczyła właśnie kolejnego dowodu, jak bardzo jest ono nietrafne. W najnowszym numerze PNAS ukazały się wyniki badań, z których dowiadujemy się, że 28 gatunków ptaków ma w płaszczu kresomózgowia więcej neuronów niż ssaki posiadające mózg podobnej wielkości. Płaszcz kresomózgowia, w skład którego wchodzi kora, wyspa, hipokamp i węchomózgowie, jest regionem odpowiedzialnym za uczenie się wyższego rzędu. Szczególnie dużo neuronów mają w płaszczu kresomózgowia papugi (od 227 milionów do 3,14 miliardów) i ptaki śpiewające (od 136 milionów do 2,17 miliardów). To około dwukrotnie więcej niż u naczelnych ji czterokrotnie więcej niż u gryzoni z porównywalną masą mózgu. Naukowcy licząc neurony mózgów ptaków skupili się na niezwykle ważnym regionie, który pozwala zwierzętom nauczyć się używania narzędzi, planowania przyszłości, nauczyć się śpiewu czy naśladowania ludzkiej mowy. Naukowców zaskoczył fakt, że neurony były mniejsze niż się spodziewali, a połączenia pomiędzy nimi były krótsze. W następnym etapie badań naukowcy chcą się dowiedzieć, czy neurony te są małe od samego początku, czy też kurczą się, by zmniejszyć wagę zwierzęcia i ułatwić mu latanie. « powrót do artykułu
  24. Naukowcy z Kalifornijskiego Instytutu Technologii (Caltech) wykazali, że wyściełający przewód pokarmowy śluz zmienia się pod wpływem mikrobiomu i błonnika. Śluzowy żel stanowi ochronną barierę, która przepuszcza składniki odżywcze i w dużej mierze blokuje bakterie, zapobiegając zakażeniom. Wcześniej naukowcy oceniali, jak żel może zostać uszkodzony. Zespół z Caltechu jako pierwszy zajął się jego budową i przekształceniami w obecności substancji naturalnie występujących w przewodzie pokarmowym. Podczas eksperymentów na myszach testowano wpływ polimerów, które obejmują zarówno błonnik, jak i leki na zaparcia. Dieta części gryzoni obfitowała w polimery, innych (grupy kontrolnej) nie zawierała ich w ogóle. Za pomocą refleksyjnej mikroskopii konfokalnej mierzono grubość żelu i stopień, w jakim uległ on ściśnięciu. U zwierząt z dietą bogatopolimerową kompresja była większa. Żel jest jak gąbka z otworami pozwalającymi na przenikanie pewnych substancji. Zauważyliśmy, że polimery, w tym błonnik, mogą go ściskać, potencjalnie zmniejszając dziurki. Sądzimy, że zapewnia to korzyści - wyjaśnia dr Sujit Datta. By przetestować reakcję warstwy żelowej, Amerykanie nakładali bezpośrednio na nią różne polimery, w tym włókna pokarmowe takie jak pektyna. Wszystkie kompresowały śluz. Jest za wcześnie na wyciąganie wniosków, ale może być tak, że zjadanie jednego jabłka dziennie zmienia pokrój wyściółki jelit - dodaje Asher Preska Steinberg. Autorzy publikacji z pisma PNAS zauważyli, że mikrobiom i włókna pokarmowe wspólnie zmieniają kształt żelu. Kiedy te same eksperymenty z polimerami przeprowadzono na myszach pozbawionych mikrobiomu, okazało się, że polimery mocniej kompresowały wyściełający jelita żel. To sugeruje, że bakterie, o których wiadomo, że rozkładają polimery, osłabiają ich ściskający wpływ. Wcześniej myśleliśmy, że żel jest statyczną strukturą, dlatego zaskoczyły nas wzajemne oddziaływania mikroflory i diety, które szybko i dynamicznie zmieniały chroniące gospodarza biologiczne struktury - podkreśla Rustem Ismagilov. Naukowcy przekonują, że ich ustalenia będzie można wykorzystać w terapii chorób układu pokarmowego, np. zespołu jelita drażliwego. « powrót do artykułu
  25. Włosko-gruzińska ekspedycja odkryła na stanowisku Aradetis Orgora (ok. 100 km na zachód od Tbilisi) zoomorficzne naczynie, w którym znajdował się pyłek winorośli. Oznacza to, że tutejsi przedstawiciele kultury kuro-arakskiej wykorzystywali wino w rytuałach już ok. 5 tys. lat temu. Szefami wyprawy byli Elena Rova z Ca' Foscari oraz Iulon Gagoshidze z Gruzińskiego Muzeum Narodowego. Naczynie miało kształt zwierzęcia, trzy stópki, a z tyłu otwór (główki brakowało). Prawdopodobnie wykorzystywano je podczas rytuałów. Na dużym wypalonym prostokątnym obszarze z zaokrąglonymi rogami - prawdopodobnie świątyni - znaleziono też drugie zoomorficzne naczynie oraz amforę. Datowanie radiowęglowe wykazało, że pochodzą one z 2900-3000 r. p.n.e. Badanie przeprowadzone przez palinolog Eliso Kvavadze z Gruzińskiej Akademii Nauk wykazało, że w środku znajdowały się liczne i dobrze zachowane ziarna pyłku winorośli właściwej (Vitis vinifera). Prof. Rova wyjaśnia, że kontekst znaleziska sugeruje, że wino było czerpane z amfory i ofiarowane bogom albo wspólnie spożywane przez uczestników ceremonii. To kluczowe odkrycie dla Gruzji, gdzie winorośl uprawia się od czasów prehistorycznych. Teraz wiadomo, że tutejsza kultura winna datuje się co najmniej na okres kuro-arakski i jest nadal praktykowana. « powrót do artykułu
×
×
  • Dodaj nową pozycję...