Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37636
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. W pierwszej angielskiej drukowanej Biblii odkryto zapiski, które zmieniają pogląd historyków na brytyjską Reformację. Biblia, o której mowa, została wydrukowana w 1535 roku. Obecnie znanych jest jej siedem kopii. W kopii przechowywanej w Lambeth Palace Library w Londynie doktor Eyal Poleg, historyk z Queen Mary University odkrył niewidoczne dotychczas zapiski. O tej unikatowej Biblii, do której przedmowę napisał sam Henryk VIII, nie wiemy praktycznie niczego. Na pierwszy rzut oka kopia z Lambeth wydaje się całkowicie czysta. Jednak gdy się jej bliżej przyjrzałem, zauważyłem, że na niezapisane miejsca nałożono dodatkową warstwę papieru. Wyzwaniem było sprawdzenie, co jest pod spodem, bez niszczenia książki - mówi doktor Poleg. Uczony poprosił o pomoc doktora Grahama Davisa, specjalistę od trójwymiarowego obrazowania promieniami rentgenowskimi z Wydziału Dentystyki Queen Mary University. Doktor Davies wykonał dwa zdjęcia. Na jednym widoczny był tekst księgi oraz ukryte notatki, na drugim wyłącznie tekst. Uczony napisał oprogramowanie, które od pierwszego obrazu odjęło zawartość drugiego, co pozwoliło na odczytanie notatek. Okazało się, że to fragmenty "Wielkiej Biblii" Thomasa Cromwella, jednej z centralnych postaci angielskiej Reformacji. Zapiski wykonano pomiędzy rokiem 1539 a 1549, a zakryto je w roku 1600. Zdaniem doktora Polega, jest to dowód, że Reformacja była procesem stopniowym, a nie gwałtownym wydarzeniem. Do niedawna przyjmowano, że Reformacja była całkowitym zerwaniem z katolicyzmem, przekroczeniem Rubikonu. Ludzie przestali być katolikami, przyjęli protestantyzm, odrzucili świętych i porzucili łacinę na rzecz angielskiego. Ta Biblia to dowód, że konserwatywna łacina i reformistyczny angielski były używane równolegle. To pokazuje, że Reformacja była powolnym, złożonym i stopniowym procesem - mówi Poleg. W czasie, gdy notatki trafiły do Biblii, Anglia przeżywała okres gwałtownych zmian. Dokonano zerwania z Watykanem, król został głową Kościoła Anglikańskiego, rozwiązano klasztory, na szafot powędrowała Anna Boleyn, Thomas More i John Fisher. Dzięki doktorowi Polegowi wiemy też, co działo się z księgą, gdy zaprzestano używać łacińskich Biblii. Na ostatniej stronie odkrył on zapis transakcji pomiędzy Williamem Cheffynem z Calais i Jamesem Elysem Cutpurse z Londynu. Wyraz "cutpurse" w średniowiecznym angielskim żargonie oznaczało złodzieja kieszonkowego. Z notatki dowiadujemy się, że Cutpurse zobowiązał się zapłacić Cheffynowi 20 szylingów. Gdyby tego nie zrobił poszedłby do więzienia Marshalsea w Southwark. Doktor Poleg sprawdził archiwa i dowiedział się, że Cutpurse został powieszony w lipcu 1552 roku w Tybourn. Pomijając zajęcie, którym parał się pan Cutpurse, sam fakt, że wiemy, kiedy zmarł, jest znaczący. Pozwala nam to dokładnie prześledzić dzieje książki. Jasnym jest bowiem, że transakcja nie mogła być zawarta po jego śmierci - mówi Poleg. « powrót do artykułu
  2. Geoffrey Woo i Michael Brandt, szefowie firmy Nootrobox z San Francisco, mają interesującą propozycję dla zabieganych kawoszy - jadalne kofeinowe sześciany Go Cubes. Każda kostka to odpowiednik wypicia połowy kubka zaparzanej kawy. Sześciany są w 100% wegańskie i jak twierdzą Amerykanie, wytwarza się je ze specjalnej mieszanki poprawiającej pamięć i czujność. Konsystencją przypominają żelki i zawierają 50 mg kofeiny, 10 mg witaminy B6, a także 100 mg L-teaniny, aminokwasu występującego w liściach zielonej herbaty (Camellia). W składzie znalazła się też metylowana witamina B12, a także ok. 6 g cukru. Jak można przeczytać na witrynie Woo i Brandta, B6 wspomaga funkcjonowanie poznawcze, a L-teanina niweluje niepokój związany z działaniem kofeiny. Chętni mogą wybierać z 3 kawowych smaków: latte, mokka i drip (od zaparzania kawy metodą przelewową). Dzięki crowdfundingowi panowie zebrali blisko 40 tys. dolarów. Obecnie przygotowują się do wysyłki międzynarodowej; płacąc prawie 21 dol. (20,70), klienci z zagranicy mogą zamawiać zestaw 6 torebek, z których każda zawiera 4 sześciany. Na witrynie Indiegogo twórcy Go Cubes podkreślali, że ilość, stężenie i proporcje wzorowano na publikowanych w recenzowanych pismach badaniach z podwójnie ślepą próbą, które wskazywały na bezpieczeństwo i skuteczność składników. Z tego powodu miłośnicy nootropów (substancji prokognitywnych) zdecydowali się np. na zastosowanie teaniny i kofeiny w stosunku 2:1. Ma on znacząco poprawiać możliwości poznawcze użytkownika. « powrót do artykułu
  3. Kwas czy zasada? A może roztwór jest obojętny? Zwykle zmierzenie odczynu pH nie jest problemem. Jak jednak zbadać zmiany kwasowości czy zasadowości zachodzące w skali nano, na przykład tuż przy powierzchni, na której dopiero tworzą się pierwsze wżery rdzy? Nowatorską metodę pomiaru pH w nanoskali właśnie zaprezentowali naukowcy z Instytutu Chemii Fizycznej PAN w Warszawie. W warszawskim Instytucie Chemii Fizycznej PAN (IChF PAN) powstał nanoczujnik przeznaczony do ciągłego monitorowania zmian współczynnika pH. Użyty jako sonda mikroskopu skaningowego, przyrząd pozwala na precyzyjne pomiary zmian kwasowości/zasadowości zachodzących nad bardzo małymi fragmentami powierzchni próbki zanurzonej w roztworze. Rozdzielczość przestrzenna sięga tu zaledwie 50 nanometrów i w przyszłości może być jeszcze zredukowana. Prace nad budową nanoczujnika sfinansowano z grantu Iuventus Plus Ministerstwa Nauki i Szkolnictwa Wyższego i zrealizowano w kooperacji z Uniwersytetem Carla von Ossietzky'ego w Oldenburgu w Niemczech. Możliwość monitorowania zmian kwasowości czy zasadowości roztworów w nanoskali, a więc nad obszarami o rozmiarach liczonych w miliardowych częściach metra, to ważny krok ku lepszemu zrozumieniu wielu procesów chemicznych. Najbardziej oczywistym przykładem są tu różnego rodzaju reakcje katalityczne czy korozja wżerowa, która zaczyna się w obrębie bardzo małych fragmentów powierzchni - wyjaśnia prof. dr hab. Marcin Opałło (IChF PAN). Do zmian pH w roztworach dochodzi w wyniku reakcji z udziałem jonów wodoru (czyli dodatnio naładowanych protonów, H+) lub jonów wodorotlenowych (o ładunku ujemnym, OH-). Reakcje te zaburzają proporcje między liczbą jonów obu typów. Im więcej protonów, tym środowisko bardziej kwaśne, im więcej jonów wodorotlenowych, tym bardziej zasadowe. Współczynnik pH informuje o skali zaburzenia. Zazwyczaj przyjmuje on wartości z zakresu od 0 do 14, przy czym dla środowiska neutralnego jest równy 7; wartości pH mniejsze od 7 odpowiadają kwasom, większe - zasadom. Pomiary pH roztworów na ogół nie są trudne i należą do standardowej praktyki laboratoryjnej i przemysłowej. Czym innym jest jednak mierzenie poziomu kwasowości czy zasadowości roztworu o dużej objętości, a czym innym zmian zachodzących w jego ekstremalnie małych objętościach, na przykład bezpośrednio w pobliżu pojedynczych cząsteczek chemicznych. Dotychczas nie istniały przyrządy zdolne do detekcji zmian pH w tak małej, sięgającej nanometrów skali. Za pomocą naszego nanoczujnika jesteśmy w stanie mierzyć pH z rozdzielczością zbliżoną do średnicy elektrody węglowej przesuwanej nad powierzchnią próbki, czyli obecnie 50 nm. Współczynnik pH wyznaczamy w zakresie od 2 do 12 i z dokładnością do setnych części, a jego zmiany potrafimy monitorować na bieżąco, nawet kilkadziesiąt razy na sekundę - opisuje dr Wojciech Nogala (IChF PAN), jeden ze współautorów osiągnięcia. Wytwarzanie nanoelektrody węglowej zaczyna się od podgrzania wiązką światła laserowego cienkiej kwarcowej rurki. W odpowiednio dobranej temperaturze kwarc staje się plastyczny i rurkę można ostrożnie rozciągać, co skutkuje zmniejszaniem się jej średnicy. Ostatecznie proces prowadzi do powstania szklanego "włosa" o zewnętrznej średnicy ok. 100 nm, z wewnętrznym tunelem średnicy ok. 50 nm. Po uformowaniu tak cienkiej pipety jest ona otaczana atmosferą argonu. W pipetę wpuszcza się następnie mieszaninę propanu i butanu i przeprowadza ich pirolizę, czyli rozkład w wysokiej temperaturze. Wskutek stopniowo zachodzącej pirolizy na wewnętrznych ściankach pipety osadza się węgiel (brak tlenu uniemożliwia jego spalenie). Prowadzona uważnie i dostatecznie długo piroliza całkowicie wypełnia wnętrze nanopipety węglem, tworząc z niego długi i niezwykle cienki pręt. Technologia produkcji ultracienkich elektrod węglowych jest znana od kilku lat i stosowana w paru ośrodkach badawczych na świecie. Jednak tak otrzymana elektroda nie nadaje się do mierzenia pH. Musieliśmy ją zmodyfikować czymś, co reagowałoby na zmiany stężeń protonów i jonów wodorotlenowych. W tym celu sięgnęliśmy po związek chemiczny znany jako syryngaldazyna - wyjaśnia doktorantka Magdalena Michalak (IChF PAN), pierwsza autorka publikacji w czasopiśmie Analytical Chemistry, gdzie opisano budowę nanoczujnika. Cząsteczka syryngaldazyny może zostać elektrochemicznie utleniona: pozbywa się wtedy dwóch elektronów i dwóch protonów. Ponieważ reakcja jest odwracalna, utlenioną syryngaldazynę można zredukować do pierwotnej postaci poprzez przyłączenie z otoczenia dwóch protonów i dwóch elektronów. Dla naukowców z IChF PAN-u najważniejszy był fakt, że potencjał reakcji utleniania/redukcji syryngaldazyny zależy od pH roztworu i zmienia się o 59 miliwoltów na każdą jednostkę pH. Po osadzeniu cząsteczki syryngaldazyny na zakończeniu elektrody węglowej pomiar pH można więc było sprowadzić do uważnego monitorowania zmian w przepływie prądu w zależności od przyłożonego napięcia. Łatwo powiedzieć, trochę trudniej zrobić. Mówimy o mierzeniu pikoamperów. Warto zdać sobie sprawę, że prądy wzbudzane w antenie odbiornika radiowego są tysiąckrotnie większe! Naszą skaningową mikroskopię zmian pH musimy więc prowadzić wewnątrz klatki Faradaya, która izoluje czujnik i próbkę od wszechobecnych pól elektromagnetycznych - mówi dr Nogala. Podczas pomiarów pH z użyciem zmodyfikowanej nanoelektrody węglowej wykorzystywano oprogramowanie SECMx przygotowane przez prof. Gunthera Wittstocka z Uniwersytetu w Oldenburgu. Dalekosiężnym celem badań w IChF PAN jest opracowanie metod monitorowania zmian pH zachodzących w pobliżu pojedynczych cząsteczek chemicznych. Tak wyrafinowane pomiary pozwoliłyby np. rozstrzygnąć, jak cząsteczki enzymów tracą swą aktywność: czy proces ten zachodzi stopniowo we wszystkich cząsteczkach w roztworze jednocześnie, czy też pojedyncze cząsteczki tracą swe zdolności gwałtownie, a stopniowo obniża się tylko uśredniona aktywność roztworu. « powrót do artykułu
  4. Tegoroczna misja ExoMars przebiega bez zakłóceń. Dwanaście godzin po starcie z kosmodromu w Bajkonurze centrum sterowania misją otrzymało sygnał potwierdzający, że wszystko jest w najlepszym porządku. Po raz drugi w historii Europa zmierza w kierunku Marsa - poinformował Michel Denis, dyrektor ds. operacyjnych centrum kontroli Europejskiej Agencji Kosmicznej. Pierwszą misję na Marsa ESA zorganizowała w 2003 roku. W ramach Mars Express na Czerwoną Planetę wysłano orbiter oraz łazik. Orbiter pracuje do dzisiaj, jednak z łazikiem Beagle 2 stracono kontakt krótko po jego wylądowaniu. Teraz na Marsa lecą dwa urządzenia - TGO, czyli Trace Gas Orbiter, który będzie badał atmosferę planety, oraz lądownik Schiaparelli. Jeśli wszystko pójdzie zgodnie z planem urządzenia oddzielą się od siebie 16 października. Trzy dni później TGO wejdzie na orbitę Marsa a Schiaparelli rozpocznie procedurę lądowania. Głównym zadaniem TGO jest zbadanie atmosferycznego metanu, którego obecność może wskazywać na istnienie życia na Marsie. Orbiter stworzy też mapę podpowierzchniowych złóż wodoru oraz będzie szukał możliwych miejsc lądowania dla kolejnej misji, która odbędzie się w ramach projektu ExoMars w 2018 roku. Wówczas na powierzchnię Czerwonej Planety ma trafić łazik, a TGO będzie pośredniczył w komunikacji pomiędzy łazikiem a Ziemią. Lądownik Schiaparelli ma przez kilka dni po wylądowaniu zbierać dane na temat powierzchni Marsa. Głównym zadaniem urządzenia jest jednak przetestowanie technologii wejścia w atmosferę, obniżania lotu i lądowania, które zostaną wykorzystane w 2018 roku w misji łazika. « powrót do artykułu
  5. Dobre wiadomości dla ekip kryminalistycznych: naukowcy ulepszyli metody pobierania próbek szminki z powierzchni. Wykazali też, że najlepszą metodą ich analizowania jest chromatografia gazowa. Zespół Bethany Esterlen z Uniwersytetu Zachodniego Illinois zaprezentował swoje wyniki na 251. dorocznej konferencji Amerykańskiego Towarzystwa Chemicznego. Prace nad metodami dochodzeniowymi otworzyły mi oczy na fakt, że telewizja źle to przedstawia - w realnym życiu badania trwają o wiele dłużej - podkreśla Esterlen. Na przestrzeni lat specjaliści wykorzystywali różne metody pobierania próbek śladów szminki z miejsc zbrodni i badania ich składu. Niestety, wiele obecnych technik bazuje na trudnych bądź drogich etapach, np. analizie kosmetyku za pomocą spektroskopii Ramana czy rentgenografii strukturalnej. Amerykanie postanowili to zmienić. Wyszli więc od znanej metody ekstrakcji próbek szminki, ale potem wyeliminowali niepotrzebne kroki i ulepszyli resztę. Na końcu mieli zaledwie 2-częściowy proces. Najpierw dodawali rozpuszczalnik organiczny, by usunąć większość olejów i wosków, potem zaś dodawali kolejny rozpuszczalnik organiczny, by wyekstrahować pozostałość. Teraz naukowcy musieli jeszcze opracować szybką i skuteczną metodę analizy kosmetyku. By uniknąć metod wymagających złożonego treningu, przyjrzeli się 3 typom chromatografii: cienkowarstwowej chromatografii cieczowej (ang. thin layer chromatography, TLC), chromatografii gazowej (ang. gas chromatography, GC) i wysokosprawnej chromatografii cieczowej (ang. high performance liquid chromatography, HPLC). Amerykanie wybrali 40 szminek i zrobili nimi maźnięcia na papierze, co miało symulować ślady znalezione na miejscu zbrodni. Teraz dane zgromadzone w bibliotece można porównywać ze spektrami próbek z miejsc zbrodni. Kiedy marka jest już zidentyfikowana, policja może sprawdzać, czy podejrzana jej używa. Choć ekipa nadal pracuje nad analizą, na tym etapie wydaje się, że najlepsze rezultaty daje GC. « powrót do artykułu
  6. Lee Sedol, mistrz świata w Go, przegrał ostatnią partię z AlphaGo. Tym samym wynik meczu pomiędzy człowiekiem a sztuczną inteligencją został ustalony na 1:4. Mamy do czynienia z wydarzeniem olbrzymiej rangi. Przed niemal 20 laty komputer wygrał z mistrzem świata w szachach. Jednak Go, pomimo znacznie prostszych reguł, była dotychczas terenem niezdobytym przez maszyny. Liczba możliwych kombinacji jest w niej bowiem niewyobrażalnie duża. Tak dużą, że jeszcze na kilka tygodni przed meczem z AlphaGo Lee Sedol mówił, że w bieżącym roku pokona maszynę. AlphaGo okazał się jednak lepszy. Początek piątej partii należał do Lee Sedola. AlphaGo popełnił bowiem amatorski błąd. Później jednak maszyna z mozołem odrabiała straty i druga część partii była najbardziej interesującą w całym meczu. Do końca nie było wiadomo, komu przypadnie zwycięstwo. Lee Sedol stał przed dylematem, czy powinien zaatakować, czy grać defensywnie. Wygrał w końcu czwartą partię, w której grał ofensywnie. Wówczas jednak grał białymi, w partii piątej zagrał - na własne życzenie - czarnymi. Lee Sedol zwykle woli ofensywny styl gry, jednak miał do czynienia z nieznanym przeciwnikiem, z którym zmierzył się jedynie w czterech partiach. Rozpatrując wynik meczu trzeba wziąć pod uwagę, że maszyna nie czuje presji, ani się nie męczy. Człowiek ma jednak pewną przewagę - może zmienić strategię. AlphaGo opracowuje swoją strategię na podstawie poprzednich rozgrywek z danym przeciwnikiem i nie jest w stanie zmienić jej w czasie partii. Po godzinie i 20 minutach AlphaGo wykonał ruch, który komentatorzy uznali za słaby. Jednak maszyna "rozumuje" nieco inaczej niż ludzie. Jej zadaniem jest zmaksymalizowanie szans na zwycięstwo, a nie zmaksymalizowanie marginesu zwycięstwa. Czasem więc wykonuje ruchy, których ludzie do końca nie rozumieją. Po tym ruchu obie strony zaczęły grać bardzo szybko. Komentatorzy ledwo nadążali. Zasady meczu mówiły bowiem, że po tym, jak skończy się czas przyznany każdej ze stron, mają one na wykonanie każdego kolejnego ruchu nie więcej niż 60 sekund. Dzięki swojej agresywnej strategii Lee Sedol zyskał przewagę w prawym dolnym rogu planszy, a AlphaGo popełnił błąd, którego nie popełniłby nawet średnio zaawansowany amator. Szala zwycięstwa przechylała się na stronę Lee Sedola. Po 3,5 godzinach mistrz znalazł się w poważnych tarapatach. Na jego zegarze pozostało 5 minut, a AlphaGo miał do dyspozycji 30 minut. Tymczasem na planszy zostało jeszcze spore terytorium do zdobycia. Gdy skończył się czas Lee Sedola ten miał jedynie 60 sekund na wykonanie każdego ruchu. Raz nie zmieścił się w czasie, więc musiał odczuwać olbrzymią presję, gdyż po trzecim niewykonaniu ruchu w przewidzianym czasie przegrałby partię. W końcu, po pięciu godzinach rozgrywki, Lee Sedol poddał się. Technologie wykorzystane w AlphaGo są powoli wdrażane przez Google'a do codziennych zastosowań. Część z nich wykorzystano w technologiach rozpoznawania twarzy i komend głosowych. Kolejne są testowane w różnych usługach. Mecz pomiędzy człowiekiem a maszyną pokazał, jak bardzo rozwinięte są systemy sztucznej inteligencji. Pokazał też, że nie są one doskonałe. AlphaGo popełnia amatorskie błędy. Jednak, co również stało się jasne, potrafi się na nich uczyć i przezwyciężyć kłopoty. Niezwykle interesującym zjawiskiem może być fakt, że meczem przez tydzień żyła cała Korea. Informowały o nim na czołowych miejscach wszystkie media. Lee Sedol stał się bohaterem narodowym, a na widok Demisa Hassabisa, inżyniera odpowiedzialnego za rozwój algorytmów AlphaGo, ludzie reagowali tak, jak Europejczycy na widok gwiazd popu. « powrót do artykułu
  7. Pająki są uznawane za klasyczne drapieżniki owadożerne, tymczasem okazuje się, że ich dieta jest o wiele bardziej złożona i od czasu do czasu decydują się one nawet na posiłek wegetariański. Naukowcy już od jakiegoś czasu zdawali sobie sprawę, że niektóre pająki starają się wzbogacać menu rybami, żabami, a nawet nietoperzami. Teraz zespół z Uniwersytetu w Bazylei, Brandeis University oraz Uniwersytetu w Cardiff wykazał, że stawonogi te jadają również rośliny. Biolodzy przejrzeli pod tym kątem literaturę przedmiotu. Dzięki ich systematycznemu przeglądowi udowodniono, że różnego rodzaju rośliny (np. storczyki, drzewa, trawy czy paprocie) wchodzą w skład diety aż 10 rodzin pająków. Zjadane są różne ich elementy: nektar, pyłek, nasiona, tkanka liści, spadź i sok mleczny. Najważniejszą grupą pająków o wegetariańskich zwyczajach są skakunowate (Salticidae). To im przypisano aż 60% przypadków roślinożerności udokumentowanych w studium. Takim zwyczajom wydaje się sprzyjać kilka czynników: życie wśród roślin, mobilność, a także świetna zdolność wykrywania odpowiedniego pożywienia roślinnego. Pająki żywiące się roślinami występują na wszystkich kontynentach poza Antarktydą. Opisywane zachowanie jest jednak częściej dokumentowane w cieplejszych strefach. Autorzy publikacji z Journal of Arachnology dywagują, że może się tak dziać, bo spora liczba doniesień o wegetariańskiej diecie dotyczy nektaru, a rośliny produkujące duże jego ilości są tam bardziej rozpowszechnione. Zdolność pająków do pozyskiwania składników odżywczych z roślin poszerza ich bazę pokarmową. Może to być mechanizm, który pozwala przetrwać okresy niedoboru owadów. Ponadto dywersyfikacja jest korzystna z żywieniowego punktu widzenia, bo optymalizuje podaż dietetyczną - podsumowuje Martin Nyffeler z Uniwersytetu w Bazylei. « powrót do artykułu
  8. W 2010 roku profesor Michael Strano z MIT i jego zespół odkryli, że węglowe nanorurki, gdy są stopniowo podgrzewane z jednego końca, wytwarzają prąd elektryczny. Można je np. pokryć łatwopalnym materiałem, zapalić z jednego końca i uzyskać prąd pochodzący ze stopniowego ogrzewania się nanorurki. Strano odkrył nieznane wcześniej zjawisko, ale podczas przeprowadzanych wówczas eksperymentów uzyskano niewielką ilość prądu. Teraz uczony i jego koledzy tysiąckrotnie zwiększyli wydajność systemu i stworzyli urządzenie, które - pod względem ilości uzyskanej energii na wagę urządzenia - jest równie wydajne co najlepsze dzisiejsze akumulatory. Ma nad nimi też jedną zdecydowaną przewagę - do jego produkcji nie używa się metali ciężkich, ani żadnych toksycznych materiałów. Wynalazcy zastrzegają jednak, że miną lata zanim uda się skomercjalizować ich urządzenie. Profesor Strano mówi, że jego zespół skupiał się nie tylko na poprawie wydajności urządzenia, ale również na opracowaniu teorii opisującej zjawisko, które ono wykorzystuje. Ostatnie eksperymenty laboratoryjne wykazały, że teoria dobrze pasuje do wyników eksperymentów. Prąd elektryczny pojawia się wskutek popychania elektronów przez energię cieplną. Tym, co ostatecznie pozwoliło zweryfikować opracowaną teorię było potwierdzenie w laboratorium, że czasem zjawisko to powoduje, że w tym samym regionie prąd osiąga określone napięcia, a czasem przyjmuje dwie wartości napięcia. Nasz model matematyczny wyjaśnia, dlaczego tak się dzieje - mówi Strano. Okazuje się, że czasem fala termoelektryczna dzieli się na dwie. Mogą one albo połączyć się ponownie w jedną, albo pozostać oddzielne. Urządzenie zamienia ponad 1% energii cieplnej w energię elektryczną. To 10 000 razy lepsza wydajność niż podczas pierwszego zaobserwowania zjawiska w 2010 roku. Technologia litowo-jonowa potrzebowała 25 lat, by osiągnąć taką wydajność - mówi Strano. Pierwotne eksperymenty prowadzono z użyciem materiałów, które przy niebezpiecznym obchodzeniu się z nimi mogą eksplodować. Jednak podczas najnowszych eksperymentów materiałem, którym użyto do uzyskania ciepła był cukier stołowy. To materiał, który pod względem bezpieczeństwa, łatwości pozyskania i powszechności występowania jest znacznie lepszy niż lit. Kolejną przewagą nowego urządzenia jest fakt, że - przynajmniej teoretycznie - niezależnie od czasu przechowywania nie powinno tracić ono energii. A to oznacza, że można by je wykorzystać np. w sondach kosmicznych, które przez wiele lat pozostają w uśpieniu, a dopiero po dotarciu do celu potrzebują więcej energii by wykonać zadania. Jakby jeszcze tego bylo mało, nowe urządzenie można łatwiej skalować niż obecne akumulatory. Może być znacznie mniejsze niż one. « powrót do artykułu
  9. Liczne tatuaże wzmacniają układ odpornościowy. Naukowcy z Uniwersytetu Alabamy porównują tatuowanie do ćwiczeń na siłowni. Na starcie nowy stresor osłabia bowiem organizm: w przypadku treningu objawia się to zakwasami, w przypadku tatuażu wyczerpaniem. Skoro jednak po paru sesjach na siłowni mięśnie zaczynają się wzmacniać, naukowcy zastanawiali się, czy sprawy z powtarzającymi się tatuażami mają się podobnie. Okazało się, że tak. Autorami opisywanego badania są prof. Christopher Lynn i Jason DeCaro oraz Johnna Dominguez. Dominguez prowadziła wywiady z tatuującymi się ochotnikami z dwóch miejscowości: Tuscaloosa i Leeds. Pytała ich o liczbę tatuaży i czas potrzebny na wykonanie każdego z nich. Oprócz tego przed i po ostatniej sesji zdobienia ciała pobierano im próbki śliny. Amerykanie badali je pod kątem stężenia 1) immunoglobuliny A (IgA), która przeciwdziała kolonizacji błon śluzowych przez patogeny oraz 2) działającego immunosupresyjnie hormonu stresu kortyzolu. Poziom IgA spadał znacząco u osób z 1. tatuażami, czego można się było spodziewać, biorąc pod uwagę immunosupresyjne działanie kortyzolu. U ludzi, który robili sobie tatuaż już któryś raz, spadek IgA był jednak tylko nieznaczny. Osoby z większym doświadczeniem w tatuowaniu statystycznie doświadczały mniejszego spadku poziomu immunoglobuliny A. Podczas tatuowania organizm mobilizuje układ odpornościowy, by zwalczyć ewentualne zakażenia w miejscu wprowadzania barwnika pod skórę, lecz tatuowane raz po raz ciało podnosi próg, przy którym wymagana jest odpowiedź immunologiczna. Jak podkreślają Amerykanie, ogólna odporność także jest lepsza. Po początkowej reakcji stresowej ciało powraca do równowagi. Jeśli jednak człowiek dalej je raz po raz stresuje, zamiast wracać do punktu wyjściowego, dostosowuje - podnosi - wewnętrzne wielkości wodzące. Choć zaprezentowane wyniki wydają się interesujące, nie wolno zapominać, że badanie objęło zaledwie 24 kobiety i 5 mężczyzn. Próba była więc zbyt mała, aby wyciągać dalekosiężne wnioski, ale na tyle duża, by w przyszłości kontynuować eksperymenty. « powrót do artykułu
  10. Kinaza pirogronianowa M2 (PKM2), enzym biorący udział w metabolizmie glukozy (w ostatnim etapie glikolizy), odgrywa ważną rolę także we wczesnych etapach gojenia ran. Naukowcy z Uniwersytetu Stanowego Georgii wyjaśniają, że gdy komórki odpornościowe neutrofile uwolnią PKM2, wspomaga ona gojenia ran, sprzyjając rozwojowi nowych naczyń. Prof. Zhi-Ren Liu uważa, że odkrycie jego zespołu może utorować drogę nowym metodom wspomagania gojenia ran. Wspomina także o jego zastosowaniach w transplantologii i regeneracji tkanek. Można sobie z łatwością wyobrazić zastosowanie PKM2 w opatrunkach. Amerykanie leczyli rany, mieszając maść z różnymi związkami, w tym PKM2. Okazało się, że miejscowe stosowanie enzymu wspomagało u myszy wczesne zamykanie rany i sprzyjało silniejszej angiogenezie. W próbkach tkanek PKM2 wykrywano w przestrzeni pozakomórkowej, co sugeruje uwalnianie jej podczas procesów naprawczych. Enzym znajdowano w pobliżu neutrofili. Szczyt stężenia PKM2 przypadał na 3. dzień od powstania rany. Później stężenie kinazy spadało. Nie wiemy dokładnie, jak PKM2 jest uwalniana, ale wiemy, że robią to neutrofile. Kiedy zostaje ona wydzielona poza komórkę, działa zupełnie inaczej [niż zazwyczaj]. Nie ma już nic wspólnego z metabolizmem - opowiada Liu. PKM2 wprowadza odpowiedź immunologiczną w następny etap: fazę proliferacji [rana jest już oczyszczona i może się zacząć formowanie pasm tkanki łącznej oraz naczyń kapilarnych]. Nasze badanie ujawnia ważny łącznik molekularny między wczesną odpowiedzią zapalną a fazą namnażania [...]. « powrót do artykułu
  11. Wczesne wystawienie na oddziaływanie ołowiu może zmieniać mikrobiom jelit, zwiększając ryzyko otyłości w dorosłości. Podczas eksperymentów na myszach naukowcy ze Szkoły Zdrowia Publicznego Uniwersytetu Michigan zauważyli, że dorosłe samce, w przypadku których ekspozycja na ołów miała miejsce w czasie ciąży i karmienia piersią, były o 11% większe od samców z grupy kontrolnej. Wczesna ekspozycja na ołów powodowała długotrwałe zmiany mikrobiomu jelit. Te z kolei mogą się częściowo przyczyniać do zwiększonej masy ciała w dorosłym życiu - twierdzi prof. Chuanwu Xi. Ołów dodawano do wody; ołowiowanie zaczynano przed rozrodem i kontynuowano po zajściu w ciążę i w okresie karmienia młodych. Od odstawienia od piersi po osiągnięcie dorosłości myszy nie były wystawiane na oddziaływanie dodatkowych źródeł ołowiu. Poziomy ołowiu u matek dostosowano w taki sposób, by odpowiadały poziomom ekspozycji w ludzkiej populacji. Nasza najniższa dawka oscyluje [więc] wokół obecnego poziomu reagowania [ang. action level] amerykańskiego Centrum Zwalczania i Zapobiegania Chorobom rzędu 5 mikrogramów na decylitr krwi. Wyższe dawki odzwierciedlają [zaś] poziomy ekspozycji z lat 60. i 70. XX w. - opowiada prof. Dana Dolinoy. [...] Oceniając wpływ styczności z ołowiem na zdrowie, badaliśmy rolę mikrobiomu jelit - wyjaśnia Xi. Amerykanie zastosowali głębokie sekwencjonowanie bakteryjnego DNA. Okazało się, że choć mikrobiom samic i samców wystawionych na oddziaływanie ołowiu był podobnie złożony, jak mikrobiom zwierząt kontrolnych, pojawiły się różnice dot. liczebności poszczególnych grup bakterii. Stwierdzono np., że myszy obojga płci, które na wczesnych etapach rozwoju zetknęły się z Pb, miały mniej gatunków tlenowych i znacząco więcej beztlenowych, co sugeruje zmiany w mikrośrodowisku jelit. Otyłość rozwijającą się w dorosłości obserwowaliśmy tylko u samców, ale niewykluczone, że przy dłuższej obserwacji objawy pojawiłyby się również u samic - podsumowuje Dolinoy. « powrót do artykułu
  12. Na Uniwersytecie w Cambridge można oglądać jedne z najcenniejszych ksiąg i manuskryptów ludzkości. Udostępniono je w ramach otwartej właśnie wystawy z okazji 600-leca Biblioteki Uniwersytetu Cambridge. Wystawa "Lines of Thought: Discoveries that Changed the World" potrwa do 30 września bieżącego roku. Odwiedzający wystawę będą mogli zobaczyć tak wyjątkowe dzieła, jak podpisana przez Newtona kopia Principia Mathematica, zapiski Darwina dotyczące ewolucji, liczące sobie 3000 lat chińskie kości do wróżb, tabliczkę glinianą z pismem klinowym sprzed 4000 lat czy też najwcześniejsze znane wersje 20 sztuk Shakespeare'a. Wspomniana wystawa to wydarzenie dużej rangi. Aż 70% wystawionych zabytków jest pokazywanych po raz pierwszy. To m.in. Księga z Deer, rysunek anatomiczny Vesalisa, notatki Williama Morrisa dotyczące wydanego przezeń "Beowulfa" oraz prace Kopernika, Galileusza i Jocelyn Bell Burnell. Na wyjątkowej wystawie można zobaczyć np. jak wygląda spisana na maszynie pierwotna wersja "Krótkiej historii czasu" Stephena Hawkinga, obejrzeć pierwsze wykonane przez Darwina rysunki obrazujące teorię ewolucji i drzewo filogenetyczne naczelnych czy przeczytać notatnik Edmunda Halleya, w którym opisał on i narysował Kometę Halleya (rok 1682). Wystawiono też pochodzący z II wieku naszej ery fragment "Odysei" Homera spisany na papirusie. Niezwykłym zabytkiem jest też Papirus Nasha, pochodzący z II wieku przed Chrystusem najstarszy fragment Starego Testamentu. Nie można nie wspomnieć o Kodeksie Bezy (Codex Bezae) czyli datowanym na V wiek naszej ery rękopisie Nowego Testamentu. To jeden z tekstów kluczowych dla zrozumienia Biblii. Kolejnym niezwykle istotnym dziełem jest kolorowa kopia "Budowy ludzkiego ciała" (1543) Vesalisa. To pierwsze wydane drukiem dzieło o anatomii człowieka i pierwsze opisujące dokładnie budowę ciała Homo sapiens. Vesalius wykazał w nim liczne błędy popełnione przez samego Galena. Skoro przy anatomii jesteśmy, warto wspomnieć o wystawionym pierwszym znanym opisie sekcji zwłok wykonanym na terenie Anglii (1564). Na wystawie zobaczymy też Księgę z Deer, łaciński ewangeliarz z X wieku, na marginesie którego najdziemy najstarsze znane zapiski w języku gaelickim szkockim. Nie mogło zabraknąć też pierwszego katalogu Biblioteki w Cambridge. Pochodzi on z 1424 roku. Wystawę podzielono na sześć działów tematycznych. Są to: Od glinianych tabliczek do wpisów na Twitterze (Rewolucja ludzkiej komunikacji), Ewolucja genetyki (Od Darwina do DNA), A słowo ciałem się stało (Komunikacja wiary), Na ramionach gigantów (Rozumienie grawitacji), Wieczne zapiski (Opowiadanie historii) oraz Ilustrowanie anatomii (Zrozumienie budowy organizmu). To niezwykłe, że Biblioteka Uniwersytecka, której historia rozpoczyna się w 1416 roku do niewielkiego zbioru manuskryptów zamkniętych w drewnianych skrzyniach, rozrosła się do instytucji o światowym znaczeniu, która ma w swoich zbiorach 8 milionów książek i manuskryptów, miliardy słów, miliony obrazów i przechowyje tysiące lat historii ludzkiej myśli - mówi Anne Jarvis, dyrektor biblioteki. Tylko w Cambridge można znaleźć największe dzieła Newtona sąsiadujące z najważnieszymi rękopisami Darwina czy poezje Sassuna obok Biblii Gutenberga i archiwum Margaret Drabble - dodaje Jarvis. Niezwykłą wystawę można obejrzeć też w internecie. « powrót do artykułu
  13. Jeśli burzyki balearskie (Puffinus mauretanicus), najrzadsze europejskie ptaki morskie, będą nadal tonąć, zaplątawszy się w sieciach rybackich i żyłkach wędkarskich, wyginą w ciągu 61 lat. Autorzy publikacji z Journal of Applied Ecology wyliczyli, że pozostało ok. 3 tys. rozmnażających się par. Choć głównym zagrożeniem dla gatunku jest zaplątanie w sprzęt do łowienia, biolodzy wspominają też o drapieżnikach, m.in. kotach i innych małych ssakach. Dane demograficzne zbierano w latach 1985-2014 w jednej z największych kolonii na świecie. Przeżywalność dorosłych , a zwłaszcza młodych dorosłych osobników jest dużo niższa niż sądzono. Gatunek jest niestabilny i kroczy po ścieżce ku wyginięciu - opowiada prof. Tim Guilford z Wydziału Zoologii Uniwersytetu Oksfordzkiego. Szacunki pokazują, że w około połowie przypadków do zgonu dorosłych osobników dochodzi wskutek zaplątania w sieci i żyłki. Naukowcy z Wielkiej Brytanii i Hiszpanii zaznaczają, że szczególnym zagrożeniem są włoki denne. Wg Guilforda, bardzo dużo mogłoby zmienić zarzucanie sieci nocą, gdy ptaki nie są aktywne. « powrót do artykułu
  14. Rozpoczęła się wspólna marsjańska misja Europejskiej Agencji Kosmicznej i Roskosmosu. Z kosmodromu Bajkonur wystartowała właśnie rakieta Proton, na pokładzie której znajduje się misja ExoMars. W ramach misji badany będzie skład atmosfery Czerwonej Planety. Głównie badane będą takie gazy jak np. metan. Został on już znaleziony w atmosferze Marsa, a jego obecność może świadczyć o istnieniu życia na planecie. Dlatego też ExoMars zajmie się szczegółowym zbadaniem tego gazu. W ramach ExoMars na Czerwoną Planetę trafi też lądownik. Jego osadzenie na powierzchni Marsa będzie testem technologii, które mają zostać wykorzystane w 2018 roku, kiedy to w ramach kontynuacji ExoMars na Marsie ma rozpocząć pracę łazik. Podróż z Ziemi na Marsa ma potrwać siedem miesięcy. ExoMars rozpocznie zatem pracę pod koniec bieżącego roku. « powrót do artykułu
  15. Władze prefektury Aichi chcą zatrudnić 6 ninja. Za pracę w pełnym wymiarze oferują 180 tys. jenów (1600 dol.) miesięcznie. Chcą w ten sposób wspomóc turystykę militarną. W ogłoszeniu podano, że kandydaci muszą być sprawni fizycznie i mieć umiejętności akrobatyczne. Oprócz występów scenicznych, do ich obowiązków będą należeć działania PR-owe w radiu i telewizji. Zgłosić się może każdy w wieku powyżej 18 lat. Ze złożeniem aplikacji trzeba się jednak uporać przed 22 marca. Idealny kandydat to taki, który mimo bycia ninja lubi znajdować się w świetle reflektorów. Ponieważ zespół będzie czasem dawać występy, posługując się angielskim, umiejętność mówienia po japońsku jest raczej preferowana niż zasadnicza - podkreśla Satoshi Adachi z wydziału promocji prefektury. Do wymogów należy zainteresowanie historią i turystyką. Występy po przyspieszonym kursie zaczną się jeszcze przed końcem kwietnia. Zwycięskich aplikantów będzie można oglądać m.in. w zamku Nagoya. Rządzącym prefekturą Aichi zależy prawdopodobnie na powtórzeniu sukcesu Iga-ryū Ninja Hakubutsukan (Muzeum Ninja) w mieście Iga w sąsiedniej prefekturze Mie. « powrót do artykułu
  16. AlphaGo rezygnuje, tymi słowy maszyna poddała czwartą partię Go. Po czterech partiach Lee Sedol odniósł pierwsze zwycięstwo ze sztuczną inteligencją. Ostatnia partia meczu odbędzie się jutro. Rozgrywka pomiędzy AlphaGo a czołowym zawodnikiem świata to ważny krok w rozwoju sztucznej inteligencji. Jeszcze przed kilkoma tygodniami sam Lee uważał, że w bieżącym roku maszyna nie będzie jeszcze w stanie go pokonać. Okazało się jednak, że oprogramowanie jest na tyle zaawansowane, iż radzi sobie z mistrzem świata. Go była dotychczas przedmiotem całkowitej dominacji człowieka. Po wygranej partii Lee powiedział, że AlphaGo wydaje się mieć problemy, gdy przeciwnik wykona nietypowy ruch. Być może to błąd w oprogramowaniu, ale nie wiem, czy można to tak nazwać - stwierdził mistrz. Twórcy AlphaGo podziękowali Lee. Właśnie dlatego tutaj jesteśmy. By przetestować AlphaGo do granic możliwości - mówił główny inżynier Demis Hassabis. Podczas wygranej partii pan Lee grał białymi. Powiedział, że w ostatniej rozgrywce chce zagrać czarnymi kamieniami, by sprawdzić swoją teorię dotyczącą słabości AlphaGo w nietypowych sytuacjach. Komentatorzy mówią, że Lee wygrał w mierze dzięki nietypowemu atakowi przeprowadzonemu na środku planszy. Pod koniec gdy, jak zauważyli, AlphaGo wykonywał desperackie ruchy obronne, podobne do tych, jakie wykonują ludzie. W końcu jednak oszacował, że jego szanse na wygraną są mniejsze od założonego limitu i poddał partię. Gratulacje! Pan Lee był dzisiaj dla nas zbyt dobry i zmusił AlphaGo do popełnienia błędu, z którego ten już się nie podniósł - napisał Hassabis na Twitterze. « powrót do artykułu
  17. Źle oczyszczone przyprawy, np. słodka papryka czy pieprz, mogą zawierać duże ilości drobnoustrojów, w tym chorobotwórczych jak np. bakterie Salmonella. Wtedy nie tylko zagrażają zdrowiu, ale też psują sery czy wędliny, do których je dodano. Naukowcy opracowali nową metodę oczyszczania przypraw za pomocą plazmy. W przyprawach eksportowanych z krajów tropikalnych mogą znajdować się zarówno duże ilości bakterii tlenowych, spor bakterii tlenowych czy beztlenowych, jak również rozmaite drobnoustroje np. Salmonella. Dlatego - zanim zapakowane do torebek trafią na sklepowe półki i rozmaitych produktów spożywczych - wymagają oczyszczenia. Dla Polski nie ma takich danych, ale wiadomo, że w 2010 roku do Stanów Zjednoczonych trafiło ponad 600 milionów kilogramów przypraw wymagających oczyszczenia - powiedział PAP Maciej Grabowski z Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie. Jeżeli bakterii w źle oczyszczonych produktach jest za dużo, mogą przyczynić się nie tylko do zatruć, ale też przyspieszać psucie produktów spożywczych, do których trafiają. Dotyczy to zwłaszcza sytuacji, w której takie przyprawy dodamy do dojrzewających kiełbas albo serów - opisuje rozmówca PAP. Obecnie najczęściej przyprawy poddaje się bakteriobójczemu działaniu pary wodnej. To metoda popularna szczególnie w Indiach. Owszem, przy użyciu pary wodnej bakterie są zabijane, ale przyprawy zyskują bardzo dużą ilość wody, przez co przybierają na masie. Dochodzi też do utraty olejków eterycznych, a przyprawy mogą stracić na ostrości. Następnie muszą być suszone, co powoduje, że cały proces staje się dość kosztowny - wyjaśnia badacz. Kolejną stosowaną metodą jest np. sterylizacja radiacyjna. Choć jest bezpieczna dla człowieka i skutecznie niszczy bakterie, to w wielu społeczeństwach jej użycie wywołuje obawy i kontrowersje. Dlatego zespół z Zachodniopomorskiego Uniwersytetu Technologicznego w Szczecinie opracował własną, zupełnie nową metodę oczyszczania przypraw. Na razie przeprowadzili badania na mielonym pieprzu czarnym i słodkiej papryce. Wybraliśmy właśnie te przyprawy, ponieważ - jak wynika z amerykańskich danych - są one najczęściej sprowadzane do USA - wyjaśnił. Metoda opracowana przez badaczy ze Szczecina to sterylizacja przypraw przy użyciu plazmy. Krótko mówiąc metoda ta polega na jonizacji gazu przy użyciu wysokiego napięcia pod wpływem działania pola np. elektromagnetycznego o wysokiej częstotliwości, wskutek czego dochodzi do wytworzenia plazmy, która ma postać np. fioletowego światła. Przyprawy wystawiamy na działanie tego właśnie światła - wyjaśnia Grabowski. Metoda już teraz jest wykorzystywana w przemyśle medycznym, również w Polsce, do sterylizacji narzędzi chirurgicznych. To tylko kwestia czasu, kiedy zostanie wprowadzona do przemysłu spożywczego. Zrobiliśmy już badania na zawartość piperyny, czyli związku chemicznego, któremu pieprz zawdzięcza swój ostry smak. Okazało się, że po naszym zabiegu pozostaje ona bez zmian, a nawet jej stężenie wzrasta. Za pomocą specjalistycznego urządzenia analizowaliśmy też barwę. W niej też nie znaleźliśmy różnic - mówi badacz. Wiemy już, że nasza metoda działa: bakterie zostają zabite, a przyprawy nie ulegają zmianie. Teraz chcielibyśmy powoli wchodzić w ciągły proces oczyszczania, czyli spowodować, aby duże ilości przypraw oczyszczać w jak najkrótszym czasie - dodaje. Szanse są duże, bo gdy naukowcy zaczynali prace, próbka przypraw wynosiła tylko 0,35 grama, a proces sterylizacji plazmowej trwał do 60 minut i to niekoniecznie przynosząc zadowalające rezultaty. Teraz wysterylizowanie 40 gramów przypraw zajmuje im już tylko dwie minuty. Metodą już teraz zainteresowana jest jedna z amerykańskich firm produkujących hamburgery. Jednak najbardziej czekamy na kogoś, kto zdecyduje się na współpracę w ramach konsorcjum - zaznaczył Grabowski. « powrót do artykułu
  18. Starsze osoby, które są aktywne fizycznie mają, niezależnie od rodzaju aktywności, więcej szarej materii w mózgu od swoich nieaktywnych rówieśników, wynika z badań przeprowadzonych przez University of Pittsburgh School of Medicine oraz Uniwersytet Kalifornijski w Los Angeles. Z artykułu w Journal of Alzheimer's Disease dowiadujemy się, że osoby cierpiące na chorobę Alzheimera lub na łagodne upośledzenie funkcji poznawczych, miały więcej istoty szarej jeśli w związku z ćwiczeniami fizycznymi spalały dużo kalorii. W czasie najnowszych badań prowadzonych pod kierunkiem doktora Cyrusa Raji z UCLA przyjrzano się danym z ponad 5 lat dotyczącym 876 osób w wieku od 65. roku życia. U wszystkich osób przeprowadzono obrazowanie mózgu i poddawano je okresowo testom badającym zdolności poznawcze. Badanych pytano też o rodzaj oraz częstotliwość aktywności fizycznej i wyliczano na jej podstawie ilość spalonych kalorii. Okazło się, że osoby, które spalały najwięcej kalorii miały zachowane najwięcej istoty szalej w płatach czołowych, skroniowych i ciemieniowych. To obszary odpowiedzialne za pamięć, uczenie się i złożone operacje poznawcze. U takich osób szansa na rozwój w ciągu 5 lat choroby Alzheimera była o 50% niższa niż u ich nieaktywnych rówieśników. Doktor Raji uważa, że zachęcanie do aktywności fizycznej powinno być jedną ze strategii walki z utratą zdolności poznawczych u ludzi starszych. « powrót do artykułu
  19. Kanadyjsko-duński zespół wykazał, że w części przypadków do obrazowania zmian w budowie kręgosłupa lepiej niż rezonans magnetyczny (MRI) nadaje się nowa technologia wibracyjna VibeDx™. Greg Kawchuk z Uniwersytetu Alberty współpracował z kolegami z Uniwersytetu Południowej Danii. W ramach badań na bliźniętach jednojajowych autorzy publikacji z pisma Scientific Reports wykazali, że strukturalne zmiany kręgosłupa, w tym przypadku odcinka lędźwiowego, znacząco zmieniają odpowiedź wibracyjną. By stwierdzić, gdzie umiejscawiają się problemy z plecami, zamiast wywoływać duże drgania sejsmiczne, wykorzystywaliśmy lekkie wibracje. Analizując i testując odpowiedzi wibracyjne bliźniąt jednojajowych, byliśmy w stanie wykazać, że przekształcenia budowy kręgosłupa [np. w wyniku urazu czy wypadku] zmieniają także wzorzec drgań. W Danii mamy największy i najbardziej rozbudowany rejestr bliźniąt na świecie. Wykorzystując to unikatowe źródło, mogliśmy dorzucić swoje trzy grosze do badań, które potencjalnie pomogą zdiagnozować miliony pacjentów z bólami pleców - podkreśla prof. Jan Hartvigsen z Uniwersytetu Południowej Danii. Jednym z największych problemów dotyczących bólu pleców jest nadużywanie MRI u pacjentów, którzy go nie potrzebują. To marnowanie funduszy zdrowotnych, prowadzące do zbyt rozbudowanego leczenia, a nawet pogłębienia niepełnosprawności. Zastosowanie prostej, bezpiecznej i niedrogiej technologii takiej jak ta może ograniczyć niepotrzebne skanowanie - uważa Hartvigsen. Kawchuk widzi też dodatkowe plusy. Wg niego, rezonans daje obraz kręgosłupa, nie zapewnia jednak danych nt. jego działania. To jak robienie zdjęcia samochodu, by sprawdzić, czy zapali. Diagnostyka wibracyjna daje coś więcej niż zdjęcie. Pokazuje nam również, jak kręgosłup funkcjonuje. W sytuacji, kiedy obecne metody diagnostyczne nie pozwalają wskazać przyczyny bólu pleców aż 90% chorych, technologia Kawchuka, która została opatentowania przez firmę VibeDx Diagnostic Corp, wydaje się bardziej niż obiecująca. « powrót do artykułu
  20. Microsoft chce uzyskać dane klienta firmy Comcast, który aktywował tysiące kopii Windows 7, Windows 8, Windows Server i MS Office 10 używając w tym celu skradzionych kluczy. Koncern zwrócił się do sądu z wnioskiem o wydanie Comcastowi nakazu ujawnienia danych. Wspomniane klucze zostały skradzione w jednym z miejsc łańcucha logistycznego Microsoftu. Aktywowano je z pojedynczego adresu IP. Wiadomo, że aktywacji dokonała osoba korzystająca z IP jednego z mniejszych ISP używających sieci Comcastu. Jeśli sąd przychyli się do wniosku Microsoftu, koncern zwróci się do sądu o wydanie podobnego nakazu dotyczącego tego ISP. Można się spodziewać, że jeśli Microsoft zdobędzie dane osoby podejrzanej o wykorzystanie skradzionych kluczy, wystąpi przeciwko niej do sądu i będzie domagał się olbrzymiego odszkodowania. « powrót do artykułu
  21. Naukowcy z Uniwersytetu Florydzkiego zidentyfikowali w biofilmie, a konkretnie naddziąsłowej płytce nazębnej, nowy szczep bakterii (paciorkowców), który może pomóc w kontrolowaniu szkodliwych bakterii. Odkrycie A12 toruje drogę zapobieganiu próchnicy za pomocą probiotyków. Artykuł dr. Roberta Burne'a i prof. Marcelle Nascimento na ten temat ukazał się w piśmie Applied and Environmental Microbiology. Kluczem do zdrowych zębów jest podtrzymywanie w jamie ustnej neutralnego pH. Kwaśny odczyn oznacza bowiem m.in. próchnicę. Na tym etapie bakterie bytujące na zębach wytwarzają kwas, a kwas je rozpuszcza. To prosta chemia. [Z tego powodu] interesowało nas, jakie zjawiska podtrzymują wyższe pH - opowiada Burne. W ramach wcześniejszych badań tego samego zespołu zidentyfikowano 2 podstawowe związki rozkładane do amoniaku (NH3), który pomaga neutralizować kwas w jamie ustnej: mocznik i argininę. Burne i Nascimento zauważyli, że osoby z mniej nasiloną lub nieobecną próchnicą lepiej rozkładają argininę niż osoby z bardziej zaawansowaną próchnicą. Amerykanie wiedzieli, że za rozkład odpowiadają bakterie, należało jednak ustalić, które robią to najlepiej. Okazało się, że m.in. A12. A12 wykazuje w różnych warunkach ekspresję systemu deiminazy argininowej (ADI), który odpowiada za produkcję NH3 z argininy. Na dwa sposoby utrudnia też wzrost kwasotwórczemu i kwasolubnemu patogenowi próchnicy Streptococcus mutans: 1) wytwarza duże ilości H2O2, 2) poza tym blokuje szlak jego sygnalizacji wewnątrzkomórkowej, bez którego nie ma mowy o wytwarzaniu bakteriocyny hamującej wzrost organizmów pokrewnych. Nawet jeśli A12 nie zabija S. mutans, niekorzystnie wpływa na ich zdolność do przeprowadzania procesów potrzebnych do ustanowienia choroby. Gdy te 2 bakterie hoduje się razem, S. mutans nie rosną dobrze i nie tworzą właściwie biofilmów [...]. Pobieraniem płytki nazębnej zajmowała się klinicystka - Nascimento. Udało jej się wyodrębnić ponad 2 tys. bakterii. Później poddano je badaniom przesiewowym i wskazano najlepszych kandydatów. Scharakteryzowaliśmy 54 metabolizujące argininę bakterie. Wśród nich wybijały się A12, które miały wszystkie cechy, poszukiwane u nas u szczepów bakterii mogących zapobiegać próchnicy. Amerykanie zskewencjonowali cały genom A12. Teraz myślą o przyszłych zastosowaniach swoich odkryć. Jeśli dotrzemy do punktu, kiedy uda się potwierdzić, że ludzie, którzy mają więcej bakterii tego typu, są mniej zagrożeni próchnicą [...], zjawisko to będzie można wykorzystać do oceny ryzyka choroby. « powrót do artykułu
  22. Zdaniem naukowców z dwóch australijskich uniwersytetów średnia temperatura Ziemi szybciej niż zakładano osiągnie poziom o 2 stopnie wyższy od średniej z czasów przedindustrialnych. Uczeni z University of Queensland i Griffith University twierdzą, że do roku 2020 temperatura wzrośnie o 1,5 stopnia Celsjusza, a do roku 2030 zostanie przekroczona granica 2 stopni wzrostu. W ubiegłym roku podczas konferencji klimatycznej w Paryżu uznano, że wzrost temperatury powyżej 1,5 stopnia Celsjusza zagrozi istnieniu państw wyspiarskich. Wzrost o 2 stopnie uznano za nieprzekraczalną granicę. Australijczycy wysnuli swoje wnioski na podstawie stworzonego przez siebie modelu, w którym uwzględnili wzrost użycia energii w przeliczeniu na mieszkańca Ziemi, wzorst ekonomiczny oraz zwiększanie się populacji ludzkiej. Z modelu wynika, że większa efektywność energetyczna nie powstrzymujc rosnącego zapotrzebowania na energię. Im bardziej rozwija się gospodarka, tym więcej energii jest konsumowane. Jedynym sposobem na powstrzymanie rosnącej emisji gazów cieplarnianych wydaje się rezygnacja z paliw kopalnych na rzecz energii odnawialnej. Jeden z autorów badań, Liam Wagner z wydziału finansów, księgowości i ekonomii Griffith University mówi, że od roku 1950 zużycie energii na głowę mieszkańca Ziemi wzrosło dwukrotnie. Obecnie wszystko wskazuje na to, że do roku 2050 będzie sześciokrotnie większe. Jeśli weźmiemy pod uwagę, że do tego czasu liczba ludności może sięgnąć 9 miliardów, a średni światowy wzrost ekonomiczny z ostatnich 60 lat wynosi 3,9% rocznie, to bez radykalnych zmian w sposobie produkcji energii nie będziemy w stanie powstrzymać globalnego ocieplenia. Współautor badań, Ben Hankamer z University of Queensland stwierdza, że nieprawdziwy jest pogląd, jakoby paliwa kopalne były szansą na wyrwanie olbrzymich rzesz ludzkości z nędzy. Do poprawienia bytu najuboższych mieszkańców Ziemi potrzebne są bowiem olbrzymie ilości energii. Jeśli będziemy pozyskiwać ją z paliw kopalnych, wyemitujemy gigantyczną ilość gazów cieplarnianych, dojdzie do jeszcze większego wzrostu średnich temperatur i gwałtownych zmian klimatycznych, na których najbardziej cierpią najubożsi. Naukowcy zwracają jednak uwagę, że nie ma tutaj prostych rozwiązań, gdyż około 80% energii zużywanej jest na paliwo, a jedynie 20% do produkcji elektryczności. To zaś oznacza, że musimy opracować efektywne technologie pozwalające na przestawienie całego transportu na zasilanie elektryczne. To zaś wymagana np. opracowania efektywnych sposobów przechowywania energii. « powrót do artykułu
  23. Szympansy, nasi najbliżsi kuzyni, mają potężne zęby i szczęki, dzięki którym radzą sobie z koniecznością przeżuwania jedzenia przez 6 godzin na dobę. Tymczasem ludzi charakteryzują znacznie mniejsze szczęki i zęby. Autorzy najnowszych badań twierdzą, że te nasze organy uległy zmniejszeniu wskutek opracowania technik wstępnej obróbki pożywienia. Dzięki temu samo jedzenie wymagało mniej czasu i siły, co z kolei pozwoliło na wyewoluowanie cech koniecznych do pojawienia się mowy. Daniel Lieberman, antropolog ewolucyjny z Uniwersytetu Harvarda i autor najnowszych badań mówi, że obecnie ludzie tak mało czasu spędzają na jedzeniu, gdyż spożywamy pokarmy znacznie o znacznie lepszych właściwościach odżywczych niż nasi przodkowie. Szympansy odżywiają się głównie owocami. Muszą zjeść ich sporo, by zapewnić sobie wystarczającą ilość energii. Ludziom energię tę zapewnia głównie mięso. Obecnie poddajemy mięso obróbce cieplnej, co ułatwia jego pożywanie i trawienie. Jednak zdaniem Liebermana, nasi przodkowie jedli mięso na długo przed opanowaniem ognia. Istnieją dowody, że hominini, przodkowie szympansów i ludzi, regularnie jedli mięso już przed 2,5 milionami lat. Wydaje się jednak, że gotowanie zaczęto stosować dopiero 500 000 lat temu. Lieberman postanowił więc odpowiedzieć na pytanie, co się działo w czasie, gdy mięsa jeszcze nie gotowano. Lieberman zauważył, że mniej więcej w tym samym czasie, gdy hominini zaczęli jeść mięso, pojawiły się kamienne narzędzia. Lieberman poprosił o pomoc koleżankę, Kahterinę Zink i razem badali, w jaki sposób narzędzia te mogły wpłynąć na zmianę pożywienia homininów. Wybraliśmy najprostszy możliwy sposób obróbki żywności - mówi Zink. Uznali, że dzięki kamiennym narzędziom rośliny mogły być ucierane na pastę, a mięso porcjowane. Do pomocy zaangażowano grupę ochotników u których mierzono czas oraz ilość siły wymaganej do poradzenia sobie z żywnością. Ochotnicy mieli spożywać surowe, nieprzetworzone mięso i warzywa, surowe ale utarte na pastę warzywa lub pokrojone mięso oraz ugotowane mięso i warzywa. Po pierwsze, naukowcy zauważyli, że spożywanie surowego nieprzetworzonego mięsa jest niemal niemożliwe, nawet jeśli ma się szczęki jak szympans. Ochotnicy mieli poradzić sobie z mięsem kozim, które prawdopodobnie najbardziej przypomina mięso dzikich zwierząt, z jakim mieli do czynienia hominini. Jedzenie surowej koziny nie jest przyjemne. Żujesz, żujesz i żujesz i nic się nie dzieje. To jak żucie gumy - mówi Lieberman. Ludzkie zęby nie są w stanie podzielić koziego mięsa na mniejsze kawałki. Dla homininów musiało być to równie trudne zadanie. Wszystko jednak się zmienia, jeśli mięso pokroimy. Nawet, jeśli porcjujemy je zaostrzonym kamieniem. Nagle okazało się, że dzięki kamiennym narzędziom hominini mogą podzielić mięso na mniejsze kawałki, dzięki czemu łatwiej je pogryźć i strawić. Podobnie dzieje się ze zmiażdżonymi roślinami. Z dokładnych wyliczeń wynika, że dzięki pokrojeniu mięsa i zmiażdżeniu roślin liczba koniecznych ugryzień zmniejsza się o 17%. W ciągu roku przekłada się to na 2,5 miliona ruchów szczęką. Ta różnica wystarczyła, by u naszych przodków pojawiły się mniejsze zęby i szczęki. Zmniejszenie się twarzoszczęki naszych przodków spowodowało, że ich ich usta zyskały na ruchomości, a mniejsza głowa pozwalała na łatwiejsze zachowanie równowagi w czasie biegu, co ułatwiało polowanie. Zink i Lieberman proponują więc uzupełnienie hipotezy o kluczowej roli, jaką w ewolucji człowieka stało się wykorzystywanie ognia do przygotowywania posiłków. Ich zdaniem mieliśmy do czynienia z dwustopniowym procesem. Najpierw, dzięki obróbce pokarmów za pomocą kamiennych narzędzi pojawiły się zmiany ewolucyjne faworyzujące osobników o mniejszych zębach, szczękach i krótszym przewodzie pokarmowym, a opanowanie ognia wzmocniło i przyspieszyło te zmiany. « powrót do artykułu
  24. Naukowcy opisali najstarsze znane skamieniałości przedstawiciela rodzaju sosna (Pinus). Mają one ok. 140 mln lat i pochodzą z czasów, kiedy przez wyższą niż dziś zawartość tlenu w atmosferze przez Ziemię przetaczały się częste i potężne pożary. Dr Howard Falcon-Lang z Royal Holloway, University of London znalazł skamieniałe zwęglone pędy z walanżynu w formacji Chaswood w Nowej Szkocji. Rodzaj Pinus dominuje we współczesnych lasach północnej półkuli. Dziś sosny są dobrze przystosowane do ognia [należą do pirofitów, czyli roślin, którym ogień sprzyja] - podkreśla Falcon-Lang, dodając, że wpłynęła na to z pewnością ewolucja w ognistych warunkach wczesnej kredy. Skamieniałości pokazują, że pożary trawiły najwcześniejsze sosnowe lasy i prawdopodobnie kształtowały ewolucję tych ważnych drzew. W skamieniałości Pinus mundayi widoczne są m.in. przewody żywiczne, a także krótkopędy, które przechodzą przez granice słojów, by w części dalszej rozdzielić się na podstawy dwóch igieł. Tym samym skamieniałość uznaje się za pozostałość sosny dwuigielnej. Nim Brytyjczyk poddał okazy znalezione w kamieniołomie trawieniu, przez 5 lat leżały w jego szafce. Choć skamieniałości mają zaledwie parę milimetrów, prawdopodobnie pochodzą z drzew przypominających dzisiejszą sosnę zwyczajną. « powrót do artykułu
  25. Miesiąc po historycznym potwierdzeniu zarejestrowania fal grawitacyjnych przez eksperyment LIGO uwagę świata naukowego przyciągnęła chińska propozycja zbudowania kosmicznego wykrywacza tych fal. Najpierw z propozycją taką wystąpili uczeni z Europy, teraz Chińczycy zarysowali znacznie bardziej ambitny plan. Wciąż nie jest jednak jasne, czy pojedynczy kraj jest w stanie zbudować taki wykrywacz, czy też konieczna będzie międzynarodowa współpraca. Przypomnijmy, że fale grawitacyjne zostały zarejestrowane przez amerykański eksperyment LIGO. Składa się on z dwóch ośrodków badawczych w stanach Waszyngton i Luizjana. Laboratoria korzystają z tuneli o kształcie litery L, której ramiona mają po 4 kilometry długości. Laser wystrzeliwuje promień w kierunku luster umieszczonych na końcu tuneli, czujniki wychwytują odbite światło i, jeśli promienie odbyły drogę o różnej długości, dochodzi do interferencji. Badając tę interferencję naukowcy są w stanie zmierzyć relatywną długość obu ramion z dokładnością do 1/10 000 szerokości protonu. Jako, że fale grawitacyjne ściskają i rozciągają przestrzeń, odchylenie od standardowej interferencji wskazuje na zmianę długości tuneli, czyli na przejście fali grawitacyjnej. Naziemne wykrywacze fal grawitacyjnych mogą jednak zarejestrować fale o ograniczonej częstotliwości. Naukowcy sądzą, że do zarejestrowania fal z najpowszechniej występujących częstotliwościach potrzebny będzie detektor o długości setek lub tysięcy kilometrów. Drążenie takich tuneli na Ziemi jest nierealne, stąd pomysł na budowę kosmicznego detektora fal grawitacyjnych. Dodatkową zaletą byłby brak zakłóceń ze strony ziemskiego pola grawitacyjnego. Europejska Agencja Kosmiczna pracuje nad projektem o nazwie eLISA (Evolved Laser Interferometer Space Antennta). Wykrywacz miałby składać się z 3 satelitów orbitujących wokół Słońca i strzelających w swoim kierunku laserami. Odległość pomiędzy satelitami miałaby wynosić prawdopodobnie 2 miliony kilometrów. Chińczycy mają podobny pomysł, jednak w ramach projektu Taiji satelity znajdowałyby się w odległości 3 milionów kilometrów od siebie, przez co miałyby dostęp do innej częstotliwości fal grawitacyjnych. Chińczycy sądzą, że uda im się uruchomić Taiji w 2033 roku, czyli rok przed projektem eLISA. Wu Yue-Liang, fizyk w Instytutu Fizyki Teoretycznej Chińskiej Akademii Nauk, który jest odpowiedzialny za projekt Taiji, szacuje, że będzie on kosztował 2 miliardy dolarów, czyli dwukrotnie więcej niż eLISA. To jednak nie jedyna chińska propozycja. Za drugą odpowiedzialny jest Luo Jun, fizyk z Uniwersytetu Sun Yat-Sena. Projekt TianQuin zakłada wykorzystanie 3 satelitów umieszczonych w odległości 150 000 kilometrów od siebie. Jego szacowany kosz to około 300 milionów USD. TianQuin miałby znacznie ograniczone możliwości w porównaniu z Taiji. Zamiast wykrywać fale emitowane przez miliony czarnych dziur i gwiazd neutronowych skupiałby się na obserwowaniu układu podwójnego HM Cancri, w skład którego wchodzą białe karły. Wu Ji, dyrektor generalny Narodowego Centrum Nauk o Kosmosie Chińskiej Akademii Nauk uważa, że należy połączyć oba projekty. Jeśli Chiny zdecydują się na rozpoczęcie kosmicznej misji badania fal grawitacyjnych, powinna być to pojedyncza misja. Nie ma mowy o poradzeniu sobie z dwoma misjami w tym samym czasie. Eksperci zwracają uwagę, że pod względem finansowym oraz koniecznych zasobów ludzkich i materiałowych żadne państwo nie jest w stanie samodzielnie stworzyć kosmicznego wykrywacza fal grawitacyjnych. Niewykluczone, że Chiny podejmą współpracę z Europejską Agencją Kosmiczną. Przed laty NASA i ESA stworzyły wspólny projekt misji o nazwie LISA, jednak przed 5 laty NASA się z niego wycofała, a ESA zmieniła ambitne plany i stworzyła projekt eLISA. Jeśli Chiny byłyby chętne do współpracy z ESA, można by wrócić do ambitnych założeń projektu LISA. « powrót do artykułu
×
×
  • Dodaj nową pozycję...