Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37642
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Dr Mateusz Ciechanowski z Uniwersytetu Gdańskiego wykazał, że owadożerne nietoperze korzystają na współdzieleniu habitatu z reintrodukowanymi w Polsce po II wojnie światowej bobrami. Powalając drzewa, Castor fiber przerzedzają lasy i zagajniki, ułatwiając lotnikom polowanie. Ze względu na mniejszą liczbę przeszkód jest ono bezpieczniejsze. Co więcej, tamy na rzece powodują, że tworzą się rozlewiska, gdzie owady, np. ochotkowate (Chironomidae), wspaniale się namnażają. Przed badaniem gdańszczan w ramach studiów nad wpływem bobrzych działań analizowano zwierzęta żyjące w wodzie lub jej pobliżu. Analizowano m.in. ptaki blaszkodziobe (Anseriformes), płazy i skorupiaki. Tymczasem na pracach wodno-lądowych bobrów korzystają zwłaszcza borowce wielkie (Nyctalus noctula), karliki drobne (Pipistrellus pygmaeus), karliki malutkie (Pipistrellus pipistrellus) i karliki większe (Pipistrellus nathusii). Nietoperze są bardzo zręcznymi lotnikami, ale te gatunki, które chwytają ofiary w powietrzu, nie mogą skutecznie polować w gęstym lesie – wyjaśnia Ciechanowski. Namierzając smaczne kąski, latające ssaki polegają na echolokacji, jednak gdy drzewo rośnie tuż przy drzewie, dźwięki odbijają nie tylko potencjalne łupy, ale i liczne gałęzie, pnie czy liście. Porównywanie charakterystyk dźwięków wydanych z echami nie ma więc większego sensu. Sytuacja myśliwych wygląda o wiele lepiej w rejonach, gdzie bobry powaliły drzewa, żerując lub budując tamy. Idealne warunki stwarzają zalane lasy z przecinkami. Co ciekawe, na działalności bobrów nie korzystają za bardzo gatunki nietoperzy, które polują blisko powierzchni wody, a więc np. nocki rude (Myotis daubentonii). Nietoperze te żywią się owadami i innymi drobnymi bezkręgowcami, chwytanymi w locie nad zbiornikami o niezarośniętej tafli. Zespół Ciechanowskiego sądził, że o ile wąskie cieki nie nadają się dla nocków, o tyle spokojnie będą one mogły polować nad terenami wokół tam. Niestety, rozlewiska tworzone przez młode bobry szybko porastają rzęsą, co zakłóca echo podobnie jak gęste korony drzew. Wygląda więc na to, że bobry najlepiej współpracują z lotnikami preferującymi wysokie pułapy.
  2. Od lat powtarza się jak mantrę twierdzenie, że obfite śniadanie ogranicza liczbę kalorii spożywaną w czasie dania. Tymczasem naukowcy z Uniwersytetu w Monachium pokazali, że w takiej sytuacji ludzie wcale nie jedzą mniej na obiad i kolację. Wg zespołu doktora Volkera Schusdziarry, osoby, które chcą schudnąć, powinny zmniejszyć kaloryczność śniadania. Niemiecki zespół przyglądał się poczynaniom 380 ochotników: 280 otyłych i 100 o prawidłowej masie ciała. Przez 10 (otyli) lub 14 kolejnych dni (szczupli) mieli oni prowadzić dzienniczki dietetyczne z dokładnym opisem wszystkiego, co jedli, nie zapominając o porze posiłku i jego wadze. Niektórzy jedli duże śniadania, podczas gdy inni poprzestawali na małym lub w ogóle je pomijali. Okazało się, że miłośnicy obfitego pierwszego posiłku (ich śniadanie oznaczało średnio 400 dodatkowych kalorii) dostarczali swojemu organizmowi w ciągu dnia również o ok. 400 kalorii więcej. W sumie daje to więc aż 800 kalorii ekstra. Wyniki pokazują, że ludzie jedzą tyle samo na lunch i kolację, bez względu na to, co mieli na śniadanie – podsumowuje dr Schusdziarra. Wzrastająca energetyczność śniadania wiązała się z wyższym ogólnym spożyciem kalorii w ciągu dnia i to zarówno u osób z nadmierną, jak i prawidłową masą ciała.
  3. Intel zainwestuje 500 milionów dolarów w unowocześnienie i ponowne otwarcie Fab 14 w irlandzkim Leixlip. Prace potrwają dwa lata, a gdy fabryka ruszy znajdzie w niej zatrudnieni 200 osób. Fab 14 została zamknięta latem 2009 roku. Pracę straciło wówczas 298 osób. Teraz Leixlip ma drugą szansę. Pojawiły się nawet spekulacje, że może tam powstać centrum doskonalenia technologii, w którym Intel będzie przygotowywał się do wdrożenia produkcji układów scalonych na 450-milimetrowych plastrach krzemowych. Nie wiadomo też, na jakie wsparcie finansowe może liczyć Intel ze strony rządowej agencji inwestycyjnej. "Sam fakt, że globalny lider jakim jest Intel, który już zainwestował w Irlandii niemal 7 miliardów dolarów, ma zamiar wydać na inwestycje kolejne 500 milionów, świadczy o zaufaniu do Irlandii i postrzeganiu nas jako konkurencyjnej lokalizacji dla inwestycji o globalnym znaczeniu" - stwierdził Barry O'Leary, prezes agencji. Dodał, że inwestycja dzięki inwestycji Intela przez dwa najbliższe lata pracę będzie miało 1000 osób.
  4. Matematyk Gustave Coriolis opisał efekt polegający na zakrzywieniu toru ciał poruszających się w obracającym się układzie odniesienia w 1835 r. Okazuje się jednak, że o podobnym zjawisku wzmiankowano już w 1651 r., czyli 184 lata wcześniej. Wspominał o nim (twierdząc notabene, że nie istnieje) jezuita Giovanni Battista Riccioli, dowodząc, że Ziemia wcale się nie obraca. Duchowny wymieniał 77 argumentów, które miały świadczyć o tym, że zmiany w wyglądzie nieba tylko pozornie są wynikiem obrotów naszej planety. Powoływał się m.in. na to, że gdyby Ziemia się poruszała, piekło znajdowałoby się w złym miejscu, poza tym zostałyby naruszone estetyczne normy dotyczące proporcji i harmonii. Na szczęście Riccioli powoływał się też na bardziej naukowe argumenty. Ostatnio kilkutomowy łaciński traktat astronomiczny Almagestum Novum, który należy uznać za dzieło w dużej mierze encyklopedyczne, został przetłumaczony przez Christophera Graneya z Jefferson Community and Technical College. Ku swojemu zdumieniu Amerykanin stwierdził, że zakonnik uważał, że jeśliby Ziemia się obracała, prędkość gruntu na różnych szerokościach geograficznych nie byłaby taka sama. Stąd też kula wystrzelona na północ lub południe z armaty umieszczonej w pobliżu równika ulegałaby lekkiemu odchyleniu na wschód lub zachód, w miarę gdy podłoże przesuwałoby się pod nimi w czasie lotu. Ponieważ niczego takiego nie zaobserwowano, nasuwał się jeden wniosek: Ziemia się nie porusza. Obecnie wiadomo, że efekt Coriolisa objawia się albo w przypadku ciał poruszających się swobodnie na dużym obszarze, np. wiatrów czy oceanów, albo przy długotrwałych procesach. Riccioli nie mógł jednak o tym wiedzieć. Coriolisowi trzeba też przyznać jeszcze jedno – zauważył on, że odchylenie toru poruszania się obiektu wystąpi zawsze, nie tylko w przypadku kierunków północ-południe.
  5. Jednym ze sposobów systemowej walki z powszechną otyłością ma być obowiązkowe opisywanie produktów spożywczych pod względem składu i wartości kalorycznej. Czy jednak takie oznaczenia wpływają na zachowania konsumentów? Badania Duke University wskazują, że nie bardzo. Naukowcy z Duke University Medical Center postanowili przeprowadzić badania na temat skuteczności kalorycznego oznaczania produktów, korzystając z okazji wprowadzenia stosownych przepisów w Hrabstwie King (w stanie Washington). Władze okręgowe wprowadziły tam nakaz opisywania wartości kalorycznej produktów podawanych w dużych (powyżej 14 punktów) sieciach restauracji i barów. Od wejścia w życie przepisów w styczniu 2009 roku, przez 13 miesięcy uniwersyteccy uczeni wraz z Wydziałem Zdrowia Seattle i Hrabstwa King obserwowali zachowanie klientów sieci Taco Time i porównywali je z zachowaniem przed wprowadzeniem nakazu. Główny autor studium, Eric Finkelstein, opierając się o wyniki wcześniejszych, podobnych badań, spodziewał się, że zmiana zachowań będzie niewielka, ale znacząca. Niestety, zawiódł się, ponieważ podawanie kalorii w restauracyjnym menu nie wpłynęło ani na liczbę sprzedawanych produktów, ani na średnią kaloryczność zamawianych posiłków. Taki rezultat wskazuje - powiedział Finkelstein - że obligatoryjne opisywanie menu nie jest wystarczającym bodźcem do zmiany zachowań konsumentów, jeśli nie jest połączone z innymi metodami. Współautor studium, Kiersten Strombotne, uważa, że podawanie wartości kalorycznej nie ma sensu w warunkach, kiedy normalnie dostępne są dietetyczne wersje produktów. Jeśli sklep oferuje colę zwykłą i dietetyczną, to czy podawanie liczby kalorii daje jakąkolwiek wartościową informację? - mówi. - Osoby chcące kupić napój niskokaloryczny i tak wiedzą, że należy kupić colę dietetyczną. Przyczyną „fiaska" programu w tej akurat sieci może być fakt, że restauracje Taco Time już wcześniej, z własnej woli, oznaczały zdrowe i niskokaloryczne produkty odpowiednimi znakami w menu. Oznaczałoby to, że proste i czytelne oznaczenie graficzne jest lepszym nośnikiem informacji dla konsumenta, który rozważa dobór diery, zaś dodatkowe, liczbowe informacje nie mają większego znaczenia. Badania są istotne dla planów rządu Stanów Zjednoczonych, który w ramach reformy zdrowia chce wprowadzić podobne przepisy w całym kraju. Wyniki powinny jednak zainteresować również rządy innych krajów, jako że podobne tendencje ustawodawcze są silne we wszystkich krajach rozwiniętych.
  6. Jak wynika z dokumentów zdobytych przez turecki serwis Dnanimhaber, AMD twierdzi, że jego ośmiordzeniowy procesor Bulldozer będzie o 50% bardziej wydajny niż obecnie sprzedawane czterordzeniowe układy Core i7-950. Niestety, nie podano, jakich testów używało AMD do pomiarów. Niedawno pojawiły się też pogłoski, jakoby AMD miało zamiar powrócić do oznaczenia FX nadawanego najbardziej wydajnym procesorom. Wiadomo też, że partnerzy AMD otrzymali próbki układów o nazwie kodowej Zambezi (dla desktopów jest to Bulldozer) w grudniu ubiegłogo roku. W lutym mają pojawić się niemal gotowe układy, a ich wstępna produkcja dla desktopów rozpocznie się w kwietniu. Serwis X-bit laboratories donosi, że ośmiordzeniowe Zambezi składają się z czterech dwurdzeniowych modułów Bulldozer, z których każdy dysponuje 2 megabajtami współdzielonej pamięci podręcznej poziomu drugiego. Zambezi ma mieć również do dyspozycji 8 MB współdzielonej przestrzeni L3. Układ ma być taktowany zegarem o częstotliwości nawet 3,50 GHz lub wyższej. Z nieoficjalnych informacji wynika, że pierwsze Zambezi będą produktami ośmiordzeniowymi o TDP wynoszącym 95 i 125 watów. Pod koniec drugiego kwartału mają zadebiutować procesory wyposażone w sześć i cztery rdzenie. Wszystkie układy mają korzystać z technologii TurboCore 2.0 i dwukanałowego kontrolera DDR3 z zegarem do 1866 MHz. Będą one kompatybilne z podstawką AM3+. AMD nie komentuje powyższych doniesień.
  7. Do związanych z nowotworami uszkodzeń DNA dochodzi już wkrótce po wypaleniu papierosa – dowodzą naukowcy z University of Minnesota. Efekt jest widoczny tak szybko, że stanowi odpowiednik wstrzyknięcia substancji bezpośrednio do krwiobiegu. W studium wzięło udział 12 ochotników. Akademicy skupili się zwłaszcza na tym, co dzieje się we krwi z jednym z wielopierścieniowych węglowodorów aromatycznych (WWA) - fenantrenie. Dodawano go do wypalanych przez badanych papierosów. By WWA zadziałały kancerogennie na płuca, muszą zostać poddane metabolicznej aktywacji. W 3-stopniowej sekwencji tworzą się addukty - w tym wypadku połączenia dwóch substancji chemicznych, czyli DNA i epoksydów dioli (ang. diol epoxide) – które mogą powodować mutacje i rozpoczynać proces nowotworzenia. Co ciekawe, naukowcy po raz pierwszy zbadali ten szlak u ludzi narażonych na kontakt z WWA w wyniku palenia papierosów. W eksperymentalnych papierosach wykorzystano stabilną izotopowo pochodną fenantrenu, najprostszego WWA z regionem zatokowym, z wchodzącym w jej skład deuterem (ang. [D10]phenanthrene fenantren). Specjaliści podkreślają, że metabolity WWA wiążą się kowalencyjnie z DNA lub RNA komórki. Szczególne możliwości w tym zakresie mają powstające w I fazie metabolizmu epoksydy dioli, a zwłaszcza te z nich, u których wiązanie epoksydowe znajduje się we wspomnianym wcześniej rejonie zatokowym cząsteczki. Dzieje się tak, ponieważ cechuje go podwyższona reaktywność zarówno biologiczna, jak i chemiczna. Po wypaleniu papierosów przez 12 ochotników w osoczu poszukiwano tetraolu [D10]PheT - głównego końcowego związku metabolicznej ścieżki fenantrenu. Okazało się, że trzystopniowa ścieżka prowadząca do powstawania epoksydioli była aktywowana dosłownie w mgnieniu oka. Poziom [D10]PheT w osoczu wszystkich badanych był maksymalny w najwcześniejszych uwzględnianych punktach czasowych (15-30 min po paleniu), a potem spadał.
  8. Pod koniec ubiegłego roku NASA zawarła umowy na przedstawienie projektu samolotu pasażerskiego przyszłości, który miały zadebiutować w roku 2025. Wszyscy kontrahenci - Lockheed Martin, Northrop Grumman oraz Boeing - przedstawili właśnie projekty wyglądu takich samolotów. Jak możemy się przekonać, samoloty wyglądają różnie, ale ich projektanci będą musieli spełnić te same wymagania postawione przez NASA. Główne założenia to zmniejszenie głośności samolotu, mniejsze zużycie paliwa oraz wydzielanie mniej zanieczyszczonych spalin. Każdy z samolotów ma osiągać 85% prędkości dźwięku, jego zasięg ma wynieść około 11 000 kilometrów. Pojazd ma też zabierać ładunek o ciężarze od 22,5 do 45 ton.
  9. Profesor Hynek Burda z Uniwersytetu Duiburg-Essen, który przed dwoma laty analizując na Google Maps pozycję stad pasących się krów odkrył, że zwierzęta te prawdopodobnie kierują się ziemskim polem magnetycznym, zauważył podobne zachowania u lisów. Na podstawie obserwacji tych zwierząt, które prowadził w Czechach, stwierdził, że podczas polowania niemal zawsze skaczą one na ofiarę w kierunku nieco odchylonym od linii północ-południe, zgodnie z położeniem bieguna magnetycznego. Zespół Burdy zanotował dwa rodzaje zachowania lisów w czasie polowań. Gdy zwierzę widzi ofiarę, skacze z każdej pozycji. Jednak gdy ofiara jest ukryta, to lis niemal zawsze wykonuje skok zgodnie z położeniem bieguna magnetycznego. Co więcej, w takim przypadku zwierzę dopada ofiarę w 72% przypadków. Gdy skacze w innym kierunku odsetek udanych ataków wynosi 18%. Burda skonsultował się z Johnem Philipsem z Virginia Tech, a ten zasugerował mu, że lisy mogą wykorzystywać pole magnetyczne do pomiaru odległości do ofiary, której przecież nie widzą. Obaj uczeni spekulują, że lisy starają się zawsze skakać na tę samą odległość. Ma im pomagać w tym "cień" na siatkówce, który jest najciemniejszy, gdy zwierzę patrzy w kierunku północnego bieguna magnetycznego. Lis podkrada się do ofiary, którą słyszy, tak długo, aż "cień" na siatkówce zgra się z miejscem, z którego dochodzi dźwięk. To daje mu pewność, że ofiara za każdym razem znajduje się w takiej samej odległości.
  10. Drobiazgowa analiza drzewnych pierścieni przyrostu rocznego wykazała, że może istnieć związek między wzrostem i upadkiem dawnych cywilizacji, np. starożytnego Rzymu, a stabilnością i nagłymi zmianami europejskiego klimatu. Archeolodzy, klimatolodzy, geografowie i historycy pracowali na 9 tysiącach przedmiotów z drewna z ostatnich 2,5 tys. lat. Ustalilia, że ciepłe i wilgotne okresy pokrywały się z erami niezahamowanego rozwoju (złotymi wiekami), podczas gdy zamieszki polityczne i niepokoje – np. wielka wędrówka ludów, wojna trzydziestoletnia czy epidemia dżumy (czarnej śmierci) - przypadały na momenty niestabilności klimatu. Jak tłumaczy Ulf Büntgen, paleoklimatolog ze Szwajcarskiego Narodowego Instytutu Badawczego Lasów, Śniegu i Krajobrazu (WSL), ekipa odwołała się do systemu dendrochronologicznego, wykorzystywanego do datowania odkopywanego materiału. Archeolodzy opracowali chronologię szerokości słojów w dębinie w środkowej Europie, która obejmuje niemal cały holocen. Stosują ją do datowania artefaktów, budynków historycznych, dzieł sztuki mebli. Chronologie żywych dębów i reliktów mogą odzwierciedlać unikatowe wzorce letnich opadów i suszy. Zespół zrekonstruował historię letnich opadów i temperatur w Europie Środkowej dla 2,5 tys. lat, przesuwając zapis o tysiąc lat dalej niż jakiekolwiek wcześniejsze studium. Wyniki bazują na pomiarach pierścieni przyrostu rocznego kilku tysięcy próbek subfosylnych (z okresu holoceńskiego), archeologicznych, historycznych i żywych z Niemiec, Francji, Włoch oraz Austrii. Informacje klimatyczne zawarte w tych drzewach pozwoliły na porównanie naturalnych fluktuacji opadów i temperatur z rozwojem społeczeństw europejskich. Klimat letni w erze rzymskiej ok. 2 tys. lat temu był stosunkowo ciepły oraz wilgotny i cechowała go mniejsza zmienność. Zwiększona zmienność z okresu między 250 a 600 r. n.e. współwystępowała natomiast z upadkiem Cesarstwa zachodniorzymskiego i wielką wędrówką ludów. Studium ujawniło także, że wilgotne i łagodne lata towarzyszyły kulturalnemu i politycznemu wzrostowi średniowiecznej Europy, podczas gdy niekorzystny klimat miał wiele wspólnego z ukształtowaniem kondycji zdrowotnej sprzyjającej pandemii dżumy i kryzysowi ekonomicznemu w XIV wieku. Minimalne temperatury z początku XVII i XIX wieku należy zaś kojarzyć z migracjami podczas wojny trzydziestoletniej i w poszukiwaniu chleba z Europy do Ameryki. Dr Büntgen podkreśla, że z badań jego zespołu nie można wnioskować o istnieniu prostego, bezpośredniego związku między zmiennością klimatu a ludzką historią. Nie da się jednak zaprzeczyć, że jakaś korelacja istnieje...
  11. Podczas, kiedy grafika komputerowa coraz bardziej przypomina życie, naukowiec ze Stanford University poszedł w drugą stronę i zastąpił generowaną grafiką prawdziwym życiem i żywą postacią. Ten co prawda pewnie ustępuje inteligencją botom z Unreala, bohaterem gry jest bowiem znany ze szkolnej biologii - pantofelek (Paramecium caudatum). Ten pospolity pierwotniak jest co prawda za mały, aby go obserwować gołym okiem, ale od czego współczesna technologia? W roli karty graficznej, a zarazem pola gry występuje pojemnik z pantofelkami, sterowanie odbywa się poprzez zmianę pola elektrycznego, albo wpuszczanie do pojemnika odpowiednich substancji chemicznych, co pozwala na kontrolowanie kierunku, w jakim pantofelek się przemieszcza. Pojemnik ustawiony jest pod kamerą sprzężoną z mikroskopem, obraz z kamery jest obrabiany przez komputer, który dodaje wirtualne elementy planszy i zlicza punkty. „Dostępne" w tej chwili gry to pantofelkowy Pac-Man (PAC-mecium), pong (Pond Pong), pinball (Biotic pinball) czy nawet piłka nożna (Ciliaball). Zaskakujący z pozoru pomysł, na jaki wpadł Ingmar Riedel-Kruse nie jest dziełem wariata, ale projektem edukacyjnym - wciągająca gra (autor zapewnia, że takie właśnie są pantofelkowe gry) łatwiej dotrze do uczniów, niż sucha wiedza. A w najbliższej przyszłości ważne będzie, aby każdy dysponował podstawową wiedzą z biologii i biotechnologii - uważa Riedel-Kruse. Innym zastosowaniem może być przeprowadzanie eksperymentów przy okazji grania, zaś w szczególności tzw. crowdsourcingu, czyli wykorzystywania do badań dużych rzesz amatorów. Terminu ewentualnej dostępności gry na rynku nie podano.
  12. Efekty relatywistyczne, opisane w teorii względności, jednoznacznie kojarzą nam się z kosmosem. Nie każdy wie, że działają one jednak również w mikroskali, a technika korzystała z nich niemal pięćdziesiąt lat, zanim Albert Einstein spisał swoje teorie. Skandynawscy uczeni dowiedli, że akumulator ołowiowy, pospolicie obecny w naszych samochodach, większość swojej mocy zawdzięcza efektom relatywistycznym. Zaskakujące z pozoru twierdzenie ogłosili w Physical Review Letters naukowcy ze szwedzkiego Uppsala University: Rajeev Ahuja, Andreas Blomqvist i Peter Larsson oraz fińskiego University of Helsinki: Pekka Pyykkö i Patryk Zaleski-Ejgierd. Efekty relatywistyczne zachodzą przy prędkościach bliskich prędkości światła, dotyczą więc także np. szybko poruszających się elektronów w pobliżu ciężkich jąder atomowych - a ołów, z liczbą atomową 82 jest jednym z najcięższych, nieradioaktywnych pierwiastków. Akumulator kwasowo-ołowiowy, wynaleziony w 1859 roku przez Gastona Plante, składa się z dwóch elektrod: anody wykonanej z ołowiu i katody wykonanej z tlenku ołowiu oraz kwasu siarkowego w roli elektrolitu. Z napięcia 2,1 wolta, typowego dla pojedynczego ogniwa kwasowo-ołowiowego, aż 80-85% ma swoje źródło w efekcie relatywistycznym; inaczej mówiąc, zawdzięcza mu aż 1,7-1,8 wolta. Do tej pory nie było jasne, dlaczego nie udało się skonstruować akumulatora z wykorzystaniem cyny zamiast ołowiu, mimo podobnych właściwości chemicznych (cyna w układzie okresowym pierwiastków znajduje się nad ołowiem). Po prostu cyna okazuje się zbyt lekka (posiada liczbę atomową 50) i nie może liczyć na równie korzystne efekty relatywistyczne, co ołów. Dzięki temu odkryciu nie da się co prawda skonstruować lepszego akumulatora opartego o ołów, ale świadomość roli efektów relatywistycznych może pomóc w szukaniu wydajnego metalu zastępczego. Jak uważają autorzy odkrycia, efekty relatywistyczne mają wpływ również na wiele innych właściwości metali, jakie obserwujemy, na przykład kolor złota, oraz prawdopodobnie stan skupienia rtęci.
  13. Tlenek azotu jest powszechnie stosowany w leczeniu i zapobieganiu chorób u noworodków, zwłaszcza wcześniaków. Uważa się, że zmniejsza ryzyko śmierci, zapobiega chorobom płuc, a także porażeniu mózgowemu i późniejszym zaburzeniom poznawczym. Naukowcy z centrum pediatrycznego na Johns Hopkins University przeprowadzili metaanalizę skuteczności stosowania tlenku azotu do inhalacji u wcześniaków, w zasadzie miażdżąc przekonanie o jego leczniczej roli. Uznając stosowanie tlenku azotu u dzieci urodzonych po 34 tygodniu ciąży za wystarczająco dobrze udokumentowane, naukowcy skupili się na dzieciach urodzonych przed 34 tygodniem, wykorzystując powszechnie dostępne wyniki różnych badań. Przeanalizowano 14 badań na temat związku stosowania gazu z ryzykiem śmierci, wyniki żadnego z nich nie wykazywały różnic pomiędzy dziećmi otrzymującymi leczenie tlenkiem azotu i nie otrzymującymi go. Podobnie było z dziewięcioma długoterminowymi badaniami, obejmującymi rozwój aż do wieku pięciu lat - nie było różnic w ryzyku śmierci pomiędzy dziećmi leczonymi i nie leczonymi w niemowlęctwie tlenkiem azotu. Nie znaleziono związku pomiędzy dawką tlenku azotu w leczeniu a rozwojem dziecka, jego wagą. Jedno studium wskazywało natomiast na nieco wyższy współczynnik śmierci u dzieci z wagą powyżej kilograma, którym podawano tlenek azotu. Z dwunastu badań podejmujących to zagadnienie, żadne nie wykazało różnicy w wysokości ryzyka rozwoju chronicznych chorób płuc. Cztery badania wskazały jednak na ryzyko niższe o 25% wśród dzieci leczonych dawką 10 cząstek na milion, różnica ta znikała jednak zarówno przy dawkach wyższych, jak i niższych. Analiza nie wykazała także różnic w ryzyku uszkodzenia mózgu, problemów neurologicznych, porażenia mózgowego i zaburzeń rozwojowych pomiędzy dziećmi leczonymi tlenkiem azotu i nie leczonymi. Tylko jedno z czterech badań, wykorzystujących badania ultrasonograficzne, wskazało na niższe o 4% ryzyko uszkodzeń mózgu, pozostałe nie sugerowały jakichkolwiek różnic. Różnic nie wykazały także sześć badań dotyczących rozwoju poznawczego, siedem badań dotyczących ryzyka porażenia mózgowego ani sześć badań nad ryzykiem upośledzenia neurologicznego i rozwojowego. Podsumowując, metastudium Hopkinsa dowodzi, że wcześniaki otrzymujące podczas intensywnego leczenie tlenek azotu nie mają się ani trochę lepiej niż te, nie otrzymujące tego gazu. Studium, opublikowane w lutowym numerze Pediatrics opowiada się zatem przeciwko rutynowemu stosowaniu tlenku azotu i sugeruje dokładną analizę ewentualnych korzyści dla każdego przypadku, i ocenę, czy terapia przyniesie poprawę, będzie nieznacząca, czy może zwiększy ryzyko.
  14. Niemal co sezon świat żyje doniesieniami o rozprzestrzenianiu się odzwierzęcych szczepów grypy. Grypa „świńska", grypa „ptasia" rzeczywiście są potencjalnym niebezpieczeństwem dla człowieka, ale przede wszystkim szkodzą hodowli zwierząt. Brytyjscy uczeni zademonstrowali kurczaki, które „zatrzymują" rozprzestrzenianie się wirusa grypy. Wynalazek, jeśli można to tak nazwać, powinni chętnie przywitać hodowcy zwierząt, którzy ponoszą nieraz duże straty spowodowane koniecznością wybijania całych hodowli w przypadku stwierdzenia infekcji. Dr Laurence Tiley, wykładowca wirusologii molekularnej na Wydziale Weterynarii University of Cambridge oraz profesor Helen Sang, z The Roslin Institute na University of Edinburgh, dokonując modyfikacji genetycznych stworzyły rasę kurczaków, które nawet chorując, nie zarażają innych osobników. Zmodyfikowane kurczaki po prostu „zatrzymują" infekcję w sobie tak skutecznie, że nawet zwyczajne kurczaki, zamknięte wraz z nimi w jednej klatce, nie łapią wirusa. Dokonano tego wprowadzając do genomu kurczaka nie istniejący tam wcześniej gen, produkujący specyficzną cząsteczkę-pułapkę. Mechanizm replikacyjny wirusa daje się na nią nabrać, uznając ją za wirusowy genom - a to zakłóca cykl rozrodczy wirusa. Co ważne, w odróżnieniu od szczepionek, które wymagają „aktualizacji" w przypadku każdego nowego szczepu, genetyczna pułapka rozbraja wszystkie szczepy wirusa. Odkrycie, chociaż jest tylko krokiem na drodze do stworzenia drobiu całkowicie odpornego na grypę, ma duży potencjał - w ten sposób można by skutecznie powstrzymywać rozprzestrzenianie się infekcji i epidemii. Mogłoby to wyeliminować straty hodowców związane z epidemiami, stanowiłoby oczywiście także dość skuteczną zaporę zapobiegającą przenoszeniu się „ptasich" wirusów na ludzi i krzyżowaniu szczepów grypy. Autorzy odkrycia zastrzegają, że genetycznie modyfikowane kurczaki są jedynie produktem eksperymentalnym i dowodem na trafność obranego kierunku badań, nie są w żadnym razie przeznaczone na rynek spożywczy. Praca „Suppression of avian influenza transmission in genetically modified chickens" ukazała się w magazynie Science z dnia 14 stycznia 2011.
  15. Dotąd naukowcy nie mieli pojęcia, jak kawa zabezpiecza przed cukrzycą typu 2. Specjaliści z Uniwersytetu Kalifornijskiego w Los Angeles wskazują jednak na pewien mechanizm molekularny. Mała czarna zwiększa w osoczu stężenie globuliny wiążącej hormony płciowe (ang. sex hormone–binding globulin, SHBG), która reguluje aktywność testosteronu i estrogenów; wiadomo zaś skądinąd, że hormony płciowe odgrywają pewną rolę w rozwoju cukrzycy typu 2. Zespół, w którego skład wchodzili m.in. doktorant Atsushi Goto, dr Simin Liu oraz David Geffen, stwierdził, że kobiety wypijające co najmniej 4 filiżanki kawy dziennie zapadają na cukrzycę o ok. 50% rzadziej od pań niegustujących w czarnym naparze. Wcześniejsze studia konsekwentnie wskazywały, że im większe spożycie kawy, tym niższe ryzyko cukrzycy. Sądzono, że być może kawa zwiększa tolerancję glukozy, np. przyspieszając metabolizm lub zwiększając tolerancję insuliny. Co dokładnie się dzieje, trudno uchwycić, chociaż wiemy, że białko SHBG jest bardzo istotne przy ocenianiu ryzyka i zapobieganiu początkowi cukrzycy – twierdzi Liu. W przeszłości Liu i inni zidentyfikowali dwie mutacje w genie kodującym SHBG. Opisali też ich wpływ na ryzyko wystąpienia cukrzycy typu 2. Jedna je zwiększa, druga obniża, kształtując stężenie globuliny wiążącej hormony płciowe we krwi. Wiele badań klinicznych podkreślało ważną rolę hormonów płciowych w rozwoju cukrzycy typu 2. Wiadomo też, że SHBG reguluje nie tylko ilość aktywnych biologicznie hormonów, ale i wiąże się z receptorami wielu komórek, mediując działanie hormonów. Wydaje się, że SHBG we krwi odzwierciedla genetyczną podatność na cukrzycę typu 2. Teraz zademonstrowaliśmy, że na wpływ tej proteiny na kształtowanie ryzyka cukrzycy oddziałują czynniki dietetyczne, takie jak spożycie kawy – abstrahując od innych czynników ryzyka, im niższy poziom SHBG, tym wyższe ryzyko cukrzycy. Na potrzeby studium Amerykanie zidentyfikowali 359 nowych przypadków cukrzycy i dopasowali je pod względem wieku i rasy z 359 zdrowymi osobami, uwzględnionymi wraz z 40 tys. innych kobiet w Women's Health Study. Ustalili, że kobiety, które wypijały 4 filiżanki kawy dziennie, miały znacznie wyższy poziom SHBG niż panie niepijące naparu i o 56% rzadziej zapadały na cukrzycę. Te, u których występowała ochronna kopia genu SHBG, odnosiły z picia małych czarnych najwięcej korzyści. Na końcu naukowcy uwzględnili poprawkę ze względu na poziom SHBG. Okazało się, że u kobiet o tym samym poziomie hormonu ryzyko zachorowania na cukrzycę typu 2. było w przypadku najzagorzalszych miłośniczek naparu z ziaren kawowca tylko o 29% (a nie 56) niższe niż dla pań niepijących kawy. Statystycznie ryzyko zachorowania było więc takie samo niezależnie od ilości wypitej kawy - np. w sytuacji, kiedy jedna kobieta miała niższy naturalny poziom, ale podbijała go kawą, a druga miała identyczne stężenie SHBG bez sięgania po używkę. Decydujące jest zatem samo stężenie SHBG. Można też zaryzykować twierdzenie, że osoby z naturalnie wysokim albo podwyższonym inaczej niż przez kawę poziomem globuliny także powinny być chronione przed cukrzycą typu 2.
  16. BAE Systems, brytyjska firma specjalizująca się w produkcji sprzętu wojskowego, postanowiła użyć nietypowych rozwiązań do tworzenia kamuflażu sprzętu wojskowego. Technologia nazwana już "e-kamuflażem" będzie korzystała ze znanego z czytników książki elektronicznej "e-atramentu". Wysoce zaawansowane czujniki elektroniczne przytwierdzone np. do pancerza czołgu będą badały otoczenie i, za pomocą właśnie elektronicznego atramentu, wyświetlą na nim taki obraz, który pozwoli ukryć czołg przed ludzkim wzrokiem. Kamuflaż będzie zmieniany na bieżąco, więc czołg wjeżdżający na plażę będzie wyglądał inaczej niż wówczas, gdy przejeżdżał przez łąki. Naukowcy z BAE uważają, że pojawienie się elektronicznego kamuflażu to kwestia najbliższych lat. Prace nad nim są prowadzone w ramach szerokiego projektu Future Protected Vehicle. Sam program jest niezwykle szeroko zakrojony. Naukowy z BAE są np. bardzo bliscy opracowania... przezroczystego pancerza znacznie bardziej wytrzymałego niż szkło kuloodporne. Taki pancerz, stosowany w wieżyczkach pojazdów opancerzonych znakomicie zwiększy możliwość obserwowania przez załogę otoczenia.
  17. Podczas eksperymentu finansowanego przez amerykańskie Narodowe Instytuty Zdrowia naukowcy wyeliminowali u grupy szczurów szumy uszne (tinnitus). Dokonali tego, stymulując nerw błędny (X) i odtwarzając jednocześnie zestaw dźwięków o różnych częstotliwościach. Procedurę powtarzali kilkaset razy dziennie przez kilka tygodni. Dzwonienie w uszach bardzo uprzykrza ludziom życie, ale dotąd było nieuleczalne. Dotychczasowe terapie generalnie polegały na maskowaniu dźwięku lub nauce ignorowania go – opowiada dr James F. Battey, dyrektor Narodowego Instytutu Głuchoty i Innych Zaburzeń Komunikacyjnych (National Institute on Deafness and Other Communication Disorders, NIDCD). Najnowsza metoda przypomina zaś przyciśnięcie w mózgu guzika reset. Pomaga w ponownym przetrenowaniu części mózgu interpretującej dźwięki. W ten sposób nieprawidłowo działające neurony zostają zawrócone ze złej ścieżki i wracają do swojego pierwotnego stanu. Wskutek tego piszczenie ustaje. Badania zostały przeprowadzone przez naukowców z Uniwersytetu Teksańskiego oraz firmy MicroTransponder z Dallas. Tinnitus to objaw doświadczany przez niektóre osoby w wyniku utraty słuchu. Kiedy komórki czuciowe ucha wewnętrznego ulegają uszkodzeniu, np. pod wpływem głośnego dźwięku, doprowadza to do zmiany sygnału wysyłanego z ucha do mózgu. Z nie w pełni wyjaśnionych przyczyn część pacjentów zaczyna wtedy słyszeć szumy. Sądzimy, że [...] kora słuchowa deleguje za dużo neuronów do pewnych częstotliwości i wtedy wszystko zaczyna iść źle. Jako że zbyt wiele komórek nerwowych przetwarza te same częstotliwości, wyładowują się silniej, niż powinny – tłumaczy dr Michael Kilgard. Poza tym neurony wyładowują się częściej, gdy jest cicho. Na początku zespół próbował wywołać zmiany w korze słuchowej szczurów, kojarząc stymulację nerwu błędnego z odtwarzaniem pojedynczego dźwięku. Gdy nerw jest pobudzany, wydziela się acetylocholina, norepinefryna i inne związki, które wspomagają zachodzenie zmian w mózgu. Amerykanie chcieli sprawdzić, czy można spowodować, by po pewnym czasie więcej neuronów zaczęło reagować na odtwarzany dźwięk. Przez 20 dni 300 razy dziennie ośmiu gryzoniom odtwarzano wysoki dźwięk o częstotliwości 9 kiloherców. W czasie, gdy dźwięk wybrzmiewał, elektroda delikatnie stymulowała nerw błędny. Okazało się, że w porównaniu do kontrolnej grupy zwierząt, liczba neuronów dostrojonych do częstotliwości 9 herców wzrosła aż o 79%. W następnej grupie szczurów ekipa Kilgarda losowo odtwarzała dwa dźwięki – jeden o częstotliwości 4 kHz i drugi o częstotliwości 19 kHz. Nerw błędny stymulowano jednak wyłącznie przy odgrywaniu wyższego dźwięku. O ile liczba komórek nerwowych reagujących na 19 kHz wzrosła o 70%, o tyle w grupie 4-hercowej neuronów wręcz ubyło. W ten sposób wykazano, że nie wystarczy sam dźwięk i trzeba jeszcze pobudzać nerw X. Na kolejnym etapie eksperymentu badacze sprawdzali, czy można wyeliminować tinnitus u zwierząt wystawionych na oddziaływanie hałasu, zwiększając liczbę neuronów dostrojonych do częstotliwości innej niż częstotliwość szumów usznych. Grupa zwierząt przechodziła więc 300 razy na dobę stymulację nerwu błędnego (ang. vagus nerve stimulation, VNS), połączoną z odtwarzaniem różnych dźwięków o częstotliwości zbliżonej do szumów. Procedurę powtarzano przez ok. 3 tygodnie. Część grupy kontrolnej poddawano VNS, podczas gdy reszta nie robiła nic lub słuchała tylko dźwięków. W obu grupach pomiary przeprowadzono w miesiąc po ekspozycji na hałas, dziesięć dni po rozpoczęciu terapii oraz dzień, tydzień i 3 tygodnie po zakończeniu leczenia. U gryzoni z grupy eksperymentalnej obiecujące rezultaty występowały na każdym etapie terapii, także w połowie – wszystko wskazuje więc na to, iż tinnitus zniknął. U zwierząt z grupy kontrolnej szumy uszne cały czas były obecne. Gdy naukowcy obserwowali 2 szczury kontrolne i 2 eksperymentalne przez dodatkowe dwa miesiące, u leczonych VNS i dźwiękami osobników korzyści utrzymywały się przez 3,5 miesiąca od potraktowania uszkadzającym słuch hałasem. U szczurów kontrolnych deficyty były nadal zauważalne. Badanie kory słuchowej zademonstrowało, że w wyniku terapii neurony powróciły do pierwotnego (zdrowego) stanu. W zestawieniu z innymi metodami kluczowa różnica polega więc na tym, że my nie maskujemy szumów, ale przestrajamy mózg ze stanu, kiedy generuje on tinnitus, do stanu, kiedy tego nie robi. Eliminujemy więc źródło – cieszy się Kilgard. Akademicy nadal pracują nad ulepszeniem techniki. Ustalają, ile częstotliwości trzeba optymalnie zestawić ze stymulacją nerwu, jak długo terapia powinna trwać i czy równie dobrze sprawdzi się ona na nowych, jak i utrzymujących się od dawna przypadkach szumów usznych. W najbliższej przyszłości w Europie rozpoczną się pilotażowe testy metody na ludziach. « powrót do artykułu
  18. Wydawałoby się, że trudno o bardziej przewidywalny pierwiastek niż lit - najlżejszy metal, o licznie atomowej zaledwie 3. Tymczasem okazało się, że zachowanie litu bywa nieprzewidywalne i zależy od zjawisk kwantowych. W warunkach pokojowych lit przybiera formę kryształu o strukturze romboedru, przy wyższym ciśnieniu i temperaturze zmieniającą się w układ regularny (sześcienny) centrowany ściennie lub przestrzennie. Są to najprostsze struktury krystaliczne, nie spodziewano się więc żadnych niespodzianej przy innych warunkach, dopóki w ciągu ostatnich kilku lat nie zaobserwowano kilku zaskakujących anomalii, jak przejście z metalu do półprzewodnika w niskiej temperaturze, a poniżej 17 Kelwinów nawet nadprzewodnika. Uczeni z University of Edinburgh oraz Carnegie Institution of Washington doszli do wniosku, że dane na temat zachowania litu są niekompletne i poddali go testom w szerokim zakresie: aż do ciśnienia 1,3 Mbara i w zakresie temperatur od 77 do 300 Kelwinów. Wyniki okazały się bardzo ciekawe. Pierwszą niespodzianką była temperatura topnienia, który w większości materiałów rośnie wraz z ciśnieniem i nawet dla najlżejszych gazów: wodoru i helu wynosi 1000 Kelwinów przy ciśnieniu 0,5 Mbara, zaś lit przy takim ciśnieniu pozostaje w stanie ciekłym aż do zdumiewająco niskiej temperatury 190 K - to najniższa temperatura topnienia przy takim ciśnieniu, jaką zaobserwowano dla jakiegokolwiek materiału. Kolejne niespodzianki czekały przy podnoszeniu ciśnienia powyżej 0,6 Mbara. Tak ściskany lit zmienia swoją strukturę krystalograficzną na bardziej skomplikowaną, przyjmując postaci z 40, 88 i 24 atomami na pojedynczy element kryształu. Struktury złożone z 40 i 88 atomów nie mieściły się nawet w teoretycznych przewidywaniach. Wygląd wykresy zależności stanu litu od temperatury i ciśnienia, zwłaszcza zaś zaskakująco niska temperatura topnienia są wynikiem tego, że w jego zachowaniu przy wysokim ciśnieniu zaczynają przeważać efekty kwantowe. Eksperymenty przeprowadzano w laboratoriach U.S. Department of Energy Office of Science's Advanced Photon Source (APS) w Argonne, oraz w European Synchrotron Radiation Facility (ESRF) we francuskim Grenoble; wyniki badań opublikowano w Nature Physics.
  19. Muszka owocówka, którą, jak się wydaje, dobrze poznaliśmy, znowu zaskoczyła naukowców pokazując, jak mało pomysłowi są ludzie w porównaniu z naturą. Owad wykorzystuje niewielkie podobne do włosków struktury do odbierania bodźców zewnętrznych, a struktury te są zorganizowane w sposób jednocześnie niezwykle prosty i niezwykle efektywny. To tak proste i intuicyjne rozwiązanie, że nie mogę uwierzyć, iż ludzie nie wpadli na to już 25 lat temu - mówi matematyk i informatyk z Tel Awiwu, Noga Alon. Poznanie sposobu organizacji połączeń pomiędzy wspomnianymi strukturami przyczyni się do stworzenia doskonalszych sieci i programów komputerowych oraz sieci czujników. Już teraz wiadomo, że komórki nerwowe tworzące połączenia u muszki owocówki zorganizowały się w ten sposób, że część z nich to liderzy mający połączenie z każdą inną komórką. W podobny sposób zorganizowane są komputerowe sieci rozproszone, od takich umożliwiających przeszukiwanie internetu po te sterujące samolotem podczas lotu. Jednak tym, co wprawiło naukowców w zdumienie jest fakt, że u muszek owocówek organizacja tych sieci jest znacznie prostsza, bardziej wydajna i odporna na zakłócenia niż wszystko, co wymyślił człowiek. Uczeni wykorzystali zdobytą wiedzę do stworzenia nowego algorytmu działania sieci rozproszonych. Podczas jego testów odkryli, że jest on szczególnie przydatny do sieci, w których liczba węzłów i ich położenie nie są całkowicie pewne. Algorytm taki świetnie sprawdzi się w zarządzaniu np. sieciami rozproszonych w wodzie czujników czy też do dużymi grupami robotów. Naukowcy od dawna używają modeli komputerowych i matematycznych do analizowania systemów biologicznych. Tutaj zastosowaliśmy odwrotną strategię i studiujemy system biologiczny, by rozwiązać problem z dziedziny informatyki - mówi Zvi Bar-Joseph z Carnegie Mellon University. Badanie połączeń nerwowych muszki owocówki pozwoli na rozwiązanie jednego z bardzo istotnych problemów matematyczno-informatycznych. Obecnie rozległe sieci komputerowe korzystają z przetwarzania rozproszonego. Tysiące czy miliony procesorów wspólnie pracują nad rozwiązaniem tego samego problemu, żaden z nich nie ma kompletnej wiedzy o tym, co jest przetwarzane, a całość musi pracować pomimo błędów czy awarii występujących w pojedynczych elementach. Aby taki system działał konieczne jest wyznaczenie procesorów-liderów, które będą w stanie szybko komunikować się z innymi procesorami sieci. W teorii grafów nazywa się to maksymalnym zbiorem niezależnym (MIS). Każdy z procesorów w sieci jest albo liderem, członkiem MIS, albo też jest połączony z liderem. Natomiast liderzy nie są ze sobą bezpośrednio połączeni. Eksperci od 30 lat poszukują najlepszego sposobu nad optymalnym wyznaczanie przez sieć elementów, które powinny należeć do MIS. Obecnie najczęściej stosuje się metodę probabilistyczną, w której procesory samodzielnie przejmują rolę liderów na podstawie liczby bezpośrednich połączeń, które mają z innymi procesorami. W każdej rundzie wykonywania algorytmu dochodzi do ponownego wybrania liderów na podstawie liczby połączeń. Liderzy wybierani są błyskawicznie, jednak cały proces związany jest z wysyłaniem olbrzymiej liczby dodatkowych informacji oraz wymaga od procesorów, by z wyprzedzeniem znały liczbę przypadających nań połączeń. To stanowi olbrzymi problem w przypadku sieci bezprzewodowych czujników, których położenie może być przypadkowe, a połączenia między nimi nie są im znane, gdyż nie każdy czujnik będzie znajdował się w zasięgu każdego innego czujnika. Naukowcy odkryli, że u muszki owocówki, już podczas jej rozwoju, wybierane są komórki nerwowe, które będą liderami. Jednak, w przeciwieństwie do opisanych powyżej procesorów, komórki nie mają informacji o połączeniach z innymi. Komórki, które same wybrały się na liderów, wysyłają po prostu sygnały, które powodują, że bezpośrednio połączone z nimi komórki nie zostają liderami. Taki proces trwa zaledwie trzy godziny i w tym czasie zostają ustaleni liderzy i podlegające im komórki. Bar-Joseph zauważa, że u muszki prawdopodobieństwo, iż komórka zostanie liderem nie jest - jak w przypadku sieci procesorów - funkcją liczby połączeń, ale funkcją czasu. To oznacza, że komórki nie muszą z wyprzedzeniem znać liczby połączeń, a komunikacja pomiędzy nimi jest maksymalnie uproszczona. Badania algorytmu zbudowanego dzięki badaniu owadów wykazały, że działa on nieco wolniej od obecnie używanych, ale jest za to bardziej wydajny i odporny na zakłócenia.
  20. Wreszcie udało się rozwiązać podstawowy problem, uniemożliwiający wyhodowanie tkanki do przeszczepu w laboratorium. Specjaliści z Rice University i Baylor College of Medicine znaleźli bowiem sposób na uzyskanie naczyń krwionośnych, które są przecież niezbędne do podtrzymania tkanki przy życiu (Acta Biomaterialia). Niemożność uzyskania sieci naczyń krwionośnych – waskulatury – w hodowanych w laboratorium tkankach to główny problem współczesnej medycyny regeneracyjnej. Jeśli nie ma dostaw krwi, nie da się uzyskać struktury tkankowej grubszej niż kilkaset mikronów – tłumaczy prof. Jennifer West. Podstawowym materiałem, na którym pracowali Amerykanie, był poli(tlenek etylenu), czyli z ang. PEG, wykorzystywany powszechnie m.in. w urządzeniach medycznych. Bazując na 10-letnich badaniach West, naukowcy tak zmodyfikowali polimer, by naśladował macierz pozakomórkową – substancję wypełniającą przestrzeń między komórkami (znajdują się tam głównie polisacharydy i związane z nimi białka). Zespół połączył zmodyfikowany PEG z dwoma rodzajami komórek, które uczestniczą w tworzeniu naczyń krwionośnych. Do utwardzenia materiału Amerykanie wykorzystali światło. W ten sposób uzyskano miękki hydrożel, zawierający żywe komórki i czynniki wzrostu. Całość filmowano przez 72 godziny. Znakując każdy typ komórek markerem fluorescencyjnym o innej barwie, można było obserwować stopniowe tworzenia kapilar. Aby przetestować nowe unaczynienie, hydrożel wszczepiono do rogówek myszy, gdzie nie istnieje żadna naturalna waskulatura. Po wstrzyknięciu barwnika do krwiobiegu potwierdzono normalny przepływ krwi przez naczynia. W listopadzie ubiegłego roku West i student Joseph Hoffmann opublikowali pracę nt. litografii dwufotonowej. Ta ultraczuła technika pozwala na tworzenie trójwymiarowych wzorów w obrębie hydrożelów PEG. Metoda umożliwia bardzo dokładne kontrolowanie ruchu i wzrostu komórek. W przyszłości ekipa zamierza wykorzystać technikę do wyhodowania naczyń tworzący zdeterminowany z góry układ. http://www.youtube.com/watch?v=JtMifCkTHTo
  21. Naukowcy z Innovative DigiTech-Enabled Applications and Services Institute z siedzibą w Tajpej opracowali automat sprzedający z technologią rozpoznawania twarzy. Maszyna oferuje toniki na porost włosów dla łysiejących, produkty upiększające dla młodych kobiet, napoje zdrowotne dla starszych ludzi oraz golarki dla właścicieli bród i wąsów. Urządzenie wyposażono w kamerę. Po analizie cech twarzy klienta sugerowany jest produkt odpowiedni do płci i wieku. Nasza technologia rozpoznawania twarzy jest bardziej aktywna od amerykańskich czy japońskich, ponieważ może służyć radą – podkreśla jeden z tajwańskich badaczy Tsai Chi-hung. Co ważne, automat może zapisywać wybory klientów, którzy nie zastosowali się do jego rad, dzięki czemu w przyszłości rozszerzy repertuar swoich zachowań (sugestii).
  22. Redaktorzy serwisu Heise uważają, że Service Pack 1 dla Windows 7 i Windows Server 2008 R2 może zostać udostępniony w ciągu najbliższych dni. W Windows Update pojawiła się bowiem "ważna" poprawka, która może być wymagana do instalacji SP1. Poprawka datowana jest na 11 stycznia bieżącego roku, jednak zauważono ją już wcześniej. Najpierw trafiła do sieci w październiku, ale, co dziwne, Microsoft nie opublikował jej opisu ani żadnych informacji wskazujących, dlaczego należy ją zainstalować. Później poprawka zniknęła, na krótko pojawiła się ponownie, a teraz znowu została udostępniona. Wciąż brak jest opisującego ją dokumentu, a sama poprawka nie instaluje się automatycznie. Niewykluczone, że łatka oznaczona jako Update 976902 jest potrzebna do instalacji SP1. Podobnie było w przypadku SP1 dla Windows Visty. Można go było zainstalować tylko po wcześniejszej instalacji innej aktualizacji. Jak wiadomo nie od dzisiaj, SP1 dla Windows 7 nie przyniesie większych zmian. Będzie to zbiór poprawek udoskonalających już istniejące mechanizmy i poprawiających niedociągnięcia, a nie zestaw nowych funkcjonalności. Jedną z niewielu nowych funkcji, z których będą mogli korzystać użytkownicy Windows 7 SP1 będzie obsługa zestawu instrukcji Advanced Vector Extensions (AVX), które będą używane przez przyszłe generacje procesorów. W przypadku Server 2008 R2 takimi nowościami będą RemoteFX (rozszerzenie już istniejących Remote Desktop Services) oraz Dynamic Memory (mechanizm inteligentnej alokacji pamięci). Przydadzą się one jednak tym, którzy wykorzystują wspomniany system w rozległych sieciach.
  23. Android, jako że jest platformą opensource'ową, jest bardziej narażony na ataki hakerów i działanie szkodliwego kodu od Apple'owskiego iOS. Tak przynajmniej uważa Steve Chang, szef Trend Micro, największego na świecie producenta systemów zabezpieczających dla serwerów korporacyjnych. Android jest opensource'owy, co znaczy, że przestępcy mogą również poznać jego architekturę i kod źródłowy - mówi Chang i dodaje, że niektóre typy szkodliwego kodu nie mogą działać na iOS. Szef Trend Micro jest pewien, że użytkownicy Androida będą musieli stosować coraz więcej oprogramowania zabezpieczającego. Smartfony to kolejne pecety i gdy zostaną szeroko zaakceptowane w przedsiębiorstwach, ochrona danych stanie się kluczowym problemem - stwierdził Chang. Warto tutaj wspomnieć, że przed tygodniem w ofercie Trend Micro znalazła się aplikacja Mobile Security for Android. Jej zadaniem jest blokowanie szkodliwego kodu. Producent sprzedaje ją w cenie 3,99 USD.
  24. Twarze neandertalczyków nie były przystosowane do chłodu. Kiedyś sądzono, że duże zatoki przynosowe miały umożliwiać ogrzewanie powietrza, jednak współcześni mieszkańcy Arktyki (ludzie i inne ssaki) wcale nie mają podobnej cechy. Zwiększonej pneumatyzacji twarzoczaszki nie da się uznać za adaptację do niskich temperatur, ponieważ analizy ludzi, innych naczelnych i gryzoni pokazały, że przynajmniej objętość zatoki szczękowej ulega zmniejszeniu przy ekstremalnym chłodzie i to zarówno w warunkach naturalnych, jak i laboratoryjnych. Ich zatoki są mniejsze od przeciętnych. Dzieje się tak prawdopodobnie dlatego, że ogrzewanie powietrza zachodzi wyłącznie w jamie nosa, która urosła większa, zostawiając mniej miejsca na zatoki – wyjaśnia Todd Rae z Roehampton University z Londynu. By stwierdzić, jak naprawdę miały się sprawy z czaszką neandertalczyków, Brytyjczycy przeanalizowali wymiary z dwuwymiarowych zdjęć rtg. oraz trójwymiarowych skanów z tomografii komputerowej. Kiedy porównano je skanami czaszek przedstawicieli Homo sapiens z rejonów o umiarkowanym klimacie, okazało się, że zatoki były rzeczywiście większe, ale tylko dlatego, że sama głowa neandertalczyka była większa. Zdjęcia rtg. wykazały, że zatoki były proporcjonalne do wielkości czaszki i porównywalne z rozmiarami występującymi u ludzi z umiarkowanych stref klimatycznych. Analiza danych tomograficznych z mniejszej próby tylko potwierdziła ten wniosek. W ten sposób udało się obalić przyjęte ad hoc po opisie pierwszej czaszki neandertalczyka założenia, które potem po prostu podtrzymywano. Hiperpneumatyzacją (zatoki są w końcu przestrzeniami pneumatycznymi w kościach twarzoczaszki, które łączą się z jamą nosową) próbowano nawet wyjaśniać specyficzne ukształtowanie i wygląd twarzy neandertalczyków. Dotąd nikt nie podejmował jednak prób zestawienia wielkości zatok z wielkością samej czaszki.
  25. Jak zmierzyć kosmos? Niełatwo to zrobić, mając do dyspozycji tylko obserwacje. Obserwowana jasność obserwowanych obiektów, gwiazd, zależy od ich wielkości, jasności własnej, wreszcie odległości. Czy dwie gwiazdy o pozornie tej samej jasności znajdują się w tej samej odległości? Czy jedna jest większa, ale znajduje się dalej? Jest oczywiste, że do wiarygodnych pomiarów potrzeba nam obiektu o znanej i pewnej wielkości i jasności. Takimi obiektami, pełniącymi dla astronomów rolę „słupów milowych" są supernowe typu 1a. Supernowe typu 1a osiągają zawsze zbliżoną jasność maksymalną, dzięki temu można z dużą precyzją określić ich odległość, dlatego nazywa się je w astronomii świecami standardowymi. Nie znaczy to oczywiście, że są absolutnie idealne - mimo wszystko różnią się od siebie, a określanie tych różnic jest rodzajem sztuki. Udoskonalił ją właśnie Ryan Foley, astronom z Harvard-Smithsonian Center for Astrophysics, a badania, które na to pozwoliły, trwały aż dwadzieścia lat. Jednym ze wskaźników, pozwalających określić rzeczywistą jasność supernowej 1a jest szybkość, z jaką pulsuje: rozjaśnia się i przygasa. To jednak nie wystarcza. Drugą właściwością, jaką możemy obserwować, jest jej barwa, która może być przesunięta w kierunku niebieskiej lub czerwonej. Poczerwienienie światła supernowej 1a uważano do dziś za efekt przesłonięcia jej przez obłok materii pyłowej, a zakładając, że domniemany obłok również przyciemnia jej blask, umiejscawiano takie gwiazdy bliżej. Ryan Foley dowiódł, że to błędne założenie, które powodowało zbyt bliskie umiejscowienie wielu „świec". Powracając do podstawowych założeń i zakładając, że barwa supernowej jest stała, przeanalizował dokładnie dane setki znanych takich obiektów. Okazało się, że barwa zależy od prędkości, z jaką gwiazda wyrzuca materię podczas eksplozji: wolniejszy wyrzut oznacza odcień bardziej niebieski, szybszy - bardziej czerwony. Odkrycie ma znaczenie nie tylko dla zrozumienia samych supernowych i nie tylko dla skorygowania pomiarów odległości wielu obiektów naszego Wszechświata. Pozwoli także na dokładniejsze pomiary i zrozumienie stanowiącej 70% masy Wszechświata ciemnej energii - tajemniczej siły, która rozpycha nasz Wszechświat i odgrywa kluczową rolę w jego ewolucji.
×
×
  • Dodaj nową pozycję...