Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37649
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    248

Zawartość dodana przez KopalniaWiedzy.pl

  1. Kozi ser jest wyjątkowo bogatym źródłem dobroczynnych bakterii - twierdzi w swojej pracy doktorskiej naukowiec z Uniwersytetu w hiszpańskiej Grenadzie. To pierwsza tak dokładna analiza flory bakteryjnej wzbogacającej ten smaczny produkt. Autorem studium jest Antonio M. Martín Platero. Badacz przeprowadził szczegółową analizę DNA wyizolowanego z różnych rodzajów koziego sera wytwarzanego w trzech komarkach Andaluzji (odpowiedniki polskich powiatów): Aplujarra oraz Jayena, należących do prowincji Granada, oraz Aracena, leżącej w prowicji Huelva. Zdaniem naukowca, zebrane informacje mogą mieć znaczący wpływ na doskonalenie procesu produkcji mlecznych smakołyków, a także pomogą poprawić ich właściwości zdrowotne. Analiza DNA wykazała, że w każdym gramie andaluzyjskich specjałów znajduje się od 107 do 109 komórek bakteryjnych, przy czym bakterie kwasu mlekowego stanowią od 65 aż do 99 procent tej puli. Zdaniem dr. Platero jest to istotne, gdyż mogą [one] być szczególnie korzystne dla ludzkiego zdrowia, ponieważ powodują fermentację laktozy, obniżają pH i w ten sposób blokują rozwój patogennych [czyli szkodliwych - red.] mikroorganizmów. Gatunki, których przedstawiciele znajdowali się w kozim serze wyjątkowo w wyjątkowo dużych ilościach, to Lactobacillus paracasei, Lb. plantarum, a także Lactococcus lactis, spotykany zwykle w jogurtach, a nie w serach. Hiszpański badacz zauważa oprócz tego, że przedstawiciele wielu spośród zidentyfikowanych gatunków wytwarzają znaczne ilości bakteriocyn - wyjątkowo silnych toksyn działających wybiórczo na określone rodzaje mikroorganizmów, lecz całkowicie neutralnych dla człowieka. Podobne analizy, choć należą do zajęć wyjątkowo żmudnych, mogą mieć ogromne znaczenie dla optymalizacji produkcji sera. Pozwalają one na skomponowanie flory bakteryjnej o idealnym składzie, którą następnie zaszczepia się (czyli, mówiąc fachowo, inokuluje) mieszankę, z której ma powstać ser. Oprócz uzyskania wyjątkowego smaku mlecznego specjału możliwe jest także dodanie mikroorganizmów, które dzięki swojej obecności i wytwarzanym przez siebie charakterystycznym substancjom sprawią, że spożywanie serów będzie nie tylko przyjemne, lecz także wyjątkowo korzystne dla naszych organizmów.
  2. Steven Sinofsky, wiceprezes Microsoftu ds. rozwoju Windows, opublikował na firmowym blogu wpis, który może wskazywać, iż nie będzie kolejnej wersji beta systemu Windows 7. Może to oznaczać, że sprawdzą się nasze wcześniejsze przewidywania co do terminu oficjalnej premiery nowego systemu Microsoftu. Co prawda Sinofsky zastrzega: Ten post w żaden sposób nie przesądza o dacie premiery, zmianie planów czy zmianie we wcześniej opisywanym procesie rozwoju systemu. Dalej jednak pisze: Następnym kamieniem milowym w rozwoju Windows 7 jest Release Candidate czyli 'RC'. We wpisie pada też stwierdzenie, że Beta opublikowana na początku 2009 roku będzie jedyną wersją Beta. Z bloga wynika, że czeka nas jeszcze wersja RC, w której zostaną wdrożone ostateczne poprawki, następnie Release to Manufacturing, gdy kopie systemu trafią do producentów komputerów i kanałów dystrybucyjnych. Teraz wszystko zależy od tego, jak szybko sam Microsoft oraz jego partnerzy będą gotowi do premiery systemu.
  3. Pierwszy w historii całkowicie sztuczny związek zdolny do blokowania migracji i namnażania komórek jednego z nowotworów skóry został opracowany przez naukowców z Uniwersytetu Wschodniej Anglii. Co ciekawe, do badań nad lekiem wykorzystano... kijanki południowoafrykańskich żab szponiastych. Wybór zwierząt, na których przeprowadzono testy, nie był przypadkowy. Na ich ciałach powstają liczne silnie wybarwione plamy, zadziwiająco podobne do ludzkich znamion barwnikowych, zwanych potocznie pieprzykami. Pozwoliło to na prowadzenie badań nad czerniakiem - nowotworem skóry powstającym w wyniku nadmiernego namnażania komórek wysyconych pigmentem (przy okazji warto wspomnieć, że guzy te tracą czasem zdolność do wytwarzania barwnika, lecz dalej nazywane są czerniakami). Czerniak należy do nowotworów o wybitnej zdolności do tworzenia przerzutów, czyli oddzielania się pojedynczych komórek od głównej masy guza. Okazuje się, że mechanizm ten jest "zachowany" przez ewolucję do tego stopnia, że badania nad lekami przeznaczonymi dla ludzi można z powodzeniem prowadzić na płazach. Proces powstawania przerzutów uzależniony jest od metaloproteinaz - enzymów zdolnych do rozkładania białek tworzących sieć włókien utrzymujących spójność tkanek. Badacze z Uniwersytetu Nowej Anglii zsyntetyzowali nowy związek, nazwany NSC 84093, który wydaje się być obiecującym środkiem blokującym aktywność tych protein. To ekscytujący postęp z możliwym zastosowaniem w walce z nowotworami, ocenia wytworzenie związku dr Grant Wheeler, szef zespołu pracującego nad jego syntezą. Jego zdaniem, NSC 84093 i pokrewne z nim związki mogą już niedługo stać się obiecującą formą zapobiegania powstawaniu przerzutów czerniaka. To nie pierwszy raz, kiedy przedstawiciele Xenopus laevis przysłużyli się medycynie. Wcześniej byli oni stosowani m.in. w charakterze... żywych testów ciążowych. Aby wykonać badanie, wystarczyło wszczepić dorosłej samicy płaza minimalną ilość moczu kobiety. Jeżeli w ciągu 24 godzin od iniekcji dochodziło do złożenia przez żabę jaj, kobieta mogła z wysokim prawdopodobieństwem przypuszczać, że za kilka miesięcy zostanie matką.
  4. Czy wspomaganie procesu wybielania zębów za pomocą światła UV ma sens? Najnowsze badania pokazują, że zastosowanie lamp ultrafioletowych nie tylko nie powoduje poprawy skuteczności procedury, lecz także zwiększa ryzyko występienia efektów niepożądanych. Typowy zabieg profesjonalnego wybielania zębów polega na nałożeniu na nie środka zawierającego silny utleniacz (najczęściej rolę tę pełni nadtlenek wodoru, czyli woda utleniona), który wchodzi w reakcję z substancjami zawartymi w nalocie i rozkłada je, ułatwiając wypłukanie powstających produktów z powierzchni zębów. Wielu specjalistów uważa, że poprawa kolorytu zębów jest większa, gdy ich powierzchnię oświetla się przez silną lampą UV. Czy mają rację, postanowili ocenić badacze z Nordyckiego Instytutu Materiałów Dentystycznych zlokalizowanego w norweskim Haslum. Badania przeprowadzone przez Norwegów nie pozostawiają złudzeń. Światło ultrafioletowe nie powoduje poprawy skuteczności zabiegu, lecz jego użycie ciągnie za sobą liczne zagrożenia. Pacjenci chcący poprawić wygląd swoich zębów są eksponowani na promieniowanie czterokrotnie silniejsze, niż ultrafiolet docierający do nas ze Słońca w wyjątkowo upalne dni. Oznacza to narażenie skóry, śluzówek i oczu na szkodliwe promieniowanie, znane ze swoich zdolności do wywoływania poparzeń i mogące prowadzić do rozwoju nowotworów. Co więcej, zagrożone są także same zęby, których szkliwo zostaje znacznie osłabione. O swoim odkryciu norwescy badacze poinformowali za pośrednictwem czasopisma Photochemical & Photobiological Sciences.
  5. Paul May, chemik z Uniwersytetu Bristolskiego, ma nietypowe hobby, które wiąże się, oczywiście, z jego zawodem. Kolekcjonuje dziwne i, jak sam często przyznaje, głupie nazwy związków chemicznych. Pomagają mu w tym zapaleńcy, podsyłający mailem najprzeróżniejsze propozycje. W ten sposób powstała opublikowana w lipcu zeszłego roku nakładem Imperial College Press książka pt. Molekuły z niedorzecznymi bądź dziwnymi nazwami. Na witrynie internetowej naukowca można obejrzeć trójwymiarowe modele skatalogowanych substancji. Wiele nazw zachowuje swoją śmieszność tylko w języku angielskim, w przypadku niektórych humorystyczny efekt utrzymuje się jednak także po przetłumaczeniu. Doskonałym tego przykładem jest żółcień lucyferowa (ang. lucifer yellow, LY) - barwnik spożywczy, stosowany zwłaszcza w pikantnych sosach. Związek ten bywa także używany w badaniach mikroskopowych tkanek roślinnych, ponieważ fluoryzuje pod wpływem promieniowania ultrafioletowego. Megafon to składnik korzeni rośliny Aniba megaphylla. Jest cytotoksycznym neolignanem o wzorze sumarycznym C22H30O6. Wskutek błędów w anglojęzycznym zapisie, które pojawiały się nawet w fachowej literaturze chemicznej, kwas orotowy (ang. orotic acid) przekształcił się w kwas erotyczny (erotic acid). Jak widać, wystarczy zamienić tylko jedną początkową literę... Substancję tę nazywa się też witaminą B13. Wbrew pozorom, psikoza nie ma nic wspólnego z czyimś kawałami ani tym bardziej z psychozą. Jest to cukier (heksoza) wyekstrahowany z antybiotyku o łacińskiej nazwie psicofurania. Niekiedy "mianuje się" go również rybo-heksulozą. Chętnych zapraszamy do obejrzenia strony Maya, która stale się rozrasta i dostarcza niezapomnianych wrażeń!
  6. Naukowcy z Cambridge University opracowali nowy sposób produkcji LED, dzięki któremu dziesięciokrotnie potanieją diody zapewniające olbrzymie oszczędności energii i mogące służyć przez kilkadziesiąt lat. Mowa tutaj o diodach, w których wykorzystano azotek galu (GaN), sztucznie uzyskiwany półprzewodnik, zapewniający jasne światło przy niewielkim zużyciu energii. Diody te pozwalają obniżyć rachunki za oświetlanie o 75% w ciągu 5 lat. Nowe diody świecą przez 100 000 godzin. Jeśli zatem średnio będziemy zapalali je na 4,5 godziny w ciągu doby, to wystarczą na... 60 lat. Tego typu diody mogą w końcu trafić do naszych domów, gdyż uczeni z Cambridge opracowali nową metodę produkcji azotku galu. Zamiast, jak się to robi obecnie, hodować go na szafirze, wykorzystali oni krzemowe plastry. Cena jednej diody produkowanej nową techniką nie przekraczałaby 3 dolarów. Naukowcy wyliczają, że gdyby zastosować diody GaN LED w każdym domu i biurze Wielkiej Brytanii, to energia potrzebna na oświetlenie nie stanowiłaby 20%, a 5% całości energii zużywanej w Zjednoczonym Królestwie. Oszczędności byłyby równe wyłączeniu 8 elektrowni. Kolejne zalety GaN LED to natychmiastowe osiąganie przez nie maksymalnej jasności oraz możliwość stosowania ściemniaczy światła. Diody GaN już pracują. Wykorzystano je do oświetlenia Pałacu Buckingham oraz Clifton Suspension Bridge. Zaczynają pojawiać się w lampach błyskowych aparatów, telefonach komórkowych, światłach do rowerów, w oświetleniu autobusów czy samolotów. Ponadto światło ultrafioletowe emitowane przez GaN LED pomaga w oczyszczaniu wody i działa bakteriobójczo w szpitalach. Teraz mogą trafić też do naszych domów.
  7. Wiele mówi się o konieczności przestrzegania standardów w Internecie. W założeniu powinny one ułatwiać nam wszystkim życie. Stąd też zwykle duże zainteresowanie towarzyszy wydaniu kolejnych edycji przeglądarek. Wówczas wiele pisze się o tym, czy dana przeglądarka w sposób zgodny ze standardami interpretuje witryny WWW. Podawane są wyniki ACID, który jest najważniejszym testem na rynku przeglądarek. Jednak większość osób skupiających się na przestrzeganiu standardów przez przeglądarki, nie zadaje sobie prostego pytania. A brzmi ono: Czy jest sens skupiać się tylko na przeglądarkach, pomijając sprawdzenie, czy interpretowane przez nie witryny spełniają standardy? Postanowiliśmy sprawdzić, jak wygląda przestrzeganie standardów przez najpopularniejsze w Polsce i na świecie witryny internetowe. W tym celu wykorzystaliśmy oficjalny walidator organizacji W3C, którym sprawdziliśmy 200 witryn. Sto z nich to strony cieszące się największą popularnością w światowej Sieci, a 100 - w polskiej. Listę witryn ułożyliśmy na podstawie danych serwisu Alexa.com. Z powodu występujących błędów wykonanie walidacji było niemożliwe na 6 spośród 100 światowych liderów. Na pozostałych 94 witrynach znaleźliśmy w sumie 13 589 błędów! Jedynie 9 spośród badanych stron było napisanych bezbłędnie. Są to: MSN.com, Wikipedia.org, Wordpress.com, Yandex.ru, Skyrock.com, BBC.co.uk, Craiglist.org, Free.fr oraz Yahoo.com.cn. Tylko 7 witryn mogło pochwalić się nie więcej niż 9 błędami: Live.com (4), Youporn.com (8), Odnoklassniki.ru (1), Mininova.org (2), Naver.com (8), Apple.com (1) i Metroflog (1). Znacznie więcej było takich, na których walidator znalazł od 100 do 500 błędów. Tutaj trzeba wymienić: YouTube.com (104), Microsoft.com (177), eBay.com (230), Hi5.com (292), Mail.ru (165), Imdb.com (186), Go.com (164), RedTube.com (261), eBay.de (273), Espn.go.com (494), Livedoor.com (243), Rediff.com (163), Veoh.com (436), Deviantart.com (218), Goo.ne.jp (153), eBay.co.uk (195), Mediafire.com (200), Download.com (263), NYTimes.com (328) i Wretch.cc (256). Chociaż trudno w to uwierzyć, są i takie witryny, których autorzy zdołali na stronie głównej popełnić więcej niż 500 błędów. Znajdziemy tutaj: AOL.com (858), Perfspot.com (578), Gamespot.com (563). To jednak nie koniec. Absolutnymi zwycięzcami w rankingu liczby błędów są bowiem: Amazon.com (1355), 163.com (1405), Uol.com.br (1007). Nie lepiej wygląda sytuacja wśród witryn najpopularniejszych w Polsce, co nie znaczy, że polskich. Walidacja była niemożliwa na trzech witrynach. W sumie na pozostałych 97 występuje 9087 błędów. Bezbłędnie napisane witryny to: WP.pl, Wikipedia.org, OtoMoto.pl, MSN.com, FilmWeb.pl, Gratka.pl, Money.pl, Nazwa.pl, DarkWarez.pl i Wordpress.com. Są też witryny, których twórcy dołożyli starań by nie popełnić więcej niż 9 błędów: Nasza-klasa.pl (5), Interia.pl (6), Orange.pl (4), Chomikuj.pl (5), WyspaGier.pl (4), Home.pl (1), Live.com (4), mBank.com.pl (4), YouPorn.com (8), Wykop.pl (4), PKT.pl (9). Jednak, jak się możemy domyślić, znowu więcej jest witryn, na których występuje 100-500 błędów: Allegro.pl (243), YouTube.com (104), Fotka.pl (190), Wrzuta.pl (215), Gazeta.pl (488), Pudelek.pl (570), RedTube.com (261), Microsoft.com (177), Torrenty.org (120), Fora.pl (155), Blox.pl (116), Republika.pl (363), JoeMonster.org (311), Gumtree.pl (104), IDG.pl (170), nocoty.pl (114), odsiebie.com (130), Wyborcza.pl (144), Kafeteria.pl (228), Deviantart.com (218), MojaGeneracja.pl (176), Rozklad-PKP.pl (189), Neostrada.pl (208), Wizaz.pl (242). Ponad 500 błędów popełnili twórcy witryn: Pudelek.pl (570) i SFD.pl (534). Najgorzej jednak wypada strona DobreProgramy.pl z 1117 błędami znalezionymi przez walidator. Oczywiście testy przeprowadzone za kilka dni mogą dać odmienne wyniki, gdyż na wymienionych powyżej witrynach bez przerwy jest coś zmieniane. Warto więc zadać sobie pytanie, czy jest sens, by twórcy przeglądarek starali się spełniać standardy, podczas gdy powszechnym zjawiskiem jest nieprzestrzeganie ich przez twórców witryn.
  8. Pierwsze próby nawiązania kontaktu z obcymi, np. Marsjanami czy Wenusjanami, nie przypadają wcale, jak mogłoby się wydawać, na XX wiek. Okazuje się, że już w XIX wieku co najmniej kilku naukowców zastanawiało się nad metodami komunikowania z innymi cywilizacjami. Dotąd wszyscy wspominali jedynie o radioteleskopie Arecibo i komunikacie F. Drake'a z 1974 roku, ale pierwsza próba przesłania wiadomości poza Ziemię miała miejsce ok. 150 lat wcześniej i opierała się na sygnałach wzrokowych. Steven Dick, historyk z NASA, podkreśla, że w takich okolicznościach ludzie zawsze wykorzystują dostępne w danym czasie technologie – zaczęli więc od lamp, potem "przerzucili się" stopniowo na radio, a wreszcie na lasery. Kwestia istnienia ewentualnego życia pozaziemskiego nurtowała już starożytnych Greków, ale idea ta stała się szczególnie płodna po rewolucji kopernikańskiej. Skoro wszystkie planety krążą wokół Słońca, nietrudno sobie wyobrazić, że mogłyby być takie jak Ziemia [również pod innymi względami]. Podobną możliwość rozważali Kepler czy Galileusz, ale nie chcieli wchodzić w konflikt z Kościołem. W XVII wieku rozkwitała debata nad pluralizmem światów, ale pomysł nadal wzbudzał kontrowersje. Jednym z najbardziej wpływowych orędowników życia pozaziemskiego był Bernard le Bovier de Fontenelle – pisarz i filozof, członek Akademii Francuskiej oraz prekursor idei oświecenia. Choć sporo się dyskutowało na tematy pokrewne, nie zachowały się dokumenty dotyczące sposobów nawiązania kontaktu czy zlokalizowania obcych. Nie wiadomo więc, czy ich nie było, czy też nie przetrwały próby czasu. Florence Raulin-Cerceau i zespół z Alexandre Koyre Center w Paryżu opisali niedawno odmiany XIX-wiecznego urządzenia, zwanego niebieskim telegrafem (ang. sky telegraph). Prekursorem był w tej dziedzinie niemiecki matematyk Carl Friedrich Gauss, który niemal wszystkim kojarzy się z krzywą rozkładu normalnego. W latach dwudziestych zaproponował on, by za pomocą przyrządu jego pomysłu, heliotropu, wysyłać w kierunku innych planet sygnały w postaci odbitych promieni słonecznych. Byłoby to zatem coś w rodzaju międzyplanetarnych zajączków. Niemiec sugerował też wycięcie na Syberii olbrzymiego trójkąta drzew i zasianie na tym terenie pszenicy. Powoływał się przy tym na kontrast kolorów oraz na to, że figura geometryczna zostałaby przez inteligentne istoty uznana za obiekt utworzony celowo. Po 20 latach astronom Joseph von Littrow wyszedł z podobną inicjatywą. Chciał, by tworzący okrąg kanał o średnicy 30 km wypełnić naftą i podpalać nocą. W 1869 roku francuski wynalazca i poeta Charles Cros wymyślił, że można by skoncentrować na parabolicznym zwierciadle światło lamp elektrycznych, a odbity promień skierować na Marsa albo Wenus. Sugerował, że światło powinno być włączane i wyłączane, co pozwoliłoby nadawać alfabetem Morse'a. W tym samym czasie jeden z członków Francuskiego Towarzystwa Astronomicznego zamierzał zamontować na wieży Eiffla kilka reflektorów, poza tym chciał zamienić Księżyc w ogromny ekran do wyświetlania (warto przypomnieć, że na niemal identyczny pomysł moonvertisingu wpadła jedna ze współczesnych firm piwowarskich, tyle że logo miało być rzutowane laserem). Specjaliści uważają, że fale radiowe nadają się lepiej do przesłania wiadomości niż światło, które jest w większym stopniu rozpraszane przez pył kosmiczny. W 1901 roku Nikola Tesla twierdził, że dzięki wieży transmisyjnej w Colorado Springs odebrał dziwny sygnał, najprawdopodobniej z Marsa. Dziewiętnaście lat później to samo zadeklarował Guglielmo Marconi. Tyle pionierzy radia, inni ludzie, w tym nawet Albert Einstein, nadal uważali jednak, że światło jest bardziej praktyczne. Powód był bardzo prosty: nadajniki radiowe nie należały wtedy do zaawansowanych. W ciągu ponad 100 lat wiele się zmieniło i teraz każdy posiadacz komputera może dorzucić swoje trzy grosze do projektu poszukiwania obcych SETI.
  9. Serwis NeoWin informuje o poważnym problemie z mechanizmem UAC (User Account Control) w systemie Windows 7 Beta 1. Okazuje się, że można go w prosty sposób obejść. UAC był jednym z powodów licznych skarg użytkowników na Windows Vista. W standardowej konfiguracji pytał bowiem wielokrotnie użytkownika o zgodę na przeprowadzenie wielu operacji w systemie. Jako że większość użytkowników nie zadała sobie trudu, by dostosować UAC do swoich potrzeb, mechanizm wydawał im się bardzo uciążliwy. Dlatego też w Windows 7 Microsoft zmienił go tak, by zmniejszyć liczbę wymaganych potwierdzeń. Teraz UAC prosi o potwierdzenie operacji tylko wtedy, gdy zmian w konfiguracji komputera próbuje dokonać jakiś zewnętrzny program. Za program zewnętrzny uznawany jest taki, który nie posiada specjalnego cyfrowego certyfikatu. Rafael Rivera znalazł sposób na obejście tak skonfigurowanego UAC. Wystarczy zarazić komputer prostym skryptem, który będzie emulował naciśnięcie przez użytkownika kilku klawiszy, które spowodują wyłączenie UAC. Betatesterzy informowali już Microsoft o problemie. Na razie firma utrzymuje, że to nie błąd, a działanie UAC zostało celowo zaprojektowane w ten sposób. Nie wiadomo zatem, czy w kolejnych edycjach Windows 7 cokolwiek zostanie z tym zrobione.
  10. Amerykańska firma GI Dynamic opracowała plastikowy rękaw EndoBarrier, który wyścieła jelito cienkie i zapobiega trawieniu oraz wchłanianiu nadmiaru składników odżywczych. Ma to być nowa metoda walki z zagrażającą życiu otyłością. Rękaw ma nieco ponad 60 cm długości. Podczas testów okazało się, że jest on równie skutecznym narzędziem kontrolowania wagi, co regulowana opaska żołądkowa (ang. adjustable gastric band, AGB). Istnieje jednak pewna, bardzo istotna z punktu widzenia pacjenta, różnica – rękaw umieszcza się w jelicie w czasie krótszym niż pół godziny, w dodatku nie przeprowadza się operacji chirurgicznej. EndoBarrier wytwarza się ze śliskiego plastiku, a przed wprowadzeniem pod kontrolą endoskopu urządzenie zamyka się w specjalnej kapsule. Po dotarciu do określonego miejsca żołądka "opakowanie" zostaje otwarte, a rękaw jest dalej rozwijany za pomocą cewnika. Na koniec zakotwicza się go dzięki zapamiętującemu kształt kawałkowi metalu. Gdy człowiek schudnie już tyle, ile trzeba, rękaw usuwa się jeszcze szybciej, niż wkłada, bo w ciągu zaledwie 10 min. EndoBarrier odwraca także cukrzycę typu 2., czasem zanim jeszcze pacjent zacznie chudnąć. Dzieje się tak nie tylko wskutek ograniczenia liczby przyjmowanych kalorii, ale również zmian hormonalnych oraz modyfikacji sygnałów nerwowych pochodzących z jelita. Stuart Randle, szef amerykańskiej firmy, poinformował, że rękaw został wypróbowany przez 150 testerów. Cena jego "zamontowania" to połowa kosztów operacji wykonania bypassów żołądka czy założenia opaski. Specjaliści podkreślają, że na razie nie wiadomo, jakie skutki powoduje pozostawienie EndoBarrier w jelicie na dłużej.
  11. W tym roku na sklepowe półki trafi pierwsze konserwowane promieniami ultrafioletowymi wino. Próby prowadzone w RPA zakończyły się sukcesem, a wyjątkowy alkohol powstaje w winnicy L'Ormarins w Franschhoek. Na razie nie wiadomo, jaki rodzaj wina poddano temu zabiegowi. Surepure to maszyna wielkości dwóch połączonych lodówek. Wyposażono ją w rurki, które doprowadzają i odprowadzają wino. Wewnątrz znajduje się 40 mieszadeł – ich praca gwarantuje naświetlenie całości płynu. Urządzenie eliminuje niechciane bakterie i dzikie drożdże, ograniczając tym samym siarkowanie. Niektórzy amatorzy wina są uczuleni na siarczyny i nawet niewielka ilość alkoholu przyprawia ich o ból głowy oraz zaczerwienienie skóry. Niebezpiecznym zjawiskiem jest podrażnienie i zwężenie przełyku, skutkujące przypominającymi astmę atakami kaszlu. Wszystkich zapewne ucieszy fakt, że zastosowanie promieni UV poprawia smak wina. Nie czuć w nim już siarki, a uwagę przykuwa naturalny bukiet. Surepure przetwarza 4 tys. litrów wina na godzinę. Proces można powtarzać kilkakrotnie na różnych etapach produkcji.
  12. Leczenie nowotworów z wykorzystaniem sił układu odpornościowego pacjenta jest jedną z najbardziej obiecujących form terapii, lecz jej wdrażanie rzadko przynosi oczekiwane efekty. Najnowszym pomysłem na zwiększenie intensywności odpowiedzi immunologicznej jest niewielki implant, którego zadaniem jest wabienie i aktywacja komórek zdolnych do uruchomienia reakcji immunologicznej przeciwko chorobie. Choć komórki nowotworowe wyraźnie różnią się od otaczającej tkanki, zwykle unikają "namierzenia" i zniszczenia przez układ immunologiczny. Mimo to, w niektórych przypadkach organizm chorego "budzi się" i dostrzega wroga, którego wcześniej pomijał. Stąd właśnie wziął się pomysł tzw. immunoterapii, czyli stymulacji komórek odpornościowych do działania. Zespół badaczy z Uniwersytetu Harvarda twierdzi, iż opracował wynalazek zdolny do skutecznego uruchomienia pożądanej reakcji organizmu. Pomysł naukowców, kierowanych przez Davida J. Mooneya, opiera się na wykorzystaniu aktywności komórek dendrytycznych (ang. dendritic cells - DC). Ta populacja komórek charakteryzuje się wyjątkowo silnie rozwiniętą zdolnością do tzw. prezentacji antygenów, czyli pochłaniania fragmentów komórek, które wydają się "podejrzane", i sygnalizowania innym elementom układu immunologicznego, iż wykryte białka są "godne uwagi" i należy je zniszczyć. Gdy tylko współpracujące komórki wykryją sygnał, aktywują się i rozpoczynają zmasowany atak na obce ciało. Problem polega jednak na tym, że terapie stymulujące ten proces wymagają zwykle pobrania DC od pacjenta i ich stymulacji poza jego organizmem, a następnie ich ponownego wszczepienia, co wiąże się z wysoką śmiertelnością komórek. Wynalazek zaprezentowany przez badaczy z Uniwersytetu Harvarda eliminuje ten problem, gdyż cały proces zachodzi z jego pomocą... we wnętrzu organizmu. Opracowany implant zbudowany jest z materiału używanego m.in. do produkcji rozpuszczalnych szwów chirurgicznych. Uformowano go do kształtu porowatej kostki i nasycono trzema rodzajami substancji. Pierwsza z nich to GM-CSF - drobne białko, należące do tzw. cytokin, wabiące DC i stymulujące ich namnażanie. Oprócz tego materiał został nasycony sekwencjami DNA charakterystycznymi dla bakterii, które miały posłużyć jako sygnał symulujący stan zagrożenia infekcją, oraz fragmentami komórek nowotworowych, pełniących funkcję wzorca ciała obcego mającego stać się celem ataku. Przeprowadzone testy wykazały, że myszy, którym wszczepiono implant, a następnie wyjątkowo agresywne komórki nowotworowe, przeżywały aż w 90% przypadków. Dla porównania, gryzonie, którym podano "pusty" implant (tzn. samą matrycę nienasyconą którymkolwiek ze składników stymulujących odpowiedź), trzeba było ze wzgledów humanitarnych uśmiercić po zaledwie trzech tygodniach od wszczepienia komórek nowotworowych. Jak twierdzą autorzy wynalazku, jego zastosowanie nie musi ograniczać się do leczenia nowotworów. Wspominają m.in. o wykorzystaniu go do osiągnięcia odwrotnej reakcji, czyli ograniczenia aktywności DC w celu leczenia chorób autoimmunizacyjnych, czyli takich, w których organizm rozpoczyna atak na własne tkanki. Do schorzeń takich należy m.in. stwardnienie rozsiane oraz reumatoidalne zapalenie stawów. Niestety, zanim zostaną uruchomione testy na ludziach oraz procedura dopuszczenia implantu do użycia, minie prawdopodobnie co najmniej kilka lat.
  13. Co sprawia, że niepozorna szarańcza, owad spokrewniony z konikiem polnym, staje się jednym z najpoważniejszych szkodników, żerujących w stadach, które śmiało można by nazwać gangami? Okazuje się, że kluczem do tej odmiany jest... serotonina, zwana niekiedy "hormonem szczęścia". Zrozumienie fizjologii owadów z rodziny szarańczowatych (Acrididae) jest niezwykle istotne praktycznie dla całego świata - wywołane przez nie gigantyczne szkody w rolnictwie dotykają przecież wszystkich. Najistotniejszym z gatunków wydaje się być szarańcza pustynna (Schistocerca gregaria): w jej zasięgu znajduje się aż 20% lądów Ziemi, a ich największe stada, zdolne do pustoszenia całej roślinności na zaatakowanym obszarze, miewają niekiedy po kilka kilometrów długości. Gromadzenie się szarańczy w stada jest naturalną konsekwencją niedostatku pożywienia, prowadzącego do wspólnego żerowania na nielicznych stanowiskach mogących zaoferować jakikolwiek pokarm. Wcześniejsze badania wskazywały, że zwierzęta te wykazują tendencję do łączenia się w grupy, gdy dochodzi między nimi do kontaktu fizycznego (mówiąc dokładniej, zjawisko to jest efektem pocierania tylnych odnóży oraz widoku i zapachu towarzyszy), lecz nie było jasne, jaki czynnik wywołuje takie zachowanie. Najnowsze studium, przeprowadzone przez zespół badaczy z uniwersytetów w Cambridge oraz Oxfordzie, wykazały, że w organizmach szarańczy żyjących w stadach znajduje się aż trzykrotnie więcej jednego z neuroprzekaźników, serotoniny, niż w ciałach osobników preferujących spokojne życie w samotności. Podążając tym tropem, naukowcy udowodnili także, że drażnienie odnóży insektów powoduje zwiększenie stężenia serotoniny, zaś ta sama czynność połączona z podaniem związków hamujących efekt działania neuroprzekaźnika nie powoduje transformacji z formy spokojnej do stadnej. Ostatecznym dowodem na potwierdzenie postawionej hipotezy było wstrzyknięcie samego neuroprzekaźnika, który powodował szybką zmianę zachowań szkodnika. Dokonane odkrycie nie dostarcza co prawda gotowego rozwiązania problemu inwazji szarańczy, lecz otwiera obiecującą drogę poszukiwania metod ich zwalczania. Angielscy eksperci są przekonani, że manipulowanie poziomem serotoniny w organizmach insektów i wymuszenie na nich samotniczego trybu życia mogłoby znacząco poprawić skuteczność ochrony upraw. O swoim odkryciu informują szerzej na łamach magazynu Science.
  14. Izraelscy naukowcy z Instytutu Weizmanna uczynili pierwszy krok na drodze do połączenia ludzkiego mózgu i komputera za pomocą interfejsu wykonanego z komórek nerwowych. Profesor Elisha Moses z Wydziału Fizyki Systemów Złożonych oraz doktorzy Ofer Feinerman i Assaf Rotem stworzyli obwody i bramki logiczne z żywych komórek wyhodowanych w laboratorium. Hodowane w laboratoriach neurony nie tworzą samodzielnie "myślących" sieci. Izraelczycy postanowili stworzyć taką strukturę. Dla ułatwienia wykonali ją w jednym wymiarze. Komórki hodowali na szklanej płytce z wyżłobionym rowkiem, wzdłuż którego rosły. Początkowo zauważyli, że można je stymulować polem magnetycznym, podczas gdy zwykle robi się bo za pomocą prądu elektrycznego. Kolejne eksperymenty wykazały, że zdolność przesyłania sygnałów zależy od szerokości pasa stworzonego z neuronów. Pamiętajmy, że w naturze każdy neuron połączony jest z wieloma innymi i dopiero otrzymanie licznych sygnałów powoduje, że sam wyśle własny. Moses i jego zespół zbadali, że liczbą graniczną jest mniej więcej 100 aksonów. Poniżej tej wartości przesłanie sygnału jest mało prawdopodobne. Natomiast bardzo wzrasta im liczba większa od 100. Naukowcy stworzyli więc dwa pasy składające się z około 100 aksonów każdy i zbudowali z nich bramkę logiczną. Gdy sygnał przesyłano przez jeden z pasków, nie wiadomo było, czy otrzyma się odpowiedź. Dopiero przesłanie go przez oba skutkowało zawsze odpowiedzią. W ten sposób powstała bramka AND. Później przyszedł czas na bardziej skomplikowane struktury. Z pasków utworzono trójkąty, które ułożono w rzędzie, podstawami w tę samą stronę i połączono je tak, by przesyłały sygnały tylko w jednym kierunku. Następnie kilka takich rzędów złączono zamknięty obwód. Po przyłożeniu sygnału otrzymano rodzaj biologicznego, obracającego się zegara. Profesor Moses stwierdził: Byliśmy w stanie wprowadzić prostotę do systemu, który sam z siebie jest skomplikowany. Teraz musimy zapytać: 'Jakie warunki należy zapewnić kulturom komórek nerwowych, by były w stanie przeprowadzać złożone obliczenia?'. Jeśli znajdziemy na nie odpowiedź, to będziemy bliżej stworzenia sztucznego urządzenia "myślącego" złożonego z wielu neuronów.
  15. Efekty przebytego we wczesnej dorosłości wstrząśnienia mózgu są widoczne u byłych sportowców nawet po 30 latach. Manifestuje się to pogorszeniem funkcjonowania poznawczego oraz deficytami ruchowymi. Dwoje naukowców z Uniwersytetu w Montrealu, Louis De Beaumont i Maryse Lassonde, zestawiło wyniki 19 zdrowych byłych sportowców, którzy przeżyli ponad 30 lat temu wstrząśnienie mózgu z 21 "emerytowanymi" atletami, którym się to nie przytrafiło. Okazało się, że w porównaniu do drugiej grupy, osoby z 1-2-krotnym wstrząśnieniem mózgu gorzej wypadały w testach mierzących uwagę, pamięć, poza tym wolniej wykonywały część ruchów. To niezwykle istotne spostrzeżenie, ponieważ do tej pory naukowcy zajmowali się głównie bezpośrednimi skutkami wstrząśnienia, a także wyznaczeniem optymalnego momentu powrotu na boisko czy bieżnię. Właściwie nikt nie angażował się w badanie długoterminowych skutków urazu głowy. Wg Louisa De Beaumonta, skoro skutki uderzenia utrzymują się przez tak długi czas i w miarę starzenia się sportowca zmieniają jego funkcjonowanie poznawczo-ruchowe, atleci powinni być informowani o istnieniu kumulacyjnych i stałych efektów sportowych wstrząśnień mózgu [...]. Tylko wtedy będą mieli świadomość, jakie ryzyko niesie ze sobą powrót do uprawiania ulubionej dyscypliny. Badani Kanadyjczycy mieli od 50 do 60 lat. Uprawiali sport w ligach uniwersyteckich i nadal pozostali aktywni fizycznie (oznaczało to branie udziału w ćwiczeniach co najmniej 3 razy w tygodniu). Ochotnicy wypełniali kwestionariusze dotyczące stanu zdrowia. Znalazły się tam pytania nt. przeszłych wstrząśnień mózgu. Potem De Beaumont i Lassonde przeprowadzili szereg badań, m.in.: 1) testy neuropsychologiczne, które miały pomóc w wykryciu ewentualnych zmian w zakresie funkcji wykonawczych, uwagi czy pamięci epizodycznej, 2) przezczaszkową stymulację magnetyczną oraz badanie reakcji na zewnętrzne bodźce (fachowo nazywa się to mózgowymi potencjałami skorelowanymi z pobudzeniem; ang. event-related potentials, ERP), 3) testy kontroli ruchowej, w tym obracania z maksymalną prędkością trzymanych w obu dłoniach sfer i 4) testy funkcjonowania poznawczego: orientacji, uwagi, powtarzania natychmiastowego i odroczonego, języka oraz zdolności do wykonywania prostych poleceń, wydanych ustnie bądź pisemnie. Okazało się, że sportowcy "po przejściach" mieli gorzej działającą pamięć, z dużym opóźnieniem i sporo słabiej reagowali na niespodziewane bodźce, a także wykonywali znacznie wolniejsze ruchy. Kanadyjczycy podkreślają, że podczas badań podłużnych trzeba będzie sprawdzić, czy wstrząśnienie mózgu wywołuje utajone zmiany w funkcjonowaniu poznawczym, które ujawniają się pod wpływem procesów starzenia, czy też raczej sam uraz przyspiesza starzenie.
  16. Samsung Electronics jest autorem pierwszego czterogigabitowego układu DDR3 DRAM. Kość została wyprodukowana w technologii 50 nanometrów i charakteryzuje się największą gęstością upakowania danych spośród wszystkich podobnych produktów. Układ, ze względu na niewielkie zużycie energii, powstał przede wszystkim z myślą o zastosowaniach serwerowych. Może on posłużyć zarówno do budowy 16-gigabajtowych kości RDIMM dla serwerów, jak i 8-gigabajtowych układów dla stacji roboczych, pecetów i laptopów. Możliwe jest też budowanie układów o pojemności 32 gigabajtów. Nowa 4-gigabitowa kość pracuje przy napięciu 1,35 wolta, a więc o 20% mniejszym niż standardowe 1,5 V dla układów DDR3. Biorąc pod uwagę zużycie energii i pojemność, można stwierdzić, że w porównaniu z układami pamięci stworzonymi z 2-gigabitowych kości, propozycja Samsunga oznacza 40-procentową oszczędność energii. Maksymalna szybkość przesyłu danych wynosi 16 Gb/s.
  17. Fizycy z University of Texas w Austin opracowali nowy model reaktora jądrowego, który, gdy cały system zostanie już dopracowany, może znakomicie zredukować ilość odpadów powstających w elektrowniach atomowych. Mike Kotschenreuther, badacz a uniwersyteckiego Institute for Fusion Studies (IFS) i Wydziału Fizyki, mówi: Opracowaliśmy niedrogi sposób na wykorzystanie fuzji jądrowej do niszczenia odpadów powstałych podczas reakcji rozszczepiania. Energetyka jądrowa jest w czasie niezakłóconej pracy źródłem czystszej energii niż energia pozyskiwana z węgla. Największym problemem jest pozbywanie się odpadów. Obecnie są one przechowywane w formacjach geologicznych. Jednym z takich miejsc ma być np. Yucca Mountain w Newadzie. "Przechowalnia" zostanie otwarta w 2020 roku, a jej pojemność oszacowano na 77 000 ton odpadów. Jednak już w przyszłym roku ilość opadów z elektrowni jądrowych w USA przekroczy tę liczbę. Jako że energetyka jądrowa znowu zyskuje na popularności, można się spodziewać szybkiego wzrostu liczby odpadów, które wymagają specjalnego traktowania, gdyż są bardzo niebezpieczne dla środowiska naturalnego. Fizycy z Teksasu zaproponowali hybrydowy reaktor jądrowy, będący połączeniem reaktora tradycyjnego i fuzyjnego. Ich pomysł polega na zastosowaniu fuzyjnego (a więc działającego na zasadzie łączenia się dwóch lżejszych jąder w jedno cięższe) Compact Fusion Neutron Source (CFNS). Miałby on znajdować się wewnątrz tradycyjnego reaktora (działającego na zasadzie rozpadu cięższego jądra w lżejsze), napędzanego odpadami. Nadmiarowe neutrony z reakcji fuzyjnej podtrzymywałyby dodatkowo reakcję rozpadu, przyczyniając się do lepszego "wypalenia" odpadów. Proces przetwarzania paliwa jądrowego składałby się więc z dwóch etapów. W pierwszym z nich paliwo napędzałoby tradycyjną elektrownię. Z elektrowni takich wychodzi około 25% pierwotnego wkładu, zawierającego wysoce radioaktywne i toksyczne odpady. Byłyby one następnie przewożone do reaktora hybrydowego, gdzie ulegałyby dalszemu zniszczeniu. Taki reaktor nie dość, że produkowałby energię, to byłby w stanie zredukować ilość radioaktywnych odpadów tak, że zostałoby ich tylko 1% pierwotnego wkładu do tradycyjnej elektrowni. Jedna hybrydowa elektrownia potrzebna byłaby do obsłużenia odpadów z 10-15 elektrowni tradycyjnych. Naukowcy uważają, że ich system będzie tańszy od alternatywnych metod pozbywania się odpadów nuklearnych. Reaktor hybrydowy może być niewielkim urządzeniem o pojemności kilkunastu metrów sześciennych. Głównym problemem jest fakt, iż prace nad reaktorem fuzyjnym dopiero trwają. CFNS nie powstanie więc w najbliższym czasie. Kluczowym elementem CFNS będzie wynalezione na tej samej uczelni urządzenie o nazwie Super X Divertor. Jego zadaniem jest zabezpieczenie CFNS przez zniszczeniem przez olbrzymią temperaturę, która powstaje wewnątrz reaktora fuzyjnego. Super X Divertor to rozwiązanie, które zyskało uznanie specjalistów i posiadacze kilku testowych reaktorów fuzyjnych chcą je wykorzystać w swoich urządzeniach. Prashant Valanju z IFS mówi, że połączenie reaktora fuzyjnego z tradycyjnym to pomysł, który od dawna krąży w środowisku naukowym. Zawsze wiedziano, że fuzja jest przydatna przy produkcji neutronów, a rozpad - przy produkcji energii. Teraz udowodniliśmy, że można stworzyć efektywny niewielki reaktor fuzyjny. Naukowcy, którzy pracowali nad nowym rodzajem reaktora, nie uważają go za rozwiązanie wszystkich problemów. Mają nadzieję, że dzięki niemu będziemy dysponowali czystszą energią atomową do czasu, aż nauczymy się korzystać z takich źródeł jak energia słoneczna czy energia fuzyjna. Hybryda, którą zaprojektowaliśmy, powinna być postrzegana jako technologia przejściowa - mówi Swadesh Mahajan.
  18. Ludzie, którzy angażują się razem w zsynchronizowane działania, np. wojskowy marsz czy śpiewy oraz tańce podczas odprawiania obrzędów religijnych, są bardziej skłonni do współpracy. Scott S. Wiltermuth i Chip Heath, psycholodzy z Uniwersytetu Stanforda, przeprowadzili serię eksperymentów. W pierwszym dwie grupy ochotników przechadzały się po kampusie. Członkowie pierwszej poruszali się w dowolny sposób, a przedstawiciele drugiej musieli iść noga w nogę. Po zakończeniu "zabaw" ruchowych wszyscy brali udział w grze ekonomicznej. Większa skłonność do współpracy oznaczała większą zapłatę końcową. W drugim eksperymencie wolontariusze słuchali muzyki przez słuchawki i mieli do rytmu przesuwać kubki do tyłu i do przodu. Znowu zastosowano podział na grupy. W jednej z nich wszyscy słuchali tego samego utworu, ruchy ich rąk były więc zsynchronizowane. W drugiej każdy słuchał czegoś innego, a ponieważ muzyka miała różne tempo, nie można było mówić o jakiejkolwiek koordynacji działań. Potem badani brali udział w grze ekonomicznej; obowiązywały identyczne zasady jak w 1. eksperymencie. Studenci mogli wpłacać żetony do ogólnej puli lub zatrzymać je dla siebie. Okazało się, że osoby wykonujące wcześniej zsynchronizowane czynności w większym stopniu ze sobą współpracowały, choć w przypadku wszystkich istniała finansowa zachęta do kooperacji (wyższa wypłata). W przypadku ostatniej gry wolontariusze woleli poświęcić swoje żetony, by przysłużyć się grupie. Poza tym doświadczali oni silniejszego poczucia bycia członkami grupy. Społeczeństwa mogą przetrwać właśnie dzięki współdziałaniu swoich członków. Oznacza to, że praktyki bazujące na synchroniczności stanowią użyteczne narzędzie kulturowe.
  19. Firmenich, genewska firma specjalizująca się w badaniach nad zapachami i smakami dla przemysłów spożywczego oraz kosmetycznego, rozszyfrowała główne nuty zapachowe potu mężczyzn i kobiet. Wg szefa zespołu badawczego Christiana Starkenmanna, u panów przeważa woń sera, a u pań cebuli lub grejpfruta (Chemical Senses). Próbki potu spod pachy pobrano od 24 mężczyzn i 25 kobiet. Najpierw musieli oni posiedzieć w saunie albo popedałować przez 15 min na rowerku treningowym. W wydzielinie płci pięknej znaleziono stosunkowo duże ilości bezwonnych związków siarki (5 miligramów na mililitr potu, w porównaniu do 0,5 mg/ml u mężczyzn). Po dodaniu do potu bakterii występujących zwykle w dole pachowym, w wyniku reakcji chemicznej powstały tiole – stąd czosnkowo-cebulowy zapach. U mężczyzn Szwajcarzy znaleźli z kolei relatywnie wysokie stężenia kwasów tłuszczowych. Po zetknięciu z enzymami tych samych bakterii zaczynały one wydzielać woń sera. Niezależni sędziowie uznali zapach kobiecego potu za bardziej nieprzyjemny, a powodem był określony stosunek związków serowych i cebulowych. To ważna wskazówka przy opracowywaniu dezodorantów dla poszczególnych płci. Badacze będą się musieli skupić na neutralizowaniu związków prekursorowych lub na blokowaniu enzymów bakteryjnych. Nie wszyscy eksperci zajmujący się zapachami uważają, że podobne wyniki uzyskano by poza Szwajcarią. Powód? Inna dieta, geny, środki czystości, a nawet rodzaje noszonych ubrań.
  20. Jak wykazują najświeższe badania, ptaki z rodziny szlarników, zwane także „białymi oczkami”, ze względu na białe kółko, które otacza ich gałki oczne, mogą być uznane za prawdziwych ewolucyjnych sprinterów. Analiza DNA pokazuje, że wszystkie 80 znanych gatunków wyewoluowało na przestrzeni ostatnich 2 milionów lat, co stawia je w czołówce w królestwa zwierząt. Do tej pory jedynie garstka ptaków i ssaków była znana z tak szybkich adaptacji do zmieniających się warunków środowiska, ale w przypadku szlarników chodzi o coś jeszcze. Ptaki te zamieszkują praktycznie cała półkulę południową. Niemożliwe staje się zatem zrzucenie tak szybkich przeobrażeń genetycznych na karb zmian klimatu lub środowiska. Musiałyby one zachodzić jednocześnie na zbyt dużym obszarze. Szlarniki wyewoluowały w tuzin nowych gatunków niezwykle szybko i to podczas równoczesnego rozprzestrzeniania się po całej południowej półkuli – mówi Christopher Filardi, autor badań. Na tak dużą geograficzną skalę nie możemy mówić o jednym czynniku, który to spowodował. To musi być coś w tych ptakach. Szlarniki rzeczywiście mogły wyewoluować szybciej ponieważ samice są w stanie składać jaja już w wieku czterech miesięcy, w przeciwieństwie do większości tropikalnych ptaków śpiewających, którym osiągnięcie dojrzałości seksualnej zajmuje około jednego roku. Ponadto szlarniki, w odróżnieniu od innych gatunków, są niezwykle towarzyskie. Bycie w grupie mają po prostu zapisane w genach – razem szukają jedzenia, razem podróżują, a nawet razem czyszczą sobie piórka. Jest to niezwykle ważny czynnik podczas kolonizacji nowych terenów. Najpierw przybywają, potem się zadomawiają i szybko izolują genetycznie. Na Wyspach Salomona, gdzie występuje kilkanaście endemitów z rodziny szlarników, osobne gatunki można spotkać w odległości zaledwie dwóch kilometrów!
  21. Co jest najlepszą metodą nauki nowego języka obcego: wkuwanie słówek czy może lekcje z native speakerem? Paul Sulzberger z Victoria University przekonuje, że najlepiej jak najwięcej słuchać brzmienia obcej mowy, a zrozumienie wcale nie jest tu konieczne. Badacz zdaje sobie sprawę, że wielu nauczycieli języków obcych się z nim nie zgodzi, ale nadal obstaje przy swoim: Jeśli chcesz się nauczyć np. hiszpańskiego, słuchaj często w Internecie hiszpańskich stacji radiowych. To w znacznym stopniu zwiększy twoją zdolność wychwytywania tego języka i opanowywania nowych słówek. Należy się spodziewać, że podobnie zadziała oglądanie programów telewizyjnych. Idealny sposób to rzucenie się na głęboką wodę – to dlatego globtroterzy bywają często poliglotami, a wyjeżdżając w kolejną podróż, nie zawsze znają wszystkie języki, którymi będą się w końcu, lepiej lub gorzej, posługiwać. Wg Sulzbergera, obsłuchanie tworzy w mózgu struktury niezbędne do nauki. Tkanka nerwowa, niezbędna do nauki i zrozumienia nowego języka, rozwinie się automatycznie pod wpływem zwykłego kontaktu z obcą mową. W taki sposób dzieci uczą się przecież swojego pierwszego języka. Badania Sulzbergera to pokłosie jego własnych doświadczeń pedagogicznych. Przez 7 lat uczył on bowiem Nowozelandczyków rosyjskiego. Zastanawiał się wtedy, czemu nauczenie się słówek w obcym języku sprawia ludziom tyle trudności, skoro codziennie opanowują sporo nowych wyrazów w swoim ojczystym języku. Odpowiedź znalazł w mechanizmach działania mózgu. Kiedy próbujemy opanować nowe słówka, stykamy się z dźwiękami, w przypadku których może nie istnieć żadna, ale to żadna reprezentacja neuronalna. Przydałoby się zatem, aby na początku nauki mieć na podorędziu kilka utworzonych wcześniej struktur tego rodzaju. Skąd je wziąć? Wystarczy słuchać, słuchać i jeszcze raz słuchać...
  22. Jednoczesne przyjmowanie acetaminofenu (paracetamolu) z alkoholem jest jedną z najczęstszych przyczyn występowania marskości wątroby. Co ciekawe jednak, bezpośrednią przyczyną zmian chorobowych nie jest toksyczność obu tych substancji, lecz wywołany przez nie stan zapalny. Na szczęście okazuje się, że jego intensywność można skutecznie ograniczyć za pomocą... zwykłej aspiryny. O odkryciu donoszą badacze z Uniwersytetu Yale. Jak pokazały przeprowadzone przez nich testy na myszach, marskość wątroby występująca po równoczesnym podaniu paracetamolu i etanolu jest wywołana napływem komórek odpornościowych i rozwojem ostrego stanu zapalnego w miąższu tego organu. Zjawisko to może być zaskakujące, gdyż acetaminofen jest jednym z najczęściej stosowanych leków przeciwzapalnych. Obserwowane procesy są zależne od tzw. receptorów TLR, uruchamiających jeden z najprymitywniejszych, lecz także najszybszych szlaków obrony immunologicznej. Badacze z Uniwersytetu Yale udowodnili, że substancje zdolne do blokowania aktywności receptorów TLR, czyli ich antagoniści, skutecznie ograniczają ryzyko związane z przedawkowaniem acetaminofenu i alkoholu. Co ciekawe, udowodniono też, że uszkodzenie wątroby można znacznie zmniejszyć podając niskie dawki aspiryny - leku wielokrotnie tańszego od antagonistów TLR i działającego na nieco innym etapie łańcucha sygnałów prowadzących do rozwoju zapalenia. Dr Wajahat Mehal, główny autor studium, podkreśla możliwość praktycznego wykorzystania zdobytej wiedzy: nasza strategia jest taka, by używać aspiryny codziennie w celu zapobiegania uszkodzeniom wątroby, lecz jeśli do niego dojdzie, podawać antagonistów TLR w celu jego wyleczenia. Środowisko lekarskie przyjmuje pomysł dr. Mehala z rezerwą. Wielu ekspertów, m.in. członkowie zrzeszającej hepatologów organizacji British Liver Trust, przestrzega, by na wszelki wypadek zgłaszać przedawkowanie paracetamolu lekarzowi. Inni przypominają, że choć aspiryna rzeczywiście poprawia wiele funkcji ludzkiego organizmu, przewlekłe stosowanie niektórych zawierających ją preparatów mogą powodować uszkodzenie śluzówki żołądka.
  23. Wybór mieszkania to trudna decyzja, od której może zależeć komfort życia. Wiedzą o tym nawet gryzonie, które, jak się okazuje, poświęcają poszukiwaniu lokum znacznie więcej uwagi, niż się dotychczas wydawało. O żyjących dziko gryzoniach zwykło sie uważać, że zamieszkają w każdym miejscu, które spełnia minimalne wymagania dotyczące m.in. bezpieczeństwa i łatwości zdobywania pożywienia. Wyniki doświadczenia przeprowadzonego przez dwie badaczki z Uniwersytetu Kalifornijskiego, Karen E. Mabry oraz Judy A. Stamps, sugerują jednak, że zwierzęta te są znacznie bardziej wybredne, niż przypuszczano. Obiektem obserwacji były gryzonie z gatunku Peromyscus boylii, należącego do rodziny chomikowatych. Te niepozorne zwierzęta, bardzo pospolite w Ameryce Północnej, krótko po urodzeniu wyruszają ze swojego gniazda w poszukiwaniu miejsca, w którym mogą rozpocząć życie "na własny rachunek". Badaczki z Kalifornii zaopatrzyły trzydzieści jeden okazów tych sympatycznych gryzoni w nadajniki radiowe i analizowały ich zachowania oraz trasy ich wypraw na terenie rezerwatu należącego do Uniwersytetu Kalifornijskiego. Zebrane informacje sugerują, że przedstawiciele P. boylii nie zadowalają się pierwszym napotkanym miejscem nadającym się do spoczynku. Zamiast tego, spędzają noce na wędrówkach w poszukiwaniu siedliska idealnego. Gdy odnajdą kilka miejsc spełniających wymagania, zaczynają krążyć pomiędzy nimi tak długo, aż przekonają się ostatecznie, które z nich jest najlepsze. Dopiero wtedy określone lokum zostaje zajęte. Co ciekawe, bardziej wybrednymi poszukiwaczami są samce, lecz nie ustalono dokładnie, jaki może być cel takiego zachowania. To pierwszy raz, gdy zaobserwowano u gryzoni tak wnikliwe poszukiwania schronienia. Dotychczas uważano, że wybór miejsca bytowania nie jest dla tych zwierząt aż tak czasochłonny, zaś jedynym gatunkiem, który odwiedza kilka potencjalnych siedlisk przed zajęciem jednego z nich, jest, oczywiście, człowiek.
  24. Mark Shuttleworth to nie jedyna znana postać ze świata Open Source, która ostatnio wypowiadała się na temat Windows 7. Twórca Linuksa, w wywiadzie dla Computerworld, powiedział kilka interesujących rzeczy o konkurencyjnym oprogramowaniu. Na pytanie: Co sądzisz o Windows 7 i cyklu produkcyjnym systemów operacyjnych Microsoftu Linus Torvalds odparł: Sam fakt, że Windows 7 jest lepszy od Visty sporo mówi. Microsoft może mieć bardzo dobry punkt wyjścia do kampanii reklamowej, gdyż ludzie będą porównywali Windows 7 z Vistą i zachwycali się tak, jak zachwycali się Windows 95, porównując go z Windows 3.1. Być może o to Microsoftowi chodziło. Sądzę, że Microsoft zdał sobie sprawę, iż cykl produkcyjny Visty był zbyt długi i było to nierozsądne. Mogą założyć dwuletni cykl produkcyjny, ale sądzę, że to zbyt długo. Powinni oddzielić aplikacje od systemu operacyjnego i wydawać go częściej. [...] Dla Linuksa rok to rozsądny termin [wydawania kolejnych edycji systemu - red.]. Ale firmie takiej jak Microsoft, która chce, by ludzie płacili za system, byłoby ciężko przekonać ludzi, by co roku kupowali kolejną edycję. Apple wydaje swój OS częściej, ale jest on tańszy. To nie problem w środowisku opensource'owym, gdzie system jest darmowy, jednak Microsoft musi to dobrze zrównoważyć. [...] Jeśli cykl produkcyjny trwa pięć lat i przynosi wiele zmian, to jest to problem dla użytkownika. Koszt przystosowania się do tych zmian może być wyższy, niż koszt systemu operacyjnego, dlatego ludzie bardzo powoli akceptują nowy system. To co przyczyniło się do sukcesu Microsoftu w latach 90. już minęło i ludzie nie sądzą, by koncern odniósł sukces raz jeszcze. Ale, oczywiście, ja też nie mam gotowego modelu biznesowego". Polecamy cały wywiad na stronach Computerworld.
  25. W Internecie i tradycyjnych mediach wciąż trwają spory o globalne ocieplenie i ewentualny wpływ nań działalności człowieka. Nic dziwnego, gdyż sami naukowcy nie są w 100 procentach zgodni nawet co do samego występowania ocieplenia. Uczeni z University of Illinois w Chicago, profesor Peter Doran oraz Maggie Kendall Zimmerman, postanowili zbadać, jakie jest zdanie specjalistów na ten temat. Podobne badania prowadzono już przed kilkoma laty. W 2004 roku Naomi Oreskes opublikowała w Science artykuł, w którym, opierając się na abstraktach 928 prac naukowych z lat 1993-2003 stwierdziła, że 75% z nich wyrażało opinię o wpływie człowieka na zmiany klimatu. Metodologia taka została skrytykowana za opieranie się na abstraktach, a nie na pełnym spektrum opinii naukowców. Akademicy z Illinois postanowili zatem zapytać bezpośrednio specjalistów zajmujących się tematyką. Przygotowali online'owe badanie, do udziału w którym zaproszono 10 257 naukowców z uniwersytetów, federalnych ośrodków badawczych, agend rządowych (np. US Geological Survey, NASA, NOAA), laboratoriów Departamentu Energii itp. itd. Aby zwiększyć szanse, że zaproszeni wezmą udział w badaniu, przygotowano je tak, by odpowiedź na ankietę nie zajęła więcej niż 2 minuty. Wśród dziewięciu pytań dwa dotyczyły poruszonej na początku kwestii: 1.Czy, w porównaniu z okresem przed rokiem 1800, średnia globalna temperatura spadła, wzrosła czy utrzymała się na tym samym poziomie? 2.Czy aktywność człowieka jest znaczącym czynnikiem wpływającym na wartość średniej globalnej temperatury? Na ankietę odpowiedziało 3146 osób. Spośród nich 90% pochodziło z USA, 6% z Kanady, a 4% z 21 innych krajów. Ponad 90% miało tytuł doktorski, a około 7% było magistrami. Wśród respondentów największą grupę stanowili geochemicy (15,5%), geofizycy (12%) oraz oceanografowie (10,5%). Z kolei geologów, hydrologów, hydrogeologów i paleontologów było po 5-7%. Około 5% respondentów to klimatolodzy. Dla 8,5% biorących udział, badania nad zmianami klimatu stanowiły główne zajęcie, co można wnioskować z faktu, iż ponad 50% ich publikacji z ostatnich 5 lat dotyczyło właśnie tej tematyki. Spośród wszystkich opisanych osób 90% stwierdziło, że po roku 1800 zauważalny jest wzrost średniej globalnej temperatury. Na pytanie 2. padło aż 82% odpowiedzi twierdzących, co oznacza, że tylu specjalistów uważa, iż człowiek znacząco przyczynił się do wzrostu temperatury. Można również zauważyć, że im bardziej dana osoba specjalizowała się w badaniach nad klimatem, tym większą miała pewność zarówno co do wzrostu średniej temperatury, jak i do roli odgrywanej przez człowieka. Na przykład wśród klimatologów, którzy w ciągu ostatnich 5 lat opublikowali ponad 50% prac na temat zmian klimatycznych (takich osób było 79), aż 96,2% odpowiedziało "wzrosły" na pytanie pierwsze, a 97,4% uznało, że człowiek do zmian się przyczynił. Z kolei najbardziej sceptyczni byli geolodzy specjalizujący się w badaniu złóż paliw kopalnych oraz meteorolodzy. W udział człowieka w zmiany klimatu wierzy, odpowiedznio, 47% i 64% z nich. Opinia specjalistów rozmija się tutaj znacznie z opinią przeciętnego człowieka. Z badań Gallupa wynika bowiem, że tylko 58% ogółu obywateli uważa, że człowiek przyczynia się do zmian klimatycznych.
×
×
  • Dodaj nową pozycję...