Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37654
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    249

Zawartość dodana przez KopalniaWiedzy.pl

  1. W ziemskiej historii stężenie tlenu w atmosferze wahało się - bywało ono i niższe i wyższe niż obecne 21 procent. Do tej pory niewiele było badań nad wpływem stężenia tlenu na formy życia, dlatego badanie współczesnych owadów pod tym kątem przyniosło wiele ciekawych odkryć. Dotychczasowe teorie sugerowały, że prehistoryczne, olbrzymie ważki mogły osiągać swoje rozmiary - do 70 centymetrów rozpiętości skrzydeł - właśnie dzięki wysokiej zawartości tlenu w powietrzu. Zweryfikować to zdanie zdecydował się profesor John van den Brooks z Arizona State University w Tempe. Przystąpił do eksperymentu mającego sprawdzić poziom zawartości tlenu w powietrzu na rozwój szeregu owadów, nie tylko ważek, ale między innymi również karaluchów, żuków, koników polnych i mączników młynarków. Wszystkie podzielono na wiele grup, które przez kilka pokoleń przebywały w warunkach różnego stężenia tlenu, od 12% (najniższe stężenie, jakie znamy z przeszłości ziemi), przez obecne 21% do 31% (najwyższe, jakie znamy). Przykładowo najłatwiejsze w hodowli karaluchy podzielona na aż 7 grup, trudne w utrzymaniu ważki (których ręcznym karmieniem zajmowało się aż kilku studentów) na jedynie trzy. Spośród dwunastu różnych gatunków owadów aż dziesięć faktycznie malało wskutek hipooksji (zaniżonej ilości tlenu w tkankach, żyjąc w atmosferze ubogiej w tlen, zgodnie z założonym modelem. Hiperoksja (zwiększone stężenie tlenu w tkankach) w atmosferze bogatej w tlen powodowało jednak mniej przewidywalne wyniki. Ważki rzeczywiście rosły do znacznie większych rozmiarów, potwierdzając wstępne założenie. Karaluchy jednak, wbrew intuicji, malały. Ponadto ich rozwój spowolnił się aż dwukrotnie. W poszukiwaniu mechanizmu, który łączy poziom tlenu z rozmiarem osobników postanowiono się przyjrzeć przetchlinkom, czyli aparatowi oddechowemu owadów. Wyhodowane w różnych warunkach osobniki karalucha poddano badaniu w synchrotronie rentgenowskim w Argonne National Lab. Okazało się, że bogata w tlen atmosfera powoduje zmniejszenie się rozmiaru przetchlinek, „oszczędzoną" zaś w ten sposób energię karaluchy inwestują w rozwój innych funkcji życiowych, na przykład rozmnażania. Następnym etapem studiów będzie analiza aparatów oddechowych owadów zachowanych w pokładach bursztynu. Docelowo prof. van den Brooks zamierza wykorzystać analizę przetchlinek skamieniałości owadów jako znacznik poziomu tlenu w atmosferze dawnych epok.
  2. Intel otworzył swoją największą fabrykę testowania i pakowania układów scalonych. Zakład wybudowany kosztem miliarda dolarów powstał w Wietnamie. Ma on powierzchnię 46 000 metrów kwadratowych. Tego typu fabryki stanowią końcowe ogniwo łańcucha produkcji układów scalonych. Wietnamska fabryka, w przeciwieństwie do otwartego niedawno w Chinach zakładu produkcyjnego, powstanie którego kosztowało Intela 2,5 miliarda USD, nie będzie wytwarzała kości. Intel oświadczył, że wybrał Wietnam ze względu na dostęp do doświadczonych dobrych pracowników oraz ze względu na pomoc, którą w ciągu ostatnich czterech lat otrzymał od wietnamskiego rządu. Plany budowy zakładu ogłoszono w 2006 roku, a prace konstrukcyjne rozpoczęły się w marcu 2007.
  3. Naukowcy zdobyli dowody na zwiększanie się temperatury wód Morza Baffina. Ten arktyczny akwen zbadano za pomocą termometrów przyczepionych do ciał narwali. Dotychczas nie wiedzieliśmy praktycznie niczego na temat zim na Morzu Baffina. A tymczasem przepływ wód wokół Grenlandii jest przedmiotem intensywnych badań - mówi Mike Steele z University of Washington. Narwale po raz pierwszy zostały użyte w roli środków transportu dla termometrów. Badania z ich wykorzystaniem były tym ważniejsze, że dostarczyły informacji o bardzo słabo poznanym Morzu Baffina. Tym bardziej, że informacje te zbierano w zimie, gdy akwen zamarza. Narwale dostarczyły danych o temperaturach wody pod lodem. Zwykle badania takie są wykonywane przez ludzi, którzy zanurzają sondy w wodach. Morze Baffina jest tak niegościnne, że w zimie go szczegółowo nie badano. Jak stwierdził Steele, stanowiło ono "gigantyczna wstydliwą dziurę" w systemie danych na temat wód płynących w okolicach Grenlandii. Wcześniej pomiary w tym regionie ograniczyły się do nielicznych działań w kilku miejscowościach na wybrzeżach Morza, które dzieli odległość od 110 do 650 kilometrów. To pozwoliło w przybliżeniu oszacować zimowe temperatury wód południowych regionów Morza Baffina na 3,3 stopnia Celsjusza. W roku 2006 biolog morski Kristin Laidre zaproponowała, by latem schwytać kilka narwali i wyposażyć je w instrumenty pomiarowe. Przez kolejne trzy zimy naukowcy śledzili za pomocą satelity 14 zwierząt. Badania wykazały, że średnie zimowe temperatury wód są o 0,9 stopnia Celsjusza wyższe, niż szacowano z dotychczasowych danych. Ponadto ustalono także, że wody w miesiącach letnich stają się coraz cieplejsze. Przed uczonymi jeszcze sporo pracy. Przede wszystkim podkreślają, że instrumenty przymocowane do ciał narwali nie są tak precyzyjne, jak te, których zwykle używają oceanografowie. Ponadto konieczne jest też uzyskanie danych dotyczących zasolenia wód, co pozwoli poznać całościowy obraz sytuacji.
  4. Po chemioterapii u wielu osób dochodzi do remisji, jednak w pewnych sytuacjach choroba nawraca, w dodatku często guzy są oporne na leki, które wcześniej działały. Teraz naukowcy z MIT-u zademonstrowali na myszach z chłoniakami, że część komórek nowotworowych ukrywa się w grasicy, gdzie przed działaniem leków zabezpieczają je czynniki wzrostu (cytokiny). Prof. Michael Hemann uważa, że to właśnie ci uciekinierzy odpowiadają za nawroty choroby. Amerykanie planują eksperymenty, podczas których wypróbowano by leki zaburzające działanie ochronnych czynników. Pierwotnie opracowano je do walki z zapaleniem stawów i obecnie trwają testy kliniczne oceniające ich przydatność w terapii tej grupy schorzeń. Specjaliści z MIT-u mają nadzieję, że gdy lek ten zastosuje się razem z chemią, zostaną wyeliminowane wszystkie komórki nowotworowe, także te, którym dotąd udawało się umknąć. Zespół, w skład którego poza Hemannem wchodził także Luke Gilbert, podawał myszom cytostatyk doksorubicynę. Ustalono, że w czasie leczenia komórki nabłonka naczyń krwionośnych wydzielały cytokiny. Nie wiadomo, czemu się tak dzieje, ale naukowcy przypuszczają, że chemioterapia prowadzi do uszkodzenia DNA, przez co komórki wyściełające naczynia angażują się w reakcję stresową, która w zwykłych okolicznościach ma zabezpieczać komórki progenitorowe (przypominają one komórki macierzyste, tyle że przekształcają się wyłącznie w jeden lub kilka rodzajów dojrzałych komórek). Reakcja stresowa obejmuje wydzielanie cytokin, m.in. interleukiny-6 (IL-6). Ma ona pomóc komórce przetrwać. W odpowiedzi na stres środowiskowy uruchamia się wbudowana reakcja chronienia uprzywilejowanych komórek w danym rejonie, np. progenitorowych. Pod wpływem stosowanych terapii onkologicznych komórki rakowe zapożyczają te szlaki [dostosowując je do własnych potrzeb] – wyjaśnia Hemann. Akademicy po raz pierwszy zaobserwowali ochronne sygnały wywołane przez chemioterapię w tzw. mikrootoczeniu guza. Komentując doniesienia z MIT-u, David Straus, specjalizujący się w chłoniakach lekarz z Memorial Sloan-Kettering Cancer Center, uważa, że to bardzo interesujący model lekooporności – całkiem inny od tego, jaki się zwykle przedstawia. Teraz pozostaje sprawdzić, czy wyniki badań na myszach przekładają się na ludzi. Wydaje się, że nowy model leczenia powinien uzupełnić chemioterapię o substancje oddziałujące na IL-6 lub białko Bcl2, które jest aktywowane przez interleukinę-6 i powiadamia komórkę, by nie inicjowała procesów apoptycznych. Hemann i inni podejrzewają, że komórki nowotworowe ukrywają się nie tylko w grasicy, ale także w innych miejscach, np. szpiku kostnym. Wyniki są, wg nich, zaskakujące, ale spójne z wiedzą nt. utrzymywania homeostazy narządów.
  5. Niewielka firma SunHydro otworzyła pierwszą w USA w pełni komercyjną prywatną stację, na której można tankować wodór do pojazdów z ogniwami paliwowymi. Stacja znajduje się w Wallingford w stanie Connecticut i produkuje wodór na miejscu. Używa do tego baterii słonecznych, które zapewniają energię elektryczną potrzebną do pozyskania wodoru z wody za pomocą hydrolizy. Wykorzystywana jest przy tym technologia firmy-matki SunHydro, Proton Energy Systems. W USA istnieje obecnie 70 stacji napełniania pojazdów wodorem, jednak część z nich nie działa, a pozostałe służą tylko urzędnikom lub naukowcom. SunHydro otworzyło pierwszą stację dostępną dla każdego chętnego. Przedstawiciele Proton Energy Systems mówią, że paliwo będzie sprzedawane na kilogramy, a nie na galony. Do zatankowania SUV-a wielkości Toyoty Highlandera potrzebne będzie 4-5 kilogramów wodoru, co pozwoli mu przejechać około 640 kilometrów. Koszt tankowania to około 60 dolarów, a więc jest podobny do tankowania samochodu na tradycyjne paliwo. Stacja wykorzystuje panele słoneczne o łącznej mocy 75 kilowatów. Wodór pozyskiwany jest z dejonizowanej wody za pomocą membrany protonowej, która przepuszcza protony, ale zatrzymuje wodór. Następnie wodór jest kompresowany i przechowywany w 4 zbiornikach o długości 6 metrów każdy. Ciśnienie wodoru na wyjściu wynosi 69 000 kilopaskali. SunHydro już planuje otwarcie kolejnych dziewięciu stacji wzdłuż wschodniego wybrzeża USA. Przedstawiciele firmy nie wykluczają też powstania przenośnej stacji tankowania wodorem. Taki system miałby długość 12 metrów, szerokość 2,4 metra i byłby w stanie obsłużyć około 10 samochodów dziennie. Jego cena to od 100 do 200 tysięcy dolarów. SunHydro współpracuje z Toyotą. Na podstawie umowy pomiędzy obiema firmami, japoński producent dostarczył do Wallingford 10 samochodów napędzanych wodorem. Craig Scott, przedstawiciel Toyota Motor wyjaśnia, że tego typu pojazdy nie są jeszcze na sprzedaż. "Zwiększyliśmy ich liczbę z 2 w 2001 roku do około 105 obecnie" - mówi. Kilka koncernów samochodowych prowadzi obecnie pilotażowe programy pojazdów na wodór, jednak większość z nich zamierza rozpocząć sprzedaż tego typu pojazdów dopiero w roku 2015.
  6. Astronomowie z National Radio Astronomy Obserwatory (NRAO) odkryli najcięższą ze znanych nam gwiazd neutronowych. Ta gwiazda jest dwukrotnie cięższa od Słońca. To zaskakujące, ale taka masa oznacza, że pewne teoretyczne modele budowy gwiazd neutronowych są nieprawdziwe - powiedział Paul Demorest z NRAO. Odkrycie tak masywnej gwiazdy ma również znaczenie dla fizyki jądrowej oraz naszego rozumienia tego, co dzieje się z materią poddaną gigantycznemu ciśnieniu. Gwiazdy neutronowe powstają po eksplozji supernowej. Tworząca je materia zostanie ściśnięta w kuli o średnicy kilku lub kilkunastu kilometrów. Ciśnienie jest tak wielkie, że protony i elektrony zostają zmiażdżone stając się neutronami. Uczeni badali pulsar PSR J1614-2230 i obiegającego go białego karła, które znajdują się w odległości 3000 lat świetlnych od Ziemi. Pulsar kręci się z prędkością 317 obrotów na sekundę, a biały karzeł obiega go w ciągu dziewięciu dni. Orientacja obu obiektów wobec naszej planety umożliwiła zmierzenie masy pulsaru. Gdy biały karzeł znajduje się dokładnie pomiędzy Ziemią a PSR J1614-2230, światło pulsaru przechodzi bardzo blisko niego, przez co dochodzi do efektu zwanego opóźnieniem Shapiro, czyli opóźnienia dotarcia światła do obserwatora, spowodowanego oddziaływaniem grawitacyjnym obiektu, koło którego przechodzi. "Mieliśmy olbrzymie szczęście z tym systemem. Szybko wirujący pulsar wysyła sygnał, który możemy odbierać, a orbita jest niemal idealna do pomiaru. Ponadto towarzyszący mu biały karzeł jest bardzo masywny jak na gwiazdę tego typu. To wywołuje silne opóźnienie Shapiro, które dzięki temu jest łatwiejsze do zmierzenia" - mówi Scott Ransom z NRAO. Uczeni spodziewali się, że pulsar będzie miał około 1,5 masy Słońca. Okazało się jednak, że jest dwukrotnie cięższy od naszej gwiazdy. To wskazuje, że teorie mówiące, że w skład gwiazd neutronowych - obok neutronów - wchodzą też np. kondensaty kaonów czy hiperony są nieprawdziwe. Wyniki badań opisano w Nature, a w piśmie Astrophysical Journal Letters ukazał się artykuł, w którym omówiono dalsze implikacje odkrycia. Czytamy w nim, m.in., że "pomiary takie wskazują, że jeśli w rdzeniu gwiazdy neutronowej znajdują się jakiekolwiek kwarki, to nie mogą być one 'wolne', ale muszą wchodzić w silne interakcje pomiędzy sobą, tak jak to ma miejsce w normalnym jądrze atomowym". Zmierzenie masy PSR J1614-2230 zawęża liczbę teorii nt. gwiazd neutronowych. Jednocześnie czyni bardziej prawdopodobną teorię wyjaśniającą powstawanie pewnego typu rozbłysków gamma. Teoria ta mówi, że są one wywoływane zderzeniami gwiazd neutronowych. Jeśli obiekty te mogą być tak masywne jak wspomniany powyżej pulsar, to rzeczywiście teoria taka może być prawdziwa. Jednocześnie istnieją przypuszczenia, że takie kolizje mogłyby powodować powstawanie fal grawitacyjnych, których usilnie poszukują liczne laboratoria z USA i Europy.
  7. Począwszy od maja zeszłego roku, populację małp titi z California National Primate Research Center (CNPRC) Uniwersytetu Kalifornijskiego w Davis atakował nieznany dotąd wirus. Z 24 zarażonych ssaków 19 zmarło, mimo że objęto je intensywną opieką medyczną. Zainfekował się także ich opiekun, u którego przez kilka tygodni utrzymywały się gorączka, suchy kaszel i bóle w klatce piersiowej. O incydencie opowiedziano w ubiegły piątek (22 października) na konferencji Amerykańskiego Stowarzyszenia Chorób Zakaźnych w Vancouver. Badacz wyzdrowiał i wygląda na to, że nikt poza nim się nie zaraził – zapewnia Nicholas Lerche, główny weterynarz i zastępca dyrektora CNPRC. Lerche ujawnił, że naukowca przebadano pod kątem obecności przeciwciał przeciwko małpiemu wirusowi. Testy dały pozytywny wynik. Wirusa nie wykryto u żadnego innego pracownika Centrum ani wśród krewnych zarażonego. Specjaliści z Uniwersytetu Kalifornijskiego w San Francisco ustalili, że jest to adenowirus. Wedle naszej wiedzy, to pierwszy przypadek międzygatunkowej infekcji adenowirusem – podkreślał podczas wystąpienia Charles Chiu. Prowadzone są dalsze badania, czy to małpy zaraziły człowieka, czy też raczej człowiek małpy. Władze Uniwersytetu Kalifornijskiego w Davis zapewniają, że o niczym nie wiedziały i o całym zdarzeniu dowiedziały się z mediów. Jako pierwsza informację podała Jenifer Goodwin, reporterka HealthDay. Titi biorą udział w badaniach dotyczących zachowania. Kiedy prowadzone są studia związane z chorobami zakaźnymi, obowiązują o wiele wyższe standardy bezpieczeństwa. Lerche tłumaczy, że ludzie i naczelne są blisko spokrewnieni i dzielą ze sobą wiele patogenów. W połowie lat 80. ludzie zarazili małpy z Centrum w Davis odrą, a jak wiadomo, korzeni AIDS należy z kolei poszukiwać wśród naczelnych, podobnie zresztą jak gorączki krwotocznej. Christian Sandrock z Uniwersytetu Kalifornijskiego w Davis rozumie, jak badacz wchodzący w bliski kontakt z titi zaraził się adenowirusem, ale uważa, że jest on tak słabo przystosowany do ludzi, że prawdopodobieństwo zainfekowania innych osób jest bardzo niskie. Z kolei Greg Gray z Uniwersytetu Florydzkiego, który bada pracowników kontaktujących się z indykami, psami i innymi zwierzętami, by sprawdzić, jakie wirusy są przenoszone na ludzi, wspomina, że ponad 70% patogenów pojawiających się w ubiegłych latach pochodzi właśnie od zwierząt.
  8. Japońska publiczna telewizja NHK ma zamiar wkrótce zaprezentować system telewizyjny Ultra High Definition (UHDTV). Rozpoczęcie próbnego nadawania sygnału w tym systemie przewiduje się na rok 2020. Obraz UHDTV zawiera niemal 16-krotnie więcej informacji niż obecnie stosowany HDTV. Jego rozdzielczość wynosi aż 7680x4320 pikseli. NHK zaprezentowało już kamerę, która używa trzech czujników CMOS o rozdzielczości 33 milionów pikseli każdy. Na jej potrzeby powstały nie tylko czujniki, ale też specjalne soczewki oraz układ korygujący aberracje chromatyczne w czasie rzeczywistym.
  9. Odszkodowania ze strony pracodawcy za nieszczęśliwe wypadki, zaniedbania czy utratę zdrowia przez pracownika to rzecz dość powszechna. Dlaczego by zatem nie pozwać sieci restauracyjnej za przybranie na wadze podczas wykonywania pracy? Tak właśnie zrobił Brazylijczyk, którego tożsamości nie ujawniono. Przez kilkanaście lat pracy na stanowisku szefa w restauracji sieci MacDonald's przytył trzydzieści kilogramów, co, jak mówi, odbiło się na jego zdrowiu. Winą za przybranie na wadze obarcza politykę sieci, która oferuje pracownikom darmowe lunche, ponadto sprawdza jakość usług podległych lokali poprzez podstawianych klientów-kontrolerów, Brazylijczyk, jako szef, czuł się więc zobowiązany do osobistej degustacji wszystkich dań, żeby czuwać nad ich jakością. Wczoraj sąd w Porto Alegre, pod przewodnictwem sędziego Joao Ghisleni Filho, przyznał powodowi rację i przyznał mu jednorazowe odszkodowanie w wysokości 17,5 tysiąca dolarów USA. Sieci MacDonald's przysługuje jeszcze prawo do odwołania od wyroku i - jak stwierdza oficjalne stanowisko głównego szefostwa firmy w USA - „rozważają taką możliwość". Oficjalne oświadczenie przypomina, że sieciowe restauracje oferują „szeroki wybór opcji i zbalansowane menu, które można dopasować do dietetycznych potrzeb pracowników" i że dostępna jest u nich również zdrowa żywność. To chyba pierwszy przypadek pozwania pracodawcy z powodu darmowych posiłków i chciałoby się rzecz „takie rzeczy to tylko w Brazylii". Wątpliwe jest, żeby firma przyjęła ten wyrok bez walki, bo wystarczy pomyśleć, co by się stało, gdyby orzeczenie brazylijskiego sądu spowodowało globalną lawinę roszczeń ze strony aktualnych i byłych pracowników, którym „się utyło".
  10. Oliwa extra vergine (z pierwszego tłoczenia na zimno) chroni wątrobę. Gdy podczas eksperymentu szczurom podano umiarkowanie toksyczny herbicyd, który zmniejsza ilość przeciwutleniaczy, prowadząc do stresu oksydacyjnego, osobniki na diecie uwzględniającej oliwę były częściowo zabezpieczone przed uszkodzeniem wątroby. Mohamed Hammami z Uniwersytetu w Monastyrze i Uniwersytetu Króla Sauda w Rijadzie uwzględnił w swoich badaniach grupę 80 szczurów. Naukowiec cieszy się, że do długiej listy prozdrowotnych oddziaływań oliwy – m.in. zmniejszania ryzyka chorób układu sercowo-naczyniowego czy niektórych nowotworów – można dopisać także ochronę tkanki wątroby przed powodowanym przez reaktywne formy tlenu uszkodzeniem oksydacyjnym. Zespół Hammamiego wyodrębnił 7 grup: kontrolną na diecie oliwnej i sześć eksperymentalnych, stykających się z herbicydem kwasem 2,4-dichlorofenoksyoctowym (niektórym grupom podawano "pełną" oliwę lub jedną z jej frakcji – hydrofilową albo lipofilową, a niektórym nie). U wszystkich gryzoni, które zetknęły się z trującym środkiem, doszło do znacznego uszkodzenia wątroby. Okazało się jednak, że oliwa i jej frakcja hydrofilowa w dużym stopniu nasilały aktywność enzymów przeciwutleniających, ograniczając wskaźniki uszkodzenia wątroby.
  11. Motorola, która jeszcze kilka lat temu przeżywała olbrzymie problemy, teraz poinformowała o zanotowaniu pierwszego od trzech lat kwartału, w którym jej wydział odpowiedzialny za produkcję urządzeń przenośnych przyniósł zysk. To tym bardziej zaskakujące, że sama firma twierdziła, iż nie spodziewa się zysków przed rokiem 2011. Do finansowego sukcesu Motoroli przyczyniła się świetna sprzedaż smartfonów z systemem Android. Dzięki temu w trzecim kwartale bieżącego roku zysk operacyjny wydziału urządzeń mobilnych wyniósł 3 miliony dolarów. Rok wcześniej zanotował on stratę w wysokości 183 milionów USD. Całkowity zysk Motoroli w trzecim kwartale to 109 milionów USD. Z kolei w trzecim kwartale 2009 roku było to zaledwie 12 milionów dolarów, co jasno wskazuje, jak katastrofalny wpływ na firmę miały złe wyniki wydziału urządzeń mobilnych. Całkowite wpływy wzrosły o 6% i zamknęły się kwotą 5,8 miliarda USD.
  12. Glukozamina, organiczny związek chemiczny, który stosuje się pomocniczo przy leczeniu choroby zwyrodnieniowej stawów, prowadzi przy długotrwałym stosowaniu lub zażywaniu wysokich dawek do śmierci komórek trzustki. Zwiększa to ryzyko rozwoju cukrzycy (Journal of Endocrinology). Prof. Frédéric Picard z Université Laval wykazał, że ekspozycja na działanie glukozaminy znacząco nasila śmiertelność komórek beta wysp Langerhansa trzustki. Wskaźnik śmiertelności wzrasta z dawką i czasem ekspozycji. W naszych eksperymentach stosowaliśmy dawki 5-10-krotnie przewyższające dozy zalecane przez większość producentów, czyli 1500 mg dziennie. Wcześniejsze badania wykazały, że znaczna liczba osób zażywających glukozaminę zwiększa dawkę, by uzyskać lepsze efekty – wyjaśnia Picard. Kanadyjczycy zauważyli, że glukozamina uruchamia mechanizm służący do obniżania wysokiego poziomu cukru we krwi. Niestety, reakcja ta zmniejsza także stężenie SIRT1, białka koniecznego dla przeżycia komórki, prowadząc do śmierci komórek w tkankach, gdzie zwykle występuje dużo sirtuiny 1, czyli np. w trzustce (SIRT1 przeprowadza m.in. deacetylację białka p53, chroniąc komórki przed śmiercią apoptyczną zależną od p53. Występuje w jądrze, bierze udział w procesach zapalnych i metabolicznych - reguluje choćby wydzielanie insuliny w komórkach beta trzustki oraz pośrednio szlaki glukoneogenezy i glikolizy w wątrobie). Najbardziej zagrożone cukrzycą wydają się zatem osoby zażywające glukozaminę w dużych ilościach lub przez długi czas oraz pacjenci z niskim poziomem SIRT1. U wielu gatunków ssaków z wiekiem spada poziom SIRT1. Co prawda dotąd nie natrafiono na ślad tego zjawiska u ludzi, ale gdyby w naszym przypadku też się tak działo, starsi ludzie, którzy przecież częściej cierpią na chorobę zwyrodnieniową stawów i zażywają w związku z tym glukozaminę, byliby jeszcze bardziej narażeni na wymieranie komórek trzustki. Jak widać, glukozamina może szkodzić, o czym warto pamiętać, zważywszy, że we wrześniu tego roku zespół prof. Petera Jüniego z Uniwersytetu w Bernie opublikował w British Medical Journal artykuł, z którego wynika, że w porównaniu do placebo, glukozamina i chondroityna wcale nie zmniejszają skuteczniej bólu stawów.
  13. Chiny informują o zbudowaniu najpotężniejszego superkomputera na świecie. Wydajność maszyny Tianhe-1A wynosi ponad 2,5 petaflopsa. PFlops to biliard (1015) operacji zmiennoprzecinkowych na sekundę. Wiadomo, że superkomputer wykorzystuje 7000 procesorów graficznych oraz 14 000 CPU Intela. Twierdzenia o wydajności maszyny zostały zweryfikowane przez organizację TOP500, która co pół roku publikuje listę najbardziej wydajnych komputerów na świecie. Najbliższe wydanie listy ukaże się już w przyszłym miesiącu i wszystko wskazuje na to, że USA po raz pierwszy od lat stracą pozycję lidera listy TOP500. Najbliższym konkurentem Tianhe-1A (Droga Mleczna) będzie prawdopodobnie XT5 Jaguar z Oak Ridge National Laboratory, którego wydajność wynosi "zaledwie" 1,75 PFlops. Profesor Jack Dongarra z University of Tennessee, jeden z naukowców, którzy pracują nad listą TOP500 potwierdza powyższe doniesienia. "To wszystko prawda. W ubiegłym tygodniu byłem w Chinach, rozmawiałem z jego twórcami, widziałem system i potwierdziłem uzyskane wyniki. Jest o o 47% szybszy od maszyny z ORNL" - stwierdzil Dongarra. Chiński superkomputer waży ponad 155 ton.
  14. Obecnie wykorzystuje się dwa sposoby pozyskiwania energii słonecznej. Jeden zakłada wykorzystanie ogniw fotowoltaicznych, które zamieniają ją w energię elektryczną, a drugi polega na podgrzaniu wody i albo uzyskaniu pary do obracania turbiny wytwarzającej elektryczność, albo użycia jej do ogrzewania budynków. Znana jest też teoretycznie metoda termochemiczna, jednak od kilkudziesięciu lat nikt nie potrafi jej wykorzystać. Zakłada ona przechwytywanie i przechowywanie energii w molekułach, które miałyby ją uwalniać na żądanie. Ma ona dwie kolosalne zalety; nie wymaga stosowania izolacji zapobiegającej niekontrolowanemu uwalnianiu się ciepła i pozwala przechowywać energię przez lata. Intensywne badania nad metodą termochemiczną prowadzono w latach 70. ubiegłego wieku, jednak nie potrafiono wówczas znaleźć cząsteczki, która pod wpływem światła słonecznego przełączałaby się w jeden stan i umożliwiałaby jego kontrolowane przełączenie do stanu pierwotnego, połączone z uwolnieniem przechowywanej energii. Dopiero w roku 1996 udało się znaleźć odpowiednią molekułę - fulwalen dirutenu. Niestety, zawierała ona rzadki i drogi ruten, nie nadawała się więc do powszechnego użycia. Ponadto nikt nie rozumiał, w jaki sposób działa, co z kolei uniemożliwiło znalezienie jej tańszego odpowiednika. Dopiero teraz naukowcom z MIT-u udało się odkryć zasadę działania wspomnianej cząstki. Dzięki temu możliwe będzie znalezienie jej tańszego zamiennika. Dotychczas wiedziano, że molekuła, pod wpływem światła słonecznego, przechodzi zmianę strukturalną i wchodzi na wyższy stan energetyczny, na którym może pozostać dowolnie długo. Pod wpływem ciepła lub katalizatora powraca do stanu pierwotnego, uwalniając energię cieplną. Uczeni z MIT-u dowiedzieli się obecnie, że istnieje też stan pośredni, który odgrywa zasadniczą rolę w całym procesie. Molekuła znajduje się w tym półstabilnym stanie podczas przejścia między oboma stanami stabilnymi. Tego się nie spodziewaliśmy - mówi profesor Jeffrey Grossman. Istnienie stanu przejściowego wyjaśnia, dlaczego molekuła jest tak bardzo stabilna, dlaczego cały proces jest odwracalny i dlaczego dotychczas nie udało się znaleźć zastępnika dla niej. Profesor Grossman dodaje, że gdyby wyprodukować z fulwalenu dirutenu paliwo do baterii przechowujących energię słońca, to mogłoby ono generować temperaturę nawet 200 stopni Celsjusza. To wystarczyłoby do ogrzania domów czy napędzenia silników elektrycznych. Grossman jest przekonany, że po przeprowadzeniu symulacji, badań i przejrzeniu bazy danych z dziesiątkami milionów molekuł uda się znaleźć tani zastępnik dla fulwalenu dirutenu. Przed naukowcami stoją jeszcze dwa najważniejsze zadania. Pierwsze, to opracowanie taniej metody syntetyzowania cząstki, która będzie miała takie właściwości jak fulwalen dirutenu oraz znalezienie katalizatora dla niej. Aby odpowiedzieć na te pytania Grossman chce nawiązać współpracę z Danielem Nocerą, o którego przełomowych badaniach informowaliśmy przed dwoma laty.
  15. W reakcji na narastający problem otyłości i nadwagi wśród młodzieży w krajach rozwiniętych, pojawiło się wiele inicjatyw, w wielu państwach szkoły nałożyły restrykcje na niezdrową, zbyt tuczącą żywność. Badania pokazują, że przynosi to pierwsze efekty w postaci redukcji wagi uczniów. Sprawdzeniem, jak zmiana szkolnej polityku żywnościowej wpływa na zdrowie uczniów zajęli się naukowcy z University of Nebraska-Lincoln: Patricia Kennedy i Mary McGarvey oraz Bree Dority, z University of Nebraska w Kearney. Do badania wytypowano osiem szkół z terenów środokowo-zachodnich stanów USA w których jakiś czas temu zmieniono zasady żywieniowe. Przy pomocy ankiet odpytano uczniów w wieku około 13 i 18 lat, a także ich rodziców oraz administrację szkoły. Okazało się, że jedna tylko zmiana - wyeliminowanie tuczących i śmieciowych potraw z serwowanych na szkolnej stołówce posiłków - powoduje spadek otyłości i nadwagi o 18%. W skali 30 milionów uczniów jadających co dzień szkolne obiady i prawie 10 milionów spożywających tam również śniadania, to potencjalnie olbrzymia rzesza nastolatków uchronionych przed kłopotami zdrowotnymi. Autorki studium podkreślają, że zmiana polityki, wymuszona dekretem amerykańskiego Departamentu Rolnictwa nie obejmuje jedzenia sprzedawanego w szkolnych kioskach, automatach, czy okolicznych sklepach. Ograniczenie również tego źródła coli, czipsów, ciastek i batonów z pewnością dałoby znacznie lepsze wyniki. Obecnie sprzedawcy z rozmysłem przyzwyczajają młodzież do śmieciowego jedzenia, daje im to bowiem gigantyczne zyski.
  16. Obecność komputerów w każdej dziedzinie życia nie powinna już zaskakiwać, ale w technologii żywności? Specjalne oprogramowanie TagFinder pomoże firmie Metabolomic Discoveries GmbH ulepszać produkty żywnościowe. TagFinder jest dziełem niemieckich naukowców z Max Planck Institute for Molecular Plant Physiology w Golm. Zarządzająca wynalazkami organizacja Max Planck Innovation GmbH udzieliła licencji na jego wykorzystywanie dostawcy usług badawczych w dziedzinie biochemii, firmie Metabolomic Discoveries GmbH. Do czego może przydać się taki program, czy szerzej - dziedzina zwana bioinformatyką? Podczas wytwarzania żywności (a wlicza się tu również uprawę roślin, czy hodowlę zwierząt) oraz jej przetwarzania istotne i cenne są dokładne dane na temat jej składu: białek, witamin, hormonów, cukrów, aminokwasów i wszystkiego, co odpowiada za smak, zapach i wartości odżywcze. Tradycyjne metody pozwalają na oznaczenie zawartości zaledwie kilku składników w pojedynczej próbce. W celu polepszenia jakości potrzebne są bardziej kompletne dane. Takie badania są możliwe właśnie między innymi dzięki odpowiednim technikom badawczym oraz oprogramowaniu, które potrafi zinterpretować wyniki. W tym celu w wielostopniowym procesie produkty metabolizmu są akumulowane, a następnie rozdzielane. Tak przygotowane próbki są analizowane przy pomocy bombardowania elektronami w spektrometrze masowym, a każda zawarta w nich substancja daje swoisty wzór rozpadu. Rozdzielenie nakładających się na siebie poszczególnych wzorów to właśnie zadanie dla komputera, a dokładnie dla programu TagFinder. Wyróżnione wzory są porównywane z bazą danych, pozwalając dokładnie określić skład biologiczny próbki żywności, w jednym badaniu oznaczane są już nie pojedyncze metabolity, ale ich setki. Proces ten przydaje się nie tylko dla określenia wartości odżywczej, zawartości witamin czy mikroelementów w żywności. Odnalezienie charakterystycznych bioznaczników pozwala szybko zidentyfikować na przykład oznaki chorób, czy zanieczyszczeń.
  17. Dwie osoby uczą się ze sobą współpracować intuicyjnie – bez komunikowania i bez świadomego zamiaru kooperacji. Większe grupy muszą ze sobą jednak rozmawiać (Cognitive Psychology). Prof. Andrew Colman i doktorzy Briony Pulford, David Omtzigt i Ali al-Nowaihi z University of Leicester przeprowadzili serię eksperymentów z grupami różnej wielkości. Dzięki temu udało się opracować matematyczny model procesu intuicyjnego uczenia. Uczestnicy zyskiwali lub tracili finansowo po naciśnięciu na komputerze jednego z dwóch guzików. Nie mieli przy tym pojęcia, że wynik nie zależał od ich własnego wyboru, lecz od wyboru sąsiada. Po wielu powtórzeniach zyski stopniowo przewyższały straty w grupach dwuosobowych, ale już nie trzy- i więcej osobowych. Oto prosty przykład obrazujący podstawową ideę. Codziennie rano Alf decyduje, czy dać synowi do pogryzania w ciągu dnia rodzynki, czy serowe paluszki. Podobnie Beth wybiera, czy dać swojej córce popcorn, czy orzeszki ziemne. Dzieci się ze sobą przyjaźnią i dzielą przekąskami w szkole, choć rodzice o tym nie wiedzą. Syn Alfa jest uczulony na orzeszki, a córka Beth na ser i źle się czuje, jeśli poczęstuje się serowymi paluszkami kolegi. Skutek jest taki, że choć wybór przekąskowy każdego z rodziców nie ma wpływu na samopoczucie własnego dziecka, w każdym przypadku jedna z opcji jest dobra dla drugiego dziecka i jego rodzica, podczas gdy druga alternatywa im szkodzi. Z czasem dochodzi do wzajemnego intuicyjnego dostosowania i wszystko przebiega gładko, dopóki nie wtrąci się ktoś trzeci. Wtedy bez skutecznego planowania i reguł się nie obejdzie. Małżeństwa lub pary partnerów biznesowych mogą do pewnego stopnia polegać na tym rodzaju intuicyjnej współpracy, ale większe grupy potrzebują jednoznacznej komunikacji i planowania. Intuicyjna współpraca jest domeną dwóch towarzyszy, ale trójka to już tłum – podsumowuje Colman.
  18. Oracle uzupełniło swój pozew przeciwko Google'owi o bardzo interesujące szczegóły. W oryginalnym pozwie, złożoym w sierpniu, nie podano zbyt wielu szczegółów. Dopiero teraz dowiadujemy się, że rzekome naruszenia dotyczą bibliotek klas, dokumentacji, "około jednej trzeciej pakietów API Androida", które pochodzą z "chronionych prawami autorskimi API Javy" oraz związanych z nimi dokumentów. Doszło do naruszeń "nazw metod i klas Javy, definicji, organizacji i parametrów, struktury organizacji i zawartości bibliotek klas oraz zawartości i organizacji dokumentacji Javy". Oracle stwierdza też, że "przynajmniej w kilkunastu przypadkach kod Androida został bezpośrednio skopiowany z chronionego kodu Javy". Oprócz naruszeń praw autorskich Oracle oskarża Google'a o naruszenie wielu patentow związanych z Javą.
  19. Jak pamiętamy Komisja Europejska zmusiła Microsoft, by użytkownikom Windows na terenie UE pokazywał się ekran wyboru przeglądarki. Zdaniem eurourzędników miało to zakończyć rynkową dominację Internet Explorera, wyrównać szanse konkurencyjnych przeglądarek i dać użytkownikom możliwość świadomego wyboru. Jednak, jak pokazują analizy przeprowadzone przez serwis Neowin, ekran wyboru nie wpłynął na sytuację rynkową i w Unii Europejskiej nie zaobserwowano trendów odbiegających od reszty świata. Neowin wykorzystał statystyki ze Statcounter.com, by sprawdzić, jak po pojawieniu się w lutym bieżącego roku ekranu wyboru zmieniała się pozycja przeglądarek w Europie i na świecie. Ze statystyk tych jasno wynika, że ekran wyboru nie wpłynął na rynkowe trendy. Pomiędzy styczniem a październikiem bieżącego roku rynkowe udziały Internet Explorera spadły w Europie o 5,25 punktu procentowego. Tymczasem średnia dla całego świata to spadek o 5,92 pp. W tym samym czasie udziały Firefoksa spadły na Starym Kontynencie o 1,23 punktu procentowego, a średnia dla świata to spadek o 0,41 pp. Znacząco wzrosły udziały Chrome'a, które w Europie zwiększyły się o 6,4 pp, a na świecie o 6,2 pp.
  20. Japońscy badacze twierdzą, że zielona herbata nie zabezpiecza przed rakiem piersi. W studium uwzględniono ok. 54 tys. kobiet i nie wykryto związku między piciem zielonej herbaty a ryzykiem zachorowania na nowotwory gruczołu sutkowego (Breast Cancer Research). Mimo że badania in vitro i na modelu zwierzęcym sugerowały, że zielona herbata może chronić przed rakiem piersi, wyniki ze studiów z udziałem ludzi były nierozstrzygające. Nasze zakrojone na dużą skalę podłużne badania populacyjne jako pierwsze uwzględniły tak szeroki zakres dawek – od kobiet, które piły mniej niż 1 kubek zielonej herbaty na tydzień po panie, które dziennie wypijały ich ponad 10. Nie natrafiliśmy na związek między spożyciem herbaty a ryzykiem wystąpienia nowotworu piersi – tłumaczy Motoki Iwasaki z Narodowego Centrum Nowotworów w Tokio. Spożycie herbaty oceniano za pomocą kwestionariusza. Miało to miejsce dwukrotnie: na początku eksperymentu i po upływie 5 lat. Częstość występowania nowotworów szacowano na podstawie danych z głównych szpitali na badanym obszarze i informacji z rejestrów onkologicznych. Ustalono, że ok. 12% kobiet spożywało mniej niż jeden kubek zielonej herbaty na tydzień, podczas gdy 27% piło pięć lub więcej kubków naparu dziennie. Iwasaki uważa, że jego studium ma przewagę nad badaniami z grupą kontrolną, ponieważ dane zbierano przed zdiagnozowaniem u kogokolwiek nowotworu, unikając w ten sposób specyficznych odchyleń w przypominaniu zdarzeń/zachowań. Niestety, okazało się, że ani rodzaj zielonej herbaty, ani liczba wypijanych kubków nie modyfikowały ryzyka wystąpienia raka piersi.
  21. Ze zmianami klimatycznymi można próbować walczyć na wiele sposobów, mało kto pomyślałby jednak o spożytkowaniu skorupek jaj. Tymczasem okazuje się, że zewnętrzna błona podskorupowa adsorbuje z atmosfery ilość dwutlenku węgla, która odpowiada niemal 7-krotności jej wagi. To rewelacyjny wynik, zważywszy że w październiku 2010 r. zawartość dwutlenku węgla w atmosferze wzrosła do 388 ppm (części na milion). Zespół Basaba Chaudhuriego z Uniwersytetu w Kalkucie przekonuje, że CO2 można by przechowywać w tej postaci do momentu wynalezienia opłacalnych energetycznie metod przekształcania dwutlenku węgla w czyste paliwo. Na tym zakres potencjalnych zastosowań się nie kończy, ponieważ już teraz dwutlenek węgla jest np. najczęściej stosowanym rozpuszczalnikiem nadkrytycznym w przemyśle spożywczym (czysty rozpuszczalnik znajduje się w stanie nadkrytycznym, gdy jego ciśnienie oraz temperatura przewyższają wartości krytyczne). Ekstrakcja nadkrytyczna z wykorzystaniem CO2 jest tak popularna ze względu na jego stosunkowo niskie parametry krytyczne, niepalność, nietoksyczność oraz niską cenę. Naukowcy z Kalkuty tłumaczą, że skorupę jaja pokrywa warstwa śluzu ochronnego – kutykula - która nie dopuszcza do wyschnięcia i zabezpiecza przed mikroorganizmami. Pod spodem znajdują się wapienna skorupka oraz zewnętrzna błona podskorupowa (pergaminowa), złożona z dwóch ściśle przylegających do siebie blaszek. Ma ona grubość ok. 100 mikrometrów. Na razie jej oddzielanie nie jest wydajnym procesem, ale warto o tym pomyśleć, bo w samych Indiach każdego roku zjada się 1,6 mln ton jajek. Chaudhuri i inni wykazali, że w roli separatora sprawdza się słaby kwas. Wg nich, by proces sprawdził się w skali przemysłowej, trzeba jednak uwzględnić oddzielanie mechaniczne.
  22. Nawet jeśli kobieta okazuje seksualne zainteresowanie lub odrzucenie w niepozostawiający wątpliwości sposób, młodzi mężczyźni bardzo różnią się pod względem zdolności do zapamiętywania istotnych wskazówek. Choć ogólnie idzie to panom dość dobrze, dwie grupy wyróżniają się na tym tle. Mężczyźni, którzy częściej pozostawali w poważniejszych związkach, wypadają szczególnie korzystnie, podczas gdy panowie zdobywający dużo punktów w teście na agresję seksualną zmagają się z największymi trudnościami. Podczas eksperymentu przeprowadzanego pod kierownictwem Teresy Treat z University of Iowa studenci oglądali zdjęcia rówieśnic. Okazało się, że wspomnienia były szczególnie wyraziste, jeśli kobieta z fotografii wyglądała atrakcyjnie, była ubrana bardziej prowokacyjnie i wyrażała zainteresowanie za pomocą zachęcającego wyrazu twarzy lub postawy ciała. W amerykańskim studium wzięło udział 232 mężczyzn w średnim wieku 19 lat. Przed przystąpieniem do właściwej części badania wypełniali oni kwestionariusze dotyczące historii związków i akceptacji dla agresywnych postaw seksualnych. Język ciała (zainteresowanie bądź jego brak), atrakcyjność i prowokacyjność ubioru modelek ze zdjęć, na których widać było całą sylwetkę, oceniali wcześniej sędziowie obojga płci. Krótko po obejrzeniu albumu badanym znowu pokazywano zestaw, tym razem znalazły się w nim jednak zarówno już oglądane zdjęcia, jak i fotografie tych samych kobiet, wyrażających dokładnie odwrotne wskazówki. Studentów poproszono o wskazanie zdjęć widzianych uprzednio. Choć studium sugeruje, że może istnieć związek między zapamiętywaniem kobiecego zainteresowania a pozytywnymi i negatywnymi doświadczeniami seksualnymi, długoterminowe znaczenie uzyskanych wyników zależy od tego, czy wspomnienia okażą się przyczyną określonych doświadczeń i od tego, czy opisywany związek utrzyma się w warunkach bardziej zbliżonych do życiowych (w kontakcie z żywą, reagującą kobietą, a nie zdjęciem).
  23. Na niedawnym seminarium na University of California w San Francisco znów rozgorzała dyskusja nad szkodliwością telefonii komórkowej. Dr Devra Davis, od dawna domagająca się ograniczeń dla używania komórek, wydała niedawno książkę na ten temat. Regularne, dzień po dniu i rok po roku, użytkowanie telefonów komórkowych jest poważnym zagrożeniem dla zdrowia, dowodzi doktor Davis w swojej publikacji oraz podczas seminarium. Wystawienie na źródło promieniowania mikrofalowego znajdujące się przy samej głowie może powodować - jej zdaniem - złośliwe nowotwory mózgu i tkanek nerwowych (nerwiaki), czy przyusznych gruczołów ślinowych. Komórki zmieniają przebieg fal mózgowych rejestrowanych elektroencefalogramem (EEG) i mogą powodować kłopoty z pamięcią, bezsenność oraz stany zapalne. Na zarzuty krytyków, że badania nie wykazały szkodliwego wpływu efektu cieplnego, oraz że przeprowadzono dokładne symulacje oparte na modelu ludzkiej głowy, Devra Davis odpowiada, że przyczyną szkodliwego wpływu nie jest efekt cieplny, a nawet niekoniecznie sam fakt występowania promieniowania radiowego, ale efekt pulsacyjny, zaś modele oparte były na głowie dorosłego mężczyzny, a telefonów używają również osoby mniejsze, w tym kobiety i dzieci. Innym punktem sporu jest postulowane przez nią uszkadzanie kodu DNA przez promieniowanie telefonów. Krytycy prostują, że promieniowanie mikrofalowe, w przeciwieństwie do promieniowania rentgenowskiego czy gamma nie są jonizujące, więc nie wpływają na wiązania chemiczne. Davies jednak upatruje zagrożenia nie w samej obecności promieniowania, lecz w tym, że w przypadku telefonów ma ono postać regularnych, powtarzalnych impulsów. Telefony komórkowe rzeczywiście regularnie łączą się ze stacjami bazowymi nawet, kiedy nie są używane. Na poparcie swoich słów doktor Davies prezentowała wyniki badań, że promieniowanie radiowe w rzeczywistości negatywnie wpływa na kod DNA. Podając jako przykład problematykę szkodliwości nikotyny i azbestu uważa, że żądanie wykazania konkretnego mechanizmu biologicznego jest bezzasadne i wystarczające do uznania szkodliwości powinny być badania epidemiologiczne połączone z zaproponowaniem wiarygodnego wyjaśnienia biologicznego. Przy obecnej powszechności telefonów komórkowych problemem jest wyznaczenie grupy kontrolnej osób, które telefonów nie używają. Walka z korporacyjnym spiskiem? Poglądy badaczki powszechnie uznawane są za kontrowersyjne. Ona sama przyznaje, że badania naukowe nie potwierdzają szkodliwości telefonów komórkowych; ale uważa, że to skutek finansowania ich przez korporacje telekomunikacyjne, a może nawet manipulowania i ukrywania niewygodnych faktów. Wspiera ją doktor Stanton Glantz, znany z kolei z walki o uznanie szkodliwych efektów biernego palenia tytoniu. Devra Davis, wcześniej kierująca Centrum Onkologii Środowiskowej (Center for Environmental Oncology) na University of Pittsburgh, opuściła uczelnię w 2007 i założyła fundację Environmental Health Trust. Uczona od lat zmaga się z - jak to określa - ukrywaniem niewygodnych faktów przez wielkie korporacje. Jej pierwsza książka, „When Smoke Ran Like Water: Tales of Environmental Deception and the Battle Against Pollution" zajmowała się szkodliwym, a pomijanym jej zdaniem, wpływem zanieczyszczenia środowiska. Najnowsza, „Disconnect: The Truth About Cell Phone Radiation, What the Industry has Done to Hide It, and How to Protect Your Family" zajmuje się właśnie niebezpieczeństwami, jakie ma powodować system telefonii komórkowej. Mimo braku dowodów, wiele państw (jak na przykład Francja) wprowadziło regulacje mające zminimalizować szkodliwe efekty promieniowania telefonów, jak zakaz reklamy telefonów skierowanej do dzieci, ostrzejsze normy środowiskowe, czy nakaz sprzedaży telefonów ze słuchawkami.
  24. Komety w dawnych czasach budziły grozę ludzi, którzy dopatrywali się w nich zwiastuna wojen i nieszczęść. Arystoteles na długie stulecia przekonał uczonych, że komety są jedynie wyziewami w ziemskiej atmosferze i dopiero Tycho Brahe dowiódł obliczeniami, że komety są obiektami pozaplanetarnymi. Dziś bada się komety bez uprzedzeń, nie cofając się nawet przed strzelaniem do nich przez sondy kosmiczne. W przyszłym tygodniu amerykańska misja kosmiczna EPOXI, prowadzona przez NASA i University od Maryland będzie badać zbliżającą się kometę 103P/Hartley (zwaną Hartley 2). Misja trwa już od 5 września i dostarczy najlepsze w historii obrazy komety przelatującej przez nasz system planetarny. 3 listopada sonda Deep Impact znajdzie się w bezpośrednim pobliżu ciała niebieskiego i przerwie transmisję, żeby wszystkie przyrządy pokładowe skierować na cel swojej misji. Rejestracja danych będzie trwała ponad 24 godzin, po tym czasie, nie przerywając obserwacji, sonda zacznie przekazywać zgromadzone obrazy w wysokiej rozdzielczości. Misja EPOXI jest wyjątkowa z jeszcze jednego powodu: nie została zaplanowana od zera, lecz korzysta z sondy, która już w misji Deep Impact pięć lat temu badała kometę 9P/Tempel (Tempel 1). Po raz pierwszy zatem dwie komety zostaną zbadane przez ten sam pojazd. Wykorzystanie istniejącej aparatury pozwoliło zredukować koszt misji aż o 90 procent. Trzeba dodać, że podczas tych pięciu lat sonda również nie próżnowała, służyła bowiem do obserwacji egzoplanet w ramach projektu Extrasolar Planet Observations and Characterization (EPOCh). To właśnie EPOCh oraz Deep Impact Extended Investigation (DIXI) - dwa główne elementy sondy Deep Impact dały nazwę misji zbadania komety Hartley 2. Sukces misji „z recyklingu" może spowodować, że przyszłe kosmiczne projekty NASA częściej będą planowane jako „wielokrotnego użytku". Podczas badania komety Tempel 1 sonda wystrzeliła w nią pocisk, wybijając krater i wzniecając obłok pyłu i lodu. Pozwoliło to odkryć, że kometa ta zawierała więcej pyłu a mniej wody, niż się spodziewano, a także, że była znacznie bardziej lita, niż sądzono. Bliskie zdjęcia komety Hartley 2 pozwolą być może ocenić, czy Tempel 1 była kometą nietypową, czy też komety faktycznie są ciałami bardziej skalistymi, niż zakładały dotychczasowe hipotezy.
  25. Prof. Donald A. Fox z Uniwersytetu w Houston zauważył, że u myszy kontakt z niskimi dawkami ołowiu w okresie płodowym nasila podziały komórek progenitorowych siatkówki oraz neurogenezę komórek dwubiegunowych pręcików siatkówki i samych pręcików. Oznacza to, że ołów - lub leki działające jak ołów - może pobudzić podobne do komórek macierzystych komórki progenitorowe do transformowania w neurony, które przeszczepiano by chorym z wczesnymi etapami degeneracji siatkówki. U myszy wystawionych w okresie rozwoju płodowego na oddziaływanie niewielkich stężeń ołowiu widzieliśmy zmianę w komórkowym składzie siatkówki. W systemie widzenia pręcikowego [który odpowiada za wykrywanie kontrastu] zawierała ona więcej komórek, [...] niż mogliśmy się spodziewać. Nowe odkrycia pokrywają się z supernormalnymi zmianami elektrofizjologicznymi, widywanymi u dzieci, małp i szczurów wystawianych jako płody na działanie niskich dawek ołowiu. Fox ujawnił, że efekt występuje przy stężeniu ołowiu we krwi rzędu 10 mikrogramów na decylitr. Zgodnie z zaleceniami Centrum Kontroli i Zapobiegania Chorobom (US Centers for Disease Control and Prevention; CDC), jest to wartość przekraczająca dolną granicę bezpieczeństwa, stąd wniosek profesora, by przewartościować, jakie stężenia Pb naprawdę działają niekorzystnie na mózg i siatkówkę. Fox wie, co mówi, ponieważ zajmuje się biotoksycznością ołowiu, zwłaszcza dla dzieci, od 35 lat. Zainteresował się embrionalnym wpływem tego pierwiastka podczas badań z 1999 r. w mieście Meksyk. Stężenie Pb było tu wysokie ze względu na używanie ołowiowej benzyny oraz nadal żywą tradycję spożywania i przygotowywania posiłków na naczyniach z ołowiu. Zespół prowadził studia na modelach mysim i szczurzym. Wzięto pod uwagę 3 stężenia ołowiu, zidentyfikowane we krwi ciężarnych z Meksyku. Fox podkreśla, że wczesne komórki progenitorowe dają początek 4 rodzajom neuronów, na które nie wpływa ekspozycja na ołów. Późniejsze komórki progenitorowe przekształcają się w komórki gleju i 2 typy neuronów. Co ciekawe, w kontakcie z Pb zwiększa się liczebność tylko tych ostatnich. W gleju, który m.in. współtworzy barierę krew-mózg, odżywia neurony i pełni funkcje obronne, kontakt z pierwiastkiem nie powoduje zmian. Zarówno myszy, jak i szczury mają grubszą siatkówkę. Z pewnym zdziwieniem naukowcy stwierdzili, że niskie i średnie dawki ołowiu wywołały większy przyrost liczby komórek niż dozy wysokie. To naprawdę nowe i zupełnie nieoczekiwane rezultaty, ponieważ kontakt z ołowiem po urodzeniu lub w życiu dorosłym zabija komórki siatkówki i mózgu, lecz nasze studium pokazało, że ekspozycja prenatalna prowadzi do namnażania komórek, zwiększając liczbę neuronów, ale nie wpływając na glej. [...] Okazuje się również, że czasowanie chemicznej ekspozycji w czasie rozwoju jest tak samo ważne jak ilość substancji. Teraz akademikom pozostaje opisać mechanizm wpływu niskich dawek ołowiu na namnażanie komórek progenitorowych i wybiórcze powstawanie pręcików oraz komórek dwubiegunowych.
×
×
  • Dodaj nową pozycję...