Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37689
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    250

Zawartość dodana przez KopalniaWiedzy.pl

  1. Podczas odbywającej się właśnie w Portland konferencji SC09, zebrani zastanawiają się nad przyszłością superkomputerów. Na organizowanych przez Departament Energii warsztatach trwają rozmowy o systemach 1000-krotnie bardziej wydajnych niż Jaguar, obecny lider listy TOP500. Mowa zatem o systemach, których wydajność będzie liczona w eksaflopsach, czyli w trylionach operacji zmiennoprzecinkowych na sekundę. Potrzebujemy tak potężnych systemów do tworzenia dokładnych modeli klimatycznych, prac nad wydajnymi bateriami czy pozyskiwaniem energii z fuzji jądrowej. Przedstawiciele Departamentu Energii, który sfinansował wiele najpotężniejszych superkomputerów na świecie, twierdzą, że w latach 2011-2013 powstanie system o wydajności około 10 petaflopsów. Pierwszy komputer, który przekroczył barierę teraflopsa powstał w 1997 roku, a w 2008 pokonano petaflops. Eksaflopsowa maszyna ma pojawić się około 2018 roku. Twórcy takiego systemu będą musieli rozwiązać wiele problemów, a jednym z najpoważniejszych będzie zapewnienie mu odpowiedniej ilości energii. Jaguar potrzebuje do pracy 7 megawatów, a nieco mniej wydajny Roadrunner - 3,9 MW. Zdaniem Dave'a Tureka z IBM-a eksaflopsowa maszyna będzie potrzebowała około 2 gigawatów mocy. Skąd tak olbrzymi pobór? Szacunki mówią, że komputer o wydajności eksaflopsa musi zostać wyposażony w 10-100 milionów rdzeni obliczeniowych. Turek sądzi, że bardziej dokładne są szacunki bliżej górnej granicy. To z kolei rodzi kolejne problemy. Tak olbrzymia liczba rdzeni będzie oznaczała liczne awarie, a więc trzeba skonstruować narzędzia do diagnostyki i naprawy superkomputera. IBM już teraz pracuje nad zapobieżeniem wielu problemom. Błękitny Gigant chce stworzyć eksaflopsowy system, który do pracy będzie potrzebował nie więcej niż 20 megawatów i zmieści się w 70-80 szafach. Rozwiązaniem może być tworzenie systemów hybrydowych, które z jednej strony będą korzystały z procesorów różnych producentów, a z drugiej będą używały do obliczeń nie tylko CPU ale i GPU.
  2. Panowie, którzy mają w planach powiększenie rodziny, powinni unikać wystawiania na oddziaływanie pola elektromagnetycznego. Po raz pierwszy wykazano bowiem, że rozpowszechnienie urządzeń elektrycznych obniża męską płodność. Niektórzy spekulują, że skoro odkurzacz okazał się niebezpieczny dla męskiego zdrowia, kobiety powinny przestać liczyć na pomoc przy sprzątaniu (Reproductive Toxicology). Doradzałbym mężczyznom i parom starającym się o dziecko, by w jak największym stopniu unikały ekspozycji na pole elektromagnetyczne. Nie twierdzę, że powinniśmy przestać używać kuchenek mikrofalowych, ale sensowne jest, by włączać je i wracać dopiero po zakończeniu wybranego programu. Urządzenia, zwłaszcza te z silnikiem elektrycznym, lepiej trzymać z dala od ciała – przekonuje dr De-Kun Li z Uniwersytetu Stanforda. W ramach studium zwerbowano 148 dawców z banku spermy w Szanghaju. U 76 stwierdzono zmniejszoną ruchliwość, a także nieprawidłową budowę lub liczbę plemników. Sperma pozostałych miała prawidłowe parametry. Z badań wyeliminowano mężczyzn pracujących w wysokich temperaturach oraz stykających się ze szkodliwymi chemikaliami, np. rozpuszczalnikami bądź pestycydami. Mężczyźni nosili mierniki, które w dobach uznanych przez nich za typowe co 4 sekundy sporządzały odczyt wartości pola magnetycznego. Okazało się, że osoby, u których maksymalne wartości indukcji magnetycznej wynosiły powyżej 0,16 mikrotesli, dwukrotnie częściej miały plemniki gorszej jakości (w porównaniu do panów z odczytami poniżej tej wartości). Dr Li zaznacza, że ryzyko pojawienia się spermy o obniżonej jakości wzrastało, gdy wydłużał się czas ekspozycji na silniejsze pole magnetyczne. Wg Amerykanina, pomiary przeprowadzone przez jego zespół wyjaśniają, czemu w ciągu ubiegłego stulecia nastąpił spadek płodności mężczyzn. Ma to związek z upowszechnieniem się urządzeń elektrycznych.
  3. Przeprowadzono testy pierwszego uniwersalnego, programowalnego komputera kwantowego. Odbyły się one w warunkach laboratoryjnych i ujawniły sporo problemów, które muszą zostać rozwiązane, zanim tego typu komputer pojawi się poza laboratorium. Podczas testów prowadzonych przez zespół Davida Hanneke użyto urządzenia skonstruowanego przez amerykański Narodowy Instytut Standardów i Technologii (NIST). Maszyna wykonuje obliczenia na dwóch kubitach (kwantowych bitach). Obliczenia kwantowe były wykonywane już wcześniej, jednak dotychczas udawało się je przeprowadzać tylko dla pewnych specyficznych algorytmów. Teraz amerykańscy naukowcy pokazali, w jaki sposób wykonywać każdy rodzaj kwantowych obliczeń za pomocą tego samego urządzenia. Jego sercem jest pokryta złotem płytka aluminium. Umieszczono na niej elektromagnetyczną pułapkę o średnicy 200 nanometrów, w której uwięziono dwa jony magnezu i dwa berylu. Magnez działa jak rodzaj "zamrażarki", eliminując niepożądane wibracje i utrzymując stabilność systemu jonów. Całość uzupełniały lasery, w których świetle zakodowano kwantowe bramki logiczne. Seria impulsów z zakodowanymi bramkami trafia w jony, a wyniki są odczytywane przez inny laser. Spośród nieskończonej liczby operacji, które można przeprowadzić na dwóch kubitach, wybrano 160 przypadkowych, by sprawdzić uniwersalny charakter komputera. Podczas każdej z operacji oba jony berylu były ostrzeliwane impulsami lasera, w których zakodowano 31 różnych bramek logicznych. Każdy ze 160 programów został uruchomiony 900 razy. Uzyskane wyniki porównano z teoretycznymi wyliczeniami i okazało się, że maszyna pracuje tak, jak to przewidziano. Stwierdzono, że każda bramka logiczna pracuje z ponad 90-procentową dokładnością, jednak po ich połączeniu system osiągnął dokładność około 79%. Działo się tak dlatego, że istnieją niewielkie różnice w intensywności impulsów z różnymi zakodowanymi bramkami. Ponadto impulsy muszą być rozdzielane, odbijane i przechodzą wiele innych operacji, przez co wprowadzane są kolejne błędy. Mimo osiągnięcia dobrych rezultatów, system musi być znacznie poprawiony. Naukowcy z NIST mówią, że musi on osiągnąć dokładność rzędu 99,99% zanim trafi do komputerów. By tego dokonać należy poprawić stabilność laserów i zmniejszyć liczbę błędów wynikających z interakcji światła z komponentami optycznymi.
  4. Naukowcy z australijskiego University of Adelaide dokonali odkrycia, które zmienia poglądy na, przynajmniej niektóre, właściwości światła. Uczonym udało się "ścisnąć" światło przepływające przez światłowód bardziej, niż wydawało się to możliwe. Światłowody działają jak rurociągi przesyłające światło. Nie mogą one jednak mieć nieskończenie małej średnicy. Gdy sięga ona kilkuset nanometrów, światłowód przestaje spełniać swoją rolę, gdyż światło zaczyna się w nim rozpraszać. Australijskim naukowcom udało się teraz "ścisnąć" światło w światłowodzie co najmniej dwukrotnie bardziej, niż było to osiągalne. Dokonali tego dzięki teoretycznym pracom opisującym zachowanie światła w nanoskali oraz wynalezieniu nowego typu światłowodu. Dzięki temu możliwe będzie skonstruowanie doskonalszych narzędzi do przetwarzania danych w sieciach telekomunikacyjnych, nowych źródeł światła czy lepszych komputerów optycznych. Odkrycie pozwoli też użyć światłowody nie tylko w roli "rurociągów" ale również czujników, umożliwiających np. wykrywanie wirusa grypy na lotniskach, ułatwiających prace podczas procedury sztucznego zapłodnienia czy też informujących o korozji w poszczególnych elementach samolotu.
  5. Badania specjalistów z Uniwersyteckiego College'u Londyńskiego wskazują, że podejmując ważne decyzje życiowe, kierujemy się sygnałami ze strony dopaminy, neuroprzekaźnika odpowiadającego za odczuwanie przyjemności. Oznacza to, że nasze wybory mają podłoże hedonistyczne (Current Biology). Ludzie podejmują o wiele bardziej skomplikowane decyzje niż inne zwierzęta – jaką pracę podjąć, gdzie pojechać na wakacje, czy założyć rodzinę – dlatego chcieliśmy zrozumieć rolę spełnianą przez dopaminę w ramach takich procesów. Nasze wyniki wskazują, że kiedy rozważamy różne opcje, dopamina sygnalizuje nasilenie przyjemności związanej z realizacją danego scenariusza. Sygnał jest potem przez nas wykorzystywany do podjęcia decyzji – wyjaśnia dr Tali Sharot. Brytyjska ekipa sprawdzała, jak wyglądają oszacowania przyjemności przyszłych wydarzeń przed i po podaniu lewodopy. Jest to naturalny aminokwas, który powstaje podczas hydroksylacji tyrozyny. Stanowi substancję prekursorową dopaminy. Sześćdziesięciu jeden ochotników poproszono o ocenę, jak bardzo byliby zadowoleni, jadąc do każdego z uwzględnionych na 80-pozycyjnej liście miejsc, np. do Grecji bądź Tajlandii. Potem podano im lewodopę lub placebo i zalecano wyobrażenie sobie urlopu w danej lokalizacji. Następnego dnia badani musieli wybierać z par identycznie ocenionych na początku miejsc. Jedno z nich było jednak później wizualizowane po zażyciu lewodopy, a drugie po połknięciu placebo. Na końcu ochotnicy ponownie przypisywali noty każdej z 80 pozycji. Jak się okazało, L-DOPA podwyższała ocenę określonego celu wakacyjnych wycieczek, wpływała też na to, która ze sparowanych opcji została wybrana. Mieliśmy powody przypuszczać, że dopamina zwiększy u ludzi oczekiwanie przyjemności, ale zaskoczyła nas siła tego efektu. Wzmocnienie utrzymywało się przez 24 godziny i było oczywiste u niemal 80% badanych – podsumowuje Sharot.
  6. Na właśnie opublikowanej liście TOP500, gromadzącej 500 najpotężniejszych komputerów świata, trzy pierwsze miejsca zajęły maszyny korzystające z procesorów AMD. Jednak to Intel, z ponad 80-procentowym udziałem na rynku superkomputerów zdominował listę. Jego głównym konkurentem jest IBM i architektura Power (10,4%), a AMD z 8,4-procentowym udziałem uplasował się na trzecim miejscu. Z procesorów Intela korzystają 402 maszyny, kolejne 52 używa architektury Power, a 42 - kości AMD. Wspomniane trzy najpotężniejsze komputery znajdują się w USA i są to maszyny Jaguar (Cray XT5-HE), Roadrunner (BladeCenter QS22/LS21 Cluster) oraz Kraker XT5 (Cray XT5-HE). Jaguar podczas pracy osiąga maksymalną wydajność rzędu 1,79 petaflopsa, jednak jego najwyższa teoretyczna wydajność wynosi aż 2,33 PFlops. Maszyna korzysta z sześciordzeniowych procesorów Istanbul produkcji AMD i ma do dyspozycji 224 162 rdzenie obliczeniowe. Wydajność Jaguara znacznie przewyższa drugiego na liście Roadrunnera. Superkomputer produkcji IBM-a pracuje z maksymalną prędkością 1,04 PFlops, a jego wydajność teoretyczna to 1,375 PFlops. Mózg superkomputera stanowi 122 400 rdzeni procesorów PowerXCell 8i oraz Opteron DC. Na trzeciej pozycji ulasował się Kraken XT5, z wydajnością rzędu 831,7 teraflopsów, którego teoretyczna moc obliczeniowa to 1,028 PFlops. Jest on napędzany przez 98 928 rdzeni procesorów Opteron. Przeglądając najnowszą listę warto zwrócić uwagę na awans Chin w świecie superkomputerów. Najpotężniejszy superkomputer z Państwa Środka - TH-1 - uplasował się na 5. pozycji. Wykonuje on obliczenia z prędkością 563 teraflopsów, a teoretycznie może osiągnąć wydajność rzędu 1,2 PFlops, co mogłoby go awansować na trzecią pozycję. Co ciekawe, chińska maszyna wykorzystuje do obliczeń procesory Xeon oraz układy graficzne Radeon HD4870. Zdaniem specjalistów GPU będą odgrywały coraz większą rolę na rynku superkomputerów. Chiny wyprzedziły Japonię w liczbie superkomputerów, które trafiły na TOP500, i stają się coraz bardziej poważnym graczem na tym rynku. Liderem listy są Stany Zjednoczone z 277 superkomputerami. Kolejna jest Wielka Brytania, która ma 45 maszyn. Trzecie miejsce należy do Niemiec (27 superkomputerów), a czwarte do Francji (26 maszyn). Chiny z 21 komputerami są piąte, dystansując Japonię posiadającą 16 superkomputerów. Polska, z 3 superkomputerami, znalazła się na 16. pozycji. Warto też zauważyć odchodzenie w niebyt systemów korzystających z procesorów jednordzeniowych. Tylko 4 superkomputery korzystają z takiego rozwiązania. Żadne poważniejsze zmiany nie zaszły natomiast w systemach operacyjnych. Twórcy superkomputerów najchętniej używają Linuksa, który jest obecny na 446 (89,2%) maszynach. Pod kontrolą Windows pracuje 5 (1%) superkomputerów.
  7. Czy myślenie o bliskich sercu osobach może zmniejszyć ból? Jak najbardziej tak... Zespół Naomi Eisenberger z Uniwersytetu Kalifornijskiego w Los Angeles postanowił sprawdzić, czy przyglądanie się zdjęciu ukochanego człowieka łagodzi wrażenia bólowe. W eksperymencie wzięło udział 25 kobiet, w większości studentek UCLA, które pozostawały ze swoim chłopakiem w udanym związku od ponad 6 miesięcy. Przedramiona dziewcząt lekko parzono. W tym czasie pokazywano im fotografie chłopaka, obcego bądź krzesła. Kiedy kobiety patrzyły na swoich partnerów, wspominały o lżejszym bólu niż podczas demonstrowania wizerunku nieznajomego. Oznacza to, że zwykłe przypomnienie o partnerze za pomocą fotografii częściowo znosiło ból – opowiada profesor Eisenberger. W innym wariancie eksperymentu z parzeniem ochotniczki trzymały za rękę swojego partnera, nieznajomego lub ściskały piłeczkę. Okazało się, że choć we wszystkich przypadkach stymulacja cieplna była identyczna, podczas trzymania dłoni ukochanego panie wspominały o pomniejszeniu bólu. Jeśli więc partner nie może komuś towarzyszyć fizycznie podczas jakiegoś trudnego zadania, zawsze dobrze mieć na podorędziu jego zdjęcie, np. to noszone przez wiele osób w portfelu.
  8. Umiejętność zapamiętywania nowych porcji danych może zależeć nie tylko od tego, jak wiele razy mamy z nimi kontakt, lecz także od tego, czy mózg usunie informacje zapisane wcześniej w jego pamięci krótkotrwałej - uważają naukowcy z japońskiego Uniwersytetu w Toyamie. O odkryciu poinformowało prestiżowe czasopismo Cell. Aby mózg zarejestrował nowe wspomnienia, najpierw muszą one trafić do hipokampa - centrum pamięci krótkotrwałej. Jeżeli będą powtarzane dostatecznie wiele razy lub - na drodze nieustalonych bliżej zjawisk - mózg uzna je za ważne, zostają one przepisane do centrów pamięci trwałej, takich jak kora nowa. Dzięki serii eksperymentów na szczurach japońscy badacze ustalili ważne szczegóły na temat działania tymczasowego "bufora wspomnień", jakim jest hipokamp. Zespół Kaoru Inokuchiego traktował mózgi zwierząt wysokimi dawkami promieniowania. Ku zaskoczeniu badaczy okazało się, że ekspozycja na ten czynnik blokuje powstawanie nowych neuronów (co akurat nie zaskoczyło nikogo), lecz także prowadzi do utrwalenia połączeń pomiędzy neuronami hipokampa, co objawiało się wydłużeniem okresu przechowywania wspomnień należących do pamięci krótkotrwałej. Kolejny etap eksperymentu polegał na skłanianiu zwierząt do ćwiczeń. Metoda ta, znana ze swojej zdolności do stymulacji rozwoju nowych neuronów (neurogenezy), miała na celu wywołanie reorganizacji hipokampa i wytworzenie nowych połączeń pomiędzy komórkami nerwowymi. Jak się okazało, szczurom z badanej grupy rzeczywiście udawało się zapamiętywać więcej, lecz stawało się to kosztem usunięcia części danych z hipokampa i ich przeniesienia do obszarów odpowiedzialnych za pamięć długotrwałą. Zwiększona neurogeneza wywołana przez ćwiczenia mogła przyśpieszyć usuwanie wspomnień z hipokampa i równocześnie ułatwiać ich transfer do kory nowej, ocenia Inokuchi. Pojemność pamięci hipokampa jest ograniczona, ale dzięki ćwiczeniom mogliśmy zwiększyć [ogólną pojemność mózgu], zaznacza też badacz. Jednocześnie, jak podkreśla, może to oznaczać, że upośledzenie neurogenezy może prowadzić do zapełnienia hipokampa i zablokowania powstawania nowych wspomnień. Należy zaznaczyć, że badania prowadzone przez japońskich naukowców dotyczyły wyłącznie wspomnień związanych ze strachem. Autorzy liczą jednak, że podobne mechanizmy powinny dotyczyć także bardziej "przyjaznych" sygnałów.
  9. Po raz pierwszy biologom udało się zarejestrować wydarzenie jedyne w swoim rodzaju: akt zjadania meduz przez drapieżne koralowce. W zwykłych okolicznościach organizmy te odżywiają się raczej planktonem i dostarczanymi przez glony produktami fotosyntezy (Coral Reefs). Na zdjęciach można zobaczyć, jak Fungia scruposa konsumuje chełbię modrą (Aurelia aurita). Wg naukowców, rozszerzenie menu o krążkopławy to ważny krok na drodze do lepszego przystosowania się do zmieniających się warunków środowiskowych. Dzięki temu dieta zostaje uzupełniona o pokaźną porcję białka. Zapierające dech w piersiach fotografie zostały wykonane w marcu br. przez Omriego Bronsteina z Uniwersytetu w Tel Awiwie oraz Gala Dishona z Uniwersytetu Bar-Ilan podczas nurkowania w Morzu Czerwonym w okolicach Ejlatu. Prądy oceaniczne i obfitość składników odżywczych sprzyjały rozmnażaniu się chełbi, dlatego na rafie dosłownie się od nich roiło. Gdy naukowcy zobaczyli, że niektóre koralowce aktywnie pożywiały się meduzami, nie mogli uwierzyć własnym oczom. Chełbia stanowi pokarm różnych drapieżników, w tym ryb, żółwi i ptaków morskich, nikt nie miał jednak pojęcia, że należą do nich również koralowce. To pierwszy przypadek utrwalenia przypadku zjadania przez koralowca meduzy niemal dorównującej mu rozmiarami – podkreśla Ada Alamaru, doktorantka z Uniwersytetu w Tel Awiwie. Normalnie koralowce żywią się mikroskopijnymi organizmami wchodzącymi w skład planktonu, które mierzą między 0,2 a 0,4 mm. Korzystają także z produktów fotosyntetyzowanych przez żyjące z nimi w symbiozie glony. Nigdy wcześniej nie widziano jednak, by zjadały dorosłe chełbie. To zdecydowanie niezwykłe zachowanie. O ile wiem, nie wspominano o tym, by jakiś inny gatunek korala żywił się krążkopławami. Postępują tak jednak spokrewnione z nimi ukwiały. F. scruposa nie żyje w koloniach. Pojedyncze polipy mają nawet do 30 cm średnicy. Nie są przytwierdzone do dna morskiego, przez co dysponują ograniczoną zdolnością do poruszania się. Nadal nie wiadomo, jak radzą sobie z chwytaniem meduz – podkreśla Alamaru.
  10. Naukowcy z niemieckiego Stowarzyszenia Helmholtza ustalili z nieosiągalną dotychczas precyzją miejsca na nici DNA, które HIV preferuje podczas integracji własnego materiału genetycznego z genomem komórek człowieka. Zdobyta wiedza jest bardzo przydatna, lecz także zaskakująca. Jak każdy przedstawiciel tzw. retrowirusów, wirus odpowiedzialny za AIDS musi "przepisać" swój materiał genetyczny, zapisany w cząsteczce RNA, do formy DNA, a następnie połączyć go z genomem komórki gospodarza. Cała ta seria procesów jest co prawda dość skomplikowana, lecz "nagrodą" dla wirusa jest jego trwała obecność w komórce i niskie prawdopodobieństwo inaktywacji. Problemem, z którym przez wiele lat naukowcy nie potrafili sobie poradzić, było ustalenie, które miejsca w genomie człowieka preferuje HIV jako miejsca wbudowania własnego materiału genetycznego. Kilka lat temu udało się ustalić, że integracja zachodzi najczęściej w okolicy miejsc rozpoczęcia transkrypcji genów, czyli procesu "przepisywania" informacji genetycznej z DNA do postaci RNA, które może zostać wykorzystane np. jako nośnik informacji potrzebny do syntezy białek. Badacze ze Stowarzyszenia Helmholtza, kierowani przez dr Stephanie Laufs oraz dr. Franka Giordano, postanowili przyjrzeć się miejscom integracji jeszcze bliżej. Do badania wykorzystano dane na temat sekwencji DNA otaczających ponad 46000 opisanych w literaturze miejsc integracji genomu wirusowego z ludzkim. Jak się okazało, HIV rzeczywiście wbudowuje kopię własnego materiału genetycznego w okolicy inicjacji transkrypcji genów gospodarza, lecz praktycznie nigdy nie zdarza się, by do integracji doszło w miejscu znajdującym się w odległości poniżej 1000 par zasad od nukleotydu, od którego rozpoczyna się "przepisywanie" informacji z DNA na RNA. Na dodatek, jeżeli nawet kopia wirusowego genomu wbuduje się zbyt blisko tej pozycji, należące do niej geny są niezwykle mało aktywne. Dokładne zrozumienie zjawisk towarzyszących infekcji wirusem odpowiedzialnym za AIDS pomogą w opracowaniu nowych terapii przeciwko tej chorobie. Oczywistym wydaje się więc, że dalsze badania (być może prowadzone przez inne zespoły) skupią się na molekularnych mechanizmach decydujących o miejscu integracji genomu HIV z genomem człowieka.
  11. Podczas zorganizowanego przez stację CNBC programu Warren Buffett and Bill Gates: Keeping America Great, w czasie którego obaj biznesmeni odpowiadali na pytania studentów Columbia University, założyciel Microsoftu nie szczędził pochwał Steve'owi Jobsowi. Jeden z uczestników spotkania zapytał Gatesa co sądzi o Jobsie i jego pracy jako prezes Apple'a. Wykonał fantastyczną robotę - stwierdził Gates. Apple działa na nieco innym rynku, gdyż produkuje i sprzęt i oprogramowanie. Gdy jednak Steve wrócił do Apple'a, co stało się wraz z przejęciem przez Apple'a jego firmy NeXT, Apple przeżywał bardzo ciężkie chwile. Firma miała niewielkie szanse by przetrwać - mówił miliarder. On tchnął w nich ducha zespołowego, zainspirował ich do tworzenia wspaniałych produktów i wspaniałych projektów, które spowodowały, że Apple ponownie zaczęło robić świetne rzeczy. Dobrze mieć takiego konkurenta. Tworzymy oprogramowanie dla Apple'a, Microsoft tworzy. Konkurują z Apple'em. Ale to Jobs, spośród wszystkich liderów przemysłu z którymi współpracowałem, ma najbardziej inspirujące pomysły. Uratował swoją firmę - powiedział Gates. Przypomnijmy, że początkowo Apple, pod wodzą Steve'a Jobsa, odnosiło duże sukcesy. W 1985 roku Jobs odszedł z firmy. A 10 lat później Apple stało na skraju bankructwa. W 1997 roku na czele firmy ponownie znalazł się Steve Jobs, który z czasem uczynił z niej potęgę, jaką jest obecnie. Warto w tym miejscu wspomnieć, że swój udział w uratowaniu Apple'a ma sam Gates. W 1997 roku Microsoft wydał 150 milionów dolarów na zakup akcji Apple'a, obejmując w zamian udziały, które nie dawały koncernowi z Redmond prawa głosu. Kilka lat później firma Gatesa sprzedała akcje z 7-procentowym zyskiem.
  12. Białko zwane p53 jest jedną z najważniejszych molekuł chroniących nasze DNA przed mutacjami oraz zapobiegających nowotworzeniu poprzez zabijanie wadliwych komórek. Naukowcy z Uniwersytetu Cornell zaobserwowali jednak, że w niektórych przypadkach brak funkcjonalnego p53 nie zwiększa prawdopodobieństwa przeżycia wadliwych komorek, a zmniejsza je. Naukowcy z amerykańskiej uczelni skupili się na interakcjach pomiędzy p53 i Hus1 - białkiem blokującym replikację komórek w reakcji na wykryte uszkodzenie DNA. W pierwszym etapie eksperymentu naukowcy badali śmiertelność zdrowych komórek gruczołu mlekowego myszy w reakcji na inaktywację genu kodującego Hus1. Wykazano w ten sposób, że zablokowanie aktywności tej sekwencji powoduje samobójczą śmierć komórek zwaną apoptozą. Następne doświadczenie przeprowadzono na komórkach z nieaktywnym genem kodującym p53. Ponieważ białko to jest podstawowym elementem wyzwalającym apoptozę wadliwych komórek, badacze oczekiwali, że prawdopodobieństwo przeżycia komórek gruczołu mlekowego wzrośnie. W rzeczywistości stało się jednak zupełnie inaczej - po zablokowaniu aktywności Hus1 okazało się, że komórki gruczołu mlekowego zaczęły bardzo szybko ginąć, osiągając przy tym tempo znacznie wyższe, niż w przypadku aktywnego p53 i nieaktywnego Hus1. Na podstawie obu prób wywnioskowano, że apoptoza związana z zablokowaniem aktywności Hus1 musi zachodzić w sposób niezależny od p53, co oznacza z kolei, że komórki nowotworowe pozbawione aktywności tego ostatniego można by - przynajmniej teoretycznie - niszczyć za pomocą blokady Hus1. Jest to bardzo wazna informacja, gdyż upośledzenie aktywności p53 stwierdza się w ok. 50% przypadków nowotworów. Nasza praca w istotny sposób przyczynia się do poznania komórek nowotworowych i ich słabości, ocenia Robert Weiss, jeden z autorów studium. Mutacje pozwalające komórkom nowotworowym na niekontrolowane dzielenie się sprawiają jednocześnie, że stają się one zależne od pewnych procesów komórkowych. My byliśmy w stanie wykorzystać jedną taką zależność, występującą w komórkach nieposiadających p53, i mogliśmy je skutecznie zabijać poprzez blokowanie Hus1. Dalsze wysiłki badaczy z Uniwersytetu Cornell będą skierowane na zrozumienie przyczyn nieoczekiwanego zachowania się komórek. Dla pełnego zrozumienia obserwowanych zjawisk konieczne będzie także przeprowadzenie badań na komórkach nowotworowych.
  13. Dzięki przeprowadzonemu niedawno bombardowaniu Księżyca NASA dowiedziała się, że na Srebrnym Globie występują duże ilości wody. Odkrycie to oznacza, że założenie stałej bazy księżycowej będzie łatwiejsze, niż dotychczas przypuszczano. Udowodniono przy tym, że niedawne doniesienia były prawdziwe. Od dłuższego już czasu wiedziano, że na biegunach Księżca uwięzione są duże ilości wodoru. Misja LCROSS pokazała, że woda występuje w różnych miejscach i jest jej więcej. Od czasu uderzenia LCROSS w krater Cabeus, naukowcy bez przerwy analizują uzyskane informacje. Jesteśmy niezwykle podekscytowani - mówi Anthony Colaprete, główny badacz z Ames Research Center. Wiele dowodów pokazuje, że woda jest obecna zarówno w pyle powstałym wskutek uderzenia, jak i wypełniła otwór powstały wskutek uderzenia LCROSS - dodaje. Naukowców czeka jeszcze wiele pracy. Misja dostarczyła bowiem olbrzymiej ilości danych. Obok śladów wody z Cabeusa znaleźliśmy też ślady wielu interesujących substancji. Stale zacienione obszary Księżyca to prawdziwe lodowate pułapki, które od miliardów lat gromadzą materiał - stwierdził Colaprete.
  14. Aby przeprowadzić wstępną diagnostykę wielu chorób, wcale nie potrzeba skomplikowanej aparatury - udowadniają australijscy badacze. Aby odciążyć lekarzy i ułatwić życie pacjentom, stworzyli oni aplikację, która po uruchomieniu na zwykłym komputerze jest w stanie stworzyć listę możliwych schorzeń na podstawie analizy dźwięków powstających podczas kaszlu. [Kaszel] jest najbardziej pospolitym objawem u pacjenta zjawiającego się [w gabinecie lekarza], zauważa jeden z autorów nowej metody, Suzanne Smith z firmy STAR Analytical Services. Jednocześnie, jak zauważa badaczka, typowa diagnostyka tego objawu nie zmieniła się od ponad stu lat i wciąż polega na wysłuchiwaniu kaszlu i określaniu kilku jego podstawowych cech. Ponieważ w dzisiejszych czasach automatyczna analiza dźwięku nie stanowi problemu nawet dla pospolitych urządzeń elektronicznych, badacze postanowili wykorzystać w tym celu zwykły komputer. Napisano w tym celu aplikację, której zadaniem jest odróżnianie kaszlu suchego od mokrego oraz produktywnego od nieproduktywnego, tzn. umożliwiającego odkrztuszenie wydzieliny powstającej w drogach oddechowych bądź sprzyjającego jej zaleganiu. Obsługa programu jest dziecinnie prosta: po jego uruchomieniu wystarczy przystawić mikrofon do ust i zakaszlać. Aplikcja wychwytuje wówczas powstające dźwięki, a następnie porównuje je z bazą modelowych próbek dźwięku pobranych wcześniej od kilkudziesięciu ochotnikow. Na tej podstawie ustala się, z jakim typem kaszlu ma do czynienia, i co mogło spowodować jego powstanie. Aktualnie trwają prace rozwojowe nad aplikacją. Przedstawiciele STAR Analytical Services szacują, że zwiększenie wiarygodności testu będzie wymagało zbudowania bazy około tysiąca próbek "wzorcowego" kaszlu. Plany firmy obejmują także stworzenie przenośnej wersji programu, możliwej do uruchomienia na telefonach komórkowych. Z pewnością przedsięwzięcie to będzie prostsze dzięki grantowi w wysokości 100 tysięcy dolarów, którzy przyznała autorom Fundacja Billa i Melindy Gatesów.
  15. Na świecie tworzonych jest kilka różnych rankingów uczelni wyższych. Używają one różnych metodologii i żadna z nich nie jest doskonała. Wszystkie one jednak wśród czołowych ośrodków akademickich wymieniają te same uczelnie. Najstarszym zestawieniem, które bierze pod uwagę wiele różnych czynników jest ARWU (Academic Ranking of World Universities). Powstaje on od 2003 roku na uniwersytecie Jiao Tong w Szanghaju, a pierwotnym celem jego twórców było pokazanie dystansu, jaki dzieli chińską naukę od świata. Drugim z popularnych rankingów jest THE-QS (Times Higher Education-Quacquarelli Symonds). Istnieje on od 2004 roku, a tegoroczny jest ostatnim zestawieniem THE-QS. Od przyszłego roku magazyn Times Higher Education będzie tworzył ranking we współpracy z Thomson Reuters, największą bazą cytatów naukowych. ARWU i THE-QS korzystają z różnych metodologii, stąd różne uzyskane wyniki. Jednak oba zestawienia wskazują na znaczną przewagę Stanów Zjednoczonych nad resztą świata oraz na słabą pozycję dawnych uniwersyteckich potęg, które budowały naukę i kulturę Europy - Włoch, Francji i Niemiec. Dla Polaków, chlubiących się Uniwersytetem Jagiellońskim czy Warszawskim, oba rankingi są kubłem zimnej wody. Nasz kraj wypada w nich fatalnie. Ponad 30 krajów ma co najmniej jedną uczelnię sklasyfikowaną wyżej niż najlepszy polski uniwersytet. Metodologia ARWU Na listę ARWU trafiła każda uczelnia wyższa, która może pochwalić się co najmniej jednym z osiągnięć: laureatem Nagrody Nobla, Medalu Fieldsa, często cytowanym naukowcem w jednej z 21 dziedzin nauki, publikacjami w pismach Nature i Science, licznymi pracami wymienionymi w Science Citation Intex-Expandes (SCIE) i Social Science Citation Index (SSCI). W sumie ARWU uwzględnia ponad 1000 uczelni wyższych, a w Sieci wymieniono 500 najlepszych. Wybranym w ten sposób uczelniom przyznawano punkty. Za jakość edukacji można było otrzymać 10% z nich. Punkty przyznawano za absolwentów, którzy zdobyli Nagrodę Nobla lub Medal Fieldsa. Kolejne 40% przyznawano za jakość fakultetu. Połowę z tego, czyli 20 punktów procentowych można było otrzymać za pracowników laureatów Nagrody Nobla lub Medalu Fieldsa, a kolejne 20 pp. za badaczy często cytowanych w 21 kategoriach. Następne 40% punktów można zdobyć za publikacje w pismach Nature i Science (czynnik nie jest brany pod uwagę w przypadku uczelni specjalizujących się w naukach humanistycznych i społecznych, jak np. London School of Economics) oraz za wzmianki w SCIE i SSCI. W końcu brakujące 10% punktów przyznawane jest za to, ile punktów zdobytych w poprzednich kategoriach przypada średnio na jednego naukowca pracującego w danej instytucji. Klasyfikacja ARWU 1.Harvard UniversityUSA 2.Stanford UniversityUSA 3.University of California, BerkeleyUSA 4.University of CambridgeWielka Brytania 5.Massachusetts Institute of TechnologyUSA 6.California Institute of TechnologyUSA 7.Columbia UniversityUSA 8.Princeton UniversityUSA 9.University of ChicagoUSA 10.University of OxfordWielka Brytania 11.Yale UniversityUSA 12.Cornell UniversityUSA 13.University of California, Los AngelesUSA 14.University of California, San DiegoUSA 15.University of PennsylvaniaUSA 16.University of WashingtonUSA 17.University of Wisconsin-MadisonUSA 18.University of California, San FranciscoUSA 19.Johns Hopkins UniversityUSA 20.University of TokyoJaponia
  16. Duńskie Towarzystwo Golfowe przeprowadziło badania dotyczące tempa rozkładania się piłeczek do golfa. Wykazały one, że w środowisku naturalnym rozkład piłeczki trwa od 100 do 1000 lat. Okazało się, że podczas tego procesu wydzielają się znaczne ilości metali ciężkich, w tym niebezpiecznie dużo cynku, używanego do produkcji rdzenia piłeczki. Duńczycy wspólnie z amerykańskimi specjalistami chcą teraz przeprowadzić badania dotyczące wpływu piłeczek golfowych na środowisko naturalne. Skala zanieczyszczeń nie jest znana, jednak można przypuszczać, że jest dość znaczna. W samych tylko Stanach Zjednoczonych każdego roku gracze gubią około 300 milionów piłeczek, a gdy uczeni badali niegdyś dno Loch Ness okazało się, że jest ono usłane tysiącami piłeczek, z których metale ciężkie przenikają do osadów dennych szkodząc florze i faunie.
  17. Liczne serwisy donoszą od wczoraj, jakoby Microsoft opatentował opensource'ową technologię sudo. Stanowi ona część systemów Linux oraz Mac OS X i ułatwia zarządzanie komputerem. Pozwala bowiem na łatwe zalogowanie się do konta administratora w celu wykonania konkretnych operacji, których nie można przeprowadzić z konta użytkownika. Microsoft przed trzema dniami uzyskał patent numer 7,617,530 na technologię, która pozwala użytkownikowi na zwiększenie swoich uprawnień. Liczne blogi oraz serwisy internetowe zaczęły pytać, czy koncern z Redmond nie opatentował sudo. Najwyraźniej jednak ich autorzy ograniczyli się do przeczytania podsumowania patentu, a nie jego szczegółowego opisu. Todd Miller, który jest autorem sudo i rozwija je od 1993 roku mówi: Nie sądzę, że patent ten pokrywa się z sudo. Czytałem go dokładnie i wydaje się całkowicie różny. Technologia, którą opatentował Microsoft, zakłada wyświetlenie graficznej informacji, gdy użytkownik spróbuje wykonać coś, do czego nie ma uprawnień. W okienku pojawia się też lista użytkowników komputera, którzy mają odpowiednie uprawnienia. Po wybraniu jednego z nich i wpisaniu hasła, możemy wykonać operację. Mechanizm działa więc podobnie do sudo, jednak jest od niego na tyle różny, że po czterech latach starań Microsoft uzyskał patent. Nie ma o co kruszyć kopii. Twierdzenia Groklawa [witryna, która pierwsza napisała, że MS opatentował sudo - red.] nie mają oparcia w faktach - mówi Phil Albert, prawnik specjalizujący się w zagadnieniach własności intelektualnej dotyczącej open source. Co więcej, w swoim wniosku patentowym Microsoft zamieszcza liczne odniesienia do podręczników opisujących technologię sudo i trzykrotnie zaznacza, że sudo jest wcześniejszym pomysłem, co samo w sobie wyklucza jego opatentowanie. Jak zauważa inny prawnik, Colburn Stuart, Microsoft najprawodpodobniej opatentował swoją technologię po to, by w przyszłości uniknąć pozwów ze strony trolli patentowych.
  18. Po niemal 14 miesiącach do stacjonującego w Afganistanie oddziału australijskich sił specjalnych SASR powróciła zaginiona w akcji labradorka Sabi. Suka zniknęła we wrześniu ubiegłego roku, kiedy talibowie ostrzelali zjednoczone siły australijskie, amerykańskie i afgańskie w prowincji Oruzgan. W zasadzce rannych zostało 9 obywateli antypodów, w tym trener Sabi, której zadanie polegało na wyszukiwaniu podłożonych pod drogą ładunków wybuchowych. W zeszłym tygodniu pies został zlokalizowany przez amerykańskiego żołnierza w odległej bazie patrolowej również w Oruzganie. Żołnierz, znany jedynie z imienia jako John, wiedział, że jego kolegom z australijskich sił specjalnych zaginął pies. Suka nie zapomniała nic ze swojego szkolenia: od razu zaaportowała kopniętą przez opiekuna piłeczkę. Zanim Sabi wróci do Australii, musi zostać przebadana pod kątem różnych chorób.
  19. Firma Foreground Security odkryła w Adobe Flash błąd, który naraża na niebezpieczeństwo użytkowników olbrzymiej liczby witryn WWW. Dzięki tej dziurze przestępcy mogą zaatakować osoby korzystające z takich stron, które umożliwiają użytkownikom wgrywanie doń własnej zawartości. Mike Bailey z Foreground mówi, że problem leży w polityce bezpieczeństwa Flash. Daje ona dostęp plikom tego typu tylko do obiektów znajdujących się w tej samej domenie. To jednak oznacza, że przestępca może załadować odpowiednio spreparowany szkodliwy plik Flash np. na swoje konto w serwisie społecznościowym i zaatakować innych użytkowników tego serwisu. Odkrywcy dziury mówią, że łatwo ją wykorzystać. Przygotowali też prototypowy atak i wyjaśnili jego działanie. Posłużyli się tutaj przykładem forum, na którym użytkownicy mogą umieszczać własne avatary. Cyberprzestępca może zatem wgrać na serwer szkodliwy plik Flash, który wygląda jak avatar. Każdy, kto otworzy stronę z tym avatarem będzie narażony na atak. Przedstawiciele Adobe, producenta Flasha, mówią, że problemu nie można usunąć wydając łatkę do Flasha. Ich zdaniem, problem leży w samym wykorzystywaniu aktywnych skryptów na witrynach WWW. Jeśli tylko użytkownicy mają prawo do wgrywania na witrynie własnych plików, mechanizm taki może zostać wykorzystany do przeprowadzenia ataku. Bezpieczeństwo można zwiększyć przechowując pliki użytkowników w innej domenie, rezygnując z Flasha lub stosując mechanizmy blokujące tego typu elementy na stronie.
  20. Naukowcy znaleźli mózgową sygnaturę świadomości. Nie zależy ona od intensywności, synchronizacji ani czasu trwania aktywności nerwowej. Akademicy z Princeton zauważyli, że jeśli postrzegamy jakiś obraz świadomie, za każdym razem wzorzec aktywności jest taki sam. Jeśli obraz jest przetwarzany na poziomie nieświadomości, pobudzenie jest inne. Zespół Aarona Schurgera dywagował, że kiedy mózgowi wielokrotnie prezentuje się ten sam bodziec, np. zdjęcie, to jeśli zwraca się na niego świadomą uwagę, wzorzec aktywności zawsze będzie właściwie identyczny. Gdy jednak nie stanie się on przedmiotem świadomej uwagi, wzorce pobudzenia za każdym razem będą inne. Umiejąc odróżnić skany mózgu wskazujące na świadomość bądź nieświadomość, można by obiektywnie diagnozować pacjentów z urazami mózgu. Chcąc przetestować swoją hipotezę, Amerykanie zbadali za pomocą funkcjonalnego rezonansu magnetycznego (fMRI) 12 ochotników. Wolontariuszom pokazano serię obrazów. Zdjęcia twarzy bądź domów miały wywołać świadomą reakcję, a tzw. bodźce niewidzialne nieświadomą. Te ostatnie konstruowano z dwóch rysunków – albo twarzy, albo domu – z których każdy demostrowano tylko jednemu oku. W parze tło jednego rysunku było jasnozielone, a sam obiekt bladopomarańczowy. W drugim barwy podkładu i przedmiotu zamieniano. Kiedy mózg styka się z takimi sprzecznymi danymi wejściowymi, godzi je, tworząc żółtą plamę. Świadomie człowiek widzi więc żółtawy placek, choć nieświadomie postrzega twarz lub dom. Skany płatów skroniowych ochotników potwierdziły przypuszczenia zespołu Schurgera. Za każdym razem przy świadomym przetwarzaniu bodźca generowano podobne wzorce aktywności. Kiedy identyczny obraz analizowano nieświadomie, zmienność pobudzenia była o wiele większa.
  21. Zawarta wczoraj ugoda pomiędzy Intelem a AMD kończy długotrwały spór w przemyśle IT i może stać się początkiem poważnych zmian. Obie strony doszły bowiem do wniosku, że więcej stracą na kontynuowaniu kłótni, niż na dojściu do porozumienia. Dla Intela oskarżenia ze strony AMD były poważnym obciążeniem. Z jednej strony narażały koncern na spory sądowe, wypłatę olbrzymich odszkodowań i problemy z urzędami antymonopolowymi na całym świecie, a z drugiej negatywnie wpływały na wizerunek firmy zarówno wśród klientów biznesowych jak i indywidualnych. Przedstawiciele Intela twierdzą, że zawarcie ugody nie jest przyznaniem się do prowadzenia niezgodnych z prawem praktyk biznesowych - Intel konsekwentnie twierdzi, że działania takie nie miały miejsca. Mówią jednak, że w podobnych sprawach często dochodzi do pozasądowych porozumień, gdyż ich zawarcie jest zwykle trzykrotnie mniej kosztowne niż wartość zasądzanych odszkodowań. Niezależnie jednak od tego, jak było naprawdę, umowa z AMD kończy kilka sporów sądowych i wytrąca argumenty urzędnikom w wielu krajach. Co więcej AMD będzie teraz sojusznikiem Intela i spróbuje nakłonić regulatorów w USA, Azji i Europie do zakończenia postępowań przeciwko Intelowi. Ugoda znaczy jednak też bardzo wiele dla AMD. Jeśli bowiem firma ma rację i Intel stosował niedopuszczalne praktyki biznesowe, to wraz z podpisaniem ugody jest zobowiązany je zakończyć, a AMD zyska łatwiejszy dostęp do rynku. Kolosalną korzyścią, którą odniesie AMD jest możliwość zakończenia sporu patentowego. Przypomnijmy, że w bieżącym roku z AMD wyłoniła się firma Globalfoundries, która przejęła całą produkcję układów scalonych. Jednak, jak zauważyli prawnicy Intela, przekazanie jej do Globalfoundries jest złamaniem umowy, na podstawie której AMD korzysta z patentów Intela dotyczących technologii x86. Umowa zabrania bowiem przekazywania praw do patentów innej firmie. AMD, chcąc przekonać Intela, że nie doszło do złamania umowy, formalnie uwzględnia Globalfoundries w swoich księgach jako swoją firmę-córkę, co obciąża bilans AMD. Ugoda z Intelem daje AMD możliwość traktowania Globalfoundries jako osobnej firmy, co powinno korzystnie wpłynąć na wyniki finansowe AMD i cenę jej akcji. Co więcej, AMD będzie miało też prawo do zawierania umów na produkcję układów scalonych z innymi dostawcami. To z kolei może spowodować, że Globalfoundries i TSMC, konkurując o tak dużego klienta jak AMD, będą oferowały tej firmie coraz doskonalsze rozwiązania i AMD zacznie pod względem technologicznym doganiać Intela. Trzeba bowiem pamiętać, że już tradycyjnie AMD wdraża nowocześniejszy proces technologiczny o 12-18 miesięcy później niż Intel. Kolejną korzyścią, jaką odniosło AMD, jest wydłużenie umowy patentowej pomiędzy obiema firmami. Stara umowa wygasała z końcem bieżącego roku. Gdyby nie podpisano nowej, AMD straciłoby dostęp do technologii Intela opracowanych po terminie wygaśnięcia umowy. Firma mogłaby produkować tylko układy scalone korzystające z dotychczasowych technologii Intela lub tych, które sama opracuje. Podpisanie ugody oznacza, że Intel przez najbliższe 5 lat będzie udostępniał AMD swoje nowe technologie.
  22. Metody radzenia sobie z potworami – rodem z bajek i realnymi - różnią się w zależności od płci i wieku dziecka (Child Development). Dr Liat Sayfan z Uniwersytetu Kalifornijskiego w Davis poprosiła 48 maluchów w wieku 4-7 lat o wysłuchanie serii historii. Każda opowiadała o dziecku, które spotkało realnie istniejącą groźną istotę, np. niedźwiedzia, lub wytwór ludzkiej wyobraźni w rodzaju czarownicy. Jak opowiada Amerykanka, chodziło o przedstawienie doświadczającej strachu postaci, a nie o przerażanie dzieci biorących udział w eksperymencie. Pani psycholog wyjawia, że słuchając historii o potworach z życia wziętych, dzieci radziły, by bohaterowie ich unikali. Pojawiły się jednak różnice związane z płcią. Chłopcy często sugerowali atakowanie bądź zabijanie potwora, podczas gdy dziewczynki proponowały raczej, by wziąć nogi za pas i poszukać rodziców. Kiedy chodziło o postaci wymyślone, naukowcy nie zaobserwowali różnic związanych z płcią, lecz z wiekiem. Przedszkolaki chciały przekształcić opisaną sytuację w sympatyczną i mówiły coś w tym stylu: "wyobraźmy sobie, że wiedźma jest naprawdę miła". Czterolatki zdają sobie bowiem sprawę z tego, co jest realne, a co stanowi wytwór wyobraźni, ale wykorzystanie tej wiedzy w praktyce jest dla nich trudne. Sześcio- i siedmiolatki potrafiły już wybrnąć z kłopotliwej sytuacji, przypominając sobie, że potwór nie jest prawdziwy. Sayfan doradza, jak rodzice mogą pomóc dziecku, któremu przyśnił się koszmar. Jeśli to małe dziecko, jest ono naprawdę mocno zaabsorbowane swoim wyobrażeniem i przekonanie go, by oderwało się od wizji i zaczęło myśleć o rzeczywistości, jest wyjątkowo trudne. Lepiej zatem wykorzystać inną strategię i pokierować wyobrażonym przebiegiem zdarzeń, mówiąc, że potwór jest bardzo miły. Wyjaśnienia, że nie jest prawdziwy, warto zachować na poranek. W ramach eksperymentu Kalifornijczycy pytali dzieci, co czuliby dorośli w kontakcie ze zmyślonymi i prawdziwymi potworami. Maluchy twierdziły, że ojcowie nie baliby się takich istot, ponieważ są dzielni. Uważały za to, mamy będą się nieco bać, ale nie do tego stopnia, co dzieci. Dzieci doskonale wiedzą, że to ich własne lęki i że dorośli wiedzą lepiej i nie boją się tego typu rzeczy. W przyszłości pani psycholog zamierza sprawdzić, czy bojąc się, brzdące naprawdę korzystają ze strategii zalecanych innym.
  23. Zaraźliwe są nie tylko emocje, ale i czyjeś irracjonalne procesy myślowe, prowadzące do podejmowania niewłaściwych decyzji (Journal of Experimental Social Psychology). Zespół Adama Galinsky'ego z Northwestern University poprosił studentów o podjęcie decyzji w imieniu nieznanego człowieka, który w rzeczywistości w ogóle nie istniał. Ochotników podzielono na dwie grupy: 1) osób czujących związek z tym, któremu mieli pomóc (np. przez wspólny miesiąc urodzin) i 2) takich, którym był on obojętny. W ramach jednego eksperymentu badani śledzili przebieg wydarzeń, odczytując opis z ekranu komputera. Fikcyjna postać starała się przelicytować drugą osobę za cenę 356 punktów, które odpowiadały 4,45 dol. Człowiek, któremu studenci mieli pomóc, rozpoczynał licytację z 360 punktami. Za każdym razem, gdy przeciwnik podbijał stawkę o 40 punktów, rewanżował mu się tym samym. Ochotnikom powiedziano, że gdy wspierany przez nich aukcjoner przekroczy pułap 356 punktów, studenci utracą część z 12-dolarowego wynagrodzenia za udział w studium. Kiedy licytujący zbliżał się do wyznaczonego przez eksperymentatorów progu, studentów proszono o zastąpienie go. Teoretycznie wszyscy powinni sobie zdawać sprawę, że osoba zastąpiona dalej dokładałaby do interesu. Okazało się jednak, że badani, którzy się z nią identyfikowali, składali o 60% więcej ofert niż przedstawiciele drugiej grupy. Wg Galinsky'ego świadczy to o tym, że jeśli kierownictwo jakiejś firmy chce naprawdę przeciwdziałać źle podjętym decyzjom, powinno polegać na kimś zupełnie z zewnątrz, kto nie czuje żadnego związku z ratowanymi.
  24. Z badań zespołu z University of Auckland wynika, że kobiety, której przed spłodzeniem potomka pozostają z ojcem malucha w dłuższej relacji seksualnej, rzadziej cierpią na stan przedrzucawkowy i rzadziej mają małe w stosunku do wieku ciąży dzieci (Journal of Reproductive Immunology). W ramach studium Nowozelandczycy zapytali 2507 pierwiastek o długość związku z biologicznym ojcem dziecka. Po nadejściu terminu porodu stan przedrzucawkowy, definiowany jako nadciśnienie skojarzone z białkomoczem, występował rzadziej u kobiet przez dłuższy czas utrzymujących stosunki seksualne wyłącznie z ojcem dziecka niż u pań pozostających z partnerem w związku krócej, a więc np. poniżej 6 miesięcy. Badacze zauważyli też, że płody małe jak na wiek ciąży częściej występowały u par o krótszym stażu, ale tylko wtedy, gdy USG wykonane w 20. tyg. wykazywało zmniejszony dopływ krwi do dziecka. Dr Larry Chamley, ekspert z naukowej witryny internetowej Faculty of 1000, tłumaczy, że w prawidłowych ciążach długotrwały kontakt żeńskiego układu odpornościowego z męskimi antygenami po stosunkach bez zabezpieczeń [może wyzwolić] tolerancję. Nadmierna reakcja zapalna w stanie przedrzucawkowym jest wynikiem niepowodzenia systemu immunologicznego kobiety, który nie umie "skręcić" reakcji na antygeny mężczyzny bądź jej tolerować. Na razie nie ma ostatecznych dowodów, że ekspozycja na spermę uodparnia, wiele jednak na to wskazuje.
  25. Choć za badania nad telomerami - odcinkami DNA znajdującymi sie przy końcach chromosomów - przyznano w tym roku Nagrodę Nobla, nie oznacza to, że wiemy już wszystko o ich roli w organizmie człowieka. Badania przeprowadzone przez naukowców z Yeshiva University potwierdzają jednak panujące przekonanie, że struktury te są bardzo ważne dla długowieczności naszych ciał. Autorzy studium, kierowani przez dr. Gila Atzmona, chcieli sprawdzić zależność pomiędzy długością życia ludzi oraz aktywnością telomerazy - enzymu odpowiedzialnego za zwiększanie dlugości telomerów. Do udziału w doświaczeniu zaproszono w związku z tym 86 zdrowych osób starszych (średnia wieku w tej grupie wynosiła 97 lat), 175 dzieci tych osób oraz 93 ochotników należących do potomstwa osób, które zmarły z przyczyn naturalnych przed dożyciem nadzwyczajnie sędziwego wieku. Badacze z Yeshiva University chcieli sprawdzić, czy zwiększona aktywność telomerazy może być związana z wydłużeniem życia ludzi. Hipoteza ta jest związana z faktem, iż podczas każdej kolejnej tury replikacji DNA komórka traci fragmenty telomerów, a zdolność komórek do podziału utrzymuje się w przybliżeniu tak długo, jak długo telomery zasłaniają inne fragmenty DNA przed zniszczeniem podczas replikacji materiału genetycznego. Mogłoby to więc oznaczać, że osoby posiadające nad wyraz długie telomery mogą żyć dłużej, ponieważ ich komórki mogą się więcej razy podzielić i utrzymywać w ten sposób prawidłowe funkcje organizmu. Jak wykazała analiza statysyyczna zebranych informacji, posiadacze wyjątkowo długich telomerów rzeczywiście znacznie częściej dożywali sędziwego wieku. Co więcej, stwierdzono u nich nosicielstwo nietypowego wariantu (allelu) genu kodującego telomerazę. Enzym wytwarzany przez ich organizmy był wyjątkowo aktywny, co najwyraźniej sprzyjało ich długowieczności. Na szczęście dla seniorów, ich życie było nie tylko długie, lecz także wolne od większości chorób charakterystycznych dla wieku przekwitania. Jak się okazuje, staruszkowie byli najwyraźniej chronieni m.in. przed chorobami układu krążenia oraz cukrzycą - schorzeniami będącymi przyczyną śmierci wielu osób starszych. To nie pierwsze badania, w których potwierdzono istnienie zbieżności pomiędzy długością życia organizmów oraz aktywnością enzymu odtwarzającego telomery. Studium przeprowadzone przez zespół z Yeshiva University jest jednak jednym z najbardziej kompleksowych badań tego zagadnienia przeprowadzonych na ludziach.
×
×
  • Dodaj nową pozycję...