Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37642
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    247

Zawartość dodana przez KopalniaWiedzy.pl

  1. Intel w ciągu najbliższych pięciu lat zapłaci Nvidii 1,5 miliarda dolarów w ramach umowy o wymianie licencji na patenty. Ugoda kończy kilkunastomiesięczny spór pomiędzy firmami. Przewiduje ona, że w zamian Intel ma prawo do korzystania z patentów należących do Nvidii, a Nvidia otrzyma licencję na niektóre patenty Intela. Umowa nie obejmuje licencji na procesory x86, pamięci flash i niektóre chipsety Intela. Przedstawiciele obu firm wyrazili opinię, że umowa pozwala im swobodnie się rozwijać i skupić na najważniejszych dla nich produktach. Podobnego zdania jest analityk Paul McWilliams, który uważa, że porozumienie jest korzystne dla obu stron. W 2009 roku doszło do sporu sądowego pomiędzy Intelem i Nvidią. Obie firmy nie mogły uzgodnić, czy istniejące wówczas umowy Intela i Nvidii pozwalają tej drugiej firmie na produkcję chipsetów dla intelowskiej architektury Nehalem. Dotychczas współpracujące przedsiębiorstwa są coraz częściej postrzegani jako konkurenci. Wraz z ewolucją CPU w kierunku układów ze zintegrowanym rdzeniem graficznym rynek rdzeni graficznych wbudowywanych w chipset zaczyna zanikać. W związku z tym Nvidia zdecydowała, że nie będzie więcej produkowała rdzeni dla architektury x86. Jednocześnie firma coraz śmielej wchodzi na rynek procesorów. Najpierw zaprezentowała układ typu SoC (system-on-chip) Tegra, a obecnie otwarcie mówi o chęci produkowania wysoko wydajnych procesorów ARM dla pecetów i serwerów. Intel pozostaje zaś największym na świecie producentem wbudowanych rdzeni graficznych i można przypuszczać, że jego udziały na tym rynku będą rosły. Intel i Nvidia coraz wyraźniej stają się więc rywalami, a rynek przechodzi poważne zmiany, o czym świadczy też prezentacja Windows na platformę ARM. Warto przypomnieć, że jednym z procesorów, wykorzystanych podczas prezentacji, był właśnie układ Nvidii. Wspomniana na początku umowa pomiędzy Intelem i Nvidią pozwoli zatem uniknąć w przyszłości wielu sporów sądowych o ewentualne naruszenie własności intelektualnej.
  2. Analiza ewolucji wszy wykazała, że współcześni ludzie zaczęli nosić ubrania ok. 170 tys. lat temu (Molecular Biology and Evolution). David Reed z Florydzkiego Muzeum Historii Naturalnej bada wszy u współczesnych ludzi, by lepiej zrozumieć ewolucję naszego gatunku oraz wzorce migracji. W ramach najnowszego 5-letniego studium przeprowadzał sekwencjonowanie DNA, by wyliczyć, kiedy wszy odzieżowe zaczęły się genetycznie oddzielać od wszy głowowych. Chcieliśmy znaleźć inną metodę na określenie momentu, kiedy ludzie mogli po raz pierwszy zacząć nosić ubrania. Ponieważ są tak doskonale przystosowane do ubrań [żyją w odzieży w pobliżu skóry; kontakt garderoby ze skórą pozwala im pobierać krew], wiedzieliśmy, że wszy odzieżowe niemal na pewno nie występowały, zanim ludzie nie zaczęli się przyodziewać – przekonuje Reed. Dane wskazują, że współcześni ludzie zaczęli nosić ubrania ok. 70 tys. lat przed wyemigrowaniem w chłodniejsze klimaty i na wyżej położone rejony, co nastąpiło ok. 100 tys. lat temu. Nie dałoby się tego ustalić za pomocą danych archeologicznych, ponieważ wczesne ubiory nie zachowały się na badanych stanowiskach. Studium wykazało, że człowiekowate zaczęły się ubierać długo po utracie owłosienia, co jak pokazują badania dotyczące zabarwienia skóry, miało miejsce ok. 1 mln lat temu. Oznacza to, że hominidy przez długi czas obywały się zarówno bez włosów, jak i garderoby. Ponieważ w odróżnieniu od większości innych pasożytów, wszy wiążą się na długie okresy z liniami żywicieli, można wywnioskować, czy zmiany ewolucyjne u gospodarza miały coś wspólnego ze zmianami u samych pasożytów. Metody zestawiania ludzkiej ewolucji z danymi dotyczącymi wszy rozwijają się od 20 lat. W ten sposób naukowcy zdobywają informacje do wykorzystania w medycynie czy ekologii. Daje to szanse na badanie zmiany żywicieli i opanowywanie nowych – tego typu zachowania występują w nieznanych wcześniej chorobach zakaźnych, które zaczynają atakować ludzi.
  3. Uczeni z North Carolina State University wykonali najszerzej zakrojone w historii badania ruchu na tzw. superdrogach (superstreet). Wykazały one, że specyficzna architektura tych dróg powoduje, że czas podróżny znacząco się skraca i dochodzi na nich do mniejszej liczby wypadków. Superdrogi projektowane są tak, że kierowcy z bocznych dróg, chcący skręcić w lewo, najpierw muszą pojechać w prawo. Zaraz za miejscem, w którym z superdrogą łączy się droga boczna, zaczyna się pas przeznaczony do zawracania. Kierowca, pragnący z drogi bocznej pojechać w lewo, wjeżdża na superdrogę skręcając w prawo, następnie przez kilkadziesiąt metrów jedzie pasem do zawracania i w wyznaczonym miejscu zawraca. "Badania wykazały, że taka architektura, w porównaniu z drogami o tradycyjnych skrzyżowaniach, pozwala na skrócenie czasu potrzebnego na przebycie skrzyżowania o 20%. Odkryliśmy również, że na skrzyżowaniach superdróg dochodzi do 46% mniej wypadków i 63% mniej wypadków, w których zostają poszkodowani ludzie, w porównaniu z tradycyjnymi drogami" - mówi jeden z badaczy, profesor Joe Hummer. Wszystkie badania przeprowadzono na skrzyżowaniach wyposażonych w sygnalizację świetlną.
  4. W Polsce pojawia się coraz więcej komputerów wykorzystujących najnowsze procesory Intela z rodziny Sandy Bridge. Jednym z nich jest notebook Asus N53SV. W maszynie zastosowano platformę Huron River oraz procesor Core i7-2630QM. Notebook wyposażono też w 4 gigabajty pamięci DDR3 oraz 640-gigabajtowy dysk twardy. Użytkownik skorzysta też z karty graficznej Nvidia Geforce GT 425M lub GT 540M, która wyświetli obraz na 15,6-calowym ekranie podświetlanym diodami LED. Asus N53SV został wyposażony w napęd DVD DL, wyjście D-SUB, HDMI, port na słuchawki, mikrofon oraz e-SATA. Będzie mógł również skorzystać z 2 gniazd USB 2.0 i jednego USB 3.0 oraz łączy Bluetooth i Wi-Fi. Maszyna sprzedawana jest z systemem Windows 7 Home Premium, a jej cena w sklepach Vobis wynosi 3999 złotych.
  5. To nie opalanie, ale zjadanie pięciu porcji warzyw i owoców dziennie stanowi najlepszy sposób na uzyskanie zdrowego, rozświetlonego wyglądu skóry. Większość ludzi na Zachodzie myśli, że najlepszą metodą poprawienia kolorytu skóry jest opalenizna, ale nasze badania pokazują, że w rzeczywistości spożywanie dużej ilości warzyw i owoców jest skuteczniejsze – przekonuje dr Ian Stephen z Wydziału Psychologii Eksperymentalnej Uniwersytetu Bristolskiego. Na początku zespół naukowców pracował w Laboratorium Percepcji na szkockim Uniwersytecie Św. Andrzeja. Oceniano kolor skóry ludzi w odniesieniu do ich diety. Ci, którzy jedli więcej porcji warzyw i owoców dziennie, mieli bardziej złotą barwę skóry. Dalsze badania z wykorzystaniem spektrofotometru pokazały, jak promieniowanie z różnych zakresów spektrum jest pochłanianie przez skórę. Dzięki temu wykazano, że u osób o promiennym (złotym) wyglądzie występowało więcej karotenoidów, czyli żółtych oraz czerwonych przeciwutleniaczy, które odgrywają ważną rolę z perspektywy układu odpornościowego i płodności. Karotenoidy występują powszechnie w owocach i warzywach, np. żółtych i czerwonych paprykach, szpinaku, morelach czy melonach. W dalszej części eksperymentu psycholodzy posłużyli się specjalnym oprogramowaniem, dzięki któremu manipulowali kolorem skóry 51 twarzy, aby symulować większą i mniejszą ilość karotenoidów bądź większą lub mniejszą opaleniznę. Ochotników poproszono, by dostosowali barwę cery, by fizjonomie wyglądały na tak zdrowe, jak to tylko możliwe. Mając wybór między kolorem skóry wzmocnionym przez karotenoidy i opalanie, badani woleli warzywno-owocowe rozwiązanie. Opisywane studium jako pierwsze ujawniło uderzające podobieństwa między ludźmi a zwierzętami w preferencji barw. Żółte dzioby i pióra wielu ptaków można przecież uznać za reklamę dobrego stanu zdrowia samca. Samice tych gatunków wolą spółkować z jaskrawiej ubarwionymi samcami. Soczyste zabarwienie ptaków jest wywoływane przez te same karotenoidy, co u ludzi. Jaskrawożółte ozdobniki u ptaków pokazują, że ich właściciel ma na tyle silny układ odpornościowy i zdrowy układ rozrodczy, że zużywa nadmiar wartościowych przeciwutleniających karotenoidów w ozdobach służących do autoreklamy i przypodobania się samicy. Nasze prace sugerują, że karotenoidowe zabarwienie ludzkiej skóry może stanowić podobną reklamę zdrowia i płodności. Badanie przeprowadzano na przedstawicielach białej rasy, ale w artykule opublikowanym na łamach pisma Evolution and Human Behavior naukowcy sugerują, że zjawisko ma charakter międzykulturowy, gdyż analogiczne preferencje odnośnie do złotawego koloru skóry odkryto w populacjach afrykańskich.
  6. W maju, po niemal 3 latach prac, Microsoft rozpocznie sprzedaż swojej TouchMouse. Myszka zadebiutuje na rynku półtora roku po debiucie podobnej Apple'owskiej MagicMouse. Urządzenie wyceniono na 79,99 USD. Zaprezentowanie TouchMouse było sporym zaskoczeniem. W sierpniu Microsoft pokazał bowiem myszkę ArcTouch i wówczas sądzono, że to właśnie ona jest projektem "Mouse 2.0", nad którym prace były prowadzone od 2008 roku. Przypuszczenia te okazały się, jak właśnie się dowiedzieliśmy, nieprawdziwe. TouchMouse to połączenie myszki z funkcjami wielodotykowego gładzika. Użytkownik może zatem ruchami myszy przesuwać kursor po ekranie i klikać, a jednocześnie przesuwając palce po jej powierzchni może przewijać okna, przełączać się pomiędzy nimi, powiększać, zmniejszać itp. W porównaniu do produktu Apple'a TouchMouse ma większe możliwości, gdyż pozwala na korzystanie nawet z trzech palców oraz kciuka. To jednak nie jest jeszcze gwarancją sukcesu. MagicMouse, pomimo że nie miała żadnego konkurenta, nie podbiła serc użytkowników. Za kilka miesięcy przekonamy się, czy Microsoft będzie w stanie dokonać tego, co nie udało się Apple'owi. http://www.youtube.com/watch?v=sVsFcKd6NjU
  7. Intensywna miłość może przetrwać długie lata. Badanie aktywności mózgowej pokazało bowiem, że w przypadku długoterminowej miłości jest ona podobna do tej odnotowywanej u osób, które dopiero się zakochały. Doktorzy Bianca Acevedo i Arthur Aron z Wydziału Psychologii Stony Brook University porównywali zakochanych ludzi, którzy są od dawna zamężni/żonaci, ze świeżo ugodzonymi strzałą Amora. U obu rodzajów par odkryli bardzo podobną aktywność mózgu w obszarach związanych z nagrodą, motywacją i chęcią działania na rzecz związku. Studium, którego wyniki ukazały się właśnie w internetowym wydaniu Social Cognitive and Affective Neuroscience, jako pierwsze dotyczyło tzw. korelatów neuronalnych długoterminowej miłości romantycznej. Wszyscy naukowcy mają nadzieję, że pomoże ono odpowiedzieć na pytanie, czemu pewne pary pozostają zakochane. Za pomocą funkcjonalnego rezonansu magnetycznego (fMRI) Amerykanie badali 10 kobiet i 7 mężczyzn, którzy twierdzili, że po średnio 21 latach małżeństwa są nadal intensywnie zakochani w swoim partnerze/partnerce. Ochotnikom pokazywano zdjęcia twarzy ukochanej osoby oraz fotografie kontrolne: bliskiego przyjaciela, dobrego znajomego i kogoś mało znanego. Obrazy uzyskane za pomocą fMRI porównywano ze zdjęciami z eksperymentu z 2005 r., kiedy metodę tę wykorzystano do zbadania 10 kobiet i 7 mężczyzn, którzy się zakochali w ciągu poprzedniego roku. Znaleźliśmy wiele oczywistych podobieństw – twierdzi Aron, odwołując się do kluczowych regionów związanych z nagrodą i motywacją, głównie do fragmentów obfitującego w dopaminę pola brzusznego nakrywki (pola Tsaia; ang. ventral tegmental area, VTA). W ostatnim studium VTA wykazywało silniejszą reakcję na fotografie długoterminowego partnera niż na zdjęcia bliskiego przyjaciela czy jakiekolwiek inne. Co ciekawe, te same regiony VTA były bardziej aktywne u tych pozostających od dawna w związku osób, które w kwestionariuszach uzyskały dużo punktów w skalach miłości romantycznej i bliskości – podkreśla dr Acevedo. Większa bliskość była związana z aktywnością wskazującą na nagrodę i motywację (VTA i istota czarna) oraz świadomość innych ludzi, np. ich emocji (środkowa wyspa oraz przedni zakręt obręczy). Długość związku miała wiele wspólnego z aktywnością brzusznego i grzbietowego prążkowia; podobnie zresztą jak u osób tęskniących za zmarłym ukochanym lub doświadczających kokainowego haju (stąd porównania więzi z ludźmi do uzależnień). Częstotliwość kontaktów seksualnych była pozytywnie skorelowana z aktywnością tylnego hipokampa, obszaru powiązanego w ramach wcześniejszych badań z głodem i zachciankami oraz obsesyjnością na punkcie partnera/partnerki na początkowych etapach miłości.
  8. Czy szkło może być wytrzymalsze od stali? Jak pokazują badania, tak, jeśli jest to „szkło metaliczne" (inaczej mówiąc: metal amorficzny). Niełatwo jest takie szkło otrzymać, ale jego parametry kuszą przełomem w technologii materiałowej. Tradycyjne, znane nam szkło różni się od większości materiałów tym, że posiada strukturę amorficzną: to znaczy w postaci stałej nie formuje kryształów, lecz jego cząstki są rozmieszczone bezładnie, podobnie jak w cieczy (dlatego nazywa się je czasem, z pewną przesadą, „zestaloną cieczą"). Taka struktura materiału posiada wiele zalet, ale ma też wielką wadę: kruchość. Wzmacnianie szkła pozwala tę wadę częściowo zniwelować, ale bardziej obiecujące wydaje się podejście odwrotne: nadanie metalom struktury amorficznej, podobnej do szkła. Jest to bardzo trudne, jako że metale stygnąc formują regularne struktury. Jedynym znanym sposobem na „oszukanie" metalu jest tak szybkie jego schłodzenie, aby nie zdążył takiej regularnej struktury uformować. Nad nową generacją takich materiałów pracuje zespół złożony z naukowców trzech amerykańskich placówek: U.S. Department of Energy, Lawrence Berkeley National Laboratory (Berkeley Lab) oraz California Institute of Technology (CalTech). Metaliczne szkło jest wyjątkowo wytrzymałe, niestety dziedziczy główną wadę amorficznej struktury: kruchość. W materiałach krystalicznych to właśnie struktura powstrzymuje pęknięcia przed powiększaniem się, w materiałach amorficznych niewielkie pęknięcie rozszerza się i powoduje rozpad całości. Metaliczne szkło stworzone głównie przez Mariosa Demetriou to nanostop wielu metali z domieszką palladu. Materiał ten posiada wyjątkową właściwość zmiany swojej struktury w miejscu pęknięcia lub rysy - początkowo jest amorficzna, lecz w miejscu powstającego uszkodzenia tworzą się mikroskopijne kryształy powstrzymujące pęknięcie przed rozszerzaniem się. Kluczem był taki dobór składu, aby energia wymagana do zmiany struktury amorficznej w krystaliczną była mniejsza niż potrzebna do rozszerzenia się uszkodzenia. Krystaliczne elementy przybierają formę „dendrytów", nie likwidując tym samym struktury amorficznej. Co ciekawe, najnowsza wersja materiału potrafi zmieniać fazę z amorficzną na krystaliczną również w wyniku zginania, zapobiegając pęknięciu również w takich sytuacjach. Ponieważ badania trwają, naukowcy spodziewają się osiągnięcia jeszcze bardziej wytrzymałych materiałów. Problemem też nadal jest rozmiar osiąganych elementów - ponieważ ich produkcja wymaga wciąż bardzo szybkiego schładzania, bardzo ogranicza to możliwości. Stop złożony z palladu, krzemu, fosforu i germanu pozwala na stworzenie próbek o średnicy nie przekraczającej milimetra. Dodanie do stopu srebra pozwoliło osiągnąć przełomowy rozmiar sześciu milimetrów, co obrazuje skalę problemu. Domieszkowanie na na celu „zdezorientowanie" stopu, który „nie wiedząc" jaką ma właściwie przyjąć strukturę, łatwiej przyjmuje postać amorficzną.
  9. W miarę wydłużania się średniej długości życia coraz więcej uwagi trzeba poświęcać chorobom osób starszych. Do nich należy choroba Parkinsona, która dotyka jednego procenta osób powyżej czterdziestego roku życia. Niestety, nie tylko brak jest skutecznego lekarstwa, ale nawet znajomości przyczyn tej dolegliwości. W tej sytuacji zbawienny jest każdy środek, który opóźnia przebieg choroby, bądź łagodzi jej objawy. Na Rush University przeprowadzany jest unikatowy projekt sprawdzający przydatność terapii pochodzącej sprzed ponad stu lat. Nie stosowana dziś, a prosta terapia jest dziełem francuskiego, dziewiętnastowiecznego lekarza, Jean-Martina Charcota, ówczesnego autorytetu w dziedzinie chorobowych zaburzeń ruchu, w tym właśnie parkinsona. Zauważył on, że pacjencji z parkinsonem odczuwali wyraźną poprawę po długich podróżach bryczką. Zakładając, że przyczyną są wstrząsy powodowane jazdą po brukowanych „kocimi łbami" ulicach, skonstruował on specjalny przyrząd. „La Chaire Trépidante" było po prostu krzesłem, które mechanicznie aplikowało pacjentom wstrząsy i wibracje. Ówczesne raporty potwierdzały skuteczność terapii - osoby leczone w ten sposób deklarowały zmniejszenie bólu i sztywności. Czy jednak wibracyjna terapia byłaby w stanie spełnić dzisiejsze, nowoczesne wymogi badawcze? Postanowił przekonać się o tym doktor Christopher Goetz, dyrektor Centrum Zaburzeń Ruchu (Movement Disorders Center) na Rush University Medical Center, a zarazem znawca osiągnięć dziewiętnastowiecznego uczonego. W tym celu Goetz skonstruował nowoczesne terapeutyczne krzesło według zaleceń Charcota. Ma ono właściwie postać rozkładanej, przenośnej poduszki z zamontowanymi głośnikami, które podłącza się do wzmacniacza. Całość uzupełnia płyta CD z muzyką, która dostarcza samych wibracji, odpowiednio wzmacnianych przez system głośników. Przyjęte podejście pozwoli ewentualnie testować różne schematy wibracji. Rozpoczęte badanie obejmie na początek 20 osób z idiopatyczną chorobą Parkinsona, u wszystkich określono dokładnie stopień zaawansowania choroby. Połowa z nich dostanie wibracyjne urządzenie do domu, grupa kontrolna będzie leczona samą muzykoterapią. Wszyscy będą prowadzić dokładne dzienniki oraz przechodzić badania kontrolne. Terapia wstrząsami, czy wibracjami stosowana jest już w wielu dziedzinach medycyny: ortopedii, urologii, czy medycynie sportowej. Do tej pory jednak nie próbowano stosować jej w przypadku neurodegeneracyjnych chorób mózgu. Pomyślny efekt badań dostarczyłby taniej, prostej i pozbawionej ubocznych skutków terapii pozwalającej ulżyć chorym.
  10. Podczas targów CES 2011 firma ioSafe zaprezentowała najbardziej wytrzymały przenośny dysk twardy. Urządzenie Rugged Portable jest wodoodporne, wytrzymuje upadki oraz strzały z broni palnej. Dyski z nowej rodziny będą przechowywały od 250 gigabajtów do 1 terabajta. Zamknięty w aluminiowej obudowie dysk może przetrwać trzydniowe przebywanie na głębokości 3 metrów zarówno w wodzie słodkiej jak i słonej. Z kolei tytanowa obudowa pozwala na zanurzenie go na głębokość 9 metrów. Aluminiowa obudowa pozwala też przetrwać dyskowi upadek z wysokości 3, a tytanowa z 9 metrów. Jednak najbardziej imponującym pokazem była demonstracja wytrzymałości dysku, który przetrwał strzał ze strzelby. Na obudowie widniały liczne ślady po śrucie, jednak dane były nieuszkodzone. Rugged Portable korzysta z łączy USB 3.0 oraz FireWare. W cenie urządzenia zawarto też ważną przez rok usługę odzyskiwania danych. Za przedłużenie usługi na trzy lata dopłacić 50 USD, jeśli zaś chcemy korzystać z niej przez pięć lat - 100 USD. W ramach gwarancji producent dysku odzyska dane nawet wówczas, gdy zostały przypadkiem usunięte przez użytkownika. http://www.youtube.com/watch?v=BsaijC5jdP8
  11. Przyszła generacja układów Intela - Ivy Bridge - będzie obsługiwała DirectX 11. W najnowsze kości z rodziny Sandy Bridge wbudowano układ graficzny, który nie współpracuje z najnowszymi bibliotekami graficznymi. Zintegrowanie DirectX 11 z Ivy Bridge pozwoli Intelowi na bezpośrednie konkurowanie z układami Fusion AMD, które obsługują już ten standard. Mooly Eden z Intela wyjaśnia, że Sandy Bridge nie obsługuje DirectX 11, gdyż jeszcze na to zbyt wcześnie. Bardzo mało programów korzysta z tych bibliotek. Ivy Bridge to pierwszy z kroków procesu rozwojowego Intela, znanego jako "tik-tak". Od 2007 roku Intel stosuje zasadę, zgodnie z którą pierwszy krok (tik) to przejście na kolejny poziom procesu produkcyjnego już istniejącej architektury, a krok drugi (tak) to premiera nowej architektury. Zgodnie z tym modelem niedawna premiera mikroarchitektury Sandy Bridge to krok "tak", który nastąpił po "tik" czyli wdrożeniu 32-nanometrowego procesu produkcyjnego dla istniejącej już wcześniej mikroarchitektury Nehalem i pojawieniu się układów z serii Westmere. Po "tak" - czyli nowej mikroarchitekturze Sandy Bridge, której kości wytwarzane są w procesie 32 nanometrów - nastąpi w drugiej połowie bieżącego roku "tik", a zatem pojawi się 22-nanometrowa odmiana Sandy Bridge, czyli właśnie Ivy Bridge.
  12. Otyłość wydaje się niekorzystnie wpływać na pewne obszary mózgu, zmniejszając ich wielkość. W przeszłości dr Antonio Convit z Langone Medical Center Uniwersytetu Nowojorskiego ustalił, że u otyłych dzieci z cukrzycą typu 2. występują problemy poznawcze, dotyczące m.in. uwagi i pamięci, zastanawiał się więc, jak nadmierna waga ciała wpływa na fizyczną budowę mózgu. Otyłość wiąże się z chronicznym, niezbyt nasilonym układowym stanem zapalnym, obejmującym m.in. podwzgórze, w którym znajdują się ośrodki kierujące pobieraniem pokarmu. Dotąd nie było wiadomo, czy wywiera on wpływ na inne struktury zarządzające odżywianiem, ale wiele wskazuje na to, że tak. Amerykańsko-francuski zespół wykorzystał rezonans magnetyczny do porównania mózgów 44 otyłych bądź cierpiących na nadwagę i 19 szczupłych osób w podobnym wieku i o podobnym pochodzeniu. Badano objętość hipokampa oraz bocznej i przyśrodkowej kory przedczołowej (objętość istoty szarej dostosowywano do zmiennych rozmiarów głowy). Poza tym określano poziom fibrynogenu osocza (ponieważ jest to białko fazy ostrej i jego stężenie wzrasta w organizmie np. w wyniku reakcji na zakażenie czy urazy, traktuje się je jak marker stanu zapalnego). Sporządzono m.in. mapy współczynnika dyfuzji i okazało się, że u badanych z nadmierną wagą w prawym i lewym ciele migdałowatym – części układu limbicznego, która odpowiada m.in. za regulację odżywiana - znajdowało się więcej wody. Kora okołooczodołowa, związana z kontrolą impulsów i jedzenia, miała za to mniejszą objętość. Oznacza to, że znajduje się tam mniej neuronów lub że uległy one skurczeniu. Mniejsza objętość kory okołooczodołowej (i zwiększone stężenie fibrynogenu) pozwala odróżnić osoby otyłe od szczupłych. Dodatkowo podwyższony fibrynogen łączy się także ze zwiększoną dyfuzją wody w amygdala. Przez te dwa obszary stan zapalny oddziałuje na jedzenie, a także układ nagrody. Wygląda na to, że to kolejne dowody na istnienie zamkniętego koła otyłości: przejadanie wywołuje zmiany w mózgu, które z kolei zwiększają prawdopodobieństwo dalszego przejadania.
  13. Sąd Okręgowy dla Wschodniego Okręgu Virginii zwrócił się do serwisu Twitter z żądaniem ujawnienia szczegółów dotyczących osób powiązanych z Wikileaks, które przyczyniły się do ujawnienia materiałów amerykańskiej dyplomacji. Sądowy nakaz obejmuje konta Juliana Assange'a, Bradleya Manninga, programisty Jacoba Appelbuma, holendra Ropa Gonggrijpa oraz islandzkiej posłanki Birgitty Jonsdottir. Sąd pozwolił jednocześnie Twitterowi na opublikowanie nakazu. Czytamy w nim, że sąd uznał, iż prokuratura przedstawiła przekonujące dowody na to, iż pozyskanie danych z Twittera - a zwrócono się o nazwy kont, adresy e-mail, dane o dokonywanych połączeniach i adresy IP, numery telefonów oraz "sposób i źródło płatności" - wymienionych osób mają znaczenie dla śledztwa. Amerykańska prokuratura od kilku miesięcy nie jest w stanie sformułować zarzutów przeciwko Julianowi Assange'owi. Korzysta on bowiem z wolności wypowiedzi gwarantowanej przez Pierwszą Poprawkę, a próba wykorzystania w tej sprawie ustawy Espionage Act zakończyłaby się najprawdopodobniej porażką prokuratury. Żądając informacji z Twittera prokuratorzy chcą prawdopodobnie zbadać związki i korespondencję pomiędzy osobami uczestniczącymi w ujawnieniu kontrowersyjnych materiałów. To z kolei może wskazywać, że szukają dowodów pozwalających na postawienie Assange'owi zarzutów o konspirowaniu w celu kradzieży poufnych informacji. Taki zarzut mógłby się pojawić, gdyby udowodniono, że twórca Wikileaks nakłaniał Bradleya Manninga do ujawnienia depesz. Twitter może odwołać się od decyzji sądu.
  14. Gdy pacjentom tuż po udarze niedokrwiennym podawano Prozac (fluoksetynę), selektywny inhibitor zwrotnego wychwytu serotoniny, szybciej odzyskiwali mobilność i po 3 miesiącach byli bardziej niezależni od chorych, którzy zażywali placebo. Wyniki francuskiego studium z udziałem 118 osób w wieku od 18 do 85 lat opublikowano właśnie w piśmie The Lancet Neurology. Po 90 dniach farmakoterapii, która rozpoczynała się 5-10 dni od początku udaru, okazało się, że pacjenci zażywający doustnie 20 mg fluoksetyny dziennie odzyskali funkcje kończyn dolnych i górnych w stopniu znacznie większym niż grupa kontrolna. Częściej też radzili sobie bez pomocy innych. U wszystkich badanych w wyniku udaru wystąpiła umiarkowana-głęboka niesprawność ruchowa. Francuzi podkreślają, że wynikiem zawału mózgu często bywa porażenie połowicze lub niedowład mięśni jednej połowy ciała. Już wcześniej kilka niewielkich badań sugerowało, że fluoksetyna wspomaga rehabilitację ruchową, ale nikt nie znał jej dokładnej użyteczności klinicznej. Na początku chorzy uzyskiwali w Skali Pomiaru Wydolności Fizycznej po Udarze Mózgu Fugl-Meyer (ang. Fugl-Meyer Motor Scale, FMMS) wynik od 55 punktów w dół. W okresie od zerowego do 90. dnia eksperymentu monitorowano zmiany w punktacji. W grupie przyjmującej Prozac występowały łagodne i rzadkie skutki uboczne, jednak należy zauważyć, że odnotowano w niej więcej przypadków nudności i biegunki niż w grupie placebo. W przyszłości zespół profesora François Cholleta zamierza dokładniej przeanalizować mechanizm oddziaływania inhibitorów zwrotnego wychwytu serotoniny na chorych po przebytym udarze niedokrwiennym. Obecnie antydepresanty są stosowane w leczeniu obniżenia nastroju, które bywa dość częstym skutkiem udaru. Wiele wskazuje na to, że ich podawanie prowadziłoby do dwojakich korzyści.
  15. Matka Natura posiada niezwykłe zdolności regeneracji i po raz kolejny udowadnia, jak mało wiemy o wykorzystywanych przez nią mechanizmach. Tym razem zaskoczyła naukowców błyskawicznym unormowaniem poziomu metanu w wodach Zatoki Meksykańskiej. John Kessler z Texas A&M University i David Valentine z University of California, Santa Barbara, przeprowadzili kolejne w ostatnim czasie badania wód Zatoki. W czerwcu ubiegłego roku, po olbrzymim wycieku ropy z platformy Deepwater Horizon, obaj naukowcy badali skład wód Zatoki. Zauważyli wówczas, że wskutek wycieku są one pełne metanu i innych gazowych węglowodorów. Poziom metanu był wówczas aż 100 000 razy wyższy od normalnego. Opierając się na naszych wcześniejszych pomiarach oraz innych badaniach wydawało się, że podwyższony poziom metanu będziemy notowali w Zatoce przez najbliższe lata - mówi Kessler. Kolejne badania wód przeprowadzono zaledwie 120 dni później, we wrześniu i październiku. Naukowcy ze zdumieniem zauważyli, że poziom metanu wrócił do normy. Zanotowano duży wzrost liczby bakterii wykorzystujących metan w procesach metabolicznych oraz oszacowany na milion ton deficyt tlenu, który najprawdopodobniej został zużyty przez wspomniane bakterie. Dzięki tak błyskawicznemu zniknięciu metanu sytuacja wód Zatoki wraca do normy, a dodatkową korzyścią jest fakt, że metan - niezwykle silnie działający gaz cieplarniany - nie trafił z wody do atmosfery. Ta katastrofa umożliwiła przeprowadzenie niezwykłych badań, które pozwoliły na śledzenie losów olbrzymich ilości metanu, które zostają uwolnione do wód oceanicznych - powiedział Valentine. Wyciek z platformy to bardzo cenna lekcja dla naukowców zajmujących się klimatem. Dotychczas sądzono, że znajdujące się pod dnem morskim olbrzymie ilości metanu mogą, jako że są powoli uwalniane, mogą wpływać na kształtowanie klimatu. Tymczasem okazuje się, że - przynajmniej wycieki metanu o podobnej charakterystyce jak ten, do którego doszło wskutek katastrofy - nie mają wpływu na klimat.
  16. Dzikie małpy z rodzaju Cebus – kapucynki - wybierają najlepsze w danych okolicznościach narzędzia do rozbijania orzechów. Analizują nie tylko wygląd, wagę i inne właściwości kamieni spełniających rolę młotka, ale i cechy podkładek (Animal Behaviour). Małpy wykorzystują zagłębienia w klocach czy dużych kijach jako rodzaj kowadła, a właściwie miniimadła, w którym unieruchamia się rozbijany obiekt. Jak wspomniano wyżej, rolę młotka spełniają duże kamienie. Na filmie naukowców z University of Georgia widać zwierzę ważące w łapach różne kloce, by wybrać ten najbardziej odpowiedni do danego zadania. Wg Qing Liu, to pierwszy udokumentowany przypadek zwierzęcia oceniającego różne kowadła, ponieważ do tej pory widywano jedynie małpy dobierające kamienne młotki. Co więcej, wydaje się, że kapucynki analizują również powierzchnię podkładki. Wybierają tę najskuteczniejszą, nawet jeśli robią to na podstawie czegoś nieuchwytnego [dla ludzkiego oka]. Efektywność jest odpowiednikiem liczby uderzeń potrzebnych do rozbicia orzecha w zagłębieniu – im mniej, tym lepiej. O ile wiem, wykrywania tak złożonych właściwości nie zademonstrowano wcześniej w przypadku narzędzi wykorzystywanych przez jakiekolwiek zwierzę. Kapucynki są zwierzętami społecznymi i uczą się na podstawie obserwacji. Jeśli jednak dana kłoda okazuje się nieskuteczna, samodzielnie korygują swoje zachowanie.
  17. Japończycy są bardzo praktycznym i pomysłowym narodem. To w Kraju Kwitnącej Wiśni na początku maja ubiegłego roku firma Mitsubishi Electric zainstalowała w nowym biurowcu w Osace windę na 80 osób. Teraz w Fukui zaproponowano pewne nie tylko biurowe rozwiązanie – przycisk na poziomie stóp, który ułatwi życie ludziom dźwigającym zakupy czy pudła. Nawet sami Japończycy wydawali się zaskoczeni wynalazkiem, zauważając, że nieczęsto zdarza się, by przycisk dla niepełnosprawnych znajdował się wyżej od guzika dla osób zdrowych. Trzeba jednak przyznać, że wymiary guzika idealnie pasują do wszelkiego rodzaju butów. Nie trzeba szpiców, by trafić, gdzie trzeba. Uda się to także w obuwiu roboczym, kozakach czy kaloszach, co z pewnością docenią choćby budowlańcy. Pozostaje jeszcze pytanie, czy w samej kabinie windy zastosowano takie samo rozwiązanie. Jeśli nie i tak trzeba będzie odstawić zakupy czy innego rodzaju ciężar...
  18. Walka z uzależnieniem od narkotyków to jak walka z wiatrakami. Na tym trudnym polu pojawia się światełko w tunelu: pojawiła się pierwsza na świecie szczepionka przeciwko narkotykowi. Zespół naukowców z nowojorskiego Weill Cornell Medical College oraz kilku innych amerykańskich placówek naukowych opracował prototypową szczepionkę przeciwko kokainie - jednemu z najbardziej niebezpiecznych narkotyków. Próby stworzenia przeciwnarkotycznych szczepionek podejmowano od dawna, ale żadna nie zakończyła się sukcesem. Tym razem naukowcy - głównie specjalistów od medycyny genetycznej - wykorzystali pospolitego wirusa wywołującego przeziębienie, który aktywizuje ludzki układ odpornościowy. Do wirusa dołączono ugrupowanie chemiczne podobne strukturalnie do fragmentu cząsteczki kokainy, dzięki czemu układ immunologiczny również ją uznaje za wroga, uczy się ją rozpoznawać i zwalczać. Na razie jej skuteczności dowiodły testy przeprowadzane na myszach - zaszczepione gryzonie wykształcały przeciwciała, które neutralizowały cząsteczki narkotyku natychmiast po jego wprowadzeniu do organizmu i nie dopuszczały narkotyku do mózgu. Uodpornione myszy po podaniu kokainy nie wykazywały więc oznak „haju" ani objawów fizjologicznych. Wynaleziona szczepionka, co zaznaczają autorzy, nie wymaga wielokrotnego podawania dożylnego i łatwo będzie ją przystosować do pierwszych testów na ludziach. Do zastosowania praktycznego jest co prawda jeszcze długa droga, ale samo stworzenie działającej szczepionki jest przełomem. W powstaniu szczepionki mieli udział naukowcy z Weill Cornell Medical College (Nowy Jork), The Skaggs Institute for Chemical Biology (La Jolla, Kalifornia), The Scripps Research Institute (La Jolla), Cornell University (Ithaca, Nowy Jork).
  19. Od dekad to krzem pozostaje głównym materiałem konstrukcyjnym elektroniki, mimo że jest to coraz trudniejsze, producenci coraz bardziej zwiększają gęstość upakowania krzemowych elementów, zachowując prawo Moore'a. Ale już niedługo zdolność krzemowej technologii do rozwoju skończy się nieodwracalnie: negatywne zjawiska towarzyszące miniaturyzacji zastopują ją najdalej za dziesięć lat, być może nawet wcześniej - z powodu wykładniczo rosnących kosztów wdrażania coraz precyzyjniejszych technologii. Materiałem, w którym od lat upatruje się kandydata na następcę krzemu jest grafen. Niestety, ze względu na całkowicie odmienne właściwości (nie do końca przy tym poznane) nie da się go tak po prostu użyć w miejsce krzemu, konieczne jest opracowanie technologii dosłownie od zera. Chociaż więc po grafenie oczekuje się, że pozwoli na tworzenie układów scalonych mniejszych i szybszych, na razie gra toczy się nie o to, żeby zrobić lepiej, ale żeby w ogóle zrobić cokolwiek. Od laboratorium do fabryki - daleka droga Przez długie lata większość badań koncentrowała się na tzw. grafenie eksfoliowanym. Pierwsze płatki grafenu uzyskano odrywając z grafitu pojedynczą warstwę atomów przy pomocy taśmy klejącej. To co wystarcza naukowcom dla producentów jest jednak niczym - im potrzeba materiału łatwego w wytwarzaniu i obróbce, pewnego, zachowującego się przewidywalnie i skalowalnego. Materiałem, w którym również upatrywano kandydata były węglowe nanorurki - rurki złożone z pojedynczej warstwy atomów węgla. Mimo zadziwiających właściwości ich praktyczne zastosowanie pozostaje żadne: trudno je wytwarzać w pożądany i przewidywalny sposób. Zajmujący się nanorurkami naukowiec Georgia Tech, Walt de Heer, uznał, że nigdy nie nadadzą się one do zastosowań przemysłowych, przynajmniej w dziedzinie elektroniki. Zauważył jednak, że skoro ich właściwości elektryczne wynikają głównie z istnienia pojedynczej warstwy atomów, praktyczniej będzie taką rurkę rozwinąć i rozpłaszczyć, czyli wyhodować na płaskiej powierzchni. Stąd wziął się pomysł, a potem technologia produkcji grafenu epitaksjalnego, czyli hodowanego na odpowiednio przygotowanej powierzchni. Technika ta pozwala na przeniesienie charakterystyki warstwy bazowej na strukturę atomową tworzonej warstwy epitaksjalnej. Materiałem bazowym jest powszechnie stosowany węglik krzemu, do którego można stosować znane już technologie wytwarzania elektroniki. Przez umiejętne podgrzewanie powoduje się migrację atomów krzemu, pozostawiając sam węgiel - czyli uzyskuje się precyzyjnie kontrolowaną warstwę grafenu. Tą metodą udało się wyprodukować siatkę składającą się z 10 tysięcy grafenowych tranzystorów na powierzchni 0,24 cm2 - to rekord, którym szczyci się Georgia Tech. Warstwy grafenu, jakie wytwarzane są w laboratoriach, poddawane są skrupulatnym badaniom. Epitaksjalny grafen dra de Heera zachowuje się niemal doskonale tak, jak wynika z teoretycznych symulacji, pozwalając zaobserwować oczekiwane właściwości, na przykład występowanie kwantowego efektu Halla. Obok prac nad skalowalnością procesu, równie ważne są prace nad tworzeniem struktur wielowarstwowych. Niedawno udało się wykazać, że dodawanie nowych warstw nie zakłóca właściwości warstw już istniejących. Ciekawostką jest to, że taki wielowarstwowy grafen jest czymś innym od grafitu: w graficie kolejne warstwy atomów obrócone są o 60º. W wielowarstwowym grafenie zaś o 30º - czyli jest to całkowicie nowy materiał. Epitaksjalne wytwarzanie grafenowych warstw pozwoliło ominąć jeszcze jedną technologiczną trudność. Podczas wykorzystywania innych technologii problemem były nierówne krawędzie nanoelementów. Ponieważ właściwości grafenu mocno zależą od jego kształtu (potrafi on nawet być raz przewodnikiem a raz półprzewodnikiem), jeśli krawędzie grafenowych elementów nie były idealnie gładkie, pojawiały się niepożądane opory w przepływie prądu, upływy itp. Technologia epitaksji pozwala zachować idealne krawędzie. Do ciekawostek należą odnalezione we współpracy z NIST (National Institute of Standards and Technology) właściwości grafenu pozwalające wpływać na jego właściwości przy pomocy precyzyjnie aplikowanych pól magnetycznych. Grafen - Concorde elektroniki Czy zatem grafen zastąpi krzem? Według zajmujących się nim naukowców po pierwsze nie tak szybko, po drugie nie do końca. Niekompatybilność właściwości starego i nowego materiału nie pozwoli tak po prostu przesiąść się na nowe technologie, które początkowo będą drogie. De Heer uważa, że przez długi czas krzem i grafen będą koegzystować - krzem w roli elektroniki popularnej i niedrogiej, grafen - do bezkompromisowych zastosowań, jak choćby bardzo zminiaturyzowane i szybkie układy, nie do osiągnięcia na bazie krzemu. Posługując się analogią sądzi on, że wchodzenie nowej technologii podobne będzie do rywalizacji lotnictwa z transportem morskim i kolejowym. Rozwijające się lotnictwo pasażerskie, pomimo wysokich cen, miało chętnych, dla których była ważniejsza szybkość. Do dziś jednak, mimo spadku cen i coraz większej masowości, stare metody transportu nie zanikły i wciąż się rozwijają.
  20. Niealkoholowe stłuszczenie wątroby - dość powszechna i dająca niewiele objawów dolegliwość, łączy się z trzykrotnie zwiększonym ryzykiem udaru mózgu - odkryli naukowcy St. Michael's Hospital. To pierwsze badanie wykazujące taki związek. Powiązania stłuszczenia wątroby - choroby charakteryzującej się odkładaniem komórek tłuszczowych w wątrobie - z ryzykiem udaru mózgu nikt się nie spodziewał. Dlatego wynik studium, jakie przeprowadzili Joel Ray i Ivan Ying był całkowitym zaskoczeniem, a zwłaszcza bardzo wysoki wzrost ryzyka. W latach 2005-2009 przeanalizowali oni przypadki ponad setki osób dorosłych z przebytym i potwierdzonym przy pomocy rezonansu magnetycznego udarem mózgu i porównali je z dwustoma przypadkami podejrzewanego, ale wykluczonego udaru. Badania wykazały, że osoby z przebytym udarem posiadały bardzo wysoki poziom enzymów wiążących się ze stłuszczeniem wątroby. Odkrycie stwarza szanse całkowicie nowe, proste i skuteczne metody przewidywania ryzyka udaru jedynie poprzez pomiar poziomu enzymów. Zanim jednak metoda będzie mogła zostać wykorzystana, konieczne są badania potwierdzające i weryfikujące to zaskakujące odkrycie.
  21. Trudno przecenić siłę, z jaką hollywoodzkie kino oddziałuje na powszechną wyobraźnię. Nie sposób też nie zauważyć, że kino - do czego ma zresztą prawo - chętnie traktuje realizm dość swobodnie. Czy jednak taka dowolność, prezentowana w wysokobudżetowych filmach science-fiction, nie przekracza ostatecznych granic? Na pewno może być szkodliwa, uznali naukowcy NASA, wybierając „2012" najbardziej antynaukowym i bzdurnym filmem w historii kinematografii. Podobne dyskusje z wytykaniem błędów przetaczały się już wielokrotnie, jak choćby w przypadku „Dnia niepodległości", który był wręcz swego rodzaju chłopcem do bicia, a znajdowanie nielogiczności w tej produkcji stało się hobby wielu osób. Nigdy wcześniej jednak naukowcy związani z NASA nie poczuli się w obowiązku publicznego prostowania filmowych nonsensów i absurdów, dopiero kosztujący osiemset milionów dolarów katastroficzny „2012" skłonił ich do tego. Oparty na popularnym w paranauce micie o tym, że koniec znanego kalendarza Majów oznacza koniec świata, który wypadnie w 2012 roku, zdobył wielką popularność i posiał niepewność wśród wielu ludzi. Pokazany „koniec świata", podparty pseudonaukowymi argumentami i pseudonaukowym językiem może wydawać się wiarygodny, a skutkiem tego są niezliczone listy i e-maile pisane między innymi do NASA przez zaniepokojonych widzów. Donald Yeomans, zajmujący się w NASA badaniem bliskich asteroidów nazwał holywoodzki przebój „wyjątkowo nadzwyczajnym przykładem »złej nauki«". Niemożliwe jest - przykładowo - aby słoneczne neutrina w jakikolwiek sposób reagowały z jądrem Ziemi i wywoływały jakiekolwiek efekty, ponieważ nie reagują one z materią praktycznie w ogóle. Pokazane na filmie olbrzymie tsunami, przykrywające Mount Everest są nawet bez tego niemożliwe. Nie sposób nawet wyliczyć wszystkich filmowych absurdów, do których dochodzą jeszcze inne popularne w paranauce „teorie końca świata", jak choćby tajemnicza planeta Nibiru i inne. Dlatego NASA postanowiło, po raz pierwszy w historii, zamieścić w internecie materiały demaskujące antynaukowe nonsensy filmu 2012 - „2012: początek końca, albo dlaczego nie będzie końca świata?". Na liście kandydatów do najgłupszego pod względem naukowym filmu, z „2012" rywalizowały takie produkcje jak „The Day After Tomorrow" (o globalnym ociepleniu), „Volcano" (o wulkanie pojawiającym się w Los Angeles), czy mieniące się filmami dokumentalnymi „What the Bleep Do We Know", „The Sixth Day", „Chain Reaction", „The Core". Na liście pojawił się nawet „Armageddon", mimo że powstawał przy wsparciu NASA. Dla odmiany na liście filmów wiarygodnych naukowo znalazły się „Gattaca", „Metropolis", „Jurassic Park", „Contact" i „Blade Runner". http://www.youtube.com/watch?v=ce0N3TEcFw0
  22. The Wall Street Journal dotarł do wewnętrznego dokumentu Facebooka, z którego wynika, że największy portal społecznościowy świata i główny konkurent Google'a na rynku najczęściej odwiedzanych witryn, może trafić na giełdę jeszcze w bieżącym roku. We wspomnianym raporcie szefostwo Facebooka informuje obecnych inwestorów, że przewiduje iż wkrótce ich liczba w przynajmniej jeden z pięciu typów udziałów przekroczy 499. Gdy tak się stanie firma, nawet jeśli jej akcje nie znajdą się w publicznym obrocie, będzie musiała ujawniać swoje wyniki finansowe i zarobki menedżerów. Musi ona zarejestrować się amerykańskiej komisji giełd (SEC) jako firma raportująca w ciągu 120 dni od końca roku kalendarzowego, w którym przekroczono wspomnianą liczbę 499 inwestorów. Najczęściej przedsiebiorstwa, które mają taki obowiązek, decydują się jednocześnie na debiut giełdowy. Oznacza to, że Facebook powinien zadebiutować nie później niż 30 kwietnia przyszłego roku. Jeszcze niedawno jeden z menedżerów Facebooka mówił, że portal może trafić do publicznego obrotu przed końcem 2012 roku. Jednak błyskawiczny wzrost jego szacowanej wartości - z 10 miliardów w połowie 2009 roku do obecnych 50 miliardów dolarów - skłania obecnych inwestorów oraz kierownictwo do przyspieszenia daty rozpoczęcia notowań giełdowych. Oznacza to bowiem, że publiczna sprzedaż portalu może przynieść im olbrzymie korzyści. Ze zdobytych przez Wall Street Journal informacji wynika też, że w ciągu pierwszych 9 miesięcy ubiegłego roku przychody Facebooka wyniosły 1,2 miliarda dolarów, a dochód zamknął się kwotą 355 milionów. Całoroczny przychód portalu mógł sięgnąć nawet 2 miliardów USD. Na razie nie wiadomo, dlaczego przedstawiciele Facebooka zdecydowali się poinformować potencjalnych inwestorów o możliwości przekroczenia ustanowionego przez SEC limitu liczby inwestujących. Niewykluczone, że przyczyną takiego stanu rzeczy jest chęć poznania rzeczywistej wartości firmy. Obecnie bowiem można ją oceniać jedynie na podstawie małej ilości akcji sprzedawanych przez byłych i obecnych pracowników Facebooka. Już pojawiły się głosy, że zbliżający się giełdowy debiut portalu będzie przypominał bańkę internetową z początku dekady. Ci, którzy pierwsi kupią akcje, mogą na nich sporo zarobić.
  23. Pojawiają się głosy, że kobiece łzy działają jak anty-Viagra. I nie chodzi wyłącznie o sugerowanie mężczyźnie, że nie czas na amory. Okazuje się bowiem, że w wydzielinie gruczołów łzowych kobiet znajdują się związki chemiczne zmniejszające męskie podniecenie seksualne. Dotąd ludzkie łzy uznawano za sygnał wyłącznie wzrokowy. U zwierząt łzy stanowią jednak również komunikat chemiczny. U samców myszy występuje w nich np. substancja, która sprawia, że samice stają się bardziej chętne do kopulacji. Jako gatunek rzadko wchodzimy w na tyle bliski kontakt, by móc odczytać chemiczne wskazówki z łez, ale sytuacje intymne jako nieliczne dają przecież do tego okazję. Noam Sobel z Instytutu Nauki Weizmanna wiedział już, że łzy ronione przy różnych okazjach nie są takie same chemicznie, czemu nie miałyby więc stanowić informacji dla płci przeciwnej? By to sprawdzić, Izraelczyk znalazł 2 kobiety, które umiały płakać na zawołanie. Pokazał im sceny z amerykańskiego melodramatu z 1979 r. pt. Mistrz. Podczas seansu zbierano ich łzy. W krótkim czasie próbki przekazywano 24 mężczyznom w wieku od 23 do 32 lat, którzy mieli wziąć 10 głębokich wdechów nad otwartą fiolką. Pod nosem każdego mężczyzny umieszczano też na czas eksperymentu nasączoną łzami bawełnianą chusteczkę. W grupie kontrolnej panom demonstrowano sól fizjologiczną, która spłynęła po policzkach kobiet, zbierając pod drodze kosmetyki, np. kremy, podkłady lub perfumy. Później panów proszono, by określili emocje i ocenili atrakcyjność sfotografowanych fizjonomii. Obrazy były dwuznaczne, ponieważ cyfrowo połączono zadowolone i smutne wyrazy twarzy. Mężczyźni nie czuli różnicy w zapachu łez i soli fizjologicznej. Łzy nie wpływały też na ocenę stopnia zasmucenia twarzy. Okazało się jednak, że badani uznawali kobiecą fizjonomię za mniej atrakcyjną, gdy powąchali łzy. Spadało też tętno, tempo oddychania, temperatura skóry oraz stężenie testosteronu. Dzięki zastosowaniu funkcjonalnego rezonansu magnetycznego naukowcy stwierdzili, że badani normalnie reagowali na umiarkowanie erotyczne obrazy – rozświetlały się zakręt wrzecionowaty i podwzgórze. Pod wpływem damskich łez ich aktywność jednak spadała. Sobel zaznacza, że kobiety szczególnie często płaczą w podczas menstruacji. Ma to duży sens, ponieważ sygnalizuje, że aktywność seksualna jest niewłaściwa z ewolucyjnego punktu widzenia [szanse na zapłodnienie są niewielkie].
  24. Jeziora i rzeki są znacznie ważniejszym źródłem emisji metanu niż dotychczas sądzono. Badania przeprowadzone na próbce 474 rezerwuarów słodkiej wody wykazały, że wpływ metanu, trafiającego z tych źródeł do atmosfery, na ocieplanie się klimatu odpowiada wpływowi 25% całkowitej emisji dwutlenku węgla. Główny autor badań, David Bastviken ze szwedzkiego Uniwersytetu Linkoping, mówi, że konieczna będzie zmiana dotychczasowych modeli klimatycznych, na podstawie których prognozowane są zmiany klimatu. Obecnie uwzględniają one bowiem niedoszacowane poziomy metanu. Odkrycie międzynarodowego zespołu naukowców ze Szwecji, Brazylii i USA, wskazuje również, że rola lasów i innej roślinności pochłaniającej gazy cieplarniane, jest jeszcze większa niż sądzono. Część węgla, która jest przechwytywana i magazynowana w ziemi przez rośliny jest równoważona przez słodkowodną emisję metanu - czytamy w podsumowania badań. Dwutlenek węgla, ze względu na swoją ilość, jest najważniejszym gazem cieplarnianym. Jednak metan jest znacznie "potężniejszy". Jego wpływ na ocieplenie jest aż 25-krotnie większy niż identycznej ilości CO2. To pokazuje, jak istotne jest równoważenie wpływu metanu wychwytywaniem dwutlenku węgla przez roślinność.
  25. Twórca projektu grsecurity, Brad Spengler, ostrzega, że większość z zastosowanych w Linuksie mechanizmów kontroli uprawnień może zostać wykorzystana przez napastnika do przełamania zabezpieczeń systemu. Filozofia bezpieczeństwa w Linuksie opiera się w olbrzymiej mierze na ścisłej kontroli dostępu do usług, procesów i zasobów. Z jednej strony pozwala to ograniczyć uprawnienia poszczególnych użytkowników do rzeczywiście potrzebnych im do pracy, a z drugiej - w przypadku ataku zmniejsza rozmiary szkód, gdyż np. narzędzie, które udało się wykorzystać napastnikowi do konkretnych działań, nie będzie miało uprawnień do wykonania innych komend lub uzyskania dostępu innych zasobów. Spengler przetestował 35 linuksowych mechanizmów pod kątem wykorzystania ich podczas przeprowadzanego ataku. Odkrył, że 21 z nich może pozwolić napastnikowi na zwiększenie uprawnień w systemie lub inny sposób nim manipulować. Jednym z takich mechanizmów jest CAP_SYS_ADMIN, który umożliwia podmontowywanie i odmontowywanie systemu plików. Potencjalnie pozwala on napastnikowi na podmontowanie własnego systemu plików nad istniejącym i zastąpienie zainstalowanych programów dowolnym kodem. Spengler mówi, że za pomocą CAP_SYS_ADMIN można też przekierowywać pakiety na firewallu, a zatem napastnik ma możliwość przekierowania połączeń sshd na dowolny serwer i kradzież haseł oraz nazw użytkownika, co pozwoli na logowanie się do systemu na prawach administratora. Praca Spenglera nie oznacza, że Linux jest systemem szczególnie niebezpiecznym. Większość opisanych przez niego scenariuszy ataków jest możliwa do przeprowadzenia jedynie w bardzo specyficznych warunkach lub też wymaga fizycznego dostępu do atakowanego systemu.
×
×
  • Dodaj nową pozycję...