Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    36970
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    227

Zawartość dodana przez KopalniaWiedzy.pl

  1. Język angielski nie zapożyczył słów z języków skandynawskich. Sam bowiem jest językiem skandynawskim. Tak przynajmniej twierdzą profesor lingwistyki Jan Terje Faarlund z Uniwersytetu w Oslo oraz profesor Joseph Emmonds z Uniwersytetu Palackiego w Ołomuńcu. Obaj uczeni utrzymują, że potrafią udowodnić, iż angielski należy do grupy języków północnogermańskich (skandynawskich), a nie - jak się powszechnie przyjmuje - do zachodniogermańskich. Współczesna nauka twierdzi, że język angielski to potomek staroangielskiego (anglosaskiego), który na Wyspy Brytyjskie trafił w V wieku naszej ery wraz z migrującymi Anglosasami. Miał on przez wieki ulegać zmianom, a jedna z nich została spowodowana zetknięciem się z językiem Normanów, podczas ich inwazji w 1066 roku. Jednak przeciwnego zdania są Faarlund i Emmonds. Współczesny angielski pochodzi bezpośrednio od języka Skandynawów, którzy osiedlali się na Wyspach Brytyjskch przez wieki, zanim mówiący po francusku Normanowie podbili je w 1066 roku - mówi Faarlund. Uczony twierdzi, że staroangielski i współczesna angielszczyzna to dwa różne języki. Uważamy, że staroangielski po prostu wymarł, a skandynawski przetrwał. Oczywiście widać w nim silne wpływy staroangielszczyzny - dodaje uczony. Na poparcie swojej tezy przytacza mocne argumenty. Przypomina, że napływający na wyspy Skandynawowie walczyli z Anglosasami o wpływy. Skandynawom udało się opanować znaczną część wysp, a przez pół wieku dominowali na terenie Danelagh. Jednym ze szczególnie ważnych punktów naszych badań jest stwierdzenie, że region East Midlands, z którego języka wyłoniła się współczesna angielszczyzna, niemal dokładnie pokrywa się z gęsto zaludnionym terenem południowego Danelagh - mówi uczony. Naukowcy zwracają też uwagę na uderzające podobieństwa pomiędzy angielszczyzną a językami standynawskimi. Na przykład w zdaniu "He took the knife and cut the steak" jedynimi wyrazami pochodzącymi ze staroangielskiego są "he", "the" i "and". Reszta to wyrazy ze skandynawsiego. Szczególnie interesujący jest fakt, że staroangielski zapożyczał wyrazy codziennego użytku, które już w nim istniały. Zwykle jeden język zapożycza z drugiego słowa na określenia nowych nieistniejących w nim koncepcji - zauważają naukowcy. Takimi zapożyczeniami były, m.in. wyrazy "anger", "awe", "bag", "dream", "get", "give", "low", "mistake" i wiele innych. Na 90% z nich staroangielski miał własne określenia. Jednak podobieństwa pomiędzy współczesnym angielskim a językami północnogermańskimi nie ograniczają się do słownictwa. Wyrazy funkcyjne i morfemy również pochodzą z języków skandynawskich. Także struktura zdania, jak dowodzą naukowcy, jest północnogermańska, a nie zachodniogermańska. Bardzo rzadko zdarza się, by jeden język zapożyczał z drugiego strukturę. Obecnie język norweski zapożycza wyrazy z angielskiego i wielu ludzi to martwi. Jednak angielski nie wpływa na strukturę norweskiego. Pozostaje ona ta sama. I to widać też we współczesnej angielszczyźnie. Na jej strukturę staroangielski nie miał wpływu - mówią uczeni. Możemy wykazać, że angielski różni się syntaktycznie od języków zachodniogermańskich - niemieckiego, holenderskiego i fryzyjskiego - a ma taką samą strukturę jak języki skandynawskie - dodają. Naukowcy nie pozostają gołosłowni i podają konkretne przykłady. W angielskim i skandynawkich dopełnienie znajduje się po czasowniku (I have read the book - Eg har lese boka), natomiast w niemieckim, holenderskim i staroangielskim czasownik znajduje się na końcu zdania. W angielskim i skandynawskich przyimek może występować na końcu zdania (This we have talked about - Dette her vi snakka om). Kolejne podobieństwa to możliwość przedzielenia bezokolicznika i wprowadzającego go wyrazu (w jęz. ang. "to") innym wyrazem (I promise to never do it again - Ed lovar á ikkje gjera det igjen) czy też występowanie podwójnej formy dzierżawczej (The Queen of England's hat - Dronninga av Englands hatt). Takie konstrukcje są niemożliwe w niemieckim czy holenderskim i te typy struktur raczej nie ulegają zmianom. Jedynym rozsądnym wyjaśnieniej ich istnienia jest stwierdzenie, że współczesny angielski to w rzeczywistości język skandynawski, potomek języka norwesko-duńskiego używanego na terenie Anglii w średniowieczu - mówi Faarlund.
  2. Czy obfitująca w warzywa, owoce, oliwę i orzechy dieta śródziemnomorska chroni starzejący się mózg? Ponieważ dotychczasowe badania dawały sprzeczne rezultaty, zespół Emmanuelle Kesse-Guyot z INSERM postanowił na własną rękę porównać częstość spożywania dań z tego typu produktów z jakością funkcjonowania poznawczego. Wcześniej sugerowano, że dobre tłuszcze z diety śródziemnomorskiej bezpośrednio korzystnie wpływają na mózg lub że nienasycone kwasy tłuszczowe i błonnik utrzymują naczynia w dobrym stanie, co pośrednio sprzyja zdrowiu mózgu. W analizie Francuzów uwzględniono 3083 uczestników studium SU.VI.MAX (Supplementation with Vitamins and Mineral Antioxidants). W połowie lat 90. XX wieku ludzie ci mieli co najmniej 45 lat. Na początku - w latach 1994-96 - co 2 miesiące prowadzili oni 24-godzinne dzienniczki spożywanych pokarmów. Ponieważ procedurę tę powtarzano 6-krotnie, nawyki dietetyczne śledzono na przestrzeni 1 roku. Po 13 latach - w okresie między 2007 a 2009 rokiem - ochotnicy rozwiązywali baterię 6 testów neuropsychologicznych. Oceniano m.in. pamięć. Na podstawie stopnia przywiązania do diety śródziemnomorskiej akademicy podzielili badanych na 3 grupy. Później zestawiono sumaryczne wyniki funkcjonowania poznawczego. Okazało się, że osoby w największym stopniu przestrzegające wytycznych wypadały mniej więcej tak samo jak ludzie nienarzucający sobie żywieniowych ograniczeń. Nasze studium nie wspiera hipotezy o znaczącym neuroochronnym wpływie diety śródziemnomorskiej na funkcjonowanie poznawcze - twierdzi Kesse-Guyot. Specjaliści oceniający wyniki uzyskane przez autorów raportu z American Journal of Clinical Nutrition podkreślają, że niestety, zamiast śledzić funkcjonowanie poznawcze w jakimś okresie, by zaobserwować, czy następuje poprawa, czy pogorszenie sprawności intelektualnej, Francuzi ograniczyli się do jednego badania w wieku ok. 65 lat.
  3. Tablety z systemem Android są już niemal tak popularne jak iPady. Część analityków twierdzi, że w bieżącym roku mogą one odebrać urządzeniom Apple'a palmę pierwszeństwa. Firma Localytics przeprowadziła badania rynku tabletów i stwierdziła, że za sukcesem Androida na tabletach stoi w dużej mierze Amazon. Głównym rynkiem tabletów są Stany Zjednoczone. To tam używanych jest 59% urządzeń z Androidem. Aż 33% amerykańskiego rynku tabletów z Androidem należy do Kindle Fire. Kolejne 10% zajmuje Nook, 9% jest własnością Samsunga Galaxy, a 8 procent - Nexusa 7. Drugim po USA dużym rynkiem jest Wielka Brytania (9% wszystkich sprzedanych urządzeń z tym systemem), następnie Korea Południowa (2%) i Hiszpania (2%). Obywatele wszystkich pozostałych krajów kupili łącznie 31% tabletów z systemem Android. Zdaniem analityków Localytics, Amazon ma spore szanse na zdominowanie światowego rynku tabletów z systemem Android. Jak widzimy na przykładzie USA urządzenia te cieszą się dużym zainteresowaniem klientów. Jak dotąd aż 89% wszystkich Kindle Fire zostało sprzedanych właśnie w Stanach Zjednoczonych. Niemal cała pozostała część trafiła do Wielkiej Brytanii. Inne kraje nie kupiły nawet 1% tych urządzeń. To wskazuje, że Amazon ma jeszcze dużo do zrobienia i realne szanse na podbój rynku. Jego sukces będzie jednocześnie sukcesem Androida. Jednak na rynkach poza USA i Wielką Brytanią Kindle Fire wyraźnie przegrywa z urządzeniami Galaxy Samsunga (76% rynku) oraz Nexusem 7 (15% rynku).
  4. Rząd Brazylii sięgnął po nową broń w walce z nielegalną wycinką dżungli amazońskiej. Do drzew przymocowywane są niewielkie bezprzewodowe urządzenia, które informują, gdy drzewo zostało powalone lub przemieszczone. Urządzenie Invisible Tracck wyposażone jest w baterię zapewniającą mu energię przez rok. Znajduje się ono w stanie czuwania. Jeśli jednak drzewo zostanie ścięte, a Invisible Tracck zostanie wraz z nim przewiezione i znajdzie się w promieniu 32 kilometrów od nadajnika telefonii komórkowej, urządzenie wyśle sygnał alarmowy do Instituto Brasileiro do Meio Ambiente (Brazylijski Instytut Środowiska Naturalnego). Ruch drzewa można będzie śledzić, namierzając zarówno osoby, które je nielegalnie wycinają, jak i tartak przyjmujący taki surowiec. Rząd Brazylii od dziesięcioleci zwalcza nielegalną wycinkę lasów. Wysiłek wydaje się opłacać. W okresie od sierpnia 2011 do lipca 2012 tempo znikania dżungli amazońskiej spadło do najniższego poziomu od 25 lat. Mimo to, w tym okresie zniknęło 4656 kilometrów kwadratowych lasów. W drugiej połowie 2012 roku deforestacja znowu przyspieszyła.
  5. Chińskie ministerstwo przemysłu oświadczyło, że do roku 2015, za pomocą serii połączeń i przejęć, chce stworzyć w Państwie Środka kilka gigantycznych firm elektronicznych. Celem ministerstwa jest powstanie 6-8 dużych firm, z których każda będzie mogła pochwalić się w ciągu dwóch najbliższych lat udziałami rynkowymi w wysokości 100 miliardów juanów (16 miliardów USD). Obecnie tylko dwie firmy z Państwa Środka - Huawei i Lenovo - mają takie udziały w rynku. Pomimo, iż w Chinach istnieje wiele firm, które potencjalnie mogłyby stać się światowymi markami, dwuletnia perspektywa założona przez polityków z Pekinu wydaje się zbyt krótka. Chociażby dlatego, że przejęcia czy połączenia przedsiębiorstw wymagają zgody różnych urzędów, a procedury trwają wiele miesięcy. Huawei ciągle nie otrząsnęła się z kłopotów, jakie na firmę ściągnął raport amerykańskich parlamentarzystów, w którym przedsiębiorstwo zostało oskarżone o szpiegowanie użytkowników swoich urządzeń na polecenie chińskiego wywiadu. W znacznie lepszej sytuacji jest Lenovo. To licząca się i rosnąca w siłę firma. Ostatnio jej prezes ds. finansowych, Wong Wai Ming wspomniał, że Lenovo być może zechce kupić kanadyjskiego RIM-a, producenta BlackBerry.
  6. Wysoko nad powierzchnią oceanu odkryto zaskakująco dużą koncentrację tlenku jodu. Substancja ta oczyszcza powietrze i niszczy ozon. Zaobserwowaliśmy znacznie większą koncentrację IO niż się spodziewaliśmy - mówi Rainer Volkamer z Cooperative Institute of Research in Environmental Sciences (CIRES) na University of Colorado Boulder. Jego wysoka koncentracja w powietrzu, które nie miało ostatnio kontaktu z powierzchnią oceanu wskazuje na możliwość istnienia jakiegoś mechanizmu recyklingu, który powoduje, że IO jest ponownie uwalniany do powietrza przez areozole - dodaje. IO jest bardzo ważnym związkiem chemicznym, gdyż niszczy ozon, który przy powierzchni Ziemi jest szkodliwy dla organizmów żywych i jest gazem cieplarnianym. Pośrednio obniża też poziom metanu w atmosferze. Ponadto IO tworzy areozole, które mogą inicjować powstawanie chmur, co z kolei może ochładzać klimat. Jeśli, jak sugerują najnowsze badania, w atmosferze istnieje jakiś mechanizm recyklingu tlenku jodu to oznacza, że IO ma dłuższy okres życia, jest więc znacznie bardziej rozpowszechniony, ma wpływ na większe masy powietrza i niszczy więcej ozonu - mówi Volkamer. Z obliczeń jego zespołu wynika, że IO może odpowiadać za niszczenie nawet 20% ozonu w górnej troposferze. Obecne modele klimatyczne nie uwzględniają tego mechanizmu. Zespół Volkamera zbudował specjalne urządzenie, którego celem było stworzenie jak najdokładniejszego przekroju składu atmosfery. Zostało ono umieszczone w samolocie badawczym, który w styczniu 2010 latał nad tropikalnymi obszarami Pacyfiku, na wysokości od 100 do 10 000 metrów. W czasie lotu badano zarówno nieruchome powietrze, które od wielu dni nie miało kontaktu z powierzchnią oceanu, jak i burze konwekcyjne, podczas których gorące wilgotne powierze jest zasysane na duże wysokości. Tlenek jodu istnieje w atmosferze bardzo krótko. W ciągu zaledwie 30-60 minut tworzy areozole. Dlatego też naukowcy spodziewali się znaleźć go tylko nad powierzchnią oceanów, gdzie jest emitowany przez algi i reakcje chemiczne na powierzchni wody, oraz w komórkach burzowych, które powodują, iż w ciągu nawet 20 minut powietrze jest zasysane na wysokość 10 000 metrów. Instrumenty zarejestrowały jednak wysoką koncentrację IO w powietrzu, które od wielu dni nie miało kontaktu z oceanem. Współczesna nauka mówi, że tlenek jodu nie powinien przetrwać w powietrzu dłużej niż godzinę. Ale nasze badania ujawniały IO w masach powietrza, które nie miały kontaktu z oceanem. IO nie znika. Ciągle tam jest - mówi zdumiony Volkamer. Zdaniem uczonego takie wyniki sugerują, że areozole mogą oddawać tlenek jodu do atmosfery. To zdumiewające, gdyż jod to bardzo ciężki atom. Jest jak kula armatnia. Tworzy polimery, przyczepia się do cząsteczek. Ale wydaje się, że jakaś jego część wraca do fazy gazowej - stwierdza naukowiec i dodaje, że wygląda na to, iż atmosfera ma więcej mechanizmów samooczyszczania niż dotychczas sądzono. Włączenie odkrytego tlenku jodu do modeli klimatycznycm pozwoli na lepsze przewidywanie zachowania atmosfery i jej mechanizmów pozbywania się zanieczyszczeń oraz gazów cieplarnianych.
  7. Gdy w czerwcu 2008 r. zespół Kyuma Parka z Instytutu Badań nad Waleniami z Ulsan obserwował w Morzu Japońskim stado delfinów długopyskich (Delphinus capensis), doszło do nieoczekiwanego obrotu wydarzeń. Biolodzy zauważyli, że ssaki utworzyły żywą tratwę ratunkową, by pomóc samicy ze sparaliżowanymi płetwami piersiowymi. Początkowo 12 delfinów pływało bardzo blisko siebie. Szybko stało się jasne, że jedna z samic miała problem z poruszaniem. Gwałtownie się rzucała i wyglądało na to, że straciła władzę nad płetwami piersiowymi. Po półgodzinie zwierzęta, które co chwilę nurkowały i utrzymywały koleżankę na powierzchni, utworzyły tratwę. Niesprawna towarzyszka spoczywała na ich plecach. Niestety po paru minutach część ratowników zrezygnowała, przez co samica zaczęła tonąć. Jej ciało ustawiło się w pionie i choć najwytrwalsi członkowie stada próbowali skorygować pozycję nieszczęśnicy, nie na wiele się to zdało. Gdy przestała oddychać, nadal przebywało z nią 5 delfinów. Wkrótce ciało zniknęło w odmętach. Naukowcy uważają, że zachowanie pomocników nie musiało świadczyć o bezinteresowności. Dodatkowy osobnik wzmacnia w końcu stado, które jest w stanie utrzymać terytorium. Poza tym, jeśli składa się ono z blisko spokrewnionych jednostek, w grę może wchodzić chęć zachowania wspólnych genów. Ważnym aspektem współpracy wydaje się też wzmacnianie więzi. Już w 2006 r. Cremer i inni podzielili opiekuńcze zachowania delfinów na 2 kategorie. W pierwszej znalazły się matki pomagające młodym, drugą utworzono dla dorosłych osobników utrzymujących zmarłych towarzyszy na powierzchni wody. Wszystkie zaobserwowane wcześniej przypadki dotyczyły maksymalnie 2 dorosłych waleni, które wypychały młode ku górze albo stymulowały je do pływania gryzieniem. Nic zatem dziwnego, że historia z Morza Japońskiego tak biologów poruszyła...
  8. Zespół z Karlsruhe Institute of Technology (KIT) i Rice University uzyskał najmniejsze na świecie tunele. Udało się to po przyłożeniu do grafitu nanocząstek niklu. Całość podgrzano w obecności wodoru. Naukowcy uważają, że to doskonały sposób na szyty na miarę grafit np. do zastosowań medycznych. Powierzchnia cząstek metalu działa jak katalizator, który przyspiesza usuwanie atomów węgla i tworzenie metanu (węgiel reaguje z wodorem). Dzięki zjawiskom kapilarnym nikiel jest wciągany do powstającego otworu. Później nanocząstki przepychają się przez grafit, drążąc tunel. Podczas eksperymentów uzyskiwano tunele o wymiarach od 1 do 50 nm. By udowodnić, że kanaliki naprawdę istnieją, amerykańsko-niemiecki zespół skorzystał ze skaningowego mikroskopu elektronowego (SEM) oraz skaningowego mikroskopu tunelowego (STM). De facto mikroskopy obrazowały tylko wierzchnie warstwy próbki. Tunele pod nimi pozostawiają jednak ślady na powierzchni, a ich przebieg można śledzić - wyjaśniają Maya Lukas i Velimir Meded z Instytutu Nanotechnologii KIT. Trajektorię wydrążeń obrazowano za pomocą STM (bardzo pomocne okazały się tworzone na tej postawie symulacje komputerowe), a wykonane z różnych perspektyw zdjęcia z SEM pozwalały na dokładne określenie ich głębokości. Naukowcy podkreślają, że w nowej nanoporowatej formie grafitu wierzchnie warstwy wyginają się u szczytu tuneli do środka; miejscowa gęstość stanu nie ulega zmianie. Porowaty grafit jest wykorzystywany np. w elektrodach akumulatorów litowo-jonowych. Stosując pory o właściwych wymiarach, można by skrócić czas ich ładowania. W medycynie porowaty materiał byłyby zaś doskonałym nośnikiem leków o przedłużonym okresie uwalniania.
  9. Intel ma zamiar wydać w bieżącym roku 2 miliardy dolarów na fabrykę wykorzystującą 450-milimetrowe plastry krzemowe. Wydatki inwestycyjne na naszą zasadniczą działalność będą generalnie takie jak w 2012 roku. Dodatkowo wydamy 2 miliardy USD na rozpoczęcie budowy naszej pierwszej fabryki dla 450-milimetrowych plastrów - oświadczyła prezes ds. finansowych Stacy Smith. Nie wiadomo, gdzie powstanie nowy zakład. Wcześniej mówiono, że proces technologiczny korzystający z plastrów o średnicy 450 milimetrów może być wdrożony w fabryce D1X w Hillsboro lub Fab 42 w Chandler. W sumie całość tegorocznych wydatków kapitałowych Intela ma sięgnąć kwoty 13 miliardów dolarów.
  10. Przed dziesięcioma laty prężnie rozwijający się przemysł online'owych kasyn działających na Antigui został doprowadzony do upadku przez rząd USA. Waszyngtonowi nie podobało się, że obywatele Stanów Zjednoczonych grają w kasynach i doprowadził m.in. do blokady przetwarzania płatności dla kasyn. Rząd karaibskiej wysepki udał się na skargę do Światowej Organizacji Handlu (WTO) i w 2005 roku wygrał sprawę. Później w 2007 roku Antigua odniosła kolejne zwycięstwo - WTO stwierdziła, że Antigua ma prawo do zawieszenia praw autorskich na chronione w USA treści o wartości do 21 milionów dolarów rocznie. Teraz Antigua postanowiła wygzekwować swoje prawa. Kraj ma zamiar uruchomić serwis, z którego każdy, bezpłatnie lub za drobną opłatą, będzie mógł legalnie pobrać treści chronione amerykańskim prawem autorskim. Wysepka musi jeszcze oficjalnie poinformować WTO o swoich zamiarach. W ubiegłym miesiącu rząd USA przeszkodził w przekazaniu takiej informacji. Rząd w St. John's się jednak nie poddaje i chce złożyć wymagane dokumenty.
  11. Dr Shai Efrati z Uniwersytetu w Tel Awiwie znalazł sposób na przywrócenie funkcji tkanki mózgu, która wg specjalistów, miała być chronicznie uszkodzona. Co więcej, dzięki tlenowej komorze hiperbarycznej (HBOT) Izraelczyk wykazał, że uśpione neurony można ożywić nawet 3 lata po udarze. Gdy naukowcy porównywali zdjęcia wykonane po terapii (sesjach oddychania czystym tlenem pod ciśnieniem) ze zdjęciami zrobionymi po kontrolnych okresach nieleczenia, okazało się, że po 2 miesiącach HBOT następował znaczący wzrost aktywności neuronalnej. Stan chorych znacząco się poprawiał. Dochodziło do ustąpienia paraliżu, odnotowano też wzrost czucia oraz postępy w zakresie posługiwania się mową. Efrati uważa, że można wyodrębnić kilka stopni uszkodzenia mózgu. Przy zaburzeniach metabolicznych neurony mają na tyle energii, by utrzymać się przy życiu, nie wystarcza jej już jednak na wysyłanie impulsów. Mózg zużywa ok. 20% tlenu w organizmie, ale to i tak ilość pozwalająca na jednoczesne działanie zaledwie 5-10% wszystkich neuronów. Regeneracja oznacza dodatkowe zapotrzebowanie, na szczęście 10-krotne zwiększenie poziomu tlenu w wyniku HBOT zapewnia energię konieczną do odbudowy połączeń między neuronami i stymuluje nieaktywne komórki. Do udziału w studium kwalifikowano ludzi, u których w ramach rehabilitacji nie obserwowano już poprawy. By móc ocenić wpływ tlenoterapii hiperbarycznej, połączono 2 metody obrazowania. Za pomocą tomografii komputerowej identyfikowano ewentualną martwiczą tkankę, a wykorzystując SPECT (tomografię emisyjną pojedynczych fotonów), określano aktywność metaboliczną neuronów otaczających uszkodzone obszary. Siedemdziesięciu czterech pacjentów, w przypadku których od udaru minęło od pół roku do 3 lat, podzielono na 2 grupy. W pierwszej od początku prowadzono HBOT, a w drugiej 2-miesięczną terapię rozpoczęto po 2 miesiącach nieleczenia. Badani przechodzili czterdzieści dwugodzinnych sesji. Odbywały się one 5 razy w tygodniu. Choć studium dotyczyło okresu maksymalnie 3 lat od udaru, dr Efrati widział podobne postępy u chorych, którzy przeżyli uraz nawet 20 lat wcześniej. Wyniki zadają kłam wiodącemu paradygmatowi, ponieważ pokazują bez najmniejszych wątpliwości, że neuroplastyczność można aktywować wiele miesięcy, a nawet lat po ostrym urazie mózgu - dodaje inny członek zespołu prof. Eshel Ben-Jacob. Zachęceni rezultatami Izraelczycy kontynuują studium; teraz oceniają ewentualny korzystny wpływ HBOT na pacjentów z urazem czaszkowo-mózgowym (ang. traumatic brain injury). Wydaje się także, że tlenoterapię hiperbaryczną dałoby się z powodzeniem zastosować w terapii przeciwstarzeniowej oraz na wczesnych etapach choroby Alzheimera. Skoro różne choroby mózgu można postrzegać w kategoriach nieskutecznego dostarczania energii, HBOT korygowałoby te metaboliczne anomalie przed początkiem głębokiej demencji, gdy jeszcze istnieje szansa na wyzdrowienie - podsumowuje Efrati.
  12. Rynek dysków SSD zwiększy się w bieżącym roku ponaddwukrotnie. Analitycy IHS iSuppli przewidują, że nabywców znajdą 83 miliony takich urządzeń. Przewidują także, że do roku 2016 sprzedaż SSD wzrośnie do 239 milionów sztuk. Będą one wówczas stanowiły 40% całego rynku dysków twardych. W roku 2012 sprzedano 39 milionów SSD. iSuppli uważa, że w szybkim powiększaniu się rynku główny udział będą miały tanie ultrabooki. Powodzenie SSD jest, zdaniem analityka Ryana Chiena, ściśle związane z rozwojem rynku ultrabooków. Mimo, że rynek SSD zwiększył się w ubiegłym roku o 124%, to wzrost ten był słabszy od przewidywań. Przyczyną była słabsza sprzedaż ultrabooków spowodowana nienajlepszym marketingiem, wysokimi cenami i brakiem cech, które przyciągałyby klientów. Jeśli jednak tegoroczna sprzedaż nowej generacji ultrabooków będzie taka, jak się oczekuje, to rynek SSD czeka solidny wzrost - mówi Chien. Analityków do optymizmu skłania rosnące zainteresowanie ultrabookami z Windows 8 oraz zbliżająca się premiera intelowskiej platformy Haswell. Ponadto spadają ceny układów NAND, co przełoży się na tańsze SSD.
  13. Popularność Androida ma, niestety, swoją cenę. Trend Micro ostrzega, że użytkownicy tego systemu są coraz bardziej narażeni na ataki cyberprzestępców. Już w bieżącym roku liczba nowych szkodliwych programów atakujących Androida może przekroczyć milion. Z opublikowanego właśnie raportu wynika, że trzema najpowszechniejszymi rodzajami zagrożeń czyhających na Androida są ataki z wykorzystaniem drogich usług premium (40,58% zagrożeń), oprogramowanie typu adware (38,30%) i kradzieże danych (24,93%). Tuż za nimi ulokowały się aplikacje pobierające złośliwe oprogramowanie (22,83%). Ataki z wykorzystaniem usług premium polegają na nawiązywaniu drogich połączeń telefonicznych bądź wysyłanie SMS-ów na drogie numery. Oczywiście bez wiedzy użytkownika. Cyberprzestępcy upatrzyli sobie tę metodę, gdyż atak jest łatwiejszy w przygotowniu i mniej ryzykowny niż np. kradzież danych o karcie kredytowej. Użytkownik płaci zawyżone rachunki, a część pieniędzy trafia do przestępców, którzy są właścicielami numerów premium. Przeciętna ofiara tego typu ataku traci 9,99 USD miesięcznie. Oprogramowanie typu adware to nic innego jak uciążliwe, złośliwe reklamy. Gdy zostanie ono zainstalowane w telefonie, wyświetla reklamy tam, gdzie nie powinno ich być. Dokleja je nawet do SMS-ów. Adware może być też bardzo szkodliwe. Tego typu programy często kradną dane użytkownika. Kolejny popularny rodzaj ataków to kradzież danych. Najchętniej kradzionymi informacjami są klucze API używane do logowania się do różnych usług, numery identyfikacyjne aplikacji, listy kontaktów, numery IMEI wykorzystywane do identyfikowania urządzenia w sieci, numery IMSI używane do identyfikowania subskrybenta w sieci, dane dotyczące lokalizacji użytkownika, operatora z którego usług korzysta, numery identyfikacyjne telefonu czy treść SMS-ów. Popularność Androida powoduje, że system kroczy ścieżką Windows. Podobnie jak w przypadku OS-u z Redmond także i tutaj wraz ze wzrostem popularności widać gwałtowny wzrost liczby zagrożeń. W 2011 roku specjaliści z Trend Micro znaleźli około 1000 przykładów nowego szkodliwego kodu na Androida. W roku 2012 było już 350 000 szkodliwych aplikacji. Wystarczyły zatem mniej niż trzy lata, by liczba szkodliwych aplikacji na Androida była tak duża jak na Windows po 14 latach istnienia. Oczywiście należy brać pod uwagę różnice w krajobrazie technologicznym wtedy i dziś, jednak szybki wzrost liczby szkodliwych programów dobrze oddaje skalę zagrożenia. Można się spodziewać, że w bieżącym roku liczba nowoodkrytych przykładów szkodliwego kodu na Androida przekroczy milion. Rośnie nie tylko liczba szkodliwych programów, ale zwiększa się też ich różnorodność. Odkryty w ubiegłym roku kod należał do 605 różnych rodzin. Szkodliwe oprogramowanie często podszywa się pod legalne znane programy. Badacze Trend Micro znaleźli np. fałszywą grę "Bad Piggies", która w rzeczywistości była szkodliwym kodem z rodziny FAKEINST. Z kolei twórcy rodziny SMSBOXER upatrzyli sobie najpopularniejsze oprogramowanie i ich szkodliwy kod podszywa się np. pod "Angry Birds Space" czy Instagrama. Krajami o największym odsetku infekcji są Nigeria, Peru, Indie, Włochy, Kuwejt, Rosja, Brazylia, Turcja, Austria i Filipiny. W czołowej trzydziestce znajdziemy też Nową Zelandię (17. miejsce), Niemcy (24.) i USA (26.). Cyberprzestępcy działają niezwykle szybko. Fałszywa wersja gry "Bad Piggies" ukazała się zaledwie miesiąc po premierze prawdziwej gry. Reagują też na potrzeby potencjalnych ofiar. Fałszywą mobilną wersję aplikacji do obsługi Pinterest udostępnili na kilka miesięcy przed ukazaniem się prawdziwego oprogramowania. Specjaliści odnotowują również zmiany w sposobach ataku. Jeszcze do niedawna najpopularniejszą metodą było nadużywanie usług premium. Jednak w 2012 roku przestępcy zaczęli też... kraść płatne aplikacje. Przygotowali fałszywą wersję programu GoWeather, która łączy się ze sklepami z oprogramowaniem i bez wiedzy użytkownika dokonuje zakupów insteresujących przestępców programów i multimediów. Z kolei aplikacja podszywająca się pod program antywirusowy współpracowała z robakiem ZeuS na desktopy i wspólnie kradły numery mTAN wykorzystywane do uwierzytelniania mobilnych transakcji bankowych. TrendMicro przewiduje, że w najbliższym czasie twórcy szkodliwego oprogramowania będą coraz bardziej aktywni. Należy spodziewać się ataków za pomocą serwisów społecznościwowych, gdyż coraz więcej programów pozwala na synchronizację kont użytkownika w różnych serwisach. To oznacza, że możliwe będzie jednoczesne umieszczenie w wielu miejscach odnośników do złośliwych aplikacji. Najprawdopodobniej przestępcy spróbują wykorzystać też do swoich celów coraz bardziej popularne kody QR. Należy też spodziewać się rosnącej liczby ataków kombinowanych, łączących kod na desktopy z kodem na urządzenia mobilne. To bardzo obiecujący sposób atakowania kont bankowych użytkowników. Prawdopodobnie zaczną rozpowszechniać się rootkity na urządzenia przenośne. Specjaliści ds. bezpieczeństwa już stworzyli taki prototypowy kod i pokazali, w jaki sposób może się on chronić przed wykryciem. Obiecującym polem do nadużyć staną się nowe metody przeprowadzania transakcji finansowych, takie jak NFC (near-field communication). Sytuację pogarsza fakt, że w Androidzie znajduje się sporo luk, wprowadzonych tam nieświadomie zarówno przez programistów Google'a, jak i firm zmieniających kod systemu. Trend Micro radzi, by użytkownicy Androida wykorzystywali wbudowane weń zabezpieczenia, dokładnie sprawdzali programy przed ich zainstalowaniem, zawsze sprawdzali jakie uprawnienia ma dany program oraz regularnie aktualizowali oprogramowanie.
  14. Pasażerowie, którzy podróżując między Londynem a Nowym Jorkiem, wybiorą w lutym pierwszą klasę Virgin Atlantic, będą mogli odwiedzić pierwszą na świecie latającą galerię sztuki. Gallery in the Air zaprezentuje 10 typograficznych dzieł brytyjskiego artysty ulicznego Bena Eine'ego. Eine (naprawdę Ben Flynn) mieszka i pracuje głównie w Londynie. Jest znany z liter wymalowywanych na roletach sklepowych. By ułatwić wyszukiwanie, niektóre z nich oznaczano nawet na Google Maps. Alfabet pojawił się też na ulicach Sztokholmu, Paryża, czy Hastings, ale warto przypomnieć, jaką przysługę w międzynarodowym rozsławianiu wyświadczył performerowi David Cameron, który podczas pierwszej oficjalnej wizyty w Waszyngtonie podarował Barackowi Obamie właśnie jedną z jego prac (Twenty First Century City). Cena dzieł, które trafią do latającej galerii, ma wynosić od 2,5 do 15 tys. funtów. Obrazy będą prezentowane w salonikach na Heathrow w Londynie, w porcie lotniczym im. Johna F. Kennedy'ego w Nowym Jorku oraz w Newark-Liberty. Już na pokładzie samolotu - przed dokonaniem zakupu na zasadach sklepu bezcłowego - klienci pierwszej klasy zostaną wpuszczeni za kulisy: zobaczą m.in. ujęcia z przebiegu procesu twórczego. Wybór dzieł nie jest bynajmniej przypadkowy i nawiązuje do firmy Virgin, jej właściciela Richarda Bransona oraz miast, pomiędzy którymi kursują samoloty. Na obrazach pojawiają się frazy "Virgin on the Impossible", "Great Adventure", "Man and his Machines" czy "New York Sauce". W przyszłości Gallery in the Air zaprezentuje twórczość innych artystów.
  15. Afrykańskie skarabeusze z gatunku Scarabaeus satyrus do wyznaczania swojej trasy wykorzystują... Drogę Mleczną. Zwierzęta toczą swoje kulki z gnoju utrzymując przy tym obrany kurs dzięki obiektom widocznym na niebie. Już od pewnego czasu było wiadomo, że skarabeusze korzystając z pozycji Słońca i Księżyca. Zaobserwowano jednak, że nawet w pogodne bezksiężycowe noce nie zbaczają z obranej drogi. Na ślad odkrycka wpadli Marie Dacke ze szwedzkiego Uniwersytetu w Lund i Marcus Byrne z południowoafrykańskiego Wits University. Siedzieliśmy na zawnątrz we Vryburgu i jedynym źródłem światła była Droga Mlecza. Pomyśleliśmy, że one muszą jej używać - wspomina Byrne. Gwiazd do nawigacji używają ludzie, prawdopodobnie też ptaki i foki. Niewykluczone, że również niektóre pająki. Jednak w przypadku skarabeuszy uczeni udowodnili to właśnie ponad wszelką wątpliwość. Wskazówką mogło być też zaobserwowane wcześniej zachowanie tych owadów, które wchodzą na swoją kulkę i wykonują na niej skomplikowane manewry, by zorientować się w swoim położeniu. Naukowcy, chcąc sprawdzić, czy żuki rzeczywiście wykorzystują Drogę Mleczną, zaprojektowali specjalne kartonowe zasłony. W jasne bezksiężycowe noce z centralnego punktu piaszczystego terenu, otoczonego metrowej wysokości murem, uwalniali trzy grupy skarabeuszy. Jedna miała założone kartonowe osłony, drugiej założono plastikowe przezroczyste osłony, a trzeciej niczego nie zakładano. Badania wykazały, że zwierzęta z kartonowymi zasłonami, zanim opuściły wyznaczony teren, błądziły i przebywały dłuższą drogę niż poprzednie dwie grupy. Uczeni wiedzieli, że skarabeusze mają zbyt słaby wzrok, by orientować się na poszczególne gwiazdy. Najprawdopodobniej zatem wskazówką są same zmiany jasności nieboskłonu rozświetlanego przez Drogę Mleczną. Chcąc sprawdzić tę teorię naukowcy zabrali zwierzęta do planetarium w Johannesburgu. Najpierw pokazano im Drogę Mleczną i zmierzono średni czas w jakim wyszły poza wyznaczony obszar. Następnie pokazano im Drogę Mleczną w zbliżeniu, tak, że dobrze widoczne były indywidualne gwiazdy. Zwierzęta jeszcze szybciej opuściły teren. Jednak gdy z obrazu usunięto galaktykę i pozostawiono jedynie 18 jasnych gwiazd, zwierzęta zaczynały błądzić i mijało znacznie więcej czasu nim doszły do wyznaczonej przez ludzi granicy. Wykorzystanie Drogi Mlecznej do nawigacji jest potrzebne skarabeuszom z bardzo prozaicznych przyczyn. Nie odbywają one długich podróży. Trzymanie się raz obranego kierunku ma służyć wyłącznie jak najszybszemu oddaleniu się ze swoją kulką od źródła gnoju, tak, by nie zderzyć się z konkurencją i nie wejść na teren zajmowany przez innego żuka.
  16. Profesor Dame Sally Davies, naczelna lekarz Wielkiej Brytanii, zaproponowała, by do National Risk Register of Civil Emergencies (NRR - Narodowy spis zagrożeń cywilnych) dopisano problem antybiotykooporności nabywanej przez kolejne szczepy bakterii. Jej zdaniem, może to spowodować podobne problemy jak znajdujące się w spisie epidemia grypy, katastrofalne powodzie na wybrzeżach, duże erupcje wulkanów za granicą czy atak terrorystyczny na dużą skalę. NRR to dokument referencyjny przeznaczony dla tych osób i organizacji, które chcą być lepiej przygotowane na zagrożenia dotykające dużych części społeczeństwa. Podczas swojego wystąpienia przed komitetem nauki i technologii Izby Gmin profesor Davies nakreśliła, jak to sama nazwała katastroficzny scenariusz, w którym stwierdziła, iż za 20 lat pacjenci mogą umierać po zabiegach chirurgicznych wskutek infekcji jakim obecnie jesteśmy w stanie zapobiegać. Wiele szczepów bakterii może stać się opornych na antybiotyki. Obecnie w dziedzinie zdrowia publicznego istnieje niewiele problemów ważniejszch od antybiotykooporności. To oznacza, że rośnie ryzyko infekcji, których nie będziemy w stanie leczyć. Możemy jednak kontrolować oporność bakterii - powiedziała Davies. Wczesną wiosną jej biuro ma przygotować projekt rządowej strategii zmierzenia się z tym problemem. Obawy Davies potwierdza Alan Johnson z Health Protection Agency. W przeszłości ludzie nie martwili się antybiotykoopornością, bo zawsze pojawiały się jakieś nowe antybiotyki. Teraz sytuacja uległa zmianie. Nie mamy nowych antybiotyków, które pomogłyby nam w najbliższej przyszłości lub w dłuższym okresie. Firmom farmaceutycznym często nie opłaca się pracować nad nowymi antybiotykami chociażby ze względu na podnoszące koszty produkcji bariery urzędnicze i nierealistyczne wymagania prawne. Rozwój współczesnej technologii i medycyny ma też i negatywną stronę. Terapie antynowotworowe osłabiają układ odpornościowy, szerokie stosowanie wenflonów zwiększa ryzyko infekcji. Antybiotyki są powszechnie dodawana to chemii domowej, środków czystości, faszeruje się nimi zwierzęta hodowlane. Bakterie, które się zetkną z antybiotykiem i przetrwają, szybko mogą wyrobić sobie oporność i przekazać tę cechę następnym pokoleniom. Ponadto, jak już informowaliśmy, antybiotykooporność jest wbudownana w bakterie i odkryto je nawet u tych mikroorganizmów, które nigdy nie miały kontaktu z produkowanymi przez ludzi antybiotykami. Pojawiają się doniesienia o trudnościach w leczeniu kolejnych chorób. W lipcu 2011 roku informowaliśmy o odkryciu pierwszego szczepu rzeżączki opornego na wszystkie znane antybiotyki. Nie wiadomo, jak szeroko jest on rozpowszechniony, ale wiadomo, że na tetracyklinę, główy antybiotyk do zwalczania rzeżączki, opornych jest już 80% szczepów. Coraz większym problemem staje się też gruźlica oporna na szeroką gamę leków. Znaleziono E-coli zawierające geny oporności na niektóre leki, a w szpitalach Nowego Jorku lekarze nie potrafią poradzić sobie z przypadkami śmiertelnego zapalenia płuc, którego nie udaje się wyleczyć nawet potężnymi stosowanymi w ostateczności antybiotykami z grupy karbapenemów. W samej Wielkiej Brytanii bakterie oporne na karbapenemy odkryto w 2003 roku. Wówczas chorowały jedynie trzy osoby. Liczba zarażonych takimi opornymi bakteriami była niewielka do 2007 roku. Później zaczęła szybko rosnąć. w 2010 były już 333 przypadki zachorowań, a w pierwszej połowie 2011 - 217. Jak informuje amerykańskie Centrum Kontroli i Prewencji Chorób, przeciętnemu zdrowemu człowiekowi nie grożą bakterie oporne na karbapenemy. Jednak E.coli czy Klebsiella, bakterie które występują w ludzkich jelitach, mogą zyskać oporność na karbapenemy u osób, które podlegają długotrwałemu leczeniu. Zachorowania najczęściej dotyczą tych ludzi, którzy przez długi czas są podłączeni do respiratora, cewnika, wenflonu lub zażywają antybiotyki.
  17. Chora na alzheimeryzm Kathy Sanford jest pierwszą osobą z USA, której by poprawić funkcjonowanie poznawcze, wszczepiono rozrusznik mózgu. Naukowcy z Centrum Medycznego Wexnera Uniwersytetu Stanowego Ohio przeprowadzili 5-godzinną operację w październiku zeszłego roku. Zatwierdzone przez Agencję ds. Żywności i Leków (FDA) studium obejmie w sumie do 10 osób. Amerykanie zamierzają sprawdzić, czy za pomocą głębokiej stymulacji mózgu (ang. deep brain stimulation, DBS) można usprawnić działanie płatów czołowych oraz obwodów neuronalnych odpowiedzialnych za funkcjonowanie poznawcze. Przypomnijmy, że dotąd DBS wykorzystywano m.in. w terapii choroby Parkinsona. Doktorzy Douglas Scharre i Ali Rezai mają nadzieję, że korzystne zmiany się utrwalą, a potem pogłębią. Na razie zachowujemy jednak umiarkowany optymizm. Zasadniczo rozrusznik wysyła do mózgu sygnały, które regulują nieprawidłową aktywność [...]. Patrząc na naszą pierwszą pacjentkę, sądzę, że wyniki są zachęcające, ale to studium. By zrozumieć, co się dzieje, musimy badać dalej - podkreśla Rezai. Eksperyment ma objąć pacjentów na wczesnych etapach choroby Alzheimera. Jeśli wszystko pójdzie zgodnie z planem, pomoże w ustaleniu, czy głęboka stymulacja zmniejsza deficyty poznawcze i behawioralne. Pani Sanford deklaruje, że biorąc udział w studium, chce zaoszczędzić innym cierpień. Jej stan jest monitorowany.
  18. Potwierdziły się wcześniejsze doniesienia o osiągnięciu zysku przez Nokię. Fiński producent opublikował wyniki finansowe za czwarty kwartał 2012 roku, z których wynika, że osiągnięto zysk w wysokości 202 milionów euro. To niewiele, jednak jeśli weźmiemy pod uwagę, że w analogicznym okresie 2011 roku Nokia odnotowała stratę w wysokości miliarda euro, widać, że koncern znacząco poprawił swoją kondycję finansową. Może to oznaczać, że strategia prezesa Elopa zaczęła się sprawdzać, jednak o tym, czy wzrostowy trend zostanie utrzymany przekonamy się po kolejnych kwartałach. W ostatnim kwartale 2012 roku przychody Nokii wyniosły 8 milardów euro, podczas gdy rok wcześniej zamknęły się one kwotą 10 miliardów. W 2012 roku koncern zanotował przychody rzędu 30,2 miliarda euro, czyli o 22% mniej niż w roku 2011 (38,7 miliarda). W całym roku firma zanotowała stratę operacyjną w wysokości 2,3 miliarda euro. W roku 2011 strata wyniosła 1,1 miliarda. Pomimo poprawienia się wyników finansowych firmy, niektórzy akcjonariusze mogą być niezadowoleni, gdyż zarząd zaproponował, by nie wpłacać dywidendy za rok 2012. W roku 2011 każdy posiadacz akcji Nokii odtrzymał 20 eurocentów na każdą akcję. Tym razem zarząd chce, by firma zatrzymała pieniądze i poprawiła dzięki temu swoją płynność finansową. Nokia przewiduje też, że pierwszy kwartał 2013 roku nie będzie tak dobry jak kwartał poprzedni. Jej przedstawiciele prognozują 2-procentową stratę.
  19. Najnowsze zdjęcia wykonane przez Teleskop Herschela ujawniły, że Betelgeza - najbliższy nam czerwony nadolbrzym - podąża w kierunku tajemniczej "ściany" pyłu. Za 5000 lat dojdzie do zderzenia. Znajdująca się w gwiazdozbiorze Oriona Betelgeza ma średnicę 1000-krotnie większą od średnicy Słońca. Jest też około 100 000 razy jaśniejsza i 20-krotnie bardziej masywna. Wokół gwiazdy znajduje się łuk uderzeniowy, poruszający się z prędkością około 30 km/s. Powstał on dzięki zderzeniu wiatru gwiezdnego z materią międzygwiezdną. Przed gwiazdą widać też liczne łuki pyłu. Teraz Herschel odkrył coś nowego. W kierunku, w którym zmierza Betelgeza i jej łuki, znajduje się coś w rodzaju "ściany" z pyłu. Dotychczasowe teorie dotyczące tej liniowej struktury mówiły, że to materiał wyrzucony we wcześniejszych etapach ewolucji gwiazd. Jednak analizy najnowszych zdjęć Herschela wykazały, że jest to albo struktura związana z polem magnetycznym galaktyki, albo też krawędź chmury międzygwiezdnej, którą podświetla zbliżająca się Betelgeza. Jeśli widoczna struktura jest obiektem niezależnym od Betelgezy to do zderzenia pomiędzy nią a łukiem uderzeniowym gwiazdy dojdzie za około 5000 lat, a sama gwiazda uderzy w "ścianę" za 17 500 lat. Betelgeza znajduje się w odległości około 420 lat świetlnych od Ziemi. Wkrótce - w skali kosmicznej oczywiście - eksploduje jako supernowa.
  20. Co roku między sierpniem a grudniem żarłacze białe gromadzą się w wodach u wybrzeży zachodniego Meksyku. W 2010 r. Gerardo del Villar, jeden z fotografów pływających przy Guadalupe, uwiecznił dziwne rany, które znajdowały się tuż za kącikiem jamy gębowej młodego samca. Później rozpoczęło się śledztwo, kto, a właściwie co porwało się na takiego olbrzyma. Padło na 12-krotnie mniejszego rekina foremkowego (Isistius brasiliensis). Zaciekawiony del Villar wysłał zdjęcia do różnych naukowców, w tym do Yannisa Papastamatiou z Florydzkiego Muzeum Historii Naturalnej. Ani okrągła, ciągle krwawiąca, ani tym bardziej półksiężycowata rana nie została wyrwana haczykiem (krawędzie były wyjątkowo równe), dlatego biolog skupił się na naturalnych "narzędziach". Rekiny foremkowe przyczepiają się do ofiary mięsistymi wargami, a później pomagając sobie kolistymi ruchami, wycinają zębami fragmenty tkanek. Choć I. brasiliensis jest małym rekinem, dorasta do 35-50 cm, potrafi poczynić znaczne szkody. Największe z udokumentowanych wycięć miało 5 cm szerokości i 7 głębokości. Na ciele młodego żarłacza odkryto półksiężyc i okrągły krater, bo jedna z prób wgryzienia się nie powiodła i dopiero drugie podejście zostało uwieńczone sukcesem. Jak doszło do spotkania rekina foremkowego spędzającego większość doby na głębokości 3,5 tys. m i żarłacza, który się tu nie zapuszcza? Papastamatiou przypuszcza, że stało się to nocą, gdy I. brasiliensis podpływa bliżej powierzchni wody i wykorzystuje swe bioluminescencyjne właściwości. Jego spodnia część jarzy się na zielono. Wyjątkiem jest szyja, przypominająca ciemną sylwetkę ryby na tle światła gwiazd i księżyca. Gdy oszukany drapieżnik podpływa, rekin foremkowy się w niego wpija. Autorzy raportu z pisma Pacific Science podkreślają, że to na razie tylko hipoteza, bo dotąd nikt nie widział wspomaganego luminescencją ataku rekina foremkowego. Przypuszczenie wydaje się jednak o tyle uprawnione, że obie analizowane rany znajdowały się w pobliżu jamy gębowej żarłacza. Poza tym w 1971 r. Everet Jones znajdował w żołądkach I. brasiliensis stożkowate grudki mięsa. Co prawda nie wiadomo, jak dokładnie ryby je zdobyły, ale kształt pasował idealnie. Pomocą mogą też służyć pokąsani przez "foremki" ludzie. Jednym z nich jest maratończyk Michael Spalding, który w 2009 r. płynął nocą między hawajskimi wyspami. Jeśli spotkanie obu rekinów rzeczywiście przebiegło tak, jak spekulują Amerykanie, mamy do czynienia z prawdziwą rzadkością. Choć nurkowie z okolic wyspy Guadalupe sporządzili olbrzymią bazę zdjęć, na żadnym nie widać bowiem podobnych obrażeń. Zastanawiając się nad prawdopodobieństwem opisanego scenariusza, warto pamiętać, że mimo mizernych rozmiarów rekiny foremkowe wydają się nieustraszone. W przeszłości zdarzało im się atakować nawet łodzie podwodne... Aby wyobrazić sobie, jakie rany zadają I. brasiliensis, warto przyjrzeć się temu delfinowi.
  21. Brytyjscy naukowcy z European Bioinformatics Institute w Cambridge poinformowali o dokonaniu przełomu na polu zapisywania i odczytywania danych przechowywanych w nici DNA. Uczonym udało się zapisać 739 kilobajtów danych. Następnie zsyntetyzowali i zsekwencjonowali DNA, by w końcu odczytać zapisane pliki ze 100-procentową skutecznością. Teoretyczne analizy wykazały, że ich technologię można skalować tak, że możliwe stanie się zapisanie w DNA znacznie większej ilości danych niż można zrobić to obecnie. Przechowywanie danych w DNA to niezwykle obiecujący sposób na archiwizowanie informacji. Dzisiaj długotrwałe przechowywanie danych, do których dostęp potrzebny jest tylko od czasu do czasu, jest bardzo skomplikowanym i kosztownym przedsięwzięciem. Wymaga wykorzystania wielu urządzeń, które muszą być składowane w odpowiednich warunkach, nadzorowane i testowane. Tymczasem w DNA można zapisywać olbrzymie ilości danych. Łatwo można je wysuszyć i zamrozić, jest proste w składowaniu oraz transportowaniu i umożliwia, przynajmniej teoretycznie, na przechowywanie informacji przez tysiące lat. Do odczytania tak zapisanych danych wystarczy zsekwencjonowanie DNA. Obecne postępy w technologii zapisywania informacji w DNA pozwalają przypuszczać, że w ciągu najbliższych 10 lat powstanie technologia, dzięki której przechowywanie przez około 50 lat informacji w postaci DNA będzie cenowo konkurencyjne wobec innych rozwiązań. O pojemności DNA niech świadczy fakt, że w ubiegłym roku naukowcy z Uniwersytetu Harvarda ogłosili, iż zapisali 700 terabajtów danych w 1 gramie DNA.
  22. Hybrydowa Toyota Prius była najchętniej kupowanym samochodem w Kalifornii w 2012 roku. Przerwała tym samym dwuletnią dominację Hondy Civic. Mieszkańcy Kalifornii kupili w ubiegłym roku 60 688 sztuk Toyoty Prius, co stanowi niemal 26% ogólnej sprzedaży w USA. Dane te nie obejmują pojazdów, które kupiły wypożyczalnie samochodów, agendy rządowe czy firmy dysponujące duża flotą pojazdów. Zdaniem analityków fakt, że najlepiej sprzedającym się samochodem jest hybryda pokazuje, jak bardzo rynek Kalifornii różni się od reszty kraju. W całych USA od lat najwięcej klientów znajduje pick-up Ford F, który w Kalifornii zajął dopiero siódmą pozycję. Z kolei drugi co do popularności amerykański samochód, Chevrolet Silverado, w ogóle nie zbliżył się do pierwszej 10 w Kalifornii. Mieszkańcy tego stanu kupili zaledwie 17 804 takie samochody, a zatem mniej niż np. sportowego sedana z serii BMW 3. Alec Gutierrez, analityk z firmy Kelley Blue Book mówi, że mieszkańcy Kalifornii rzadko kupują większe samochody, gdyż muszą przebywać duże odległości. Duży odsetek kierowców jeździ do pracy 40-60 kilometrów w jedną stronę. Posiadanie pick-upa byłoby zatem bardzo kosztowne. Warto tutaj zwrócić uwagę, że w USA za zwykły samochód osobowy uznaje się pojazd o dopuszczalnej masie całkowitej wynoszącej ponad 3800 kilogramów, a w kategorii samochodów osobowych mieszczą się też pojazdy o dopuszczalnej masie całkowitej ponad 4,5 tony. Na zamiłowanie Kalifornijczyków do mniejszych pojazdów wpływają ceny paliw, które są tam najwyższe w USA. Jednak, jak podkreślają specjaliści, olbrzymie znaczenie mają też inne czynniki. Ważna jest świadomość ekologiczna i moda. Dlatego też Prius pokonał bardzo popularną jeszcze niedawno Hondę CR-V. Osiem lat temu wszyscy jeździli samochodami sportowymi i półciężarówkami. Teraz modne jest porusznie się hybrydą lub samochodem elektrycznym - stwierdza Peter Welch, szef California New Car Dealers Association. Tego typu pojazdy zdobyły już 7,4% kalifornijskiego rynku. To ponaddwukrotnie więcej niż śerdnia krajowa. W ich rozpowszechnianiu się z pewnością pomagają ulgi podatkowe i różnego typu ułatwienia. Do takich ułatwień należy m.in. prawo do korzystania w godzinach szczytu z autostradowych pasów tranzytowych, którymi mogą poruszać się samochody przewożące kilka osób. Hybrydy i pojazdy elektryczne mogą jechać tym pasem nawet wówczas, gdy wiozą mniej niż minimalna liczba osób wymagana dla pojazdów spalinowych.
  23. Gros ludzi wierzy w swoją zdolność wykonywania paru czynności naraz. Amerykańscy psycholodzy wykazali jednak, że osoby, które najczęściej się tak zachowują, wcale nie są jednostkami najlepiej do tego przystosowanymi. Wykazaliśmy, że ludzie najczęściej angażujący się w wielozadaniowość wydają się najmniej zdolni do skutecznego łapania wielu srok za ogon. Cechuje ich złudzenie, że są ponadprzeciętni, podczas gdy w rzeczywistości nie tylko nie wykraczają poza średnią, lecz nawet niejednokrotnie plasują się poniżej niej - twierdzi prof. David Sanbonmatsu z University of Utah. W studium wzięło udział 310 studentów, którzy wypełnili zestaw kwestionariuszy. Oceniano ich zdolność do wykonywania paru czynności naraz i postrzeganie własnych umiejętności w tym zakresie. Padały też pytania dotyczące cech osobowościowych, np. impulsywności i poszukiwania wrażeń, korzystania z telefonu komórkowego w czasie jazdy autem oraz zamiłowania do jednoczesnego używania wielu mediów elektronicznych. Okazało się, że osoby najbardziej predysponowane do skutecznej wielozadaniowości wcale nie były jednostkami najczęściej angażującymi się w taką żonglerkę. Zamiast tego wykazano, że studenci zdobywający najwięcej punktów w skalach rzeczywistych umiejętności nie łapali wielu srok za ogon, bo potrafili lepiej skoncentrować się na pierwotnej czynności. W im większym stopniu badani "uprawiali" wielozadaniowość, w tym większym stopniu brakowało im potrzebnych do tego zdolności. W dodatku towarzyszyła temu nieadekwatna samoocena. Aż 70% osób umieszczało siebie powyżej średniej, co [oczywiście] było statystycznie niemożliwe. Ludzie z nasiloną impulsywnością i tendencją do poszukiwania wrażeń częściej angażowali się w wiele czynności naraz, ale odnotowano jeden wyjątek. Ludzie rozmawiający przez komórkę w czasie prowadzenia samochodu nie byli impulsywni, co sugerowało, że korzystanie z telefonu to wybór. Ponadto psycholodzy z Utah zauważyli, że wielozadaniowość często nie wynika z tego, że ktoś umie poradzić sobie z kilkoma czynnościami jednocześnie, ale raczej z niezdolności do ignorowania rozpraszaczy i koncentrowania się na pojedynczym zadaniu. W eksperymencie wzięło udział 176 kobiet i 134 mężczyzn. Średnia wieku wynosiła 21 lat. Miarą rzeczywistej zdolności do wielozadaniowości były wyniki testu OSPAN, gdzie łączy się wykonanie prostych operacji arytmetycznych z zapamiętaniem od 2 do 7 liter. Równania przeplatają się z literami, a odpowiadając, należy stwierdzić, czy podany wynik jest prawidłowy, czy nie i wymienić litery, którymi przepleciono działania. Na przykład: przy prostej serii połączeń "czy 2+4=6?, g, czy 3-2=2?, a, 4×3=12" prawidłowa odpowiedź brzmi "tak, g, nie, a, tak". Studenci oceniali swoje umiejętności w zakresie wielozadaniowości na skali od 0 do 100 punktów, wypełniali również kwestionariusze osobowościowe. Dodatkowo mieli ujawnić, jak często rozmawiają przez telefon, prowadząc. Odpowiadali też na pytania dotyczące częstości korzystania i czasu poświęcanego różnym mediom, w tym materiałom drukowanym, telewizji i filmom wideo, muzyce, nagraniom niemuzycznym, grom wideo, telefonowi, poczcie elektronicznej, komunikatorom, Internetowi czy innemu oprogramowaniu, np. edytorom tekstu. Na tej podstawie zespół Sanbonmatsu wyliczał wskaźnik wielozadaniowości. Podsumowując wszystkie istotne statystycznie związki, prof. David Strayer podkreśla, że najczęstsi wielozadaniowcy są impulsywni, szukają wrażeń, nadmiernie ufają swoim zdolnościom łapania wielu srok za ogon i słabiej sobie radzą z symultanicznym wykonaniem różnych zadań. Gdy wzięto pod uwagę czwarty kwartyl, czyli 25% najwyższych wyników w teście OSPAN, okazało się, że to ludzie najmniej skłonni do wielozadaniowości, a zarazem najczęściej angażujący się w jedną rzecz naraz - opowiada Sanbonmatsu. Wysoki wynik w OSPA korelował ujemnie z multitaskingiem medialnym i korzystaniem z komórki w czasie jazdy. Multitasking medialny korelował z impulsywnością, zwłaszcza z niezdolnością do koncentracji i działaniem wyprzedzającym myślenie. Wg psychologów, impulsywni są przeważnie silniej zorientowani na nagrody i bardziej skłonni do podejmowania ryzyka, stąd mniejsza wrażliwość na koszty wielozadaniowości. Ponieważ okazało się, że wielozadaniowość koreluje z poszukiwaniem wrażeń, można zakładać, że niektórzy imają się wielu zadań naraz, bo to bardziej stymulujące, interesujące i wymagające, nawet jeśli niekorzystnie wpływa na ogólny poziom wykonania.
  24. Naukowcy od kilkudziesięciu lat uważają, że znaczną część wszechświata wypełnia ciemna materia. Nie potrafią jednak stwierdzić, z czego się ona składa. Are Raklev, profesor fizyki cząstek z Uniwersytetu w Oslo przedstawił interesującą teorię, która nie tylko może wyjaśnić skład ciemnej materii ale też podpowiedzieć, w jaki sposób ją wykryć. Pomimo tego, że potrafimy obliczyć masę ciemnej materii, ciągle nie wiemy, czym ona jest. Jej cząsteczki powinny posiadać albo bardzo dużą masę, ale być bardzo liczne. Neutrino spełniają wszystkie warunki dla ciemnej materii. Z wyjątkiem jednego. W sumie mają zbyt małą masę - mów Raklev. Uczony próbuje udowodnić, że ciemną materię stanowią grawitina. Grawitino to hipotetyczny supersymetryczny partner hipotetycznego grawitonu. Bardziej hipotetycznie już być nie może - śmieje się uczony. Supersymetria zakłada istnienie symetrii pomiędzy oddziaływaniami a materią. Kwarki i elektrony mają, wedle zwlenników supersymetrii, swojego ciężkiego partnera. Cząstki te powstały natychmiast po Wielkim Wybuchu. To właśnie one mają tworzyć ciemną materię. I tutaj właśnie pojawia się grawitino. Grawiton, jak uważają niektórzy, przenosi oddziaływania grawitacyjne, tak jak foton przenosi oddziaływania elektromagnetyczne. Grawiton nie ma masy, ale ma ciężkiego supersymetrycznego partnera czyli grawitino. Jeśli zatem zwolennicy supersymetrii mają rację i natura jest supersymetryczna i grawiton istnieje, to istnieje również ciężkie grawitino. Problem jednak w tym, że nawet jeśli obie cząstki istnieją, to nie będzie można wykazać związku pomiędzy nimi bez istnienia Teorii Wszystkiego. Jednym z największych wyzwań współczesnej fizyki jest stworzenie teorii, która opisywałaby wszystkie siły w naturze. Od kilkudziesięciu lat wiemy, że elektryczność i magnetyzm są częścią tej samej siły, nazwanej elektromagnetyzmem. Kolejne dwie siły to oddziływania słabe (przejawiające się np. w radioaktywności pierwiastków) i oddziaływania silne, które łączą protony i neutrony. Model Standardowy łączy wszystkie wspomniane siły - elektromagnetyzm, oddziaływania silne i oddziaływania słabe. Do rozwiązania pozostaje jeszcze problem najsłabszej z sił, czyli grawitacji. Nie istnieje obecnie teoria, która pozwoliłaby połączyć ją z trzema pozostałymi siłami. Taka teoria, mimo że jeszcze nie istnieje, już zyskała sobie nazwę Teorii Wszystkiego. Aby ją stworzyć konieczne jest zrozumienie grawitacji z punktu widzenia mechaniki kwantowej. To z kolei wymaga teorii, w której grawiton byłby częścią jądra atomowego. Badanie ciemnej materii jest bardzo trudne, gdyż nie oddziałuje ona elektromagnetycznie ze spotykanymi na Ziemi cząstkami. Gdy nie ma oddziaływania elektromagnetycznego z widzialnymi cząstkami, to ciemna materia może np. przechodzić przez nasze ciała, a my nie mamy instrumentów, które będą w stanie ją zarejestrować. Tu właśnie pojawia się supersymetria. Jeśli teoria ta jest prawdziwa, fizycy mogą wyjaśnić istnienie ciemnej materii - mówi Raklev. Jego zdaniem zasadniczą część ciemnej materii stanową grawitina. Supersymentria wszystko upraszcza. Jeśli Teoria Wszystkiego istnieje, a zatem jeśli możliwe jest zunifikowanie czterech sił natury, grawitina muszą istnieć - dodaje. Jego zdaniem grawitina powstały wkrótce po Wielkim Wybuchu. W istniejącej wówczas plazmie kwarkowo-gluonowej dochodziło do zderzeń gluonów, w wyniku których powstawały grawitina. Mamy więc wyjaśnienie, dlaczego one istnieją - stwierdza fizyk. I rozwiewa przy okazji wątpliwości wielu swoich kolegów po fachu, którzy twierdzili, że teoria supersymetrii jest nieprawdziwa, gdyż zakłada istnienie zbyt wielu grawitin. Fizycy starali się dotychczas wyeliminować grawitina ze swoich modeli. My znaleźliśmy wyjaśnienie, które łączy supersymetrię i ciemną materią złożoną z grawitin. Uważamy, że jeśli ciemna materia nie jest stabilna, a ma po prostu bardzo długi okres życia, to można stwierdzić, że jest ona zbudowana z grawitin - mówi Raklev. W dotychczasowych teoriach zakładano, że ciemna materia jest wieczna, a to powodowało, że grawitina tylko przeszkadzały w teorii supersymetrii. W teorii Rakleva ciemna materia nie jest wieczna. Składa się z grawitin, których czas istnienia jest niezwykle długi, dłuższy niż czas istnienia wszechświata, ale nie wieczny. Jeśli zatem Raklev ma rację, to w pewnym momencie grawitino musi zmienić się w inną cząsteczkę. I można zarejestrować wynik tej zmiany. Uważamy, że niemal cała ciemna materia składa się z grawitin. Można to udowodnić za pomocą niezwykle skomplikowanych obliczeń matematycznych. Pracujemy nad modelami, które pozwolą przewidzieć konsekwencje naszych teorii i podpowiedzą, w jaki sposób możemy eksperymentalnie udowodnić istnienie tych cząsteczek - informuje naukowiec. Najprostszym sposobem na obserwowanie cząsteczek jest rejestrowanie ich zderzeń, w wyniku których powstają np. fotony czy antymateria. Problem jednak w tym, że grawitina nie zderzają się ze sobą lub dochodzi do tego niezwykle rzadko. Na szczęście dla nas grawitina nie są całkowicie stabilne. W pewnym momencie zmieniają się w coś innego. Możemy przewidzieć, jak powinien wyglądać sygnał wskazujący na przemianę grawitina. Podczas przemiany dochodzi do emisji fali elektromagnetycznej. Nazywanej promieniowaniem gamma - stwierdza fizyk. Przypomina, że sonda Fermi-LAT mierzy obecnie probmieniowanie gamma, a wiele grup naukowców zajmuje się analizą wyników. Jak dotąd obserwujemy jedynie szum. Ale jedna z grup badawczych poinformowała o zaobserwowaniu niewielkiego podejrzanego nadmiaru sygnałów gamma pochodzących z centrum naszej galaktyki. Te sygnały mogą pasować do naszej teorii - mówi profesor Raklev.
  25. Naukowcy z University at Buffalo zauważyli, że bardzo małe cząsteczki krzemu reagują z wodą i niemal natychmiast powstaje wodór. Do przeprowadzenia reakcji nie jest potrzebne światło, ciepło czy elektryczność. W wyniku reakcji z wodą cząsteczek o średnicy około 10 nanometrów wodór powstaje 150-krotnie szybciej niż gdy cząsteczki mają 100 nanometrów i 1000-krotnie szybciej gdy krzem jest w jednym dużym kawałku. Produktem ubocznym reakcji jest nietoksyczny kwas krzemowy. Nanometrowej wielkości cząsteczki krzemu mogą znacznie skuteczniej pozyskiwać wodór niż inne materiały, takie jak np. aluminium - mówi profesor Mark T. Swihart. Pozyskany w ten sposób wodór był na tyle czysty, że można go było wykorzystać w ogniwie paliwowym do napędzenia niewielkiego wentylatora. Po dalszym ulepszeniu technologia ta może pozwolić na generowanie wodoru na żądanie. Wystarczy tylko dolać wody - dodaje Paras Prasad. "takie rozwiązanie najlepiej sprawdziłoby się w przenośnych źródłach energii - stwierdza. Naukowców zaskoczyło tempo pozyskiwania wodoru. W mniej niż minutę 10-nanometrowe cząstki krzemu pozwoliły na pozyskanie większej ilości wodoru, niż 100-nanometrowe w ciągu około 45 minut. Momentami produkcja odbywała się nawet 150-krotnie szybciej. Różnica w tempie reakcji wynika, jak wyjaśnia Swihart, z różnicy w kształcie i wielkości cząsteczek. To oznacza, że odpowiednie ich dostosowanie pozwoli na zoptymalizowanie procesu. Niestety, nie ma różny bez kolców. Wyprodukowanie bardzo małych sferycznych cząsteczek wymaga sporych ilości energii. Dlatego też na obecnym etapie rozwoju nowa technologia przyda się przede wszystkim tam, gdzie istnieje łatwy dostęp do wody, a koszty są mniej ważne. Z pewnością przyda się w wojsku czy podczas długich wycieczek. Zamiast zabierać ze sobą generatory prądu i paliwo czy duże ciężkie baterie, znacznie łatwiej będzie wziąć wodorowe ogniwo oraz pojemniki z krzemowym nanoproszkiem i aktywatorem.
×
×
  • Dodaj nową pozycję...