Skocz do zawartości
Forum Kopalni Wiedzy

KopalniaWiedzy.pl

Super Moderatorzy
  • Liczba zawartości

    37694
  • Rejestracja

  • Ostatnia wizyta

    nigdy
  • Wygrane w rankingu

    250

Zawartość dodana przez KopalniaWiedzy.pl

  1. Naukowcy z MIT-u odpowiedzieli na pytanie, które od dziesięcioleci trapiło uczonych - czy w gazach powstaje zjawisko magnetyzmu. Odpowiedź brzmi: tak. Zespół z Massachusetts Institute of Technolgy zaobserwował magnetyzm w gazie atomów litu schłodzonych do temperatury -273 stopni Celsjusza. W ten sposób udowodniono, że gaz złożony z fermionów nie musi tworzyć sieci krystalicznej, by być ferromagnetykiem. Uczeni od dziesięcioleci zastanawiali się, czy gazy i płyny mogą być ferromagnetykami, czyli materiałami wykazującymi silne właściwości magnetyczne nawet bez obecności pola magnetycznego. W ciałach stałych, takich jak żelazo czy nikiel, mamy do czynienia z ferromagnetyzmem wówczas, gdy nietworzące par elektrony w siatce krystalicznej spontanicznie ustawiają się w tym samym kierunku. Wszystkie fermiony (elektrony, protony i neutrony) wykazują właściwości podobne do elektronów, a więc mogą zostać użyte do symulowania ich zachowania w elektromagnesie. Atomy i molekuły, które posiadają równe liczby fermionów uznawane są za złożone fermiony. Dlatego też uczeni z MIT-u użyli litu-6, którego atomy składają się z trzech elektronów, trzech protonów i trzech neutronów. Wiadomo, że w naturze istnieją naturalne płyny i gazy fermionowe. Występują on w ciekłym helu-3 i w gwiazdach neutronowych. Jednak, jak wyjaśnia Gyu-boong Jo, członek zespołu badawczego, naturalne gazowa i ciekłe systemy fermionów nie wykazują właściwości ferromagnetycznych, gdyż poszczególne elementy zbyt słabo ze sobą oddziałują. Jednak w przypadku atomów litu-6 możliwe jest manipulowanie siłą oddziaływań dzięki zmianom zewnętrznego pola magnetycznego. Uczeni z MIT-u najpierw złapali chmurę chłodnych atomów litu w pułapkę stworzoną za pomocą lasera na podczerwień. Następnie zwiększali stopniowo siły oddziałujące pomiędzy atomami. Początkowo chmura zaczęła się powiększać, a później gwałtownie się skurczyła. gdy atomy uwolniono z pułapki, doszło do bardzo szybkiego powiększania się chmury. Takie zachowanie jest zgodne z teoretycznymi przewidywaniami dotyczącymi zjawisk zachodzących podczas przechodzenia do stanu ferromagnetyka. Specjaliści zgadzają się, że uzyskano w ten sposób bardzo silny dowód na to, iż gazy fermionowe mogą mieć takie właściwości jak krystaliczne ferromagnetyki. Jednak ostatecznym dowodem byłoby bezpośrednie zaobserwowanie ferromagnetyzmu. MIT ma zamiar nadal prowadzić badania nad nowymi właściwościami gazów, które są kontynuacją badań nad kondensatami Bosego-Einsteina. Bardzo szybko mogą one przyczynić się do powstania nowych materiałów magnetycznych, użytecznych podczas przechowywania danych, w nanotechnologii i diagnostyce medycznej. Ponadto umożliwią one dokładniejsze zbadania związków magnetyzmu i nadprzewodnictwa.
  2. Naukowcy z uniwersytetu w Augsburgu skonstruowali kwantową wersję silnika elektrycznego. By ją uzyskać, należy umieścić dwa atomy w pułapce optycznej. Jeden z nich musi być neutralny, a drugi naładowany. W normalnych warunkach atomy będą skakały z jednego końca pułapki na drugi. Jeśli jednak poddamy ją działaniu zmiennego pola magnetycznego, naładowany atom zacznie wędrować wokół pułapki. Najtrudniejszą kwestią jest samo uruchomienie silnika. By tego dokonać konieczny jest właśnie neutralny atom, który tworzy asymetrię względem atomu naładowanego i umożliwia start urządzenia. Zespół Alexeya Ponomareva, który opisał silnik, chce teraz połączyć pułapkę i znajdujące się w niej atomy z rezonatorem. Jeśli to się uda i uzyskane zostaną drgania, możliwe będzie zbudowanie miniaturowego urządzenia napędzanego kwantowym silnikiem.
  3. Amerykańscy naukowcy odkryli na północnym wschodzie Chin miniaturowy "prototyp" tyranozaura. Choć był 100-krotnie mniejszy od swego następcy, już przed 125 mln lat miał wszystkie jego flagowe cechy. Paul Sereno z Uniwersytetu Chicagowskiego przyznaje, że nigdy wcześniej nie spotkał się z takim zjawiskiem. Raptorex kriegsteini ważył mniej więcej tyle, co człowiek i mierzył 274 cm. Podobnie jak Tyrannosaurus rex, mógł się pochwalić dużą w stosunku do tułowia głową, krótkimi przednimi kończynami oraz smukłymi stopami, doskonale przystosowanymi do biegania. Oznacza to, że cechy, uznawane wcześniej za szczególne dla dużych drapieżników, mogą być również użyteczne dla mniejszych zwierząt. To powszechne przekonanie, że ramiona stawały się krótsze wraz z powiększaniem rozmiarów ciała. Nikt nie miał jednak pojęcia, że kiedyś istniało coś takiego, jak Raptorex. Forma mózgu miniatury sugeruje, że gatunek ten dysponował powiększoną opuszką węchową à la tyranozaur, co sugeruje, że miał wyostrzone powonienie. Sereno zachwyca się skalowalnością planu ciała tyranozaurowatych, który po "rozdmuchaniu" przed 90 mln lat pozwolił swojemu właścicielowi całkowicie zdominować niszę drapieżników zarówno w Azji, jak i w Ameryce Północnej. Henry Kriegstein, prywatny kolekcjoner skamielin, odkupił pozostałości Raptoreksa od handlarza. Gdy zespół Sereno zakończy szczegółowe badania niemal kompletnego szkieletu, powróci on do muzeum w Regionie Autonomicznym Mongolii Wewnętrznej. Okaz nie był co prawda w pełni dorosły, lecz na podstawie wysycenia kości wapniem paleontolodzy szacują, że do osiągnięcia dojrzałości niewiele mu już brakowało. Odkrycie Raptoreksa uświadomiło naukowcom, że przodkowie tyranozaurów dużo wcześniej przystosowali się do swojej drapieżniczo-biegającej roli. Ich głowa była duża, by pomieścić silne żwacze, a nogi wzmocniły się, aby umożliwić pościg. Wiedząc, że Raptorex radził sobie doskonale mimo niewielkich gabarytów, Amerykanie stwierdzili, że również młode T. rex mogły być tak samo groźnymi maszynami do zabijania, co ich rodzice.
  4. Opera zapowiada walkę o amerykański rynek. Norweska przeglądarka ma na całym świecie około 100 milionów użytkowników, jednak nie może przebić się w USA. Najnowsze dane wskazują, że zajmuje tam dopiero piątą pozycję po produktach Microsoftu, Apple'a, Google'a i Mozilli. Musisz przebić się w USA jeśli naprawdę chcesz się liczyć - stwierdza znany analityk i blogger Robert Scoble. Ameryka to prawdopodobnie najważniejszy rynek. Jeśli nie zainteresujesz go swoim produktem, trudno będzie zainteresować nim inne rynki - dodaje. Dlatego też szef Opery, Jon von Tetzchner mówi w wywiadzie dla BBC News: Prawda jest taka, że w USA mamy sporo do zrobienia. Chcemy mieć liczące się udziały w rynku USA i jestem przekonany, że je zdobędziemy. Widzimy duże zainteresowanie Operą 10. Najbardziej jednak liczy się użytkownik i jesteśmy zadowoleni tak samo, gdy korzystają z naszego produktu w USA, Europie czy Indiach. Dodaje przy tym, że w takich krajach jak Rosja czy Ukraina Opera jest najważniejszą przeglądarką, a w wielu innych częściach świata zajmuje trzecią pozycję, wyprzedzając Safari i Chrome'a. Von Tetzchner przyznaje jednak, że jego firma n ie ma pojęcia, dlaczego Opera nie zdobywa popularności w USA. Analityk Ronald Gruia z firmy Frost & Sullivan mówi, że przyczyną takiego stanu rzeczy może być fakt, iż Opera sama ustawiła się z boku i nie jest postrzegana jako produkt konkurencyjny. To dobry produkt na trudnym rynku. Muszą pokazać swoją wartość, to czym się różnią od innych i korzystać z różnych kanałów dystrybucji - trafiać do użytkowników indywidualnych, developerów, producentów oraz ludzi kreujących opinie. Muszą wkraść się do umysłów tak, jak wkradł się Apple z iPhonem. Naprawdę potrzebują kogoś, pomoże im stworzyć odpowiedni wizerunek i spowoduje, by ludzie mówili o Operze - stwierdza Gruia.
  5. Spółka Nokia Siemens Network poinformowała o nawiązaniu pierwszego połączenia w standardzie LTE, które przeprowadzono przy użyciu komercyjnych stacji bazowych i urządzeń w pełni zgodnych ze standardami. LTE (Long Term Evolution) to standard telefonii komórkowej następnej generacji (4G). "Połączenie to ważny krok w kierunku upowszechnienia się LTE, który pokazuje, jak bardzo jesteśmy przekonani do tej technologii. Nasi klienci będą stopniowo wdrażali LTE i jesteśmy gotowi im w tym pomóc, podobnie zresztą jak operatorom, którzy będą migrowali z 3G/HSPA+ do LTE" - powiedział Marc Rouanne z Nokia Siemens Networks. Wspomniane połączenie nawiązano w centrum badawczo-rozwojowym w Ulm i wykorzystano podczas niego stację bazową Flexi Multiradio. Pierwsze wdrożenia LTE będą miały miejsce jeszcze w bieżącym roku. Od roku 2010 powinno rozpocząć się wdrażanie nowej technologii na szerszą skalę.
  6. Badacze z MIT-u obserwowali starsze dzieci i dorosłych, którym udało się przywrócić wzrok. Dzięki temu stwierdzili, w jaki sposób mózg uczy się widzieć. Okazuje się, że kluczem do rozwiązania zagadki jest dynamiczna informacja, czyli obserwowanie poruszających się obiektów. Przypadki, gdy ktoś zaczyna widzieć, choć wcześniej przez całe życie był niewidomy, są naprawdę rzadkie. Mózg musi się nauczyć robić użytek z napływających danych wzrokowych, których przez całe lata był pozbawiony. W krajach zachodnich operuje się niewidome dzieci, ale w krajach rozwijających się, np. w Indiach, niekoniecznie. Los takich osób jest nie do pozazdroszczenia. Często borykają się one bezrobociem, są niewykształcone i wcześnie umierają. Lekarze nie chcieli dotąd operować pacjentów powyżej 5.-6. roku życia, ponieważ uważało się, że właśnie do tego wieku mózg uczy się widzieć i jakiekolwiek późniejsze zmiany są zwyczajnie pozbawione sensu. Profesor Pawan Sinha z MIT-u zajął się za pośrednictwem swojej organizacji charytatywnej Project Prakash kilkoma takimi osobami. Po paru latach prac okazało się, że operowanie po 6. roku życia ma jednak sens, a dzięki takim odkryciom można m.in. stworzyć widzące komputery, lepsze procedury rehabilitacyjne czy bardziej adekwatne modele ludzkiego systemu wzrokowego. W 2007 roku Sinha i Yuri Ostrovsky spotkali się z kobietą, która zaczęła widzieć w wieku 12 lat, co więcej - jej możliwości wzrokowe były niemal całkowicie normalne. Jak łatwo się domyślić, jej przypadek zadawał kłam teorii wieku krytycznego. Naukowcy nie byli jednak w stanie stwierdzić, jak jej mózgowi się to udało, ponieważ spotkali ją po 20 latach od momentu odtworzenia wzroku. Najnowsze studium Amerykanów objęło 3 nastolatków i młodych dorosłych z Indii. Ich losy i umiejętności śledzono przez 18 miesięcy od operacji. Zespół Sinhy stwierdził, że na początku badani mieli duży problem z odróżnieniem figur od tła, oddzieleniem od siebie nakładających się przedmiotów czy złożeniem w całość poszczególnych elementów różnych obiektów. Później zaczęli sobie jednak coraz lepiej radzić z takimi zadaniami. Jeden z badanych pacjentów (S.K.) urodził się z afakią - bez soczewek oczu. Zoperowano go w 2004 roku w wieku 29 lat. Po zabiegu wziął udział w serii testów, podczas których miał identyfikować proste kształty i obiekty. Potrafił rozpoznać niektóre kształty – trójkąty, kwadraty – kiedy były ustawione obok siebie, ale nie wtedy, gdy się nakładały. Jego mózg nie umiał rozróżnić obrysu całej figury, zamiast tego uznawał, że każdy fragment kształtu jest oddzielną całością. Jego świat był rozbity na wiele drobnych kawałków. Co ciekawe, jeśli kwadrat bądź trójkąt wprawiano w ruch, zarówno S.K., jak i pozostałe dwie uwzględnione w studium osoby o wiele lepiej radziły sobie z rozpoznaniem obiektu. Liczba przypadków pomyślnej identyfikacji kształtu rosła od blisko 0% do ok. 75%. Później te same figury łatwiej im było rozpoznać na zdjęciach. Ostatecznie pacjenci radzili sobie z nieruchomymi obiektami niemal normalnie. Mózg jest tak zaprogramowany, by wykorzystywać podobieństwa ruchu do wnioskowania, które regiony pola widzenia tworzą obiekty postrzeganego świata. Ruch może stanowić odpowiednik płyty instalacyjnej, wgrywając zasady "rozbierania" na części pierwsze obrazów statycznych.
  7. Pioneer zaprezentował urządzenie BDR-S05J-BK, czyli pierwszą nagrywarkę Blu-ray rejestrującą dane z dwunastokrotną prędkością. Już w przyszłym miesiącu trafi ona na półki sklepowe w Japonii, gdzie będzie sprzedawana w cenie około 28 000 jenów (417 USD). Na rynki zagraniczne trafi OEM-owa wersja urządzenia, oznaczona jako BDR-205. Niestety, nie będzie ono dostępne w Europie, gdyż Pioneer wycofał się z dystrybucji podzespołów dla pecetów na Starym Kontynencie. Nagrywarka Pioneera jest w stanie nagrywać dane z dwunastokrotną prędkością na niektórych nośnikach BD-R SL i DL. Nośniki BD-R LTH są nagrywane z 6-krotną prędkością, a BD-RE/RE DL z prędkością x2. Urządzenie radzi też sobie z płytami DVD i CD. Pioneer bardzo szybko zyska konkurenta. W czwartym kwartale bieżącego roku na rynek ma trafić 12-krotna nagrywarka Blu-ray produkcji konsorcjum PLDS (Philips, Lite-On).
  8. Amerykańscy naukowcy pracują nad robotem, który radziłby sobie w nowym środowisku, prosząc ludzi o pomoc w zidentyfikowaniu nieznanych obiektów. Firma Willow Garage z Palo Alto stworzyła robota PR2 (Personal Robot 2), który miał swobodnie nawigować po budynkach. Szkopuł w tym, że maszyny, np. komputery, mogą rozpoznać proste obiekty, dajmy na to kubki, ale zaczynają mieć problemy, gdy zmieniają się warunki oświetleniowe, np. robi się ciemniej, lub kąt, pod którym je "oglądają". Alex Sorokin, współpracujący informatyk z University of Illinois, wpadał na pomysł, co z tym począć. Jego system wykorzystuje platformę Mechanical Turk Amazona, gdzie w zwykłych okolicznościach "spotykają się" ludzie poszukujący pracy i pracodawcy. Tutaj robot robi zdjęcie nieznanego mu obiektu i wysyła je na Mechanical Turk. Za pomocą oprogramowania Sorokina ludzie mogą zakreślić wybrane przez siebie przedmioty i nazwać je. Dostają za to od 3 do 15 centów. Podczas testów prowadzonych w biurach Willow Garage robot co kilka sekund wysyłał zdjęcia. Kilka minut później zaczęły przychodzić odpowiedzi od ludzi. Trafność wynosiła 80%, ale informatyk ma nadzieję, że się zwiększy, kiedy inni pracownicy będą sprawdzać poprawność odpowiedzi swoich poprzedników. Wg Sorokina, roboty sprzątające czy opiekujące się starszymi osobami mogłyby w przyszłości spędzać pierwszy tydzień pracy na fotografowaniu. Ludzie oznaczaliby fotografie, pomagając maszynie w stworzeniu modelu pomieszczenia/budynku. Następnym krokiem prac nad PR2 ma być usensownienie ludzkich odpowiedzi dla robota oraz sprawienie, by działał na podstawie takich instrukcji.
  9. Osoby cierpiące na chroniczny ból wykazują taki sam stopień niepełnosprawności jak ludzie o 20-30 lat starsi. Oznacza to, że przewlekły ból doprowadza do powstania w młodszym wieku funkcjonalnych ograniczeń kojarzonych zazwyczaj ze starzeniem (Journal of the American Geriatric Society). Zespół doktora Kennetha Covinsky'ego z Uniwersytetu Kalifornijskiego w San Francisco przeanalizował dane 18531 osób, w wieku 50 lat i starszych, które przed pięcioma laty wzięły udział w Health and Retirement Study. Przyglądano się wtedy 4 czynnikom/zdolnościom: 1) mobilności, np. chodzeniu bądź bieganiu, 2) wspinaniu się po schodach, 3) zadaniom manualnym oraz 4) codziennym czynnościom (kąpaniu, jedzeniu itp.), wykonywanym z pomocą lub bez. Dwadzieścia cztery procent uczestników studium doznawało znacznego bólu i to właśnie u nich zaobserwowano większe ograniczenia w zakresie wszystkich 4 wziętych pod uwagę czynników. Jeśli chodzi o mobilność, to wśród zdrowych ochotników w wieku 50-59 lat 37% było w stanie przebiec bez wysiłku milę, a 91% przejść kilka przecznic. Dla porównania udawało się to, odpowiednio, 9 i 50% osób w tym samym wieku z chronicznym bólem. Odkryliśmy, że możliwości dręczonych przez ból 50-59-latków były porównywalne z umiejętnościami wolnych od bólu 80-89-latków, z których 4% mogło przebiec milę, a 55% przejść parę przecznic. Z tego powodu ludzie walczący z bólem wydają się o 20-30 lat starsi od osób nieznających chronicznego bólu. Nawet po uwzględnieniu czynników potencjalnie istotnych dla uzyskanych wyników, takich jak status socjoekonomiczny, współistniejące choroby, depresja, otyłość i nawyki zdrowotno-żywieniowe, "bólowcy" i tak znajdowali się w grupie podwyższonego ryzyka wystąpienia ograniczeń funkcjonalnych. Mimo że siła związku między bólem a ograniczeniami mobilności spadała nieco z wiekiem, dawało się go zauważyć aż do 10. dekady życia. Nasze studium nie może wskazać na kierunek zależności, a więc czy to ból wywołuje niepełnosprawność, czy też raczej niepełnosprawność prowadzi do bólu. Myślimy jednak, że może być i tak, i tak, a wpływ obu czynników – bólu i niepełnosprawności – się sumuje, przez co problem się pogarsza, stale narastając.
  10. Od co najmniej 200 lat wiemy, że obiekty o przeciwnych ładunkach przyciągają się. Najnowsze badania wykazały jednak, że krople silnie naładowane przeciwnymi ładunkami... odpychają się. Do odkrycia tego zjawiska doszło przypadkiem w 2005 roku, gdy William Ristenpart z Uniwersytetu Kalifornijskiego w Davis badał ładunki elektryczne w kroplach wody umieszczonych w oleju. Zwykle dwie przeciwnie naładowane krople przyciągały się, co wywoływało ich deformację, utworzenie się stożka Taylora, a następnie zlanie się kropli. Jednak, gdy Ristenpart przypadkowo zbyt mocno naładował krople, zauważył, że odbijały się one od siebie. Badania niezwykłego zjawiska zajęło uczonemu i jego kolegom trzy ostatnie lata. W końcu naukowcy odkryli, że gdy krople są słabo lub średnio naładowane, tworzące się stożki Taylora są dość krótkie, szerokie, a na ich czubkach występują duże kąty. Przy silnym naładowaniu, krople przyciągają się tak mocno, że stożki stają się długie, wąskie z ostrymi kątami. Kluczem do rozwiązania zagadki okazały się właśnie różnice w kształtach stożków Taylora. W punkcie kontaktu dwóch kropli zewnętrzne pole elektryczne nie odgrywa już żadnej roli. To, czy krople się zleją zależy wyłącznie od kształtu małego "mostu" tworzonego przez stykające się stożki Taylora. Jeśli tworzą go krótkie, szerokie elementy, wówczas napięcie powierzchniowe kropli przyciąga je do siebie i tworzą jedną dużą kroplę. Jeśli jednak mamy do czynienia z dwoma wąskimi elementami, to napięcie powierzchniowe odpycha je od siebie i krople się odbijają. Badania Ristenparta będą miały kolosalne znacznie w wielu dziedzinach życia, w których wykorzystywane są zjawiska elektrostatyczne. Wyjaśniają one np. dlaczego, pomimo udoskonalania od stu lat odpowiednich technik, przemysł petrochemiczny nie jest w stanie uzyskać lepszych wyników podczas elektrostatycznego usuwania wody z ropy naftowej. Dokonane odkrycie pozwoli produkować doskonalsze farby, produkować lepsze włókna sztuczne, ulepszyć technikę spektrometrii masowej. Znajdą zastosowanie wszędzie tam, gdzie konieczne jest precyzyjne kontrolowanie niewielkich kropli cieczy. Niewykluczone, że z badań Ristenparta skorzystają też klimatolodzy, gdyż opisane zjawisko może mieć wpływ na formowanie się chmur.
  11. Technika DNA origami, czyli tworzenie struktur przestrzennych z wykorzystaniem odpowiednio przygotowanych nici kwasu deoksyrybonukleinowego, osiągnęła nowy poziom rozwoju. Dzięki eksperymentom przeprowadzonym przez badaczy z Brigham Young University (BYU) z cząsteczek DNA udało się stworzyć kompleksy przypominające swoim kształtem... litery alfabetu. Dlaczego tworzenie tak błahych struktur jest w ogóle traktowane jako badania naukowe? Odpowiedź jest prosta: ich powstanie jest dowodem na możliwość tworzenia nanocząstek o ściśle zaplanowanym kształcie i wielkości oraz wartości kątów pomiędzy poszczególnymi elementami. Potencjalne zastosowania dla takich konstrukcji są niezliczone i obejmują m.in. tworzenie mikroskopijnych przewodów elektrycznych czy gotowych części do nanomaszyn. Cząsteczki DNA origami powstają w wyniku działania zasady komplementarności. Zgodnie z nią, dwie jednoniciowe cząsteczki DNA (lub dwa odcinki tej samej nici) łączą się ze sobą niczym połowy zamka błyskawicznego i tworzą nić podwójną tylko wtedy, gdy ich fragmenty zawierają wzajemnie dopasowaną (komplementarną) sekwencję zasad azotowych. Synteza cząsteczek o odpowiedniej sekwencji zasad umożliwia więc stworzenie kompleksu o ściśle zaplanowanych miejscach łączenia się nici. W praktyce okazuje się, że sama zasada komplementarności nie wystarcza, by stworzyć wiele nieskomplikowanych, lecz ważnych kształtów, takich jak np. kąt prosty. Naukowcy z BYU znaleźli jednak sposób na rozwiązanie tego problemu. Aby uzyskać wiązki DNA rozchodzące się pod kątem ok. 90°, zsyntetyzowano cząsteczki, w których połączeniu w paru ulegały długie sekwencje zasad. Powstanie takich struktur oznaczało usztywnienie całej nici, dzięki czemu powstały "linie proste". Miejsca, w których zasady azotowe pochodzące z poszczególnych odcinków nie uległy połączeniu w pary, były znacznie bardziej elastyczne i stawały się naturalnymi "zawiasami", w których dochodziło do wygięcia nici. Dzięki odpowiedniemu rozmieszczeniu miejsc "zawiasowych" udało się rozłożyć wewnętrzne naprężenia wewnątrz cząsteczki tak, by najkorzystniejszą termodynamicznie (a więc przyjmowaną w większości przypadków) konfiguracją było wygięcie tych regionów pod kątem prostym. Efektem pracy naukowców z Brigham była synteza cząsteczek przypominających swoim kształtem inicjały nazwy ich uczelni: BYU. Z pozoru jest to tylko niewinna zabawa, lecz ukazuje ona ogromny potencjał tkwiący w nowej wersji DNA origami. Choć metoda "składania" DNA jest wciąż w powijakach, już dziś można przewidzieć jej możliwe zastosowania. Wytworzone cząsteczki mogą posłużyć np. jako rusztowania, na których osadzana będzie warstwa przewodnika elektrycznego, z którego powstanie następnie miniaturowy przewód W podobny sposób, tylko z wykorzystaniem materiałów o większej wytrzymałości mechanicznej, można by produkować elementy nowoczesnych maszyn lub różnego rodzaju tworzywa. Nietrudno więc zauważyć, że umiejętne manipulowanie podstawowym nośnikiem informacji biologicznej daje nam znacznie więcej, niż tylko możliwość kontrolowania procesów zachodzących w organizmach żywych. Zdjęcia cząstek stworzonych przez badaczy z BYU są dostępne na tej stronie.
  12. Amerykańscy eksperci opracowali aparat oraz oprogramowanie pozwalające na wczesną diagnostykę autyzmu na podstawie... analizy głosu dziecka oraz otoczenia, w którym się ono rozwija. Sercem urządzenia, nazwanego LENA (skrót od Language ENvironment Analysis - analiza środowiska językowego), jest dyktafon pozwalający na nagranie do 16 godzin materiału dźwiękowego. Stworzone w ten sposób pliki są następnie przekazywane do komputera, gdzie zostają poddane analizie przez specjalny program. Podczas "przesłuchiwania" nagrań aplikacja wyszukuje charakterystyczne wskaźniki ważne dla oceny rozwoju dziecka, takie jak próby nawiązania konwersacji i wypowiadania słów, kontakt ze strony rodziców itp. Dzięki porównaniu poszczególnych próbek komputer ocenia, w jakim tempie rozwija się malec, i w razie potrzeby informuje rodziców o możliwych komplikacjach. Jak oceniają wynalazcy LENA, do skutecznego zdiagnozowania autyzmu wystarczą 2-3 nagrania miesięcznie. Należy jednak zaznaczyć, że choć urządzeniem zainteresowała się znaczna liczba instytucji naukowych, dotychczas nie przeprowadzono kontrolowanych badań klinicznych, zaś jedyne "oficjalne" rezultaty eksperymentów zostały opublikowane przez samych wynalazców. Nie oznacza to, oczywiście, że LENA nie działa, lecz weryfikacji jej skuteczności będzie wymagała jeszcze wielu badań.
  13. W Korei stworzono materiał, który może pozwolić na zbudowanie niezwykle gęstych pamięci typu Millipede, zdolnych do pracy w temperaturze pokojowej. Pamięci tego typu (pamięci macierzowe) zakładają wykorzystanie próbników rozgrzanych do bardzo wysokiej temperatury, za pomocą których dokonywany jest zapis i odczyt danych. Jednak rozgrzanie próbnika do 350 stopni Celsjusza, koniecznych do sprawnego wykorzystania polimeru, oznacza, że pamięci Millipede wymagają użycia dużych ilości energii. Zespół Jin Kon Kima z Uniwersytetu Pohang zastąpił ciepło "baroplastyką", używając twardego polimeru, który mięknie pod wpływem ciśnienia. Tego typu polimery uzyskano po raz pierwszy przed dziesięcioma laty. Miękły one pod ciśnieniem przekraczającym 300 barów. Teraz zespół Kon Kima opracował materiał mięknący już przy 60 barach. Koreańczycy udowodnili też, że ostrze mikroskopu sił atomowych jest w stanie swoim naciskiem pozostawić ślady na materiale. Ślady te mogą symbolizować 0 i 1, a odczyt danych może odbywać się za pomocą ostrza o znacznie mniejszym nacisku. David Wright, który jest koordynatorem Protem, europejskiego projektu badawczego nad pamięciami wykorzystującymi próbniki, zauważa, że osiągnięcia Koreańczyków rozwiązują problem wysokich temperatur, ale pojawia się inny kłopot. Nacisk wywierany na materiał jest dość duży, a więc ostrze będzie się szybko zużywało. Ostrze będzie musiało skanować wiele kilometrów materiału, a tymczasem typowe ostrze mikroskopu sił atomowych zużywa się po przeskanowaniu mniej niż metra - mówi Wright. Być może rozwiązaniem problemu byłoby zastosowanie techniki, nad którą pracuje Protem - czyli użycie dwuwarstwowego materiału z twardą kilkunanometrową warstwą wierzchnią i miękką warstwą poniżej.
  14. Indyjscy naukowcy z Central Rice Research Institute (CRRI) w Orisie wyhodowali nowy rodzaj ryżu, którego przed jedzeniem nie trzeba gotować, a jedynie moczyć w wodzie. Zainspirowała ich pewna odmiana tego zboża - komal saul – która rośnie w stanie Assam. Zgodnie z tradycją, ryż ten należy zanurzyć na noc w wodzie (choć czasem mówi się zaledwie o 15 min), a potem zjeść rano z cebulą i olejem z gorczycy. Dotąd jednak nie występował on poza północnym wschodem kraju. Specjaliści z CRRI skrzyżowali go ze zwykłym ryżem, a efektowi swoich starań nadali nazwę Aghunibora. Dyrektor instytutu dr T.P. Adhya opowiada, że testy terenowe hybrydy wypadły bardzo dobrze – rośnie w różnych warunkach klimatycznych, także w Orisie, gdzie panuje bardzo wysoka wilgotność, a zakres temperatur jest o wiele większy niż w Assamie. Ponieważ Indie nadal zmagają się z głodem, pokarm tak łatwy w przygotowaniu byłby prawdziwym wybawieniem. Jedna trzecia niedożywionych dzieci na świecie mieszka właśnie w Indiach.
  15. Zjawisko El Niño mogło przyczynić się do wielu śmiertelnych ofiar podczas... epidemii hiszpanki w 1918 roku. Tak przynajmniej wynika z badań przeprowadzonych przez oceanografa, profesora Benjamina Giese z Texas A&M University. El Niño powoduje zmiany kierunku pasatów wiejących nad równikiem i zmiany układu prądów morskich. Ze zjawiskami tymi związane są zmiany temperatury wód oceanicznych, występowanie olbrzymich opadów w jednych częściach globu i susze w innych. Giese i jego zespół przeprowadzili komputerową symulację stanu oceanów na początku XX wieku i odkryli, że El Niño z lat 1918-1919 był jednym z najsilniejszych zjawisk tego typu. Przeczy to rozpowszechnionej tezie, iż globalne ocieplenie przyczynia się do zwiększenia gwałtowności El Niño. Naukowcy skorzystali z danych z pomiarów wykonanych w 1918 roku. Nasz model pokazuje, że El Niño był silniejszy na centralnym Pacyfiku i słabszy u wybrzeży - mówi Giese. A to właśnie u wybrzeży zbierano wówczas dane. Stąd też dzisiejsze przekonanie, że bardzo silne El Niño z lat 1982-1983 i 1997-1998 były spowodowane ociepleniem klimatu. Tymczasem, jak twierdzą uczeni z Teksasu, w latach 1918-1919 El Niño był co najmniej tak samo silny. Jak wiadomo, w 1918 roku El Niño przyczynił się do zaburzenia monsunów w Indiach, co wywołało jedne z najbardziej katastrofalnych susz na subkontynencie. Susze dotknęły też Australię, a nad Atlantykiem zanotowano bardzo mało huraganów. Akademicy zwracają też uwagę na to, iż El Niño mógł przyczynić się do znacznego zwiększenia liczby ofiar grypy hiszpanki. Na całym świecie zmarło na nią od 25 do 100 milionów osób. Liczbę ofiar w samych tylko Indiach szacuje się na około 17 milionów. Zdaniem Giese, było ich tak dużo, ponieważ głód wywołany suszą spowodowaną przez El Niño bardzo osłabił organizmy mieszkańców Indii, którzy stali się przez to podatni na zachorowania. Naukowiec zauważa kilka interesujących podobieństw pomiędzy rokiem 1918 a 2009. Zima i wiosna 1918 były niezwykle mroźne w Ameryce Północnej i mniej więcej w tym samym czasie w środku kontynentu zaczęła rozprzestrzeniać się grypa. Później miało miejsce wzmacnianie się El Niño i susze w Indiach. Gdy jesienią 1918 roku El Niño był już bardzo silny, epidemia hiszpanki ogarnęła cały świat. Obecnie mamy do czynienia ze wzmacnianiem się El Niño nad Pacyfikiem, a epidemiolodzy coraz częściej mówią o możliwym powrocie wirusa H1N1, tego samego, który wywołał hiszpankę.
  16. Przedstawiciel Microsoftu po raz pierwszy w historii zdradził, ile płacą producenci komputerów za preinstalowane kopie Windows. Dotychczas na ten temat krążyły liczne plotki, jednak nie były one komentowane przez koncern z Redmond. Teraz Charles Songhurst, kierujący w Microsofcie wydziałem Strategii Korporacyjnej, ujawnił ceny OEM-owych Windows. Powiedział, że w ciągu ostatniej dekady Microsoft za punkt wyjścia przyjmował zestaw komputerowy o wartości 1000 dolarów i za preinstalowanie na nim Windows pobierał 50 dolarów. Songhurst dodał, że stanowi to pięć procent wartości sprzętu i Microsoft stara się trzymać właśnie tej granicy. Obecnie ceny komputerów wahają się od około 300 do około 3000 dolarów, co oznacza, że od każdej preinstalowanej kopii Windows Microsoft otrzymuje od 15 do 150 USD. Songhurst odniósł się też do rynku netbooków i obaw, że rosnąca popularność tak tanich komputerów negatywnie wpłynie na wyniki finansowe koncernu. Jednak z jego wypowiedzi wynika, że Microsoft nie obawia się o to. Menedżer uważa bowiem, że netbooki są kupowane albo przez osoby, które już mają peceta lub notebooka, albo też przez takie, które i tak nie kupiłyby innego niż netbook komputera. Tak więc, jego zdaniem, wzrost popularności netbooków nie odbywa się kosztem popularności innych typów komputerów, a więc nie zagraża finansom koncernu z Redmond.
  17. Podczas badania, jak u dojrzewających dziewcząt zmieniają się wzorce atrakcyjności, naukowcy ze szkockiego Uniwersytetu św. Andrzeja zauważyli, że dla starszych niższe męskie głosy były pociągające, a dla młodszych przerażające (Evolution and Human Behaviour). Psycholodzy z zespołu dr Tamsin Saxton przebadali 300 dziewcząt w wieku od 11 do 15 lat. Posłużyli się zdjęciami mężczyzn, zwiększając bądź minimalizując cyfrowo ich męskość. Zmieniali także męskie głosy. Każdej dziewczynce odtwarzano dwie wersje głosu – niższą i wyższą. Zadanie polegało na ocenie ich atrakcyjności. Okazało się, że dla młodszych dziewczynek niższe głosy były straszne. Kojarzyły je z nieuczciwymi/złymi postaciami, jedna z badanych wspominała przy tej okazji o lordzie Vaderze. Dla starszych dziewcząt "grubsze", czyli niższe głosy stawały się z kolei atrakcyjne. Wraz z wiekiem rosła siła ich przyciągania. Saxton uważa, że kluczowym czynnikiem są ogromne zmiany fizyczne, zachodzące w organizmie w wieku kilkunastu lat. Chłopcy przechodzą mutację, z ich policzków znika dziecięcy tłuszcz, silniej zarysowują się żuchwy i pojawiają się zaczątki zarostu. Nic dziwnego, że dziewczynki odpowiadają w jakiś sposób na metamorfozę swoich rówieśników i reagują na kolegów, którzy są dojrzalsi płciowo. Psycholodzy zauważyli, że młodsze i starsze dziewczynki, także te preferujące niższe głosy, wolały chłopców o bardziej kobiecych twarzach. Świadczy to o tym, że dalsza zmiana gustów zajdzie dopiero po 15. roku życia. Gdy przetestowano chłopców, okazało się, że starszym odpowiadały bardziej męskie twarze niż młodszym.
  18. Z raportu firmy Nielsen wynika, że microsoftowy Bing jest najszybciej rosnącą wyszukiwarką na amerykańskim rynku. Pomiędzy lipcem a sierpniem liczba zapytań skierowanych do Binga zwiększyła się o 22,1%. Obecnie wyszukiwarka ma 10,7% rynku. Na czele stawki znajduje się Google z 64,6-procentowym udziałem. Pomiędzy lipcem a sierpniem liczba zapytań zwiększyła się w przypadku tej wyszukiwarki o 2,6%. Trzeci na liście, Yahoo, stracił 4,2% zapytań i obecnie należy doń 16% rynku. Ogółem w sierpniu Amerykanie zadali wyszukiwarkom 10 miliardów 812 milionów zapytań. Do Google'a skierowano ich 6 miliardów 986 milionów, do Yahoo! miliard 726 milionów, a do Binga miliard 156 milionów. Kolejny na liście AOL musiał zmierzyć się z 333 milionami zapytań (wzrost o 1,8%). Microsoftowa powoli zdobywa też coraz większe udziały w światowym rynku wyszukiwarek. Pomiędzy lipcem 2008 a lipcem 2009 zwiększyły się one o 41%.
  19. Przedstawiciele Facebooka poinformowali, że witryna zaczęła na siebie zarabiać wcześniej, niż planowano. Ten największy na świecie serwis społecznościowy ma 300 milionów użytkowników. Jeszcze niedawno przewidywano, że Facebook zacznie przynosić zyski dopiero w 2010 roku. Jednak na konferencji TechCrunch w San Francisco poinformowano, że odnotowano pierwsze dochody. To oznacza, że przedstawiciele Facebooka nie muszą martwić się o przyszłość serwisu, gdyż będzie on w stanie sam finansować swój dalszy rozwój. Władze serwisu mają bardzo ambitne plany. Mówią, że 300 milionów użytkowników to dopiero punkt wyjścia do stworzenia globalnego serwisu społecznościowego. "Jeśli Facebook będzie w stanie z własnych środków pokryć działania, konieczne do zwiększenia liczby użytkowników do miliarda, to niewątpliwie będzie w stanie rozwijać się dalej, a baza jego użytkowników będzie liczona w miliardach" - mówi Nic O'Neill z AllFacebook.com.
  20. Firma iSuppli informuje, że już drugi kwartał z rzędu AMD traci rynek. Uzyskiwane przez analityków wyniki różnią się, w zależności od tego, co jest brane pod uwagę. Zdaniem Mercury Research do AMD należy obecnie 18,7% rynku procesorów. W pierwszym kwartale koncern miał 20,9-procentowy udział. Mercury Research bierze pod uwagę liczbę sprzedanych procesorów. Tymczasem sytuacja AMD wygląda jeszcze gorzej, jeśli weźmie się pod uwagę wartość sprzedaży. Ją właśnie badało iSuppli i stwierdziło, że do AMD należy 11,5 procenta rynku. To o 1 punkt procentowy mniej, niż w pierwszym kwartale i 0,5 pp mniej niż przed rokiem. Tymczasem udziały Intela rosną. Biorąc pod uwagę wartość sprzedaży, półprzewodnikowy gigant jest w posiadaniu 80,6% rynku, czyli o 1,5 pp więcej niż kwartał wcześniej i o 1,4 pp więcej, niż przed rokiem. To najlepszy wynik Intela od trzeciego kwartału 2005, kiedy do firmy należało 82,4% rynku. AMD postanowiło jednak agresywnie powalczyć o rynek. Firma zaprezentowała właśnie pierwszy w historii czterordzeniowy procesor, którego cena jest niższa niż 100 dolarów. To Athlon II X4 620, który jest taktowany zegarem o częstotliwości 2,6 GHz. Układ korzysta z 2 megabajtów pamięci L2 i współpracuje z układami DDR2 oraz DDR3. Producenci komputerów będą mogli go kupić za 99 dolarów. Jak informuje AMD, procesor wraz z płytą MSI 758GTM będzie kosztował około 470 USD. Decyzja o zaoferowaniu procesora po tak atrakcyjnej cenie może oznaczać, że staniemy się świadkami kolejnej wojny cenowej pomiędzy Intelem a AMD.
  21. Najnowsze badania potwierdzają to, co niektórzy podejrzewają już od dawna: kobiety nie umieją dochować sekretu. Potrzeba podzielenia się z kimś wiadomością jest przemożna, dlatego zazwyczaj tajemnica zostaje wyjawiona co najmniej jednej osobie w ciągu 47 godzin i 15 minut. W zależności od rodzaju informacji, najczęstszymi odbiorcami nowin są narzeczeni, mężowie, najlepsze przyjaciółki i matki. W ramach studium przepytano 3 tysiące kobiet w wieku od 18 do 65 lat. Aż cztery panie na dziesięć przyznawały, że nie są w stanie dotrzymać sekretu, bez względu na to, jak bardzo wiadomość jest osobista czy poufna. Popularnym i skutecznym rozwiązywaczem języka okazał się alkohol. Fakt, że plotka jest powtarzana komuś spoza branży czy przedstawicielom innej grupy społecznej, może uspokajać. Tym niemniej 9 na 10 uznających się za godne zaufania kobiet nadal plotkuje - podsumowuje Michael Cox, szef brytyjskiego Wines of Chile, które zamówiło badanie. Sondaż ujawnił, że przeciętna kobieta słyszy tygodniowo 3 plotki i przekazuje je dalej co najmniej jednej osobie. Sześć na dziesięć przyznaje się do powtarzania tajemnicy zupełnie postronnej osobie, tak by główny zainteresowany się o tym nie dowiedział. Dla 3 pań na 10 plotkowanie to paląca potrzeba, a dla 45% ujawnianie czyjejś tajemnicy stanowi sposób na zrzucenie ciężaru ze swoich barków. U 2/3 pojawiają się spowodowane niedyskrecją wyrzuty sumienia. Mimo to aż ¾ kobiet uważa się za osoby potrafiące dochować tajemnicy, a 83% wspomina o 100-procentowej dyskrecji w obrębie każdej z grup przyjaciół. Dla ponad 4 na 10 powtarzanie cudzych tajemnic komuś, kto nie zna "bohatera" plotki, jest akceptowalne. U 40% ostatecznym "wysłuchiwaczem" sensacji staje się mąż. Na szczycie listy tajemnic uplasowały się m.in. zagadnienia związane z romansami oraz prawdziwymi kosztami zakupów. Kobiety plotkują najczęściej podczas osobistych spotkań, a także przez telefon i za pośrednictwem SMS-a.
  22. Dotąd zieloną herbatę badano raczej w kontekście zapobiegania nowotworom, chorobom serca czy wydłużania życia. Okazuje się jednak, że napój ten sprzyja zdrowiu kości: stymuluje ich formowanie i spowalnia rozkład. Wiele wskazuje na to, że może pomóc w leczeniu osteoporozy i innych chorób układu kostnego (Journal of Agricultural and Food Chemistry). Naukowcy z Hongkongu, którzy pracowali pod przewodnictwem Ping Chung Leunga, zwrócili uwagę na fakt, że ostatnie badania na ludziach i hodowlach komórkowych wykazały, że zielona herbata jest dobra dla kości, prawie nikt nie pokusił się jednak o wskazanie konkretnej substancji odpowiadającej za ten efekt. Aby rozwiązać tę zagadkę, biolodzy przez kilka dni dodawali do hodowli osteoblastów (komórek kościotwórczych) trzy związki: 1) epigalokatechinę (ang. epigallocatechin, EGC), 2) gallokatechinę (ang. gallocatechin, GC) oraz 3) galusan gallokatechiny (ang. gallocatechin gallate, GCG). Odkryli, że epigalokatechina o 79% zwiększała aktywność enzymu wspomagającego wzrost kości, poza tym znacznie zwiększała mineralizację kości. Co ważne, hamowała też aktywność osteoklastów, czyli komórek kościogubnych. Żaden z badanych związków nie wpływał toksycznie na komórki kości.
  23. Straszna muzyka jest bardziej przerażająca, gdy podczas słuchania mamy zamknięte oczy. Profesor Talma Hendler uważa, że zjawisko to można wykorzystać w terapii osób z parkinsonizmem, alzheimeryzmem i innymi chorobami neurologicznymi. Badaczka z Uniwersytetu w Tel Awiwie odkryła, że by zwiększyć doznania płynące z muzyki, nie trzeba wcale czekać na zmierzch czy zasłaniać okien. Wystarczy zwykłe zamknięcie oczu. W takiej sytuacji uaktywnia się jądro migdałowate, przez co wrażenia emocjonalne są silniejsze. Dotyczy to zarówno stanów generowanych przez muzykę przerażającą, jak i pogodną. Wszyscy wiemy, że muzyka jest potężnym nośnikiem emocji. Nasze odkrycia wskazują jednak, że jej wpływ nie jest wyłącznie subiektywny. Dzięki funkcjonalnemu rezonansowi magnetycznemu (fMRI) można zobaczyć, że unikalne zmiany w mózgu są dobitniej wyrażone, kiedy dana osoba nie używa oczu. Dr Yulia Lerner z laboratorium profesor Hendler zebrała grupę 15 zdrowych ochotników. Odtwarzała im złowieszczą muzykę à la Hitchcock, a potem neutralne dźwięki, które nie tworzyły jednak melodii. Badani słuchali ich dwukrotnie: raz z otwartymi, a raz z zamkniętymi oczami. Aktywność mózgu monitorowano za pomocą fMRI. Jej szczyt odnotowano podczas "zagłębiania się" w straszną muzykę z zamkniętymi oczami. Pokrywało się to zresztą z wyznaniami samych wolontariuszy, którzy twierdzili, że wtedy czuli się najbardziej naładowani emocjami. Za zamkniętymi powiekami jądro migdałowate, struktura mózgu powiązana z emocjami, było o wiele aktywniejsze. Możliwe, że zamknięcie oczu podczas stymulacji emocjonalnej, jak w naszym studium, pomaga ludziom przejść przez różne stany umysłu. Synchronizuje łączność w mózgu. Nie wiemy dokładnie, jak lub dlaczego się to dzieje. Wygląda na to, że muzyka pozwala mózgowi osiągnąć równowagę i z większą łatwością zintegrować centra emocjonalne i poznawcze. Niewykluczone, że dzięki muzyce możemy sprawniej myśleć, co w ostatecznym rozrachunku polepszałoby naszą zdolność uczenia się. Skoro otwarcie bądź zamknięcie oczu - minimalna zmiana w świecie fizycznym – tak wiele daje, jak wykorzystać to wszystko w praktyce? Prof. Hendler sądzi, że w ten sposób bez chemicznej interwencji dałoby się uzyskiwać silniejsze i utrzymujące się dłużej zmiany w stanie emocjonalnym lub zdolnościach poznawczych, a to bardzo ważne w przypadku osób chorych np. na schizofrenię czy depresję.
  24. Potwierdzono odkrycie pierwszej skalistej planety poza Układem Słonecznym. Planeta CoRoT-7b stanowi część systemu planetarnego Corot-7. Znajduje się ona w odległości 455 lat świetlnych od Ziemi, w gwiazdozbiorze Jednorożca Planetę po raz pierwszy zauważono na początku ubiegłego roku. Od tamtego czasu kilkudziesięciu naukowców z 17 instytucji badało planetę. Tylko pozornie przypomina ona Ziemię. Jest od niej pięciokrotnie cięższa, chociaż jej promień jest mniej niż dwukrotnie większy od promienia naszej planety. Ponadto znajduje się ona 23-krotnie bliżej swojej gwiazdy niż Merkury Słońca, a jej prędkość poruszania się po orbicie jest 7-krotnie większa od prędkości Ziemi. Jeden rok na CoRoT-7b trwa krócej niż ziemski dzień. Na planecie panują wyjątkowo niesprzyjające warunki. Jest ona zawsze zwrócona do swojej gwiazdy jedną stroną. Ta część planety jest prawdopodobnie stopiona, gdyż temperatury dochodzą tam do 2000 stopni Celsjusza. Po stronie ciemnej temperatura wynosi -200 stopni. Astronomowie uważają, że planeta nie posiada atmosfery, która umożliwiałaby bardziej równomierny rozkład temperatur.
  25. Czy istnienie ścieżki rowerowej może zwiększyć zagrożenie dla rowerzystów? Paradoksalnie, jak najbardziej. Jak donoszą naukowcy z University of Leeds, wydzielenie z jezdni osobnego pasa ruchu dla rowerzystów kończy się zmniejszeniem dystansu pomiędzy cyklistami i przejeżdżającymi obok nich samochodami, przez co wzrasta prawdopodobieństwo wypadku. Zaskakujące odkrycie jest owocem serii eksperymentów przeprowadzonych z wykorzystaniem roweru wyposażonego w dalmierz. Główny autor studium, Ciaran Meyers z University of Leeds' Institute for Transport Studies, wykonał dla dobra nauki (i poprawy bezpieczeństwa) serię jazd po drogach na rowerze wyposażonym w dalmierz. Dzięki doświadczeniu udało się ustalić, że w sytuacji, gdy na drodze wydzielony jest pas ruchu dla rowerów szeroki na co najmniej 145 cm, kierowcy zaczynają wykazywać tendencję do jazdy środkiem własnego pasa ruchu, a nie blisko osi jezdni, jak ma to miejsce w normalnych warunkach. Dzieje się tak zarówno przy limicie prędkości wynoszącym 40, jak i 50 mil na godzinę (odpowiednio ok. 64 i 80 km/h). Podobnego zjawiska nie obserwowano, gdy rowerzyści byli zmuszeni do dzielenia pasa ruchu z kierowcami lub gdy pas dla cyklistów miał szerokość poniżej 130 cm - wyprzedzanie w takiej sytuacji odbywało się w znacznie większej odległości, przez co było potencjalnie bezpieczniejsze. Korzystne dla rowerzystów były także drogi o bardziej restrykcyjnym ograniczeniu prędkości, wynoszącym 30 mil na godzinę (ok. 48 km/h). Jakie wnioski należy wyciągnąć z przeprowadzonego eksperymentu? Według badaczy trzeba przede budować ścieżki i pasy dla rowerów na tyle szerokie, by minimalizować ryzyko kolizji jednośladów z samochodami pomimo pewnej dozy nonszalancji ze strony kierowców. Nie od dziś wiadomo bowiem, że strach przed wypadkiem jest jedną z głównych przyczyn ograniczonej popularności rowerów jako środka lokomocji.
×
×
  • Dodaj nową pozycję...