Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'dane' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 61 wyników

  1. Eksperci z drezdeńskiego Forschungszentrum Rossendorf, Universidad Autónoma w Barcelonie we współpracy z naukowcami ze Szwecji, Szwajcarii i USA stworzyli niezwykle małe domeny magnetyczne za pomocą silnie skoncentrowanych strumieni jonów. Domeny magnetyczne są wykorzystywane m.in. w dyskach twardych. Są one rodzajem najmniejszej "szuflady" do przechowywania danych. Ich wielkość ma olbrzymie znacznie dla pojemności dysku. Im domeny mniejsze, tym więcej zmieści się ich na danej powierzchni, a więc tym więcej danych będziemy mogli przechować. Naukowcy podczas eksperymentów ze stopem żelaza i aluminium uzyskali domeny wielkości 5-10 nanometrów. To z kolei oznacza, że jeśli ich technologię udałoby się zastosować w dyskach twardych, moglibyśmy liczyć nawet na 10-krotne zwiększenie gęstości zapisu. Obecnie nie wiadomo, czy uda się to osiągnąć. Uczeni chcieli poprzez swój eksperyment udowodnić jedynie, że wygenerowanie domen magnetycznych za pomocą bardzo skoncentrowanego promienia jonów jest w ogóle możliwe. Wiadomo jednak, że nowa technologia jest niezwykle interesująca. Od wielu lat domeny magnetyczne ulegają coraz większej miniaturyzacji. Jednak im są mniejsze, tym mniej korzystny stosunek sygnału do szumu. Przy dalszym ich zmniejszaniu tradycyjnymi metodami dojdziemy wkrótce do granicy, w której zakłócenia będą na tyle duże, iż nie będzie możliwe przechowywanie danych. Akademicy z Niemiec mówią, że ich metoda daje gwarancję, iż do takiej sytuacji nie dojdzie. Na razie uczeni będą musieli odpowiedzieć na dwa pytania: czy podobnie dobre rezultaty uda się osiągnąć też w innych materiałach, które są obecnie wykorzystywane do produkcji talerzy dysków twardych oraz czy ich technologię uda się zmienić tak, by nadawała się do masowej produkcji. Wykorzystana w laboratorium metoda jest bowiem zbyt powolna.
  2. Błąd rozszerzenia granic (ang. boundary extension), który polega na twierdzeniu, że widziało się więcej niż w rzeczywistości - następuje coś w rodzaju rozciągnięcia obrazu - nie był dotąd prawie w ogóle badany. W odróżnieniu od innych błędów postrzegania, nie musi jednak powstawać w warunkach przeciążenia informacyjnego, dostępu do sprzecznych danych czy długich okresów retencji. Formuje się bowiem zaledwie po 1/20 sekundy (Psychological Science). Psycholodzy Helene Intraub i Christopher A. Dickinson z University of Delaware zebrali grupę ochotników i stworzyli dwie wersje tego samego obrazu z jednakowym tłem. Jedna z nich przedstawiała nieco szerszą,a druga lekko zawężoną scenę. W pierwszym eksperymencie wyświetlano zdjęcie, 42-ms lub 250-ms przesłonę (wzór z prostych i krzywych z uśmiechniętą twarzą w środku), a potem tę samą fotografię albo inną jej wersję. Zadanie polegało na stwierdzeniu, czy końcowa wersja jest zdjęciem widzianym na początku, czy też pokazuje mniej lub więcej od niego. Wartości 42 i 250 wybrano nieprzypadkowo, ponieważ 42 milisekundy to czas sakkady, a 250 to okres oddzielający od siebie momenty zatrzymania wzroku, czyli fiksacji. Drugi eksperyment był bardzo podobny, lecz następujące po sobie fotografie wyświetlano po przeciwnych stronach monitora. Wymagało to przeniesienia wzroku, a więc angażowało ruchy sakkadowe. Co ciekawe, błąd rozszerzenia granic występował przy obu scenariuszach, mimo że ochotnicy dokładnie wiedzieli, co będzie badane. Gdy po przerwie pokazywano im to samo zdjęcie, uznawali, że jest ono ściśnięte w porównaniu do oryginału, a znikało przecież na czas krótszy od mrugnięcia okiem. Błąd pojawiał się także podczas rzeczywistego skanowania wzrokowego. Opierając się na uzyskanych wynikach, Amerykanie przedstawili nową koncepcję postrzegania, które nie bazuje wyłącznie na wzrokowych danych wejściowych. Wg nich, mózg bierze pod uwagę innego rodzaju dane, w tym percepcję amodalną, gdy luki informacyjne są automatycznie czymś zapełniane, i przestrzenną, która daje patrzącemu wrażenie przestrzeni rozciągającej się poza obrazem. Podczas opisanych eksperymentów obraz na chwilę znikał, ale pozostałe dane nadal dopływały. Psycholodzy uważają, że błyskawiczny błąd rozszerzenia granic jest przystosowawczy, bo zapewnia ciągłą i spójną wizję otaczającego świata.
  3. O pamięciach holograficznych słyszymy od lat, ale wciąż żadna tego typu technologia nie przyjęła się szeroko na rynku. Najbliżej momentu rozpoczęcia sprzedaży jest firma InPhase, która zapowiada, że jej pierwsze dyski i urządzenia będzie można kupić już w przyszłym roku. Technologia InPhase przyda się jednak, przynajmniej na początku, przede wszystkim dużym firmom zainteresowanym łatwą archiwizacją danych. Będzie też zapewne używana w obrazowaniu medycznym czy produkcji filmów. Klientów indywidualnych odstraszą koszty. Urządzenie do odczytu i zapisu danych ma bowiem zostać wyceniona na 18 000 dolarów, a dysk o pojemności 300 gigabajtów będzie kosztował 180 USD. Firma zapowiada, że w drugiej połowie 2012 roku na rynek trafią też dyski o pojemności 800 GB i 1,6 TB. Wysoka cena urządzeń InPhase nie oznacza, że przeciętny zjadacz chleba będzie musiał obejść się smakiem. Specjaliści z GE Global Research zapowiadają, że poczynili kolejne postępy w pracach nad pamięciami holograficznymi i w 2012 roku w sklepach powinny pojawić się tanie urządzenia i dyski holograficzne kompatybilne z technologiami DVD i CD. Z informacji GE wynika, że początkowo na rynku będą dostępne 300-gigabajtowe dyski, a z czasem ich pojemność przekroczy terabajt. Pozostaje więc pytanie, dlaczego InPhase będzie produkowało drogie, a GE tanie urządzenia i nośniki? Odpowiedzią są różnice w wykorzystanej technologii. InPhase chce zapisywać na dysku dane za pomocą tysięcy tzw. "stron", czyli trójwymiarowych obszarów o rozmiarach 1x0,8 milimetra. Każdy z nich będzie zawierał 1,4 miliona bitów, a na dysku zmieści się 1,7 miliona stron. Strony te mogą się ze sobą krzyżować, przecinać się, dlatego zmieści się ich tak dużo. Jednak, by dane z różnych stron nie mieszały się ze sobą, konieczne jest ustawienie ich pod różnym kątem w stosunku do powierzchni dysku. To pociąga za sobą konieczność skonstruowania skomplikowanego systemu zapisująco-odczytującego działającego pod różnym kątem. Technologia GE przypomina z kolei zapis stosowany we współczesnych nośnikach optycznych. GE zapisuje dane w hologramach o wymiarach 0,3x5 mikrometrów. Każdy hologram zawiera tylko 1 bit informacji. Hologramy są od siebie wyraźnie oddzielone, ułożone w warstwach. Obecnie GE udało się wyprodukować prototypowy dysk z 12 takimi warstwami, jednak przedstawiciele firmy mówią, że chcą ich liczbę zwiększyć nawet do 100. Zaletą takiej technologii jest fakt, iż przyszłe odtwarzacze nośników holograficznych będą w stanie czytać też płyty DVD czy Blu-ray. Ponadto nośniki GE będą wykonane z poliwęglanów za pomocą podobnych technik, jakimi obecnie produkuje się CD czy DVD. Firmy InPhase nie martwi konkurencja ze strony GE. Jej przedstawiciele zauważają, że oba przedsiębiorstwa kierują swoją ofertę do innych odbiorców. Nasi potencjalni klienci nie przechowują danych na DVD. Celujemy w najwyższy segment rynku - mówi Art Rancis z InPhase.
  4. Specjaliści z BT, Glamorgan University, Edith Cowan University i Sim Lifecycle Services przyjrzeli się... starym telefonom komórkowym. Odkryli, że wyrzucanie tych urządzeń jest niebezpieczne dla właścicieli, a szczególnie dla ludzi biznesu. Okazuje się bowiem, że niemożliwe jest całkowite wykasowanie danych z pamięci telefonów. Zawsze jakieś informacje na nich pozostaną. W ramach studium eksperci zebrali telefony od firm, które zajmują się ich recyclingiem. Badacze odkryli, że w 7% wyrzuconych telefonów znajduje się tyle danych osobowych, że pozwalają one na kradzież tożsamości. Kolejne 7% zawiera informacje o firmach i umożliwia przestępcy zdefraudowanie firmowych pieniędzy. W 2% komórek wciąż tkwiły karty SIM. Ponadto aż 27% urządzeń BlackBerry znajdowały się dane firmowe, a informacje osobowe odkryto w 16% z nich. Spośród 161 badanych telefonów większość stanowiły urządzenia GSM pierwszej generacji. Połowę z nich udało się uruchomić. Profesor Andrew Blyth z Glamorgan University powiedział: Obecnie nie istnieją narzędzia, która pozwalałyby wykasować wszystkie dane z telefonów komórkowych. Przyczyną takiego stanu rzeczy jest fakt, iż do skutecznego usunięcia danych użytkownik potrzebowałby dostępu do całej pamięci telefonu. Jednak producenci tych urządzeń, ze względów biznesowych, takiego dostępu nie dają.
  5. Lars-Erik Björklund, doktorant z Uniwersytetu w Linkoping, badał neurobiologiczne podłoże intuicji. Wg niego, możemy przeczuwać, co wydarzy się w przyszłości, ponieważ otrzymujemy i analizujemy wrażenia zmysłowe zarówno na poziomie świadomym, jak i nieświadomym. Po przejrzeniu literatury przedmiotu Szwed doszedł do wniosku, że przechowywane w podświadomości obrazy i wspomnienia wcześniejszych doświadczeń pozwalają przypuszczać, co się stanie w przyszłości w podobnych okolicznościach. Efekty działania tego mechanizmu zwykliśmy właśnie uznawać za intuicję. Intuicję, nazywaną często milczącą wiedzą, trudno poddać pomiarom, dlatego często naukowcy zaprzeczają jej istnieniu. Doktorant postanowił znaleźć odpowiedź na pytanie, czemu ludzie, którzy pracują w zawodzie od dawna, osiągają mistrzostwo. Dlaczego, co wykazały eksperymenty z lat 80., pielęgniarki z długoletnim stażem widzą więcej i szybciej oceniają sytuację. Wydawałoby się, że sprawa jest oczywista, ale jak dotąd nie zaproponowano zadowalającego wyjaśnienia. Praktyka czyni mistrza, ale na jakich zasadach? Czy chodzi o automatyzację czynności, odpowiednie segregowanie przychodzących danych, a może o coś zupełnie innego? Parę lat temu neurolodzy odkryli, że w ludzkim mózgu działają dwa systemy odbierania i analizy informacji dostarczanych przez zmysły: nieświadomy i świadomy. W ramach podświadomego dane są porównywane z wcześniejszymi doświadczeniami. Im więcej ich zgromadzimy, tym większa szansa, że aktualne wydarzenia (obraz, smak, zapach, coś nieuchwytnego, kombinacja sygnałów itp.) uruchomią intuicję, bo z czymś się skojarzą. Dysponujemy wspomnieniami, które muszą zostać wypełnione wrażeniami zmysłowymi. Wspomnienia te tworzą się jednak tylko wtedy, gdy coś nas dotyczy. Zaangażowanie jest więc warunkiem koniecznym. Intuicji nie da się nauczyć z książek, konieczna jest praktyka. To dlatego nauczyciel bez dyplomu, ale z 10-letnim doświadczeniem może osiągać lepsze rezultaty od świeżo upieczonego absolwenta pedagogiki. Björklund nie zamierza zachęcać do obcięcia liczby godzin zajęć teoretycznych dla inżynierów, nauczycieli czy lekarzy. Zamiast tego uważa, że powinno się rozszerzyć część praktyczną. Musimy widzieć, czuć, także węchem, słyszeć i smakować, jednym słowem: wykorzystywać wszystkie nasze zmysły. Takiej kolekcji danych nie da się zastąpić studiowaniem książek. W dzisiejszych czasach doświadczenie jest niedoceniane. Prawdopodobnie dlatego, że nie zrozumieliśmy tego typu milczącej wiedzy. Teraz, dzięki badaczom mózgu, wszystko się wyjaśniło.
  6. Zespół profesora Tadayoshi Kohno z University of Washington, w skład którego wchodził Bruce Schneier, znany specjalista ds. kryptografii, poinformował, że takie programy jak Windows Vista, Word i Google Desktop przechowują dane w niezaszyfrowanych obszarach dysku, nawet wówczas, gdy pliki na których pracujemy, są szyfrowane. Oznacza to, że osoby korzystające z częściowego szyfrowania są narażone na utratę danych. Kohno uważa, że podobny problem dotyczy wielu programów i systemów operacyjnych. Okazuje się, że dane przechowywane na dyskach, na których stworzono zaszyfrowane i ukryte partycje, wcale nie są bezpieczne. Narażone są nawet informacje, które przechowujemy na zaszyfrowanych klipsach USB, które podłączamy do do komputera z niecałkowicie zaszyfrowanym dyskiem twardym. Wystarczy bowiem otworzyć ukryty wolumin, by informacje o nim zostały zapisane do rejestru Windows. Ponadto jeśli edytujemy zaszyfrowane plik, to zostanie on dodany do listy ostatnio otwieranych plików. W przypadku Worda, gdy włączona jest funkcja autozapisywania, atakujący, używając prostych wordowskich narzędzi do odzyskiwania plików, może przeczytać informacje, które chcielibyśmy chronić. Podobnie nasze tajemnice może ujawnić Google Desktop, który indeksuje bardzo wiele różnych rodzajów plików. Włączona opcja "Wyszukiwanie zaawansowane" ujawnia dane z zaindeksowanych zaszyfrowanych plików. Nikt nie wie, jak dużo chronionych kryptograficznie danych jest dostępnych na nieszyfrowanych częściach dysku. Amerykańscy badacze informują jednak, że podczas eksperymentów byli w stanie uzyskać dostęp do większości zaszyfrowanych plików Worda. Kohno podkreśla, że nie ma tutaj mowy o błędzie w Google Desktop czy Wordzie. Problem leży w sposobie ich współpracy z szyfrowanymi partycjami. Specjaliści dokonali swojego odkrycia badając sposób pracy programu TrueCrypt. Pozwala on zabezpieczyć hasłem dostęp do całego dysku i zaszyfrować oraz ukryć jego dowolną partycję. Dzięki temu cyberprzestępca, który włamie się na nasz komputer, nawet nie będzie wiedział, że są na nim przechowywane jakieś dodatkowe dane oprócz tych, które zobaczy po włamaniu. Okazuje się jednak, że wśród niezaszyfrowanych danych można znaleźć informacje, które chcielibyśmy chronić. Wyniki badań ekspertów prowadzą więc do wniosku, że jeśli chcemy zachować poufność danych, powinniśmy szyfrować całą zawartość dysku twardego. Nie wiadomo bowiem, jakie ślady który program pozostawi w niezaszyfrowanych częściach.
  7. Dr Nigel Bannister z Uniwersytetu w Leicester wyliczył, że wysyłanie wiadomości tekstowych za pomocą telefonów komórkowych jest o wiele droższe niż ściąganie danych z Kosmicznego Teleskopu Hubble'a. Kalkulacje naukowca zostały wykorzystane w brytyjskim programie telewizyjnym The Mobile Phone Rip-Off. Skąd ten wniosek? Bannister wyliczył koszt ściągnięcia megabajta danych z teleskopu i porównał go z kosztem wysłania SMS-a (0,10 dol.). W ostatecznym rozrachunku okazuje się, że SMS-owanie jest co najmniej 4-krotnie droższe od transmisji danych z Hubble'a. Niewykluczone, że różnica w cenie jest jednak jeszcze większa. A oto dalszy ciąg uzasadnienia Brytyjczyka. Maksymalny rozmiar wiadomości tekstowej to 160 znaków, co daje razem 140 bajtów, ponieważ w systemie wysyłania SMS-ów na jeden znak przypada tylko 7 bitów. Dlatego zakładamy, że średnia cena wiadomości wyniesie 0,10 dol. W megabajcie jest 1.048.576 bajtów, a więc trzeba 7490 SMS-ów (1 mln:140 = 7490), by przesłać megabajt danych. Jeśli każdy kosztuje 0,05 GBP, daje to 374,49GBP (czyli 750 USD) za MB. To ok. 4,4 razy więcej niż najbardziej pesymistyczne oszacowania kosztów transmisji danych z Kosmicznego Teleskopu Hubble'a. Informacje dotyczące kosztów ściągania danych z Hubble'a na Ziemię Bannister uzyskał od NASA. Okazuje się, że transmisja megabajta to koszt rzędu 17,5 dol. (8,85 GBP). Brytyjczyk podkreśla, że podane przez niego kwoty są tylko do pewnego stopnia wyliczeniami. Ceny podane przez NASA nie uwzględniają bowiem kosztów obsługi stacji naziemnych i ludzkiej pracy. Trzeba więc pamiętać, że 17,5 dolara to cena uzyskania megabajta danych do momentu dotarcia przez nie do pierwszej stacji naziemnej. Cena dla ostatecznego użytkownika będzie zatem wyższa. Bannister rozwiązał ten problem ad hoc, ustalając widełki cenowe. Wg niego koszt ściągnięcia danych z teleskopu waha się między 17,5 dol. (8,85 GBP) a 170 dol. (85 GBP). To i tak taniej niż transmisja megabajta danych za pomocą sieci telefonii komórkowej. W tym przypadku cena wzrasta bowiem do 750 USD (374,49 GBP).
  8. NTT rozpoczęło sprzedaż urządzenia, które przesyła dane po powierzchni ludzkiego ciała. Pozwala ono człowiekowi na komunikowanie się z urządzeniami za pomocą dotyku. "Firmo" składa się z nadajnika wielkości karty kredytowej, który noszony jest w kieszeni. Nadajnik przekształca dane w słabe pole elektryczne. Jest ono wysyłane przez ciało właściciela. Gdy ten dotknie urządzenia wyposażonego w kompatybilny odbiornik, sygnał elektryczny jest ponownie konwertowany na dane. "Firmo" jest w stanie przesyłać informacje z prędkością 230 kilobitów na sekundę. NTT pracuje podobno nad udoskonaleniem urządzenia tak, by transfer danych odbywał się z prędkością 10 megabitów na sekundę. To wystarczy do wygodnego przesyłania danych audio i wideo. "Firmo" korzysta z opracowanej przez NTT technologi RedTacton, której zadaniem jest wymiana danych pomiędzy człowiekiem a maszyną za pomocą dotyku. Informacje mają przepływać przez ubrania, rękawiczki czy buty. Koncern ma nadzieję, że najpierw tego typu technologiami zainteresują się firmy, które będą chciały lepiej zabezpieczać swoje siedziby. RedTacton pozwoli np. wpuszczać do danych pomieszczeń tylko określonych pracowników, którzy nie będą musieli pamiętać o konieczności posiadania klucza. Może zastąpić też klucz i karty zegarowe. Godziny pojawienia się pracowników w firmie byłyby odnotowywane w momencie, gdy nacisnęliby oni klamkę. Obecnie zestaw "Firmo" składający się z 5 nadajników i 1 odbiornika kosztuje około 8000 dolarów. NTT ma jednak nadzieję, że cena szybko spadnie, gdy tylko ruszy masowa produkcja.
  9. W biologii DNA uznaje się za najstarsze medium pozwalające przechowywać informacje. Zanosi się na to, że wkrótce właściwości kwasu dezoksyrybonukleinowego zostaną wykorzystane w informatyce do "składowania" tekstu, zdjęć oraz muzyki w genomie żyjących organizmów. Na łamach dwumiesięcznika Biotechnology Progress Masaru Tomita i zespół udowadniają, że DNA pozwala na trwały zapis danych. Informacje zakodowane w DNA danego organizmu są dziedziczone przez kolejne generacje. W dodatku można z nich bezpiecznie korzystać przez setki tysięcy lat. W odróżnieniu od naturalnego kwasu CD-ROM-y, pamięci typu flash czy dyski twarde stosunkowo łatwo ulegają uszkodzeniu i z dużym prawdopodobieństwem nie przetrwają poważniejszej katastrofy. W swoim raporcie Japończycy opisują metodę kopiowania i wklejania danych zakodowanych w sztucznym DNA do genomu bakterii glebowych Bacillus subtilis. Naukowcy z Kraju Kwitnącej Wiśni zademonstrowali zadziwiającą technologię, zapisując w drobnoustroju Einsteinowskie równanie E=mc2. Uważamy, że ta prosta i elastyczna metoda oferuje praktyczne rozwiązania wielu problemów przechowywania i odzyskiwania danych. Można ją w tym celu połączyć z innymi wcześniej opisanymi technikami.
  10. Naukowcy z politechniki w Georgii opracowali technologię, która pozwala na wyjątkowo szybkie bezprzewodowe przesyłanie danych. Obecnie stosowane technologie pozwalają na transfery rzędu od 11 do 54 megabitów na sekundę (standardy 802.11 b/g, które korzystają z pasma o częstotliwości 2,4 GHz) oraz 54 Mb/s (standard 802.11a, 5,8 GHz). Amerykańskim uczonym udało się bezprzewodowo przesłać dane z prędkością 15 gigabitów na sekundę. Taką prędkość uzyskano na odległość 1 metra. Przy zwiększeniu odległości do 2 m prędkość przesyłu danych spada do 10 Gb/s, a przy 5 metrach – do 5 Gb/s. Dane przesłano w paśmie 60 GHz. Jego olbrzymią zaletą jest fakt, że jest ono wolne, czyli nie korzysta z niego obecnie żadna instytucja ani stacje radiowe. Z kolei zarówno zaletą jak i wadą jest fakt, że fale o tej częstotliwości są z łatwością blokowane przez ciała stałe, a nawet przez organizm człowieka. Opracowana na Georgia Tech technologia może zostać więc wykorzystana np. do stworzenia w miejscach publicznych urządzeń sprzedających np. filmy. Pobranie całego DVD na urządzenie przenośne czy laptop trwałoby sekundy. Z powodu blokowania fal na częstotliwości 60 GHz nie będzie można tej techniki wykorzystać do budowy rozległych sieci, ale świetnie sprawdzi się ona do stworzenia bezprzewodowych sieci w biurze czy w domu. Oprócz dużych prędkości przesyłu danych zyskamy też bezpieczeństwo, gdyż fale nie będą przenikały na zewnątrz pomieszczeń, więc podsłuch będzie trudniejszy, niż podsłuchanie obecnie wykorzystywanych standardów bezprzewodowych. Co więcej uczeni z Georgia Tech obiecują, że w ciągu najbliższych 24 miesięcy podwoją prędkość przesyłu danych. Międzynarodowy Instytut Inżynierów Elektryków i Elektroników (IEEE) pracuje nad standardem 802.15.3C, który będzie określał zasady korzystania z pasma 60 GHz.
  11. Największe jak dotąd tego typu badanie wykazało, że weekendowa pogoda w Europie jest gorsza niż w czasie tygodnia. Jeśli ktoś więc wcześniej podejrzewał, że wszystkie siły sprzysięgają się, by uniemożliwić wyjazd na narty czy wycieczkę do lasu, miał ku temu podstawy... Meteorolodzy z Uniwersytetu w Karlsruhe przeanalizowali 6,3 mln wpisów z danymi klimatycznymi z lat 1991-2005. A oto uzyskane wyniki. Najwyższa średnia temperatura występowała we środy, a najniższa w soboty. Poniedziałek uznano za najbardziej suchy, a sobotę za najbardziej mokry dzień tygodnia. Bezchmurne niebo to znak firmowy poniedziałku, ponieważ słońce świeciło wtedy średnio o 15 minut dłużej niż podczas weekendu. Największe zachmurzenie jest typowe oczywiście dla soboty. Jednym słowem: to nie poniedziałek, ale właśnie sobotę należy ochrzcić mianem najgorszego dnia tygodnia. Naukowcy uważają, że ludzie powinni sami siebie obwiniać za taki stan rzeczy. Gazy spalinowe przyczyniają się do wzrostu zapylenia. Ogranicza to dostęp promieni słonecznych oraz przyspiesza tworzenie się chmur. Ponieważ na efekty trzeba trochę poczekać [a w tygodniu ruch uliczny jest największy — przyp. red.], muszą na tym ucierpieć weekendy. Wtedy pogoda się psuje.
×
×
  • Dodaj nową pozycję...