Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'informacja' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 13 wyników

  1. Szwajcarscy naukowcy przeprowadzili niezwykle interesujący eksperyment, z którego wynika, że błędne jest przekonanie, iż nic nie może poruszać się szybciej od prędkości światła. Nicolas Gisin i jego zespół z Uniwersytetu Genewskiego wysłał dwa splątane fotony oddzielnymi światłowodami do miejscowości, z których każda znajdowała się o 18 kilometrów od uniwersyteckiego kampusu. Badano przy tym, co działo się z fotonami w czasie ich podróży. Okazało się, że w momencie, gdy zmieniały się właściwości jednego z nich, identyczna zmiana zachodziła w drugim. Nie wykryto przy tym żadnego opóźnienia. Zmiany były identyczne i zachodziły w tym samym momencie. Cokolwiek je powodowało, informacja pomiędzy fotonami musiała być przekazywana z prędkością co najmniej 10 000 razy większą niż prędkość światła. Naukowcy wciąż nie wiedzą, ani w jaki sposób przekazywana jest informacja, ani z jaką prędkością się ona porusza. Przeprowadzony eksperyment jest jednak pierwszą próbą zmierzenia tej prędkości. Wiadomo, że jest ona olbrzymia. Wiadomo też, że stany splątane są faktem oraz że w jakiś sposób jedna z cząstek w parze natychmiast "wie", co dzieje się z drugą. Ciągle jednak brak wytłumaczenia tego fenomenu.
  2. Jak się okazuje, do rozwoju wielkich cywilizacji ludzkości potrzebny był nie tylko miecz i pług, ale również pióro. Autorzy najnowszej analizy dowodzą, że o być albo nie być protopaństw i pierwszych cywilizacji decydowała technologia informacyjna. Analiza danych zgromadzonych w ramach projektu „Seshat: Global History Databank” dowodzi, że na pewnym etapie rozwoju rodzące się państwa napotykały wąskie gardło w postaci konieczności wymiany informacji. Te, które sobie z tym poradziły, mogły rozwijać się dalej. Jaeweon Shin z Rice University, Michael Holton Price, David Wolpert, Hajime Shimao i Brendan Tracey z Santa Fe Institute oraz Timothy Kohler z Washington State University dowodzą, że każda cywilizacja rozwijała się w trzech etapach. Na początkowym etapie rozwój protopaństwa napędzany był samym wzrostem liczby ludności. Osiadły tryb życia, udomowienie roślin i zwierząt pojawiły się niezależnie w wielu miejscach na Ziemi. W wielu społeczeństwach doszło też do znacznej zmiany mobilności ich członków. Wraz z pojawianiem się nadwyżek żywności, przekazywaniem zgromadzonych dóbr kolejnym pokoleniom rosły nierówności, pojawiały się i umacniały ośrodki władzy. Powstawały protopaństwa, a wzrost ich siły był napędzany wzrostem liczby ludności. Niemal wszędzie obserwuje się występowanie takich powiązanych ze sobą zjawisk jak wzrost produkcji rolnej, wzrost liczby ludności, pojawianie się zaczątków miast, rozwój hierarchii politycznej i coraz większe nierówności majątkowe. Na wszystkich kontynentach gdzie pojawiło się rolnictwo zauważalny jest wysoki stopień podobieństwa zarówno w sposobie formowania się społeczności ludzkich, od niewielkich grup łowców-zbieraczy po ostatnią znaną nam formę czyli wielkie społeczeństwa miejskie. Naukowcy chcieli sprawdzić, co powoduje, że społeczeństwa rozwijają się w tak bardzo podobny sposób. W tym celu wzięli na warsztat bazę Seshat. To ambitny projekt, w którym pod uwagę branych jest ponad 1500 zmiennych, za pomocą których opisano ponad 400 społeczeństw z 6 kontynentów na przestrzeni ostatnich 10 000 lat historii. Na podstawie wykonanej analizy autorzy badań doszli do wniosku, że po początkowej pierwszej fazie rozwoju protopaństw wzrost liczby ludności przestaje wystarczać i pojawia się wąskie gardło. Jest nim konieczność opracowania efektywnego systemu wymiany informacji i przeprowadzania transakcji handlowych. Istnieje bardzo silny związek pomiędzy sposobem, w jaki społeczeństwa przetwarzają informacją, a tym, jak duże mogą się stać. Wydaje się, że wcześnie dokonany postęp w przetwarzaniu informacji, a zatem np. pojawienie się pisma czy pieniądze, był dla rozwoju tamtych społeczeństw równie ważny, jak dla nas ważny jest dzisiaj internet, mówi Tim Kohler. Dopiero, gdy w takim protopaństwie pojawi się pismo i pieniądz, społeczeństwo może nadal się rozwijać i przejść do fazy trzeciej. Nasze analizy wykazały, że starożytne cywilizacje, po osiągnięciu pewnej wielkości, natykały się na informacyjne wąskie gardło. To punkt zwrotny naszej skali rozwoju społeczeństw. Bardzo rzadko zdarzało się, by bez pisma lub pieniądza, mogły nadal się rozwijać. Jednak tam, gdzie dokonano tych wynalazków, narodziły się wielkie imperia, dodaje Kohler. Badania Kohlera i jego kolegów dostarczają też możliwego wyjaśnienia różnic technologicznych, jakie widzimy pomiędzy cywilizacjami Starego i Nowego Świata. Ich praca dowodzi bowiem, że bardzo mało cywilizacji obu Ameryk było w stanie dotrzeć do punktu zwrotnego. W związku z tym istniała tam mniejsza presja na rozwój pisma i innych form informacji, które przyniosły postęp technologiczny w Europie i Azji. Jednym z głównych powodów, dla których cywilizacje Ameryki nigdy nie osiągnęły punktu zwrotnego był brak koni, wołów i innych dużych zwierząt zdolnych do przenoszenia ludzi i ładunków. Takie zwierzęta pozwalały na powstanie nadwyżek żywności, ułatwiały handel i umożliwiały ekspansję imperiów w Azji i Europie, dodaje Kohler. Naukowcy mają nadzieję, że analiza bazy Seshat da też odpowiedź na inne interesujące pytania, jak np. dlaczego niektóre cywilizacje upadły, mimo że nie widać żadnych zewnętrznych przyczyn ich porażki. Mamy nadzieję, że z czasem, gdy do Seshat będzie trafiało coraz więcej danych, uda nam się odpowiedzieć na tego typu pytania, mówi Kohler. Obecnie posiadamy nowe niezwykłe możliwości przechowywania i przetwarzania danych. Większe niż kiedykolwiek wcześniej. Czy to oznacza, że przed nami nowy etap rozwoju ludzkiej cywilizacji? A jeśli tak, to jak będzie on wyglądał, zastanawia się uczony. « powrót do artykułu
  3. Międzynarodowy zespół uczonych wpadł na trop rewolucyjnej, niespodziewanej metody zapisu danych na dyskach twardych. Pozwala ona na setki razy szybsze przetwarzanie informacji niż ma to miejsce we współczesnych HDD. Naukowcy zauważyli, że do zapisu danych wystarczy jedynie ciepło. Dzięki temu będzie ona zachowywana znacznie szybciej i zużyje się przy tym mniej energii. Zamiast wykorzystywać pole magnetyczne do zapisywania informacji na magnetycznym nośniku, wykorzystaliśmy znacznie silniejsze siły wewnętrzne i zapisaliśmy informację za pomocą ciepła. Ta rewolucyjna metoda pozwala na zapisywanie terabajtów danych w ciągu sekundy. To setki razy szybciej niż pracują obecne dyski. A jako, że nie trzeba przy tym wytwarzać pola magnetycznego, potrzeba mniej energii - mówi fizyk Thomas Ostler z brytyjskiego University of York. W skład międzynarodowego zespołu, który dokonał odkrycia, wchodzili uczeni z Hiszpanii, Szwajcarii, Ukrainy, Rosji, Japonii i Holandii. Doktor Alexey Kimel z Instytutu Molekuł i Materiałów z Uniwersytetu w Nijmegen mówi: Przez wieki sądzono, że ciepło może tylko niszczyć porządek magnetyczny. Teraz pokazaliśmy, że w rzeczywistości jest ono impulsem wystarczającym do zapisania informacji na magnetycznym nośniku. Uczeni wykazali, że bieguny w domenach magnetycznych na dysku można przełączać nie tylko za pomocą pola magnetycznego generowanego przez głowicę zapisująco-odczytującą, ale również dzięki ultrakrótkim impulsom cieplnym.
  4. Obdarowując kogoś, lepiej nie łączyć dużego prezentu z małym, bo obniża to postrzeganą ogólną wartość podarku - twierdzi Kimberlee Weaver z Virginia Tech (Journal of Consumer Research). Amerykanie podają następujący przykład. Wyobraźmy sobie prezent w postaci kaszmirowego swetra. Większość badanych, gdyby pozwalała na to zasobność portfela, zdecydowałaby się na dodatek w postaci bonu za 10 dolarów (bo zamiast 1 podarku mielibyśmy 2). Obdarowywany nie postrzega tego jednak w ten sam sposób i dla niego sam sweter byłby cenniejszy niż sweter połączony z bonem. Jak tłumaczą członkowie zespołu, paradoks prezentującego (The Presenter's Paradox) pojawia się z powodu różnicy perspektyw. Obdarowujący działa zgodnie z regułą "im więcej, tym lepiej", a obdarowywany ocenia paczkę jako całość. Ludzie oceniający jakiś pakiet, np. prezent, stosują strategię uśredniania, która skutkuje mniej pochlebnymi notami, gdy do bardziej wartościowego obiektu (swetra) dodawany jest mniej cenny przedmiot (bon). Współpracownik Weaver Stephen Garcia z University of Michigan wyjaśnia, że efekt wystąpi też przy innych okazach, np. podczas prezentowania danych na jakiś temat. Dodanie mniej korzystnej informacji rozrzedza wpływ wysoce pochlebnej informacji. Mówiący znajdzie się więc w lepszej sytuacji, jeśli ograniczy swoją prezentację do najbardziej korzystnej informacji [...]. Psycholodzy stwierdzili, że efekt prezentującego ujawniał się we wszystkich 7 badaniach serii, które dotyczyły bardzo różnych dziedzin: od pakietów muzycznych (utworów na płycie), przez reklamę hotelu, po strukturę kar. Gdy eksperymentator pytał ochotników o karę za zaśmiecanie, woleli grzywnę w wysokości 750 dol. plus 2 godziny prac społecznych od samej 750-dolarowej grzywny, ponieważ taka kara wydawała im się lżejsza. Weaver wyjaśnia, że efekt prezentującego odnosi się zarówno do prawników w sądzie, jak i do pośrednika sprzedającego nieruchomość czy człowieka ubiegającego się o wakat. Wszyscy oni muszą pamiętać, że chcąc wzmocnić przekaz, mogą niechcący obniżyć wagę najistotniejszej informacji. Jakie jest zatem rozwiązanie? Nakłanianie konsumentów, by rozważyli ogólny obraz, przekonuje ich do przyjęcia perspektywy holistycznej, co pozwala poprawnie przewidzieć reakcję odbiorcy - podsumowuje Norbert Schwarz z University of Michigan.
  5. Wbrew obecnie panującym poglądom, mówiącym, że z czarnej dziury nic nie może uciec, profesor Samuel Braunstein i doktor Manas Patra z brytyjskiego University of York twierdzą, iż informacja może wydostać się z czarnej dziury. Jeśli uzyskane przez nich wyniki są prawidłowe, może to mieć bardzo daleko idące konsekwencje. Może to bowiem oznaczać, że grawitacja nie jest fundamentalną siłą natury. Do uzyskania naszych wyników nie potrzebowaliśmy szczegółowych danych dotyczących geometrii zakrzywienia przestrzeni przez czarną dziurę. To wspiera niedawno zaprezentowaną teorię, że czas, przestrzeń i sama grawitacja są właściwościami czegoś innego, głębszego, leżącego u ich źródeł. W naszej pracy lekko zmodyfikowaliśmy tę propozycję uznając, że teoria o kwantowej informacji jest prawdopodobnym źródłem teorii grawitacji - mówi Braunstein. Obaj naukowcy wykorzystali mechanikę kwantową, jednak wielu uczonych wątpi, czy bez odwoływania się do grawitacji można wyjaśnić parowanie czarnych dziur. Nie możemy jednoznacznie stwierdzić, że udowodniliśmy możliwość ucieczki z czarnej dziury. Jednak taka jest najbardziej prawdopodobna interpretacja uzyskanych przez nas wyników, a te wskazują, że teoria o kwantowej informacji będzie odgrywała kluczową rolę w przyszłej teorii czarnych dziur, łączącej mechanikę kwantową z grawitacją - dodaje Patra. Szczegółowy opis rozważań obu naukowców został opublikowany w artykule pt. „Black hole evaporation rates without spacetime" w najnowszym numerze Physical Review Letters.
  6. Naukowcom udało się obliczyć ilość danych przechowywanych przez ludzkość. Oszacowali, że do roku 2007 ludzie zgromadzili 295 eksabajtów informacji. Pod uwagę brano zarówno dane składowane na komputerach czy płytach DVD, jak i książkach oraz papierowych reklamach. Gdybyśmy chcieli całą tę informację wydrukować, to można by pokryć powierzchnię USA lub Chin 3-warstwową stertą książek - stwierdził doktor Martin Hilbert z University of Southern California. Obliczeń dokonano szacując dane zgromadzone za pomocą 60 różnych analogowych i cyfrowych nośnikach danych w latach 1986-2007. Przy okazji uczeni dowiedzieli się, że jeszcze w roku 2000 aż 75% informacji było przechowywanej w formie analogowej. Do roku 2007 sytuacja uległa całkowitej zmianie i 94% informacji było w formie cyfrowej. Uczeni zauważają, że rewolucja informacyjna, której jesteśmy świadkami, nie jest czymś wyjątkowym. Wcześniej nasze życie zmieniał samochód, jeszcze wcześniej elektryczność, pociąg, para. Informację możemy wysłać w przestrzeń i nazywamy to komunikacją, możemy przesłać ją w czasie i nazywamy to przechowywaniem. Możemy ją też zmieniać, manipulować nią, zmieniać jej znaczenie i nazywa się to obliczeniami komputerowymi - powiedział Hilbert. Innym ciekawym odkryciem jest fakt nadawania dwóch zetabajtów informacji czyli odpowiednika 175 gazet dziennie na osobę. Jakkolwiek imponująco by to wszystko nie brzmiało, to jednak natura potrafi przechowywać i przetwarzać wielokrotnie więcej informacji niż my. DNA w ciele pojedynczego tylko człowieka zawiera około 300-krotnie więcej danych niż przechowuje obecnie ludzkość - stwierdza Hilbert. Jednocześnie zauważono rosnącą przepaść pomiędzy światem rozwiniętym a rozwijającym się. W roku 2002 kraje rozwinięte były w stanie przesłać ośmiokrotnie więcej informacji niż kraje rozwijające się. W 2007 było to już 15 razy więcej. Przy okazji uczeni określili, że początkiem wieku cyfrowego był rok 2002. To właśnie w tym roku ilość informacji przechowywanej w formie cyfrowej przekroczyła ilość przechowywanej w formie analogowej.
  7. W International Journal of Communication ukazały się wyniki badań przeprowadzonych przez uczonych z Northwestern University, z których wynika, iż studenci i uczniowie bardziej ufają wyszukiwarkom niż witrynom, które znajdują za ich pośrednictwem. Badacze obserwowali 102 osoby poszukujące konkretnych informacji. Wykorzystywany był przy tym przede wszystkim Google, ale również Wikipedia, Bing, Facebook, Yahoo, AOL i inne serwisy. Okazało się, że większość z badanych klikała na pierwszy wynik w wyszukiwarce, niezależnie od tego, co się znajdowało pod danym odnośnikiem. Ponad 25% z nich później stwierdziło wprost, że kliknęli, gdyż link był na pierwszym miejscu. Naukowcy Eszter Hargittai, Lindsay Fullerton, Ericka Menchen-Trevino i Kristin Yates Thomas dowiedzieli się również, że w niektórych przypadkach wiarygodność znalezionej informacji oceniano nie ze względu na witrynę, na której się znajdowała, czy jej autora. Najważniejszym kryterium okazał się fakt, że informacja została pokazana przez wyszukiwarkę. Tylko 10% badanych zwróciło uwagę na autora, a żaden z nich nie pofatygował się, by sprawdzić jego kwalifikacje i wiarygodność. Uczniowie przyznawali, że witryny w domenach .edu i .gov są bardziej wiarygodne od innych, gdyż "nie może ich edytować każdy". Byli jednak i tacy, którzy za równie wiarygodne uznawali witryny .org czy .com, nie zdając sobie sprawy z faktu, że są one sprzedawane każdemu chętnemu. Podsumowując badania naukowcy stwierdzili, że dla uczniów i studentów bardziej wiarygodne są wyszukiwarki niż znalezione witryny. Osoby te bardzo ufają wyszukiwarce, z której korzystają. We wspomnianym artykule zamieszczono ich słowa mówiące o fascynacji Google'em czy deklaracje, iż informacje znaleziono za pomocą Binga są bardziej wiarygodne, gdyż Microsoft jest "bardziej profesjonalną" firmą. Sam fakt, że młodzi ludzie dorastali wraz z internetem nie oznacza jeszcze, że potrafią się nim posługiwać - konkludują badacze.
  8. Specjaliści IBM-a dokonali niezwykle ważnego kroku na drodze do zastąpienia połączeń elektrycznych optycznymi w układzie scalonym. Inżynierowie zaprezentowali nanofotoniczny fotodetektor lawinowy. To najszybsze tego typu urządzenie, które umożliwi zbudowanie eksaflopowych komputerów. Urządzenie korzysta z obserwowanego w germanie "efektu lawiny". Podobnie jak lawina rozpoczyna się od ruchu niewielkiej ilości śniegu, tak w tym przypadku wykorzystywany jest fakt, że początkowo impuls świetlny (foton) uwalnia niewiele nośników ładunku (elektron), ale one uwalniają kolejne, te - następne i w efekcie otrzymujemy "lawinę" ładunków. Konwencjonalne fotodetektory lawinowe nie są w stanie wykryć szybkich sygnałów optycznych. Urządzenie IBM-a jest w stanie odbierać z prędkością 40 Gbps sygnały optyczne i jednocześnie pomnażać je dziesięciokrotnie. Co więcej, do pracy urządzenie wymaga zasilania rzędu 1,5 wolta, czyli 20 razy mniej, niż standardowe fotodetektory lawinowe. Innymi słowy, wiele urządzeń IBM-a można zasilić z pojedynczej baterii AA. Tymczasem obecnie dostępne podobne urządzenia potrzebują źródeł zasilania o napięciu 20-30V. Tak znaczące ulepszenie wydajności to wynik manipulowania w skali kilkudziesięciu atomów właściwościami elektrycznymi i optycznymi. Dzięki temu osiągnęliśmy wydajność przekraczającą zwykłe fizyczne możliwości. Te niewielkie urządzenia są w stanie wykryć niezwykle słabe impulsy światła i zwielokrotnić je w niespotykanym dotychczas zakresie, dodając przy tym bardzo mało niechcianego szumu - mówi doktor Solomon Assefa. W fotodetektorze IBM-a zwielokrotnienie zachodzi na przestrzeni zaledwie kilkudziesięciu nanometrów. Dzięki małym rozmiarom szum powodowany zwielokrotnieniem sygnału zostaje zredukowany o 50-70 procent w porównaniu ze standardowym fotodetektorem lawinowym. Dodatkowa zaleta produktu IBM-a jest taka, iż powstał z krzemu i germanu przy użyciu standardowych technik wykorzystywanych w przemyśle półprzewodnikowym.
  9. Naukowcy z Uniwersytetu Kalifornijskiego w San Diego przygotowali raport o konsumpcji informacji przez Amerykanów w 2008 roku [PDF]. Wynika z niego, że mieszkańcy USA w ciągu 12 miesięcy "użyli" 3,6 zettabajtów (1021, bilion gigabajtów) informacji i niemal 11 biliardów wyrazów. Oznacza to, że przeciętny mieszkaniec tego kraju "konsumował" każdego dnia 34 gigabajty informacji i 100.500 wyrazów. Dane takie uzyskano na podstawie analizy ponad 20 źrodeł informacji. Od książek i gazet po przenośne gry komputerowe, radio satelitarne i internetowy przekaz wideo. W badaniach nie uwzględniono informacji "konsumowanej" w czasie pracy. Uczeni zdefiniowali "informację" jako przepływ danych docierających do ludzi i policzyli bajty, słowa oraz czas spędzany na konsumpcji. Najbardziej rozpowszechnionym sposobem korzystania z informacji jest przekaz obrazkowy. Około 2 zettabajtów pozyskano z gier wideo, a 1,3 ZiB z telewizji. Widać tutaj wyraźny wzrost w porównaniu z poprzednimi badaniami z roku 2000 i 2003. Uczeni zauważają, że liczba godzin spędzanych na konsumpcji informacji rośnie w latach 1980-2008 w tempie 2,8% rocznie. Przed 28 laty przeciętny Amerykanin "konsumował" informacje średnio przez 7,4 godziny na dobę. Obecnie jest to 11,8 godziny. Wśród źródeł informacji nadal dominuje radio i telewizja. Naukowcy wyliczyli, że 60% czasu konsumpcji jest związane właśnie z tymi mediami. Amerykanie spędzają przy źródłach nie związanych z komputerem ponad 75% czasu związanego z konsumpcją informacji. Jednocześnie jednak widać, że komputery zmieniają sposób przyswajania informacji. Przed ich pojawieniem się jedynym interaktywnym źródłem informacji był telefon. Dzięki komputerom 33% słów i ponad 50% bitów jest odbieranych w sposób interaktywny. Komputery przyczyniły się też do zwiększenia, zagrożonego przez telewizję, czytelnictwa, gdyż słowo pisane jest głównym sposobem komunikacji z maszyną. « powrót do artykułu
  10. Zespół z Laboratorium Badawczego Sił Powietrznych Stanów Zjednoczonych prowadzi zaawansowane badania nad bezprzewodowym przesyłaniem kwantowych informacji zakodowanych w świetle lasera. Opracowany przez uczonych system umożliwia szybkie przesłanie danych na odległość kilkudziesięciu kilometrów. Zakodowane w świetle lasera kwantowe informacje są o tyle bezpieczne, że każda próba podsłuchu prowadzi do zmiany danych, a więc podsłuchiwani natychmiast się o tym dowiedzą. Wysyłanie zakodowanych w świetle informacji jest niezwykle trudne jeśli nie odbywa się ono za pośrednictwem kabla. W powietrzu występuje bowiem olbrzymia liczba czynników, które mogą zakłócić komunikację. Są nimi turbulencje, zmiany temperatury czy wiatry wiejące w atmosferze. Amerykańskim uczonym, pracującym pod kierunkiem doktora Davida H. Hughesa udało się przeprowadzić laserową transmisję danych na odległość 35 kilometrów. Informacje zostały skutecznie przesłane zarówno wówczas, gdy ich odbiorca znajdował się na ziemi, jak i wtedy, gdy odczytywał je na pokładzie samolotu lecącego na wysokości 3000 metrów. W najbliższym czasie chcą przeprowadzić kolejny test z jeszcze wyżej lecącym samolotem. Specjaliści mają nadzieję, że już wkrótce ich system znajdzie zastosowanie podczas codziennej pracy lotnictwa wojskowego. W przyszłości nowa technologia może pozwolić pilotom na jednoczesny odbiór olbrzymich ilości danych z wielu punktów, takich jak np. inne samoloty załogowe i bezzałogowe.
  11. Podczas przyszłotygodniowej konferencji Siggraph uczeni z MIT-u chcą pokazać technologię, która może zastąpić kody paskowe. Mowa tutaj o tzw. bokode, które mogą zawierać tysiące razy więcej informacji niż kod paskowy i mogą być odczytywane np. za pomocą telefonu komórkowego. Znaczniki mają średnicę 3 milimetrów, a informacja jest w nich kodowana za pomocą światła. Wystarczy, że w sklepie zrobimy zdjęcie znacznika, a dowiemy się np. kiedy dany towar został wyprodukowany, ile kosztuje, jaki jest jego skład czy poznamy informację na temat jego wartości odżywczych. Olbrzymią zaletą bokode jest fakt, iż może być odczytany pod różnym kątem i z dużej odległości. Specjaliści udowodnili, że informacje można odczytać z odległości 4 metrów. Teoretycznie jest to możliwe nawet z 20 metrów. Zastosowania bokode mogą być bardzo różne. W bibliotece, stojąc przed półkami z tysiącami książek oznaczonych następcą kodu paskowego, będziemy mogli wykonać zdjęcie i błyskawicznie znajdziemy tytuł, który nas interesuje. System może się też przydać np. w restauracjach. Wystarczy, że ich właściciele umieszczą przed restauracją zakodowaną w bokode informacje o menu. Gdy fotografia restauracji trafi np. do serwisu Google Street View, użytkownik będzie mógł z łatwością sprawdzić, co dany lokal oferuje. Na razie największą wadą bokode jest ich cena. Wynosi ona 5 dolarów, gdyż urządzenie korzysta z LED, źródła energii i specjalnej maski odbijającej światło. Jest zatem urządzeniem aktywnym. By mogło się upowszechnić, konieczne jest stworzenie jego pasywnej wersji, nie wymagającej własnego zasilania. Naukowcy z MIT-u już mają w laboratorium pasywny bokode. Jego cena to około 5 centów. Bokode to nie pierwsza technologia, która ma zastąpić kod paskowy. Przed dwoma laty Microsoft zaproponował High Capacity Colour Barcode, a większość z nas słyszała o znacznikach RFID. Jak na razie pozycja tradycyjnego czarno-białego kodu paskowego pozostaje niezagrożona.
  12. Dzięki najnowszym zdobyczom techniki właściciele pól uprawnych nie będą musieli zgadywać, kiedy należy uruchomić systemy nawadniające. Firma AgriHouse opracowała system za pomocą którego to same rośliny poinformują przez telefon komórkowy o swoim zapotrzebowaniu na wodę. Przedsiębiorstwo wykorzystuje technologię opracowaną przez University of Colorado na potrzeby misji kosmicznych. Pomysł polega na przyczepianiu do liści klipsów, które badają wilgotność wnętrza rośliny i za pomocą odpowiednich algorytmów przekładają te informacje na dane elektroniczne. Klipsy są połączone kablem ze znajdującym się obok urządzeniem zbierającym co kilka minut dane z kilku okolicznych roślin. Urządzenie przechowuje informacje i raz na parę godzin wysyła je bezprzewodowo do serwera. Urządzenia można zaprogramować tak, by automatycznie uruchamiały system irygacyjny lub też by wysyłały do właściciela pola SMS-a z odpowiednimi informacjami. Zdaniem AgriHouse nowy system pozwoli zaoszczędzić farmerom sporo pieniędzy. Zwykle wolą oni dostarczyć roślinom zbyt dużo wody, niż za mało. To niepotrzebny wydatek. Ocenia się, że w USA aż 60% słodkiej wody jest zużywane przez rolnictwo. Codziennie na pola trafia 129 miliardów litrów tego życiodajnego płynu. Przedstawiciele AgriHouse twierdzą, że ich system pozwoli zaoszczędzić, w zależności od upraw, od 5 do 10 centymetrów wody rocznie na hektar. Oznacza to kolosalne oszczędności. Każde pole o powierzchni 53 hektarów, które jest nawadniane przez centralny obrotowy system irygacyjny może zaoszczędzić w ten sposób taką ilość wody, jaką w ciągu roku używa 50 gospodarstw domowych. W USA jest 200 000 tego typu systemów nawadniających. By zaoszczędzić wspomnianą ilość wody wystarczy, by na polu znalazły się trzy urządzenia z czujnikami. Dzięki nim farmer zapłaci też nawet 4000 dolarów mniej za energię elektryczną konieczną do pompowania wody.
  13. Naukowcy z Uniwersytetu Stanforda odzyskali, utracony w 1990 roku tytuł zespołu, który stworzył najmniejszy w historii... napis. Starania o stworzenie jak najmniejszych liter odegrały olbrzymią rolę w rozwoju nanotechnologii. Wszystko rozpoczęło się w 1959 roku, gdy słynny fizyk Richard Feynman stwierdził, iż nie istnieją fizyczne bariery, które uniemożliwiłyby znaczące zmniejszenie maszyn i obwodów. Feynman zaoferował 1000 dolarów nagrody dla tego, kto opracuje sposób na stworzenie tekstu o 25 000 razy mniejszego, niż ówcześnie wykorzystywana czcionka w książkach. Było to niezwykłe wyzwanie. Tak małymi literami można by zapisać całą zawartość Encyclopedia Britannica na czubku od szpilki. W 1985 roku nagrodę Feynmana zdobył Tom Newman z Uniwersytetu Stanforda, który za pomocą litografii strumieniem elektronów przepisał pierwszą stronę "Opowieści o dwóch miastach" Dickensa. Tekst można było przeczytać tylko za pomocą mikroskopu elektronowego. Rekord został pobity w 1990 roku, gdy naukowcy pracujący dla Błękitnego Giganta ułożyli 35 atomów ksenonu w napis IBM. Teraz uczeni ze Stanford stworzyli litery, które są 40-krotnie mniejsze niż czcionka Newmana i 4-krotnie mniejsze niż litery w napisie IBM. Chris Moon, Hari Manoharan i Laila Mattos wykorzystali skaningowy mikroskop tunelowy, dzięki któremu byli w stanie przesuwać pojedyncze molekuły tlenku węgla i układać je na miedzianej płytce. Na powierzchni miedzi elektrony ciągle się poruszają. Zachowują się jednocześnie jak fale i cząsteczki. Gdy napotkają molekułę CO, tworzą "wzorce interferencji". Naukowcy byli w stanie, odpowiednio manipulując molekułami, zmieniać te "wzorce" tak, by utworzyły możliwy do odczytania napis. To z kolei było możliwe dzięki elektronicznej holografii kwantowej. Technika ta polega na rozświetleniu "molekularnych hologramów" nie za pomocą lasera, jak ma to miejsce w tradycyjnej holografii, a przez elektrony. Wówczas możliwe jest odczytanie napisu za pomocą skaningowego mikroskopu tunelowego. Litery SU (Stanford University) skonstruowano tak, by, jak w tradycyjnym hologramie, dane można było zapisywać w tym samym miejscu za pomocą światła o różnej długości fali. Każdy z "bitów", który posłużył do stworzenia liter miał długość zaledwie 0,3 nanometra. Manoharan wyjaśnia, że sądzono, iż ostateczną granicą zapisu informacji jest wielkość atomu, gdy jeden atom reprezentowałby jeden bit. Ale w tym eksperymencie podczas kodowania liter byliśmy w stanie przechowywać 35 bitów na elektron i stworzyliśmy litery tak małe, że bity mają wielkość subatomową. A więc jeden bit na atom nie jest już granicą przechowywania danych. Uważa on, że jest jeszcze sporo miejsca do gęstszego upakowania informacji.
×
×
  • Dodaj nową pozycję...