Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Nanoskalowy zegar klasyczny wskazuje na istnienie uniwersalnych ograniczeń pomiaru czasu

Rekomendowane odpowiedzi

W 2017 roku fizycy wykazali, że dokładność zegara kwantowego jest bezpośrednio proporcjonalna do tworzonej entropii. Teraz naukowcy z Wielkiej Brytanii i Austrii odkryli podobną zależność w przypadku nanoskalowego zegara klasycznego. Z opublikowanej pracy nie tylko dowiadujemy się, że pomiar czasu wymaga zwiększenia entropii, ale również, że związek pomiędzy dokładnością pomiaru a entropią może być uniwersalną cechą mierzenia czasu. Wyniki badań mogą mieć duże znaczenie dla nanoskalowych silników cieplnych oraz technologii, których działanie jest zależne od dokładnych pomiarów czasu.

W systemach klasycznych badanie związku pomiędzy dokładnością pomiaru a entropią jest trudne, gdyż trudno jest śledzić wymianę ciepła i pracy. Naukowcy z University of Oxford, Lancaster University oraz Wiedeńskiego Centrum Kwantowej Nauki i Technologii stworzyli prosty optomechaniczny nanozegar, składający się z membrany poruszanej za pomocą pola elektrycznego. Membrana porusza się w górę i w dół, a każda zmiana pozycji wyznacza pomiar jednostki czasu. Zegar daje nam użyteczne dane wyjściowe – ciąg pomiarów – kosztem zwiększenia nieuporządkowania swojego otoczenia, które jest ogrzewane przez obwód podłączony do membrany.

Nanoskalowy zegar był zbyt duży by analizować go z punktu widzenia mechaniki kwantowej. Był też fizycznie całkowicie różny od wcześniej badanych zegarów kwantowych. Mimo to naukowcy zauważyli w nim identyczny tym zależności pomiędzy dokładnością a entropią, jaki istnieje w zegarach atomowych. Związek pomiędzy dokładnością a entropią był też zgodny z opracowanym przez uczonych modelem teoretycznym. Potwierdziło to, że ten sam wzorzec dotyczy systemów klasycznych i kwantowych.

Autorzy mówią, że – mimo iż badali związek między entropią a dokładnością dla jednej implementacji klasycznego zegara – uzyskane wyniki i ich podobieństwo do wyników zegarów atomowych sugerują, że mogą być one prawdziwe dla każdego zegara. Sugerują jednocześnie, by optymalny zegar definiować jako taki, który ma najwyższą możliwość dokładność przy jak najmniejszej dyssypacji, bez względu na budowę samego zegara.

Natalia Ares z University of Oxford sugeruje, że badania pomiędzy entropią a dokładnością pomiaru mogą zostać wykorzystane do lepszego zrozumienia natury czasu i powiązanych z tym ograniczeń w wydajności nanoskalowych silników.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Podczas spotkania we Paryżu przedstawiciele rządów i organizacji naukowych zagłosowali za rezygnacją z sekundy przestępnej, poinformowało Międzynarodowe Biuro Miar i Wag (BIPM). Decyzja wejdzie w życie nie później niż w 2035 roku. Sekundy przestępne, podobnie jak lata przestępne, dodawano co jakiś czas do zegarów przez ostatnie pół wieku, by uwzględnić różnicę pomiędzy dokładnymi pomiarami czasu dokonywanymi za pomocą zegarów atomowych, a spowalniającym ruchem obrotowym Ziemi.
      Istnienie sekundy przestępnej mogło powodować problemy w licznych systemach zależnych od dokładnego nieprzerwanego pomiaru czasu – nawigacji satelitarnej, telekomunikacji, handlu czy podróży kosmicznych.
      Rezolucję o rezygnacji z sekundy przestępnej do 2035 roku podjęto podczas Generalnej Konferencji Wag i Miar, która odbywa się co cztery lata w Wersalu. Przeciwko głosowała Rosja, która chciała, by zmiana zaczęła obowiązywać od 2040 roku. Rok 2035 był kompromisem, gdyż część krajów proponowała rok 2025 czy 2030. Inicjatorami likwidacji sekundy przestępnej były m.in. Stany Zjednoczone i Francja.
      Wraz z pojawieniem się zegarów atomowych rozpoczęła się epoka bardzo precyzyjnych pomiarów czasu niż liczony w sekundach. I okazało się, że czas atomowy nie zgadza się z czasem obrotowym Ziemi. By rozwiązać ten problem, w 1972 roku wprowadzono sekundy przestępne. Od tamtej pory dodawano je 27 razy, po raz ostatni w roku 2016. Teraz postanowiono z tego zrezygnować, ale nie do końca.
      Na paryskim spotkaniu zdecydowano, że dopuści się większą niż sekunda różnicę pomiędzy czasem atomowym a astronomicznym. Ta większa różnica dopiero zostanie ustalona, mówi Judah Levine, fizyk z amerykańskich Narodowych Instytutów Standardów i Technologii. To on – wraz z Patrizią Tavellą, dyrektorką departamentu czasu w BIPM – przez lata opracowywał zarys przyjętej właśnie rezolucji.
      Teraz więc czekają nas kolejne negocjacje, podczas których państwa i naukowcy określą, na jak dużą rozbieżność czasu atomowego i astronomicznego będzie można pozwolić. Levine mówi, że mogłaby to być na przykład minuta. A minutę przestępną trzeba by wprowadzać raz na 50–100 lat. Jednocześnie podkreśla, że zachowanie pojęcia czasu uniwersalnego (UTC) jest ważne, gdyż ustalany jest on przez społeczność międzynarodową, skupioną w BIPM.
      Jedyną powszechnie stosowaną alternatywą dla czasu uniwersalnego jest czas GPS, o którym decydują zegary atomowe. Jednak, jak zauważa Levine, tym pomiarem czasu zarządza amerykańska armia bez nadzoru społeczności międzynarodowej.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Zgodnie ze słynnym paradoksem bliźniąt, osoba poruszająca się z dużą prędkością, starzeje się wolniej niż jej brat-bliźniak. Podobnie ma się sprawa na Ziemi i innych dużych obiektach, które zaginają czasoprzestrzeń spowalniając upływ czasu. Jeśli jedno z bliźniąt będzie mieszkało nad morzem, a drugie na szczycie Mount Everest, gdzie grawitacja Ziemi oddziałuje nieco słabiej, będą starzały się w różnym tempie. Taka różnica została zresztą potwierdzona w eksperymencie, w którym jeden zegar atomowy umieszczono na poziomie morza, a drugi na szczycie góry.
      Teraz fizykom udało się zmierzyć różnice w upływie czasu w milimetrowej skali. Jun Ye z JILA w stanie Kolorado, wybitny badacz atomowych zegarów sieci optycznej, zmierzył różnice pomiędzy górną a dolną częścią chmury atomów o wysokości milimetra. To krok naprzód w kierunku badania teorii względności i mechaniki kwantowej, których obecnie nie potrafimy połączyć w jedną całość.
      Podczas swojego eksperymentu Ye wykorzystał optyczny zegar atomowy zbudowany z chmury 100 000 atomów strontu. Zegar wzbudzany był laserem. Przy odpowiedniej, bardzo precyzyjnej częstotliwości pracy lasera, elektrony krążące wokół każdego z jąder atomowych zajmowały wyższy poziom energetyczny. Jako, że tylko konkretna częstotliwość pracy lasera powodowały odpowiednie wzbudzenie elektronów, systemu można był użyć do niezwykle precyzyjnych pomiarów czasu. Można go porównać do zegara z wahadłem, gdzie rolę wahadła pełnią oscylacje światła lasera.
      Gdy naukowcy porównali częstotliwość „tykania zegara” na w górnej i dolnej części chmury, okazało się, że czas pomiędzy poszczególnymi przejściami jest na górze o 0,00000000000000001% krótszy niż na dole.
      Taki a nie inny sposób zaprojektowania eksperymentu pozwolił na usunięcie z pomiarów wielu zakłóceń. Na chmurę atomów wpływać może bowiem pole elektryczne, pole magnetyczne, ciepło otoczenia czy sam laser. Jednak niezależnie od tych wszystkich czynników różnica w częstotliwości pomiędzy górą a dołem chmury pozostawała taka sama. Autorzy badań mówią, że to krok w kierunku zunifikowania ogólnej teorii względności i mechaniki kwantowej.
      Teoria względności opisuje czasoprzestrzeń, w której obiekty mają dobrze zdefiniowane właściwości i przemieszczają się pomiędzy punktami przestrzeni w zdefiniowany sposób. Z kolei w mechanice kwantowej obiekt może znajdować się w superpozycji, czyli przyjmować jednocześnie różne właściwości lub też może nagle przeskoczyć do innej lokalizacji. Obie teorie dobrze opisują właściwe sobie rzeczywistości, ale nie przystają do siebie nawzajem. Jeśli bowiem rozważymy masywny obiekt, jak np. planetę, to – zgodnie z ogólną teorią względności – będzie on zaginał czasoprzestrzeń. Jeśli teraz zastosujemy do niego mechanikę kwantową, czyli umieścimy ten obiekt w superpozycji, zatem jednocześnie będzie się on znajdował w dwóch różnych miejscach, to rodzi się pytanie, czy również geometria czasoprzestrzeni znajdzie się w superpozycji. Niemożność zunifikowania obu tych teorii, które na początku XX wieku zrewolucjonizowały fizykę, to wciąż poważny problem dla nauki. Oznacza bowiem, że nie jesteśmy w stanie w pełni opisać rzeczywistości.
      Zegary atomowe to bardzo obiecujące systemy do badania tego problemu. Odmierzają bowiem czas, który w szczególnej teorii względności jest czwartą współrzędną czasoprzestrzeni, a jednocześnie przejścia pomiędzy poziomami energetycznymi elektronów są możliwe dzięki zjawiskom kwantowym.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Od pewnego czasu Ziemia obraca się szybciej niż zwykle, a 19 lipca ubiegłego roku był najkrótszą dobą od czas rozpoczęcia pomiarów. Trwała ona o 1,4602 milisekundy krócej niż zwykle. W bieżącym roku możemy spodziewać się zaś kolejnych rekordów. Specjaliści przypuszczają, że przeciętna tegoroczna doba będzie o ponad 0,5 milisekundy krótsza niż drzewiej bywało.
      Poprzednio najkrótsza doba została zmierzona w 2005 roku. Jednak w roku 2019 rekord ten został pobity aż 20 razy.
      To tym, że długość doby się zmienia ludzkość dowiedziała się w latach 60. ubiegłego wieku, gdy powstały zegary atomowe, a ich pomiary porównano z pozycją gwiazd. W  ciągu ostatnich dekad długość doby ulega ciągłemu wydłużeniu. Różnica jest spora. Od lat 70. operatorzy zegarów atomowych musieli dodać aż 27 sekund przestępnych, by dostosować zegary do ruchu obrotowego naszej planety. Ostatni raz sekundę przestępną dodawano noc sylwestrową 2016 roku, kiedy to zegary na całym świecie zostały na sekundę zatrzymane.
      Tymczasem od pewnego czasu specjaliści obserwują, że Ziemia przyspieszyła. Niewykluczone, że w niedługim czasie – po raz pierwszy w historii – trzeba będzie odjąć sekundę przestępną od zegarów. Nie mamy wątpliwości, że Ziemia obraca się wokół własnej osi szybciej, niż w jakimkolwiek momencie ostatnich 50 lat, mówi Peter Whibberley, naukowiec z grupy odpowiedzialnej za  pomiary czasu w brytyjskim Narodowym Laboratorium Fizycznym."Nie można wykluczyć, że jeśli ruch obrotowy Ziemi będzie przyspieszał, konieczne będzie dodanie ujemnej sekundy przestępnej. Jest jednak zbyt wcześnie, by o tym mówić.
      Prowadzone są międzynarodowe rozmowy dotyczące przyszłości sekund przestępnych. Jest też możliwe, że konieczność dodania ujemnej sekundy przestępnej spowoduje, że zostanie podjęta decyzja o całkowitej rezygnacji z sekund przestępnych, dodaje.
      W ostatnią niedzielę (3 stycznia), długość doby słonecznej wyniosła 23 godziny 59 minut i 59,9998927 sekundy. W poniedziałek doba jeszcze bardziej się skróciła. Eksperci przypuszczają, że w całym bieżącym roku skumulowana różnica pomiędzy dobą a zegarami atomowymi wyniesie około 19 milisekund.
      Różnice te są tak niewielkie, że dla przeciętnego człowieka stałyby się zauważalne po kilkuset latach. Jednak współczesne systemy komunikacji satelitarnej i nawigacji są uzależnione od dokładnego dopasowania pomiarów czasu do pozycji Słońca, Księżyca i gwiazd. Za tę zgodność odpowiadają naukowcy z International Earth Rotation Service w Paryżu. Monitorują tempo obrotowe planety i z sześciomiesięcznym wyprzedzeniem informują wszystkie kraje, kiedy trzeba będzie zastosować sekundę przestępną.
      Jednak manipulowanie czasem może nieść ze sobą poważne konsekwencje. Gdy w 2012 roku na świecie dodano sekundę przestępną, doszło do awarii Mozilli, Reddita, Foursquare'a, Yelpa, LinkedIna i StumbleUpon. Pojawiły się problemy z systemem operacyjnym Linux oraz z programami napisanymi w Javie.
      Niektóre kraje chcą całkowicie przejść na pomiary czasu za pomocą zegarów atomowych i zrezygnować ze stosowania sekund przestępnych. Inne kraje, w tym Wielka Brytania, sprzeciwiają się temu, gdyż taki ruch spowodowałby całkowite zerwanie ze związkiem pomiędzy pomiarami czasu z ruchem Słońca na nieboskłonie. W 2023 roku Światowa Konferencja Radiokomunikacyjna ma zdecydować o losie sekundy przestępnej.
      Tempo ruchu obrotowego Ziemi ulega ciągłym zmianom. Jest to spowodowane złożonymi zależnościami pomiędzy ruchem płynnego jądra Ziemi, ruchem oceanów i atmosfery oraz ruchem ciał niebieskich, takich jak Księżyc. Na ruch obrotowy wpływa też globalne ocieplenie, gdyż topnienie śniegu i lodu na wyżej położonych obszarach przyczynia się do przyspieszenia ruchu obrotowego.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy z Polski, USA i Niemiec uważają, że można wykorzystać globalną sieć czujników kwantowych oraz zegary atomowe systemu GPS do rejestrowania hipotetycznych egzotycznych pól o niskiej masie (ELF), sygnałów pochodzących z łączenia się czarnych dziur i innych gwałtownych wydarzeń astronomicznych. Wykrycie takich sygnałów dawałoby istotny wgląd w fizykę wykraczającą poza Model Standardowy.
      Andrei Derevianko z University of Nevada i jego zespół, w pracach którego udział bierze Szymon Pustelny z Uniwersytet Jagiellońskiego, opublikowali pracę, w której wyliczają właściwości ELF i mówią gdzie oraz jak ich szukać.
      Astronomia wielokanałowa (multimessenger astronomy), to skoordynowane obserwacje różnych sygnałów pochodzących z tego samego źródła. Obserwacje takie zapewniają duże bogactwo danych na temat procesów astrofizycznych. Dotychczas astronomia wielokanałowa odbierała skorelowane sygnały ze znanych oddziaływań podstawowych i standardowych cząstek, jak promieniowanie elektromagnetyczne, neutrina czy fale grawitacyjne. Jednak wielu autorów sugeruje, że istnieją egzotyczne pola o niskiej masie ( <-2), czytamy w pracy opublikowanej na łamach Nature.
      W naszej pracy wykażemy, że sieć precyzyjnych czujników kwantowych, które są izolowane od wpływu konwencjonalnych sygnałów fizycznych, może być potężnym narzędziem astronomii wielokanałowej. Rozważamy tutaj sytuację, w której wysokoenergetyczne wydarzenia astrofizyczne wywołują intensywne rozbłyski egzotycznych pól o niskiej masie (ELF) i proponujemy nowy model wykrywania ELF bazujący na generalnych założeniach. Wyliczamy tutaj amplitudy sygnałów EFL, opóźnienia, częstotliwości i odległości od źródeł fal grawitacyjnych, które to sygnały mogą zostać zarejestrowane przez globalną sieć magnetometrów i zegarów atomowych. Stwierdziliśmy, że sieci takich urządzeń mogą działać jak teleskopy ELF, wykrywając sygnały ze źródeł, które generują ELF.
      Czarne dziury i gwiazdy neutronowe mają silne pola grawitacyjne, zatem można przypuszczać, że przyciągają ciemną materię. Wiele rozszerzeń Modelu Standardowego sugeruje, że wokół wielkich masywnych obiektów astrofizycznych, jak czarne dziury, mogą gromadzić się ELF. Gdy czarne dziury się łączą i dochodzi do uwolnienia olbrzymich ilości energii, część z tych ELF może zostać rozerwana i wyrzucona w kierunku Ziemi. Możemy więc spróbować je wykryć i badać.
      Jednak sposób badania ELF będzie zależał od ich natury. Derevianko uważa, że jedną z metod może być wykorzystanie zegarów atomowych. ELF mogą wpłynąć na odległości pomiędzy powłokami elektronowymi, co wpłynie na częstotliwość pracy zegara atomowego. Globalna sieć zegarów atomowych już istnieje. Urządzenia takie mają na pokładzie satelity systemu GPS. Można by ją więc wykorzystać do wykrywania ELF, których źródło znajduje się w dowolnym miejscu obserwowalnego wszechświata.
      Jest jeszcze inna możliwość obserwacji ELF. Naukowcy przypuszczają, że pola te mogą wchodzić w interakcje ze spinami atomów, zatem mogą być wykrywane przez magnetometry. Global Network of Optical Magnetometers for Exotic physics (GNOME) to sieć 13 stacji rozsianych na 4 kontynentach. Co prawda, jak zauważa Derevianko, obecnie magnetometry te nie są wystarczająco czułe, by wykryć ELF, ale w przyszłości mogą osiągnąć wymaganą czułość, gdyż są ciągle udoskonalane.
      Uczeni nie znają dokładnej natury sygnałów pochodzących z ELF, w końcu samo istnienie pól jest jedynie hipotezą, jednak przewidują niektóre z ich właściwości. Ich zdaniem cząstki będące nośnikami sygnału mają dużą energię i bardzo niską masę. W związku z tym przemieszczają się niemal z prędkością światła. Co więcej, uważają, że jako pierwsze dotrą do nas elementy o wysokiej częstotliwości. To zaś będzie zapowiedzią impulsu, który trafi na Ziemię wkrótce po dotarciu fal grawitacyjnych.
      Zdaniem zespołu Derevianko, naukowcy mogą szukać ELF w wydarzeniach, którym nie towarzyszy fala grawitacyjna, np. w wybuchach supernowych. A jeśli np. uda się znaleźć w zegarach atomowych systemu GPS ślady ELF pochodzących z połączenia czarnych dziur, to można przeanalizować dane historyczne, sprzed okresu, gdy byliśmy w stanie wykrywać fale grawitacyjne.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Melvin Vopson z Wydziału Matematyki i Fizyki University of Portsmouth opublikował artykuł, w którym wylicza przybliżony moment wystąpienia informacyjnej katastrofy, wydarzenia spowodowanego coraz większą ilością wytwarzanej informacji cyfrowej, do której przetworzenia i przechowania będziemy potrzebowali więcej energii niż obecnie produkujemy, a masa przechowywanej informacji będzie stanowiła połowę masy Ziemi.
      Obliczenia Vopsona zostały opublikowane w periodyku AIP Advances, wydawanym przez Amerykański Instytut Fizyki.
      Jak zauważa Vopson, obecnie wytwarzamy około 7,3x1021 bitów informacji rocznie. Zakładając 20-procentowy roczny wzrost tempa wytwarzanej informacji Vopson oblicza, że za około 350 lat liczba produkowanych bitów przekroczy liczbę wszystkich atomów, z jakich składa się Ziemia (ok. 1050). Jednak to nie wszystko. Za około 300 lat ilość energii konieczna do wytworzenia cyfrowej informacji przekroczy 18,5 W x 1015, zatem będzie większa niż cała obecna konsumpcja energii. Z kolei za około 500 lat, zgodnie z zasadą równowagi masy, energii i informacji, masa przechowywanej informacji cyfrowej przekroczy połowę masy Ziemi. Szacunki Vopsona i jego zespołu wskazują, że w przyszłości ludzkość może czekać jeszcze jedno poważne wyzwanie – katastrofa informacyjna.
      IBM szacuje, że obecnie każdego dnia produkujemy 2,5x1018 bajtów danych (2,5x109 Gb). Jako, że 1 bajt składa się z 8 bitów, to dzienna produkcja bitów wynosi 2x1019. Łatwo w ten sposób wyliczyć, że roczna produkcja bitów to wspomniane już 7,3x1021.
      Wielkość atomu to około 10-10 metra. Wielkość bitu to około 25x10-9 metra, co oznacza, że w systemach do przechowywania danych, których gęstość zapisu przekracza 1 Tb/in2 pojedynczy bit zajmuje około 25 nm2. Nawet jeśli założymy, że w przyszłości postęp technologiczny pozwoli zmniejszyć rozmiary bitu do rozmiarów atomu, to przy tak olbrzymim tempie przyrostu ilości wytwarzanych informacji rozmiar przechowywanych danych będzie większy niż rozmiar planety. To właśnie moment wystąpienia katastrofy informacyjnej.
      Specjaliści szacują, że obecne roczny wzrost tempa produkcji danych jest dwucyfrowy. Vopson wziął pod uwagę fakt, że część z tych danych jest też usuwana. Przeprowadził więc obliczenia, w których przyjął, że rzeczywiste roczne tempo wzrostu wynosi 5, 20 oraz 50 procent. W pierwszym z tych scenariuszy liczba przechowywanych bitów zrówna się z liczbą atomów tworzących Ziemię za około 1200 lat, w scenariuszu drugim będzie to około 340 lat, a w trzecim nastąpi to za 150 lat.
      Teraz rozważmy skutki tego zjawiska z punktu widzenia faktu, że bit informacji nie jest abstraktem matematycznym, a czymś fizycznym. W 1961 roku Rolf Landauer jako pierwszy zauważył związek pomiędzy termodynamiką a informacją, czytamy w artykule The information catastrophe. Landauer zaproponował wzór pozwalający wyliczyć ilość energii potrzebnej do usunięcia bita informacji. Z zasady zachowania energii wynika zaś, że taka sama ilość energii jest potrzebna do wytworzenia bita informacji.
      Niedawno ukazały się szacunki specjalistów z Huawei Technologies Sweden, którzy wyliczali do roku 2030 technologie komunikacyjne będą pochłaniały 51% całości energii wytwarzanej przez człowieka.
      Vopson zauważa, że obecnie do zapisania w temperaturze pokojowej jednego bita informacji potrzeba znacznie więcej energii niż teoretyczna minimalna jej ilość, która wynosi 18 meV. Uczony założył jednak, że postęp technologiczny umożliwi zapis informacji z maksymalną wydajnością i pozwoli zużywać najmniejszą możliwą ilość energii potrzebnej do zapisania bitu.
      Obecnie ludzkość konsumuje 18,5x1015 W, czyli 18,5 TW. Jeśli założymy, że roczne tempo przyrostu ilości wytwarzanej informacji będzie wynosiło 5%, to za 1060 lat ludzkość będzie zużywała na wytwarzanie tyle informacji, ile obecnie zużywa na całą swoją aktywność. Przy wzroście o 20% rocznie moment ten nastąpi za ok. 285 lat, a przy 50% – za około 130 lat. Musimy przy tym pamiętać, że to szacunki opierające się na niespełnionym dotychczas założeniu, że wytworzenie informacji pochłania jedynie niezbędne minimum energii.
      Wydaje się zatem, że nie uda się utrzymać obecnego tempa przyrostu i w przyszłości produkcja informacji cyfrowej będzie ograniczona przez możliwość dostarczenia energii przez planetę. Ograniczenie to możemy rozpatrywać w kategoriach entropii tak, jak rozważa to Deutscher w książce „The Entropy Crisis”. Argumentuje on w niej, że kryzys energetyczny to w rzeczywistości kryzysentropii, gdyż wzrost entropii w biosferze wymaga energii. Jako, że produkcja cyfrowej informacji zwiększa entropię systemu to, przez ekstrapolację, zwiększa też entropię w biosferze. Co interesujące, ten wzrost entropii informacyjnej biosfery może być wykorzystany do pozyskania energii z entropii.
      W 2019 roku stworzono zasadę równowagi masy, energii i informacji. Zauważono, że informacja jest zjawiskiem fizycznym i, w zależności od swojego stanu, zmienia się w masę lub energię. Zasada ta wciąż czeka na eksperymentalne potwierdzenie, jednak – jeśli założymy że jest prawdziwa – niesie ona interesujące implikacje dla informatyki, fizyki czy kosmologii, czytamy w artykule Vopsona. Zasada jest nowa, ale idee leżące u jej podstaw już nie. Już legendarny fizyk John Archibald Wheeler twierdził, że wszechświat zbudowany jest z cząstek, pól i informacji i zaproponował przeformułowanie całej fizyki z punktu widzenia teorii informacji.
      Masa spoczynkowa bitu informacji w temperaturze pokojowej wynosi 3,19x10-38 kg. Obecnie więc każdego roku ludzkość produkuje informację o masie 23,3x10-17 kg. To mniej więcej tyle ile waży... bakteria Escherichia coli. W tym tempie wyprodukowanie informacji o masie 1 kg zajęłoby nam dłużej niż istnieje wszechświat.
      Jednak tempo produkcji informacji ciągle rośnie. I znowu. Jeśli przyjmiemy, że wzrost ten wynosi 5% rocznie, to pierwszy kilogram informacji wyprodukujemy za 675 lat, a za 1830 lat masa wyprodukowanej informacji osiągnie połowę masy planety. Dla 20-procentowego rocznego tempa przyrostu pierwszy kilogram informacji pojawi się za 188 lat, a połowę masy Ziemi osiągniemy za 495 lat. W końcu, jeśli przyjmiemy, że ilość produkowanej informacji zwiększa się co roku o 50%, to pierwszy jej kilogram wytworzymy za 50 lat, a połowę masy Ziemi osiągniemy za 225 lat. Innymi słowy, przy największym zakładanym tempie przyrostu produkcji informacji, w roku 2070 wszelkie dane z komputerów, serwerów, smartfonów i innych urządzeń będą ważyły 1 kilogram, a w roku 2245 będą stanowiły połowę masy planety.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...