Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' entropia' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 2 wyniki

  1. W 2017 roku fizycy wykazali, że dokładność zegara kwantowego jest bezpośrednio proporcjonalna do tworzonej entropii. Teraz naukowcy z Wielkiej Brytanii i Austrii odkryli podobną zależność w przypadku nanoskalowego zegara klasycznego. Z opublikowanej pracy nie tylko dowiadujemy się, że pomiar czasu wymaga zwiększenia entropii, ale również, że związek pomiędzy dokładnością pomiaru a entropią może być uniwersalną cechą mierzenia czasu. Wyniki badań mogą mieć duże znaczenie dla nanoskalowych silników cieplnych oraz technologii, których działanie jest zależne od dokładnych pomiarów czasu. W systemach klasycznych badanie związku pomiędzy dokładnością pomiaru a entropią jest trudne, gdyż trudno jest śledzić wymianę ciepła i pracy. Naukowcy z University of Oxford, Lancaster University oraz Wiedeńskiego Centrum Kwantowej Nauki i Technologii stworzyli prosty optomechaniczny nanozegar, składający się z membrany poruszanej za pomocą pola elektrycznego. Membrana porusza się w górę i w dół, a każda zmiana pozycji wyznacza pomiar jednostki czasu. Zegar daje nam użyteczne dane wyjściowe – ciąg pomiarów – kosztem zwiększenia nieuporządkowania swojego otoczenia, które jest ogrzewane przez obwód podłączony do membrany. Nanoskalowy zegar był zbyt duży by analizować go z punktu widzenia mechaniki kwantowej. Był też fizycznie całkowicie różny od wcześniej badanych zegarów kwantowych. Mimo to naukowcy zauważyli w nim identyczny tym zależności pomiędzy dokładnością a entropią, jaki istnieje w zegarach atomowych. Związek pomiędzy dokładnością a entropią był też zgodny z opracowanym przez uczonych modelem teoretycznym. Potwierdziło to, że ten sam wzorzec dotyczy systemów klasycznych i kwantowych. Autorzy mówią, że – mimo iż badali związek między entropią a dokładnością dla jednej implementacji klasycznego zegara – uzyskane wyniki i ich podobieństwo do wyników zegarów atomowych sugerują, że mogą być one prawdziwe dla każdego zegara. Sugerują jednocześnie, by optymalny zegar definiować jako taki, który ma najwyższą możliwość dokładność przy jak najmniejszej dyssypacji, bez względu na budowę samego zegara. Natalia Ares z University of Oxford sugeruje, że badania pomiędzy entropią a dokładnością pomiaru mogą zostać wykorzystane do lepszego zrozumienia natury czasu i powiązanych z tym ograniczeń w wydajności nanoskalowych silników. « powrót do artykułu
  2. Melvin Vopson z Wydziału Matematyki i Fizyki University of Portsmouth opublikował artykuł, w którym wylicza przybliżony moment wystąpienia informacyjnej katastrofy, wydarzenia spowodowanego coraz większą ilością wytwarzanej informacji cyfrowej, do której przetworzenia i przechowania będziemy potrzebowali więcej energii niż obecnie produkujemy, a masa przechowywanej informacji będzie stanowiła połowę masy Ziemi. Obliczenia Vopsona zostały opublikowane w periodyku AIP Advances, wydawanym przez Amerykański Instytut Fizyki. Jak zauważa Vopson, obecnie wytwarzamy około 7,3x1021 bitów informacji rocznie. Zakładając 20-procentowy roczny wzrost tempa wytwarzanej informacji Vopson oblicza, że za około 350 lat liczba produkowanych bitów przekroczy liczbę wszystkich atomów, z jakich składa się Ziemia (ok. 1050). Jednak to nie wszystko. Za około 300 lat ilość energii konieczna do wytworzenia cyfrowej informacji przekroczy 18,5 W x 1015, zatem będzie większa niż cała obecna konsumpcja energii. Z kolei za około 500 lat, zgodnie z zasadą równowagi masy, energii i informacji, masa przechowywanej informacji cyfrowej przekroczy połowę masy Ziemi. Szacunki Vopsona i jego zespołu wskazują, że w przyszłości ludzkość może czekać jeszcze jedno poważne wyzwanie – katastrofa informacyjna. IBM szacuje, że obecnie każdego dnia produkujemy 2,5x1018 bajtów danych (2,5x109 Gb). Jako, że 1 bajt składa się z 8 bitów, to dzienna produkcja bitów wynosi 2x1019. Łatwo w ten sposób wyliczyć, że roczna produkcja bitów to wspomniane już 7,3x1021. Wielkość atomu to około 10-10 metra. Wielkość bitu to około 25x10-9 metra, co oznacza, że w systemach do przechowywania danych, których gęstość zapisu przekracza 1 Tb/in2 pojedynczy bit zajmuje około 25 nm2. Nawet jeśli założymy, że w przyszłości postęp technologiczny pozwoli zmniejszyć rozmiary bitu do rozmiarów atomu, to przy tak olbrzymim tempie przyrostu ilości wytwarzanych informacji rozmiar przechowywanych danych będzie większy niż rozmiar planety. To właśnie moment wystąpienia katastrofy informacyjnej. Specjaliści szacują, że obecne roczny wzrost tempa produkcji danych jest dwucyfrowy. Vopson wziął pod uwagę fakt, że część z tych danych jest też usuwana. Przeprowadził więc obliczenia, w których przyjął, że rzeczywiste roczne tempo wzrostu wynosi 5, 20 oraz 50 procent. W pierwszym z tych scenariuszy liczba przechowywanych bitów zrówna się z liczbą atomów tworzących Ziemię za około 1200 lat, w scenariuszu drugim będzie to około 340 lat, a w trzecim nastąpi to za 150 lat. Teraz rozważmy skutki tego zjawiska z punktu widzenia faktu, że bit informacji nie jest abstraktem matematycznym, a czymś fizycznym. W 1961 roku Rolf Landauer jako pierwszy zauważył związek pomiędzy termodynamiką a informacją, czytamy w artykule The information catastrophe. Landauer zaproponował wzór pozwalający wyliczyć ilość energii potrzebnej do usunięcia bita informacji. Z zasady zachowania energii wynika zaś, że taka sama ilość energii jest potrzebna do wytworzenia bita informacji. Niedawno ukazały się szacunki specjalistów z Huawei Technologies Sweden, którzy wyliczali do roku 2030 technologie komunikacyjne będą pochłaniały 51% całości energii wytwarzanej przez człowieka. Vopson zauważa, że obecnie do zapisania w temperaturze pokojowej jednego bita informacji potrzeba znacznie więcej energii niż teoretyczna minimalna jej ilość, która wynosi 18 meV. Uczony założył jednak, że postęp technologiczny umożliwi zapis informacji z maksymalną wydajnością i pozwoli zużywać najmniejszą możliwą ilość energii potrzebnej do zapisania bitu. Obecnie ludzkość konsumuje 18,5x1015 W, czyli 18,5 TW. Jeśli założymy, że roczne tempo przyrostu ilości wytwarzanej informacji będzie wynosiło 5%, to za 1060 lat ludzkość będzie zużywała na wytwarzanie tyle informacji, ile obecnie zużywa na całą swoją aktywność. Przy wzroście o 20% rocznie moment ten nastąpi za ok. 285 lat, a przy 50% – za około 130 lat. Musimy przy tym pamiętać, że to szacunki opierające się na niespełnionym dotychczas założeniu, że wytworzenie informacji pochłania jedynie niezbędne minimum energii. Wydaje się zatem, że nie uda się utrzymać obecnego tempa przyrostu i w przyszłości produkcja informacji cyfrowej będzie ograniczona przez możliwość dostarczenia energii przez planetę. Ograniczenie to możemy rozpatrywać w kategoriach entropii tak, jak rozważa to Deutscher w książce „The Entropy Crisis”. Argumentuje on w niej, że kryzys energetyczny to w rzeczywistości kryzysentropii, gdyż wzrost entropii w biosferze wymaga energii. Jako, że produkcja cyfrowej informacji zwiększa entropię systemu to, przez ekstrapolację, zwiększa też entropię w biosferze. Co interesujące, ten wzrost entropii informacyjnej biosfery może być wykorzystany do pozyskania energii z entropii. W 2019 roku stworzono zasadę równowagi masy, energii i informacji. Zauważono, że informacja jest zjawiskiem fizycznym i, w zależności od swojego stanu, zmienia się w masę lub energię. Zasada ta wciąż czeka na eksperymentalne potwierdzenie, jednak – jeśli założymy że jest prawdziwa – niesie ona interesujące implikacje dla informatyki, fizyki czy kosmologii, czytamy w artykule Vopsona. Zasada jest nowa, ale idee leżące u jej podstaw już nie. Już legendarny fizyk John Archibald Wheeler twierdził, że wszechświat zbudowany jest z cząstek, pól i informacji i zaproponował przeformułowanie całej fizyki z punktu widzenia teorii informacji. Masa spoczynkowa bitu informacji w temperaturze pokojowej wynosi 3,19x10-38 kg. Obecnie więc każdego roku ludzkość produkuje informację o masie 23,3x10-17 kg. To mniej więcej tyle ile waży... bakteria Escherichia coli. W tym tempie wyprodukowanie informacji o masie 1 kg zajęłoby nam dłużej niż istnieje wszechświat. Jednak tempo produkcji informacji ciągle rośnie. I znowu. Jeśli przyjmiemy, że wzrost ten wynosi 5% rocznie, to pierwszy kilogram informacji wyprodukujemy za 675 lat, a za 1830 lat masa wyprodukowanej informacji osiągnie połowę masy planety. Dla 20-procentowego rocznego tempa przyrostu pierwszy kilogram informacji pojawi się za 188 lat, a połowę masy Ziemi osiągniemy za 495 lat. W końcu, jeśli przyjmiemy, że ilość produkowanej informacji zwiększa się co roku o 50%, to pierwszy jej kilogram wytworzymy za 50 lat, a połowę masy Ziemi osiągniemy za 225 lat. Innymi słowy, przy największym zakładanym tempie przyrostu produkcji informacji, w roku 2070 wszelkie dane z komputerów, serwerów, smartfonów i innych urządzeń będą ważyły 1 kilogram, a w roku 2245 będą stanowiły połowę masy planety. « powrót do artykułu
×
×
  • Dodaj nową pozycję...