Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów ' informacyjna katastrofa' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 1 wynik

  1. Melvin Vopson z Wydziału Matematyki i Fizyki University of Portsmouth opublikował artykuł, w którym wylicza przybliżony moment wystąpienia informacyjnej katastrofy, wydarzenia spowodowanego coraz większą ilością wytwarzanej informacji cyfrowej, do której przetworzenia i przechowania będziemy potrzebowali więcej energii niż obecnie produkujemy, a masa przechowywanej informacji będzie stanowiła połowę masy Ziemi. Obliczenia Vopsona zostały opublikowane w periodyku AIP Advances, wydawanym przez Amerykański Instytut Fizyki. Jak zauważa Vopson, obecnie wytwarzamy około 7,3x1021 bitów informacji rocznie. Zakładając 20-procentowy roczny wzrost tempa wytwarzanej informacji Vopson oblicza, że za około 350 lat liczba produkowanych bitów przekroczy liczbę wszystkich atomów, z jakich składa się Ziemia (ok. 1050). Jednak to nie wszystko. Za około 300 lat ilość energii konieczna do wytworzenia cyfrowej informacji przekroczy 18,5 W x 1015, zatem będzie większa niż cała obecna konsumpcja energii. Z kolei za około 500 lat, zgodnie z zasadą równowagi masy, energii i informacji, masa przechowywanej informacji cyfrowej przekroczy połowę masy Ziemi. Szacunki Vopsona i jego zespołu wskazują, że w przyszłości ludzkość może czekać jeszcze jedno poważne wyzwanie – katastrofa informacyjna. IBM szacuje, że obecnie każdego dnia produkujemy 2,5x1018 bajtów danych (2,5x109 Gb). Jako, że 1 bajt składa się z 8 bitów, to dzienna produkcja bitów wynosi 2x1019. Łatwo w ten sposób wyliczyć, że roczna produkcja bitów to wspomniane już 7,3x1021. Wielkość atomu to około 10-10 metra. Wielkość bitu to około 25x10-9 metra, co oznacza, że w systemach do przechowywania danych, których gęstość zapisu przekracza 1 Tb/in2 pojedynczy bit zajmuje około 25 nm2. Nawet jeśli założymy, że w przyszłości postęp technologiczny pozwoli zmniejszyć rozmiary bitu do rozmiarów atomu, to przy tak olbrzymim tempie przyrostu ilości wytwarzanych informacji rozmiar przechowywanych danych będzie większy niż rozmiar planety. To właśnie moment wystąpienia katastrofy informacyjnej. Specjaliści szacują, że obecne roczny wzrost tempa produkcji danych jest dwucyfrowy. Vopson wziął pod uwagę fakt, że część z tych danych jest też usuwana. Przeprowadził więc obliczenia, w których przyjął, że rzeczywiste roczne tempo wzrostu wynosi 5, 20 oraz 50 procent. W pierwszym z tych scenariuszy liczba przechowywanych bitów zrówna się z liczbą atomów tworzących Ziemię za około 1200 lat, w scenariuszu drugim będzie to około 340 lat, a w trzecim nastąpi to za 150 lat. Teraz rozważmy skutki tego zjawiska z punktu widzenia faktu, że bit informacji nie jest abstraktem matematycznym, a czymś fizycznym. W 1961 roku Rolf Landauer jako pierwszy zauważył związek pomiędzy termodynamiką a informacją, czytamy w artykule The information catastrophe. Landauer zaproponował wzór pozwalający wyliczyć ilość energii potrzebnej do usunięcia bita informacji. Z zasady zachowania energii wynika zaś, że taka sama ilość energii jest potrzebna do wytworzenia bita informacji. Niedawno ukazały się szacunki specjalistów z Huawei Technologies Sweden, którzy wyliczali do roku 2030 technologie komunikacyjne będą pochłaniały 51% całości energii wytwarzanej przez człowieka. Vopson zauważa, że obecnie do zapisania w temperaturze pokojowej jednego bita informacji potrzeba znacznie więcej energii niż teoretyczna minimalna jej ilość, która wynosi 18 meV. Uczony założył jednak, że postęp technologiczny umożliwi zapis informacji z maksymalną wydajnością i pozwoli zużywać najmniejszą możliwą ilość energii potrzebnej do zapisania bitu. Obecnie ludzkość konsumuje 18,5x1015 W, czyli 18,5 TW. Jeśli założymy, że roczne tempo przyrostu ilości wytwarzanej informacji będzie wynosiło 5%, to za 1060 lat ludzkość będzie zużywała na wytwarzanie tyle informacji, ile obecnie zużywa na całą swoją aktywność. Przy wzroście o 20% rocznie moment ten nastąpi za ok. 285 lat, a przy 50% – za około 130 lat. Musimy przy tym pamiętać, że to szacunki opierające się na niespełnionym dotychczas założeniu, że wytworzenie informacji pochłania jedynie niezbędne minimum energii. Wydaje się zatem, że nie uda się utrzymać obecnego tempa przyrostu i w przyszłości produkcja informacji cyfrowej będzie ograniczona przez możliwość dostarczenia energii przez planetę. Ograniczenie to możemy rozpatrywać w kategoriach entropii tak, jak rozważa to Deutscher w książce „The Entropy Crisis”. Argumentuje on w niej, że kryzys energetyczny to w rzeczywistości kryzysentropii, gdyż wzrost entropii w biosferze wymaga energii. Jako, że produkcja cyfrowej informacji zwiększa entropię systemu to, przez ekstrapolację, zwiększa też entropię w biosferze. Co interesujące, ten wzrost entropii informacyjnej biosfery może być wykorzystany do pozyskania energii z entropii. W 2019 roku stworzono zasadę równowagi masy, energii i informacji. Zauważono, że informacja jest zjawiskiem fizycznym i, w zależności od swojego stanu, zmienia się w masę lub energię. Zasada ta wciąż czeka na eksperymentalne potwierdzenie, jednak – jeśli założymy że jest prawdziwa – niesie ona interesujące implikacje dla informatyki, fizyki czy kosmologii, czytamy w artykule Vopsona. Zasada jest nowa, ale idee leżące u jej podstaw już nie. Już legendarny fizyk John Archibald Wheeler twierdził, że wszechświat zbudowany jest z cząstek, pól i informacji i zaproponował przeformułowanie całej fizyki z punktu widzenia teorii informacji. Masa spoczynkowa bitu informacji w temperaturze pokojowej wynosi 3,19x10-38 kg. Obecnie więc każdego roku ludzkość produkuje informację o masie 23,3x10-17 kg. To mniej więcej tyle ile waży... bakteria Escherichia coli. W tym tempie wyprodukowanie informacji o masie 1 kg zajęłoby nam dłużej niż istnieje wszechświat. Jednak tempo produkcji informacji ciągle rośnie. I znowu. Jeśli przyjmiemy, że wzrost ten wynosi 5% rocznie, to pierwszy kilogram informacji wyprodukujemy za 675 lat, a za 1830 lat masa wyprodukowanej informacji osiągnie połowę masy planety. Dla 20-procentowego rocznego tempa przyrostu pierwszy kilogram informacji pojawi się za 188 lat, a połowę masy Ziemi osiągniemy za 495 lat. W końcu, jeśli przyjmiemy, że ilość produkowanej informacji zwiększa się co roku o 50%, to pierwszy jej kilogram wytworzymy za 50 lat, a połowę masy Ziemi osiągniemy za 225 lat. Innymi słowy, przy największym zakładanym tempie przyrostu produkcji informacji, w roku 2070 wszelkie dane z komputerów, serwerów, smartfonów i innych urządzeń będą ważyły 1 kilogram, a w roku 2245 będą stanowiły połowę masy planety. « powrót do artykułu
×
×
  • Dodaj nową pozycję...