Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Melvin Vopson z Wydziału Matematyki i Fizyki University of Portsmouth opublikował artykuł, w którym wylicza przybliżony moment wystąpienia informacyjnej katastrofy, wydarzenia spowodowanego coraz większą ilością wytwarzanej informacji cyfrowej, do której przetworzenia i przechowania będziemy potrzebowali więcej energii niż obecnie produkujemy, a masa przechowywanej informacji będzie stanowiła połowę masy Ziemi.

Obliczenia Vopsona zostały opublikowane w periodyku AIP Advances, wydawanym przez Amerykański Instytut Fizyki.
Jak zauważa Vopson, obecnie wytwarzamy około 7,3x1021 bitów informacji rocznie. Zakładając 20-procentowy roczny wzrost tempa wytwarzanej informacji Vopson oblicza, że za około 350 lat liczba produkowanych bitów przekroczy liczbę wszystkich atomów, z jakich składa się Ziemia (ok. 1050). Jednak to nie wszystko. Za około 300 lat ilość energii konieczna do wytworzenia cyfrowej informacji przekroczy 18,5 W x 1015, zatem będzie większa niż cała obecna konsumpcja energii. Z kolei za około 500 lat, zgodnie z zasadą równowagi masy, energii i informacji, masa przechowywanej informacji cyfrowej przekroczy połowę masy Ziemi. Szacunki Vopsona i jego zespołu wskazują, że w przyszłości ludzkość może czekać jeszcze jedno poważne wyzwanie – katastrofa informacyjna.

IBM szacuje, że obecnie każdego dnia produkujemy 2,5x1018 bajtów danych (2,5x109 Gb). Jako, że 1 bajt składa się z 8 bitów, to dzienna produkcja bitów wynosi 2x1019. Łatwo w ten sposób wyliczyć, że roczna produkcja bitów to wspomniane już 7,3x1021.
Wielkość atomu to około 10-10 metra. Wielkość bitu to około 25x10-9 metra, co oznacza, że w systemach do przechowywania danych, których gęstość zapisu przekracza 1 Tb/in2 pojedynczy bit zajmuje około 25 nm2. Nawet jeśli założymy, że w przyszłości postęp technologiczny pozwoli zmniejszyć rozmiary bitu do rozmiarów atomu, to przy tak olbrzymim tempie przyrostu ilości wytwarzanych informacji rozmiar przechowywanych danych będzie większy niż rozmiar planety. To właśnie moment wystąpienia katastrofy informacyjnej.

Specjaliści szacują, że obecne roczny wzrost tempa produkcji danych jest dwucyfrowy. Vopson wziął pod uwagę fakt, że część z tych danych jest też usuwana. Przeprowadził więc obliczenia, w których przyjął, że rzeczywiste roczne tempo wzrostu wynosi 5, 20 oraz 50 procent. W pierwszym z tych scenariuszy liczba przechowywanych bitów zrówna się z liczbą atomów tworzących Ziemię za około 1200 lat, w scenariuszu drugim będzie to około 340 lat, a w trzecim nastąpi to za 150 lat.

Teraz rozważmy skutki tego zjawiska z punktu widzenia faktu, że bit informacji nie jest abstraktem matematycznym, a czymś fizycznym. W 1961 roku Rolf Landauer jako pierwszy zauważył związek pomiędzy termodynamiką a informacją, czytamy w artykule The information catastrophe. Landauer zaproponował wzór pozwalający wyliczyć ilość energii potrzebnej do usunięcia bita informacji. Z zasady zachowania energii wynika zaś, że taka sama ilość energii jest potrzebna do wytworzenia bita informacji.

Niedawno ukazały się szacunki specjalistów z Huawei Technologies Sweden, którzy wyliczali do roku 2030 technologie komunikacyjne będą pochłaniały 51% całości energii wytwarzanej przez człowieka.

Vopson zauważa, że obecnie do zapisania w temperaturze pokojowej jednego bita informacji potrzeba znacznie więcej energii niż teoretyczna minimalna jej ilość, która wynosi 18 meV. Uczony założył jednak, że postęp technologiczny umożliwi zapis informacji z maksymalną wydajnością i pozwoli zużywać najmniejszą możliwą ilość energii potrzebnej do zapisania bitu.

Obecnie ludzkość konsumuje 18,5x1015 W, czyli 18,5 TW. Jeśli założymy, że roczne tempo przyrostu ilości wytwarzanej informacji będzie wynosiło 5%, to za 1060 lat ludzkość będzie zużywała na wytwarzanie tyle informacji, ile obecnie zużywa na całą swoją aktywność. Przy wzroście o 20% rocznie moment ten nastąpi za ok. 285 lat, a przy 50% – za około 130 lat. Musimy przy tym pamiętać, że to szacunki opierające się na niespełnionym dotychczas założeniu, że wytworzenie informacji pochłania jedynie niezbędne minimum energii.

Wydaje się zatem, że nie uda się utrzymać obecnego tempa przyrostu i w przyszłości produkcja informacji cyfrowej będzie ograniczona przez możliwość dostarczenia energii przez planetę. Ograniczenie to możemy rozpatrywać w kategoriach entropii tak, jak rozważa to Deutscher w książce „The Entropy Crisis”. Argumentuje on w niej, że kryzys energetyczny to w rzeczywistości kryzysentropii, gdyż wzrost entropii w biosferze wymaga energii. Jako, że produkcja cyfrowej informacji zwiększa entropię systemu to, przez ekstrapolację, zwiększa też entropię w biosferze. Co interesujące, ten wzrost entropii informacyjnej biosfery może być wykorzystany do pozyskania energii z entropii.

W 2019 roku stworzono zasadę równowagi masy, energii i informacji. Zauważono, że informacja jest zjawiskiem fizycznym i, w zależności od swojego stanu, zmienia się w masę lub energię. Zasada ta wciąż czeka na eksperymentalne potwierdzenie, jednak – jeśli założymy że jest prawdziwa – niesie ona interesujące implikacje dla informatyki, fizyki czy kosmologii, czytamy w artykule Vopsona. Zasada jest nowa, ale idee leżące u jej podstaw już nie. Już legendarny fizyk John Archibald Wheeler twierdził, że wszechświat zbudowany jest z cząstek, pól i informacji i zaproponował przeformułowanie całej fizyki z punktu widzenia teorii informacji.

Masa spoczynkowa bitu informacji w temperaturze pokojowej wynosi 3,19x10-38 kg. Obecnie więc każdego roku ludzkość produkuje informację o masie 23,3x10-17 kg. To mniej więcej tyle ile waży... bakteria Escherichia coli. W tym tempie wyprodukowanie informacji o masie 1 kg zajęłoby nam dłużej niż istnieje wszechświat.

Jednak tempo produkcji informacji ciągle rośnie. I znowu. Jeśli przyjmiemy, że wzrost ten wynosi 5% rocznie, to pierwszy kilogram informacji wyprodukujemy za 675 lat, a za 1830 lat masa wyprodukowanej informacji osiągnie połowę masy planety. Dla 20-procentowego rocznego tempa przyrostu pierwszy kilogram informacji pojawi się za 188 lat, a połowę masy Ziemi osiągniemy za 495 lat. W końcu, jeśli przyjmiemy, że ilość produkowanej informacji zwiększa się co roku o 50%, to pierwszy jej kilogram wytworzymy za 50 lat, a połowę masy Ziemi osiągniemy za 225 lat. Innymi słowy, przy największym zakładanym tempie przyrostu produkcji informacji, w roku 2070 wszelkie dane z komputerów, serwerów, smartfonów i innych urządzeń będą ważyły 1 kilogram, a w roku 2245 będą stanowiły połowę masy planety.


« powrót do artykułu

Share this post


Link to post
Share on other sites

Naciągane te szacunki. Przyrost informacji jest uzależniony od populacji ludzi, która jest ograniczona. Informatyzacja społeczeństwa rośnie dynamicznie, ale później zwolni i będzie bardziej związana z przyrostem naturalnym (prawie całe społeczeństwo będzie zinformatyzowane). Zapewne nie potrwa to 1000 lat. Inna sprawa, że omawianie sposobów przechowywania informacji za 1200 lat można porównać do rozważań, które ktoś mógł prowadzić przy okazji Chrztu Polski. Na przykład, że za 1 200 lat będzie tyle ksiąg, że zabraknie zwierząt, z których będzie można wytworzyć pergamin.

Share this post


Link to post
Share on other sites
9 minut temu, raweck napisał:

Naciągane te szacunki.

Bo ja wiem? Kiedyś zdjęcie gołej baby w rozdzielczości jakieś 300x200 ciungłem w 5 minut (co było raczej standardem). Dziś ta sama baba musi być ruchoma w czasie rzeczywistym i w 4K oczywiście... Znaczy nie moje to już oczekiwania. ;)

  • Haha 2

Share this post


Link to post
Share on other sites
57 minut temu, raweck napisał:

Naciągane te szacunki. Przyrost informacji jest uzależniony od populacji ludzi, która jest ograniczona. Informatyzacja społeczeństwa rośnie dynamicznie, ale później zwolni i będzie bardziej związana z przyrostem naturalnym (prawie całe społeczeństwo będzie zinformatyzowane). Zapewne nie potrwa to 1000 lat. Inna sprawa, że omawianie sposobów przechowywania informacji za 1200 lat można porównać do rozważań, które ktoś mógł prowadzić przy okazji Chrztu Polski. Na przykład, że za 1 200 lat będzie tyle ksiąg, że zabraknie zwierząt, z których będzie można wytworzyć pergamin.

Dobra myśl z tymi książkami, bo wygląda na to że już kiedyś informacje zebrane przez ludzkość ważyły o wiele więcej niż kilogram. Można się zastanowić ile ważył jeden bit 1000 lat temu. Może się okazać że mimo tego że informacji mamy coraz więcej to ważą one coraz mniej. W artykule założono że będziemy zapisywali jeden bit w jednym atomie, ale być może za 300 lat będziemy dysponowali zepto technologią ;) i będziemy zapisywali informacje na poziomie subsubsubatomowym. Wtedy ilość informacji o której mowa zmieści się w masie jednego atomu. Problem pojawiłby się dopiero wtedy, kiedy dojdziemy do absolutnie fizycznych granic. Z drugiej strony wtedy cały postęp powinien zacząć zwalniać i wszystkie wykładnicze przewidywania zaczną wyhamowywać.

Nie sądzę jednak żeby ilość ludzi na ziemi korelowała z ilością informacji. Jeśli za te kilkaset lat będzie istniała wola przetworzenia całej powierzchni ziemi na serwerownię o grubości 100km to myślę że jest to wykonalne i być może nie będzie na tej planecie mieszkał ani jeden człowiek ;)

Share this post


Link to post
Share on other sites
Posted (edited)
41 minut temu, sil3nt215 napisał:

Przypomina to analizę kryzysu związanego z pokryciem ulic londynu końskim łajnem do poziomu 3m w ciągu 50 lat

Dlatego tak chętnie powitano samochody np. Warszawie (czytałem entuzjastyczny artykuł w jakimś przedwojennym Kuryjerze Warszawy). Ale sama analiza jest co do zasady słuszna - będzie coraz gorzej. Jedynie zamiast swojskich zapachów mamy rakotwórcze pyły z opon, hamulców i rur wydechowych, a i podstawowa funkcja samochodu - przemieszczanie - też jakoś słabo w miastach działa. 

Jakoś nie widzę zagrożenia w ilości informacji, prędzej czy później będziemy grawerować powierzchnie kwarków, ale przesyłanie to rzeczywiście problem*. Wszyscy chcą wszystko wszędzie i najlepiej po gigabicie - kupa watogodzin na to jest potrzebna.

* albo i nie. Kwantowa teleportacja spinów będzie termodynamicznie za darmo, natychmiast i wszędzie, jak elektron z dokładnie znanym pędem ;)

Edited by Jajcenty

Share this post


Link to post
Share on other sites

Chuck Norris już dawno temu cały internet zmieścił na dyskietce, więc nihil novi sub sole. ;)

Poważniej, to do grawerki kwarków się nie odniosę (choć temat ciekawy :P), ale "za darmo" woła o telefon na policję. :) Internet już obecnie generuje znacznie więcej CO2 niż cały ruch lotniczy na Ziemi, by o watogodzinach nie wspomnieć... Kiepsko to widzę.

Share this post


Link to post
Share on other sites
2 godziny temu, gooostaw napisał:

Nie sądzę jednak żeby ilość ludzi na ziemi korelowała z ilością informacji.

Dopóki AI nie generuje nam wiedzy (przynajmniej znacznej wiedzy), to zawartość Internetu wynika z ludzkiej aktywności. Za paręset lat zapewne to się zmieni, ale zakładam, że AI nie będzie produkowała tylu informacyjnych śmieci, co człowiek ;), czyli sumarycznie (zgaduję) znacząco mniej

Share this post


Link to post
Share on other sites
Posted (edited)
12 minut temu, raweck napisał:

Dopóki AI nie generuje nam wiedzy (przynajmniej znacznej wiedzy), to zawartość Internetu wynika z ludzkiej aktywności. Za paręset lat zapewne to się zmieni, ale zakładam, że AI nie będzie produkowała tylu informacyjnych śmieci, co człowiek ;), czyli sumarycznie (zgaduję) znacząco mniej

Być może masz rację. Trudno mi skategoryzować obecnie tworzone i przechowywane dane. Nie mam takiej wiedzy. Podejrzewam jednak że w większości są do dane zbierane automatycznie i trzymane żeby wykorzystywać je w systemach Big Data i analizować przez długi czas, albo nawet trzymane na wszelki wypadek. Ciekawe ile z tego to filmy na YouTube i "gołe baby".

Edited by gooostaw
literówka

Share this post


Link to post
Share on other sites
1 godzinę temu, gooostaw napisał:

Ciekawe ile z tego to filmy na YouTube i "gołe baby".

Jeśli nie wprost zdecydowana większość, to i tak większość wokół d*py strony się kręci: https://www.statista.com/statistics/195140/new-user-generated-content-uploaded-by-users-per-minute/

1 godzinę temu, raweck napisał:

AI nie będzie produkowała tylu informacyjnych śmieci, co człowiek

Bez człowieków być może tak.

Share this post


Link to post
Share on other sites
6 hours ago, Astro said:

Bo ja wiem? Kiedyś zdjęcie gołej baby w rozdzielczości jakieś 300x200 ciungłem w 5 minut (co było raczej standardem). Dziś ta sama baba musi być ruchoma w czasie rzeczywistym i w 4K oczywiście... Znaczy nie moje to już oczekiwania. ;)

Do tego koniecznie 60FPS :)

A tak na poważnie, myślę, że streamy z gier też sporo zajmują miejsca na dyskach. Z tego, co widziałem, to często ludzie nagrywają po kilka godzin i to wszystko jest zapisywane w chmurze w kilku wersjach rozdzielczości pomnożone razy kilka backupów. Przy czym takie video mogą generować praktycznie codziennie.

Share this post


Link to post
Share on other sites

Niezła bajka... sam na własne oczy 2idziałem upakowanego Quake III w 64kb... demo scene. Nowe typy kompresji pozwolą przechować nieskończenie wiele danych w pojedyńczym małym pliku wielkości kilku kilobajtów... algorytmy ewolucyjne... jeśli jeszcze idealne nie istnieją... to powstaną.

Share this post


Link to post
Share on other sites
14 minut temu, Felipesku napisał:

Nowe typy kompresji pozwolą przechować nieskończenie wiele danych w pojedyńczym małym pliku wielkości kilku kilobajtów

Ba! Nieskończoność da się i obecnie skompresować w jednym bicie. Problemem jest jednak dekompresja. :P

  • Haha 2
  • Upvote (+1) 1

Share this post


Link to post
Share on other sites
Posted (edited)
1 hour ago, Felipesku said:

Niezła bajka... sam na własne oczy 2idziałem upakowanego Quake III w 64kb... demo scene.

Czuję się wywołany do tablicy, bo akurat interesuję się demoscene ;) Te demówki, które oglądasz to są często upakowane do granic możliwości majstersztyki, nad którym ekipy ślęczą długimi tygodniami. Generalnie, w dużym skrócie, to jest w większości matematyka, algorytmy, np. proceduralne generowanie terenu albo tekstur i instrukcje dla procesora, które się często dekompresują w locie. Programiści stosują różne triki na przykład do zmniejszenia rozmiaru tablic (array).

To demo wygrało 10 lat temu w kategorii 4k (skompilowana binarka <4k), która w czasie rzeczywistym generuje 120MB tekstur i może śmigać w jakości HD.

 

Co do Q3, sam nie skompilowałem nigdy źródeł, ale kod widziałem, bo jest otwarty. To jest pewnie tylko skompilowany silnik, który potrzebuje plików PAK z assetami, żeby w ogóle się uruchomić. Ewentualnie jest pozbawiony standardowej grafiki i ma ograniczony kontent (mapy, modele, etc).

BZIPem możesz spakować kilkadziesiąt GB zer (0x00) do rozmiaru <1kb, bo entropia danych wejściowych jest zerowa.

Edited by cyjanobakteria

Share this post


Link to post
Share on other sites
Posted (edited)
49 minut temu, cyjanobakteria napisał:

Czuję się wywołany do tablicy, bo akurat interesuję się demoscene ;) Te demówki, które oglądasz to są często upakowane do granic możliwości majstersztyki, nad którym ekipy ślęczą długimi tygodniami. Generalnie, w dużym skrócie, to jest w większości matematyka, algorytmy, np. proceduralne generowanie terenu albo tekstur i instrukcje dla procesora, które się często dekompresują w locie. Programiści stosują różne triki na przykład do zmniejszenia rozmiaru tablic (array).

To demo wygrało 10 lat temu w kategorii 4k (skompilowana binarka <4k), która w czasie rzeczywistym generuje 120MB tekstur i może śmigać w jakości HD.

 

Co do Q3, sam nie skompilowałem nigdy źródeł, ale kod widziałem, bo jest otwarty. To jest pewnie tylko skompilowany silnik, który potrzebuje plików PAK z assetami, żeby w ogóle się uruchomić. Ewentualnie jest pozbawiony standardowej grafiki i ma ograniczony kontent (mapy, modele, etc).

BZIPem możesz spakować kilkadziesiąt GB zer (0x00) do rozmiaru <1kb, bo entropia danych wejściowych jest zerowa.

Tak trochę wkradł się błąd, gdyż chodziło nie o Quake lecz .kkrieger który zajmuje 96kb a nie 200-300MB i oczywiście tekstury są generowane proceduralnie co nie zmienia faktu, że dane można przetrzymywać w różnej formie.

Edited by Felipesku
Za duzo pseudonauki

Share this post


Link to post
Share on other sites

>>>W 2019 roku stworzono zasadę równowagi masy, energii i informacji. Zauważono, że informacja jest zjawiskiem fizycznym i, w zależności od swojego stanu, zmienia się w masę lub energię. Zasada ta wciąż czeka na eksperymentalne potwierdzenie<<<

Jak ten cytat zweryfikować? Gdzie znaleźć elementarne informacje? Gdzie jest opisana ta rzekoma zasada? Czy została eksperymentalnie potwierdzona? Stanisław Remuszko, remuszko@gmail.com, +22 641-7190

Share this post


Link to post
Share on other sites
W dniu 14.08.2020 o 12:08, KopalniaWiedzy.pl napisał:

Landauer zaproponował wzór pozwalający wyliczyć ilość energii potrzebnej do usunięcia bita informacji. Z zasady zachowania energii wynika zaś, że taka sama ilość energii jest potrzebna do wytworzenia bita informacji.

Linie opóźniające są innego zdania. Zresztą  DDRx też nie wymaga energii by rozproszyć informację. Nie wiem co właściwie chciał Autor powiedzieć, ale jak na razie, ze względu na sprawność mniejszą do 1.0, informacja po rozproszeniu oddaje nieco mniej energii niż zużyto na jej wytworzenie. Raczej bym się skupiał na entropii, bo z energią to polegniemy.

Share this post


Link to post
Share on other sites
51 minut temu, Jajcenty napisał:

Raczej bym się skupiał na entropii, bo z energią to polegniemy.

Zgoda, ale to ciekawe: człowiek nie wziął się z kosmosu, i w zeszłym roku w tej publikacji zdefiniował sobie zasadę równoważności masa-energia-informacja. :huh: Obecna praca to tylko pokłosie. Według człeka masa bitu informacji w temperaturze pokojowej to jakieś 3*10-38 kg, czyli jakieś 30 000 000 razy mniej niż masa elektronu... Hmm. Nie znam AIP Advances, ale na wiki podają:

Cytat

journal has a 2018 impact factor of 1.579.

 

Share this post


Link to post
Share on other sites

1. Informacja ma energię. O masie nie piszę bo to tylko efekt istnienia energii.
2. Żeby coś zapisywać trzeba dysponować czymś stabilnym. Najmniejszą stabilną formą materii są protony ale nie da się ich upchać zbyt blisko siebie ze względu na ładunek. Pozostaje atom elektrycznie obojętny. Konkretnie najmniejszy jest atom helu, ale masę ma czterokrotnie większą niż atom wodoru. Więc energetycznie taniej wyjdzie użyć wodoru - jest też go całkiem sporo ilościowo na Ziemi. 
3. Założeniem głównym jest 5,10, 20 % roczny wzrost ilości informacji. 
Tylko jak to w życiu bywa - nic za darmo.
Po przekroczeniu pewnej granicy zużycia surowców - staną się one zwyczajnie zbyt drogie.

Im więcej zużyjemy materii Ziemi na przechowywanie informacji tym nośniki informacji staną się droższe. Im staną się droższe tym mniej informacji będziemy mogli przechowywać.
Jednocześnie stwierdzimy że nie ma powodu aby przechowywać w tak drogi sposób większej części informacji. 
Ilość obrabianych i przechowywanych danych rośnie głównie z powodu spadku ceny przechowywania informacji. Gdyby ceny dysków były takie jak 20 lat temu to nie byłoby tak wielkiego wzrostu ilości przechowywanych danych. Wtedy były popularne dyski po 2,5 GB.

Ludzkimi zachowaniami rządzi w pierwszym rzędzie ekonomia. Coś jest tanie to jest masowe. Coś jest drogie to jest rzadkie.

Share this post


Link to post
Share on other sites
6 minut temu, thikim napisał:

Im więcej zużyjemy materii Ziemi na przechowywanie informacji tym nośniki informacji staną się droższe. Im staną się droższe tym mniej informacji będziemy mogli przechowywać.
Jednocześnie stwierdzimy że nie ma powodu aby przechowywać w tak drogi sposób większej części informacji. 
Ilość obrabianych i przechowywanych danych rośnie głównie z powodu spadku ceny przechowywania informacji. Gdyby ceny dysków były takie jak 20 lat temu to nie byłoby tak wielkiego wzrostu ilości przechowywanych danych. Wtedy były popularne dyski po 2,5 GB.

Ludzkimi zachowaniami rządzi w pierwszym rzędzie ekonomia. Coś jest tanie to jest masowe. Coś jest drogie to jest rzadkie.

Całkiem słusznie, ale można też na to spojrzeć odwrotnie. Technologia magazynowania danych rozwinęła się tak bardzo w ciągu tych 20 lat, bo było jasne że warto w nią inwestować. Nikt by sobie nie zawracał tym głowy gdyby nie było zapotrzebowania. Myślę że w tym przypadku to potrzeba przechowywania informacji była przyczyną rozwoju w tym kierunku. I jest to bardziej prawdziwe niż stwierdzenie że tworzymy sobie dużo danych, bo mamy sporo wolnego miejsca na tanich nośnikach :D Jednak prawdą jest też że wielki apetyt na dane nie pozwoli nam pokonać praw fizyki i nawet najsprytniejsza ekonomia sobie z tym nie poradzi. Myślę że zawsze będziemy mieli powody i chęć żeby zwiększać nasze możliwości i zawsze będziemy chcieli więcej danych. Co nie znaczy że będziemy mieli taką możliwość.

Share this post


Link to post
Share on other sites

No, ale raczej niewiele z tego wynika w sensie weryfikowalnej prawdy. Hipoteza jak hipoteza. Każdy ma prawo do własnej opinii. Metoda naukowa wymaga przynajmniej potwierdzenia ze strony miarodajnych i wiarygodnych nieanonimowych autorytetów-recenzentów. Tak jak - na przykład - publikacja w "Nature". 

Share this post


Link to post
Share on other sites
Posted (edited)

 

3 godziny temu, Astro napisał:

w zeszłym roku w tej publikacji zdefiniował sobie zasadę równoważności masa-energia-informacja

Nie mam nic przeciwko tej równoważności, choć wydaje mi się, że elektron ma mniej więcej taką samą energię, niezależnie od znaku spinu, ale niech tam... Chodzi mi o to, że potrafię podać klika sposobów, od tłuczenia glinianej tabliczki po polaryzację fotonu, gdzie zniszczenie bitu nie kosztuje tyle co jego wytworzenie. W przypadku fotonu nic nie musimy robić, wystarczy mu dać odlecieć i gdzieś, kiedyś, tam sobie ugrzęźnie. Najwyraźniej jest tam jakieś założenie co do sposobu tworzenia tych bitów. Na moje oko, jeśli faktycznie Ziemia stanie się masywniejsza to zacznie mocniej kołysać Słońcem albo i implodujemy do BH, a w Galaktyce będą się z nas śmiać, jak z wioskowego głupka, co to się na śmierć zaciupciał. Przecież większość tych bitów to porno.

Edited by Jajcenty
  • Haha 1

Share this post


Link to post
Share on other sites
Posted (edited)
7 godzin temu, Jajcenty napisał:

choć wydaje mi się, że elektron ma mniej więcej taką samą energię, niezależnie od znaku spinu, ale niech tam...

No i pewnie dobrze Ci się wydaje. Tyle że kiedy chcesz zmienić losowy rozkład spinów na taki, jaki Tobie się podoba (zapis informacji), musisz zużyć na to jakąś energię. Tak samo zresztą, jak kiedy chcesz tą swoją informację skasować, nie czekając na to, aż zrobi to za Ciebie entropia.

Jak zwykle ostatnio nie czytałem artykułu (może w zimie uda ni się to wszystko nadrobić), ale intuicyjnie pasuje mi do układanki... Ok, wystarczy ;)

Edited by ex nihilo

Share this post


Link to post
Share on other sites

Mam wątpliwości, czy zapchanie dysku szumem termicznym i choćby pornolami wymaga tyle samo energii... Podobnie, skopiowanie tego dysku z pornolami na tabliczki gliniane energetycznie nie będzie chyba równoważne. ;)

14 godzin temu, ex nihilo napisał:

Tak samo zresztą, jak kiedy chcesz tą swoją informację skasować, nie czekając na to, aż zrobi to za Ciebie entropia.

Ba! Żeby tę informację "utrzymać " tylko (jak porządek w pokoju, o co u mnie trudno :)) też musisz wydatkować energię.

 

P.S. Filozoficzne pytanie mnie najszło. Czy kopiując dysk z pornolami na setkę innych dysków uzyskujemy nową informację? ;) Tak myślę sobie, że z tą informacją jest jak z jajami u komara (nie komarzycy). Niby jest, a nie ma...

Share this post


Link to post
Share on other sites
5 godzin temu, Astro napisał:

Mam wątpliwości, czy zapchanie dysku szumem termicznym i choćby pornolami wymaga tyle samo energii...

Jeśli upychanie jednego i drugiego będzie wymagało tyle samo przestawień spinów (lub innych zmian stanu nośnika), to tak.

5 godzin temu, Astro napisał:

Podobnie, skopiowanie tego dysku z pornolami na tabliczki gliniane energetycznie nie będzie chyba równoważne. ;)

No nie będzie, bo energetyczny koszt zapisu każdego bitu będzie inny. Ale istnieje (?) minimum, darmochy nie ma.

A z tą informacją w ogóle jest ciekawie... albo i jeszcze ciekawiej :D

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

×
×
  • Create New...