Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Melvin Vopson z Wydziału Matematyki i Fizyki University of Portsmouth opublikował artykuł, w którym wylicza przybliżony moment wystąpienia informacyjnej katastrofy, wydarzenia spowodowanego coraz większą ilością wytwarzanej informacji cyfrowej, do której przetworzenia i przechowania będziemy potrzebowali więcej energii niż obecnie produkujemy, a masa przechowywanej informacji będzie stanowiła połowę masy Ziemi.

Obliczenia Vopsona zostały opublikowane w periodyku AIP Advances, wydawanym przez Amerykański Instytut Fizyki.
Jak zauważa Vopson, obecnie wytwarzamy około 7,3x1021 bitów informacji rocznie. Zakładając 20-procentowy roczny wzrost tempa wytwarzanej informacji Vopson oblicza, że za około 350 lat liczba produkowanych bitów przekroczy liczbę wszystkich atomów, z jakich składa się Ziemia (ok. 1050). Jednak to nie wszystko. Za około 300 lat ilość energii konieczna do wytworzenia cyfrowej informacji przekroczy 18,5 W x 1015, zatem będzie większa niż cała obecna konsumpcja energii. Z kolei za około 500 lat, zgodnie z zasadą równowagi masy, energii i informacji, masa przechowywanej informacji cyfrowej przekroczy połowę masy Ziemi. Szacunki Vopsona i jego zespołu wskazują, że w przyszłości ludzkość może czekać jeszcze jedno poważne wyzwanie – katastrofa informacyjna.

IBM szacuje, że obecnie każdego dnia produkujemy 2,5x1018 bajtów danych (2,5x109 Gb). Jako, że 1 bajt składa się z 8 bitów, to dzienna produkcja bitów wynosi 2x1019. Łatwo w ten sposób wyliczyć, że roczna produkcja bitów to wspomniane już 7,3x1021.
Wielkość atomu to około 10-10 metra. Wielkość bitu to około 25x10-9 metra, co oznacza, że w systemach do przechowywania danych, których gęstość zapisu przekracza 1 Tb/in2 pojedynczy bit zajmuje około 25 nm2. Nawet jeśli założymy, że w przyszłości postęp technologiczny pozwoli zmniejszyć rozmiary bitu do rozmiarów atomu, to przy tak olbrzymim tempie przyrostu ilości wytwarzanych informacji rozmiar przechowywanych danych będzie większy niż rozmiar planety. To właśnie moment wystąpienia katastrofy informacyjnej.

Specjaliści szacują, że obecne roczny wzrost tempa produkcji danych jest dwucyfrowy. Vopson wziął pod uwagę fakt, że część z tych danych jest też usuwana. Przeprowadził więc obliczenia, w których przyjął, że rzeczywiste roczne tempo wzrostu wynosi 5, 20 oraz 50 procent. W pierwszym z tych scenariuszy liczba przechowywanych bitów zrówna się z liczbą atomów tworzących Ziemię za około 1200 lat, w scenariuszu drugim będzie to około 340 lat, a w trzecim nastąpi to za 150 lat.

Teraz rozważmy skutki tego zjawiska z punktu widzenia faktu, że bit informacji nie jest abstraktem matematycznym, a czymś fizycznym. W 1961 roku Rolf Landauer jako pierwszy zauważył związek pomiędzy termodynamiką a informacją, czytamy w artykule The information catastrophe. Landauer zaproponował wzór pozwalający wyliczyć ilość energii potrzebnej do usunięcia bita informacji. Z zasady zachowania energii wynika zaś, że taka sama ilość energii jest potrzebna do wytworzenia bita informacji.

Niedawno ukazały się szacunki specjalistów z Huawei Technologies Sweden, którzy wyliczali do roku 2030 technologie komunikacyjne będą pochłaniały 51% całości energii wytwarzanej przez człowieka.

Vopson zauważa, że obecnie do zapisania w temperaturze pokojowej jednego bita informacji potrzeba znacznie więcej energii niż teoretyczna minimalna jej ilość, która wynosi 18 meV. Uczony założył jednak, że postęp technologiczny umożliwi zapis informacji z maksymalną wydajnością i pozwoli zużywać najmniejszą możliwą ilość energii potrzebnej do zapisania bitu.

Obecnie ludzkość konsumuje 18,5x1015 W, czyli 18,5 TW. Jeśli założymy, że roczne tempo przyrostu ilości wytwarzanej informacji będzie wynosiło 5%, to za 1060 lat ludzkość będzie zużywała na wytwarzanie tyle informacji, ile obecnie zużywa na całą swoją aktywność. Przy wzroście o 20% rocznie moment ten nastąpi za ok. 285 lat, a przy 50% – za około 130 lat. Musimy przy tym pamiętać, że to szacunki opierające się na niespełnionym dotychczas założeniu, że wytworzenie informacji pochłania jedynie niezbędne minimum energii.

Wydaje się zatem, że nie uda się utrzymać obecnego tempa przyrostu i w przyszłości produkcja informacji cyfrowej będzie ograniczona przez możliwość dostarczenia energii przez planetę. Ograniczenie to możemy rozpatrywać w kategoriach entropii tak, jak rozważa to Deutscher w książce „The Entropy Crisis”. Argumentuje on w niej, że kryzys energetyczny to w rzeczywistości kryzysentropii, gdyż wzrost entropii w biosferze wymaga energii. Jako, że produkcja cyfrowej informacji zwiększa entropię systemu to, przez ekstrapolację, zwiększa też entropię w biosferze. Co interesujące, ten wzrost entropii informacyjnej biosfery może być wykorzystany do pozyskania energii z entropii.

W 2019 roku stworzono zasadę równowagi masy, energii i informacji. Zauważono, że informacja jest zjawiskiem fizycznym i, w zależności od swojego stanu, zmienia się w masę lub energię. Zasada ta wciąż czeka na eksperymentalne potwierdzenie, jednak – jeśli założymy że jest prawdziwa – niesie ona interesujące implikacje dla informatyki, fizyki czy kosmologii, czytamy w artykule Vopsona. Zasada jest nowa, ale idee leżące u jej podstaw już nie. Już legendarny fizyk John Archibald Wheeler twierdził, że wszechświat zbudowany jest z cząstek, pól i informacji i zaproponował przeformułowanie całej fizyki z punktu widzenia teorii informacji.

Masa spoczynkowa bitu informacji w temperaturze pokojowej wynosi 3,19x10-38 kg. Obecnie więc każdego roku ludzkość produkuje informację o masie 23,3x10-17 kg. To mniej więcej tyle ile waży... bakteria Escherichia coli. W tym tempie wyprodukowanie informacji o masie 1 kg zajęłoby nam dłużej niż istnieje wszechświat.

Jednak tempo produkcji informacji ciągle rośnie. I znowu. Jeśli przyjmiemy, że wzrost ten wynosi 5% rocznie, to pierwszy kilogram informacji wyprodukujemy za 675 lat, a za 1830 lat masa wyprodukowanej informacji osiągnie połowę masy planety. Dla 20-procentowego rocznego tempa przyrostu pierwszy kilogram informacji pojawi się za 188 lat, a połowę masy Ziemi osiągniemy za 495 lat. W końcu, jeśli przyjmiemy, że ilość produkowanej informacji zwiększa się co roku o 50%, to pierwszy jej kilogram wytworzymy za 50 lat, a połowę masy Ziemi osiągniemy za 225 lat. Innymi słowy, przy największym zakładanym tempie przyrostu produkcji informacji, w roku 2070 wszelkie dane z komputerów, serwerów, smartfonów i innych urządzeń będą ważyły 1 kilogram, a w roku 2245 będą stanowiły połowę masy planety.


« powrót do artykułu

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Naciągane te szacunki. Przyrost informacji jest uzależniony od populacji ludzi, która jest ograniczona. Informatyzacja społeczeństwa rośnie dynamicznie, ale później zwolni i będzie bardziej związana z przyrostem naturalnym (prawie całe społeczeństwo będzie zinformatyzowane). Zapewne nie potrwa to 1000 lat. Inna sprawa, że omawianie sposobów przechowywania informacji za 1200 lat można porównać do rozważań, które ktoś mógł prowadzić przy okazji Chrztu Polski. Na przykład, że za 1 200 lat będzie tyle ksiąg, że zabraknie zwierząt, z których będzie można wytworzyć pergamin.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
57 minut temu, raweck napisał:

Naciągane te szacunki. Przyrost informacji jest uzależniony od populacji ludzi, która jest ograniczona. Informatyzacja społeczeństwa rośnie dynamicznie, ale później zwolni i będzie bardziej związana z przyrostem naturalnym (prawie całe społeczeństwo będzie zinformatyzowane). Zapewne nie potrwa to 1000 lat. Inna sprawa, że omawianie sposobów przechowywania informacji za 1200 lat można porównać do rozważań, które ktoś mógł prowadzić przy okazji Chrztu Polski. Na przykład, że za 1 200 lat będzie tyle ksiąg, że zabraknie zwierząt, z których będzie można wytworzyć pergamin.

Dobra myśl z tymi książkami, bo wygląda na to że już kiedyś informacje zebrane przez ludzkość ważyły o wiele więcej niż kilogram. Można się zastanowić ile ważył jeden bit 1000 lat temu. Może się okazać że mimo tego że informacji mamy coraz więcej to ważą one coraz mniej. W artykule założono że będziemy zapisywali jeden bit w jednym atomie, ale być może za 300 lat będziemy dysponowali zepto technologią ;) i będziemy zapisywali informacje na poziomie subsubsubatomowym. Wtedy ilość informacji o której mowa zmieści się w masie jednego atomu. Problem pojawiłby się dopiero wtedy, kiedy dojdziemy do absolutnie fizycznych granic. Z drugiej strony wtedy cały postęp powinien zacząć zwalniać i wszystkie wykładnicze przewidywania zaczną wyhamowywać.

Nie sądzę jednak żeby ilość ludzi na ziemi korelowała z ilością informacji. Jeśli za te kilkaset lat będzie istniała wola przetworzenia całej powierzchni ziemi na serwerownię o grubości 100km to myślę że jest to wykonalne i być może nie będzie na tej planecie mieszkał ani jeden człowiek ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
41 minut temu, sil3nt215 napisał:

Przypomina to analizę kryzysu związanego z pokryciem ulic londynu końskim łajnem do poziomu 3m w ciągu 50 lat

Dlatego tak chętnie powitano samochody np. Warszawie (czytałem entuzjastyczny artykuł w jakimś przedwojennym Kuryjerze Warszawy). Ale sama analiza jest co do zasady słuszna - będzie coraz gorzej. Jedynie zamiast swojskich zapachów mamy rakotwórcze pyły z opon, hamulców i rur wydechowych, a i podstawowa funkcja samochodu - przemieszczanie - też jakoś słabo w miastach działa. 

Jakoś nie widzę zagrożenia w ilości informacji, prędzej czy później będziemy grawerować powierzchnie kwarków, ale przesyłanie to rzeczywiście problem*. Wszyscy chcą wszystko wszędzie i najlepiej po gigabicie - kupa watogodzin na to jest potrzebna.

* albo i nie. Kwantowa teleportacja spinów będzie termodynamicznie za darmo, natychmiast i wszędzie, jak elektron z dokładnie znanym pędem ;)

Edytowane przez Jajcenty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
2 godziny temu, gooostaw napisał:

Nie sądzę jednak żeby ilość ludzi na ziemi korelowała z ilością informacji.

Dopóki AI nie generuje nam wiedzy (przynajmniej znacznej wiedzy), to zawartość Internetu wynika z ludzkiej aktywności. Za paręset lat zapewne to się zmieni, ale zakładam, że AI nie będzie produkowała tylu informacyjnych śmieci, co człowiek ;), czyli sumarycznie (zgaduję) znacząco mniej

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 minut temu, raweck napisał:

Dopóki AI nie generuje nam wiedzy (przynajmniej znacznej wiedzy), to zawartość Internetu wynika z ludzkiej aktywności. Za paręset lat zapewne to się zmieni, ale zakładam, że AI nie będzie produkowała tylu informacyjnych śmieci, co człowiek ;), czyli sumarycznie (zgaduję) znacząco mniej

Być może masz rację. Trudno mi skategoryzować obecnie tworzone i przechowywane dane. Nie mam takiej wiedzy. Podejrzewam jednak że w większości są do dane zbierane automatycznie i trzymane żeby wykorzystywać je w systemach Big Data i analizować przez długi czas, albo nawet trzymane na wszelki wypadek. Ciekawe ile z tego to filmy na YouTube i "gołe baby".

Edytowane przez gooostaw
literówka

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 hours ago, Astro said:

Bo ja wiem? Kiedyś zdjęcie gołej baby w rozdzielczości jakieś 300x200 ciungłem w 5 minut (co było raczej standardem). Dziś ta sama baba musi być ruchoma w czasie rzeczywistym i w 4K oczywiście... Znaczy nie moje to już oczekiwania. ;)

Do tego koniecznie 60FPS :)

A tak na poważnie, myślę, że streamy z gier też sporo zajmują miejsca na dyskach. Z tego, co widziałem, to często ludzie nagrywają po kilka godzin i to wszystko jest zapisywane w chmurze w kilku wersjach rozdzielczości pomnożone razy kilka backupów. Przy czym takie video mogą generować praktycznie codziennie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Niezła bajka... sam na własne oczy 2idziałem upakowanego Quake III w 64kb... demo scene. Nowe typy kompresji pozwolą przechować nieskończenie wiele danych w pojedyńczym małym pliku wielkości kilku kilobajtów... algorytmy ewolucyjne... jeśli jeszcze idealne nie istnieją... to powstaną.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, Felipesku said:

Niezła bajka... sam na własne oczy 2idziałem upakowanego Quake III w 64kb... demo scene.

Czuję się wywołany do tablicy, bo akurat interesuję się demoscene ;) Te demówki, które oglądasz to są często upakowane do granic możliwości majstersztyki, nad którym ekipy ślęczą długimi tygodniami. Generalnie, w dużym skrócie, to jest w większości matematyka, algorytmy, np. proceduralne generowanie terenu albo tekstur i instrukcje dla procesora, które się często dekompresują w locie. Programiści stosują różne triki na przykład do zmniejszenia rozmiaru tablic (array).

To demo wygrało 10 lat temu w kategorii 4k (skompilowana binarka <4k), która w czasie rzeczywistym generuje 120MB tekstur i może śmigać w jakości HD.

 

Co do Q3, sam nie skompilowałem nigdy źródeł, ale kod widziałem, bo jest otwarty. To jest pewnie tylko skompilowany silnik, który potrzebuje plików PAK z assetami, żeby w ogóle się uruchomić. Ewentualnie jest pozbawiony standardowej grafiki i ma ograniczony kontent (mapy, modele, etc).

BZIPem możesz spakować kilkadziesiąt GB zer (0x00) do rozmiaru <1kb, bo entropia danych wejściowych jest zerowa.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
49 minut temu, cyjanobakteria napisał:

Czuję się wywołany do tablicy, bo akurat interesuję się demoscene ;) Te demówki, które oglądasz to są często upakowane do granic możliwości majstersztyki, nad którym ekipy ślęczą długimi tygodniami. Generalnie, w dużym skrócie, to jest w większości matematyka, algorytmy, np. proceduralne generowanie terenu albo tekstur i instrukcje dla procesora, które się często dekompresują w locie. Programiści stosują różne triki na przykład do zmniejszenia rozmiaru tablic (array).

To demo wygrało 10 lat temu w kategorii 4k (skompilowana binarka <4k), która w czasie rzeczywistym generuje 120MB tekstur i może śmigać w jakości HD.

 

Co do Q3, sam nie skompilowałem nigdy źródeł, ale kod widziałem, bo jest otwarty. To jest pewnie tylko skompilowany silnik, który potrzebuje plików PAK z assetami, żeby w ogóle się uruchomić. Ewentualnie jest pozbawiony standardowej grafiki i ma ograniczony kontent (mapy, modele, etc).

BZIPem możesz spakować kilkadziesiąt GB zer (0x00) do rozmiaru <1kb, bo entropia danych wejściowych jest zerowa.

Tak trochę wkradł się błąd, gdyż chodziło nie o Quake lecz .kkrieger który zajmuje 96kb a nie 200-300MB i oczywiście tekstury są generowane proceduralnie co nie zmienia faktu, że dane można przetrzymywać w różnej formie.

Edytowane przez Felipesku
Za duzo pseudonauki

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

>>>W 2019 roku stworzono zasadę równowagi masy, energii i informacji. Zauważono, że informacja jest zjawiskiem fizycznym i, w zależności od swojego stanu, zmienia się w masę lub energię. Zasada ta wciąż czeka na eksperymentalne potwierdzenie<<<

Jak ten cytat zweryfikować? Gdzie znaleźć elementarne informacje? Gdzie jest opisana ta rzekoma zasada? Czy została eksperymentalnie potwierdzona? Stanisław Remuszko, remuszko@gmail.com, +22 641-7190

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
W dniu 14.08.2020 o 12:08, KopalniaWiedzy.pl napisał:

Landauer zaproponował wzór pozwalający wyliczyć ilość energii potrzebnej do usunięcia bita informacji. Z zasady zachowania energii wynika zaś, że taka sama ilość energii jest potrzebna do wytworzenia bita informacji.

Linie opóźniające są innego zdania. Zresztą  DDRx też nie wymaga energii by rozproszyć informację. Nie wiem co właściwie chciał Autor powiedzieć, ale jak na razie, ze względu na sprawność mniejszą do 1.0, informacja po rozproszeniu oddaje nieco mniej energii niż zużyto na jej wytworzenie. Raczej bym się skupiał na entropii, bo z energią to polegniemy.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

1. Informacja ma energię. O masie nie piszę bo to tylko efekt istnienia energii.
2. Żeby coś zapisywać trzeba dysponować czymś stabilnym. Najmniejszą stabilną formą materii są protony ale nie da się ich upchać zbyt blisko siebie ze względu na ładunek. Pozostaje atom elektrycznie obojętny. Konkretnie najmniejszy jest atom helu, ale masę ma czterokrotnie większą niż atom wodoru. Więc energetycznie taniej wyjdzie użyć wodoru - jest też go całkiem sporo ilościowo na Ziemi. 
3. Założeniem głównym jest 5,10, 20 % roczny wzrost ilości informacji. 
Tylko jak to w życiu bywa - nic za darmo.
Po przekroczeniu pewnej granicy zużycia surowców - staną się one zwyczajnie zbyt drogie.

Im więcej zużyjemy materii Ziemi na przechowywanie informacji tym nośniki informacji staną się droższe. Im staną się droższe tym mniej informacji będziemy mogli przechowywać.
Jednocześnie stwierdzimy że nie ma powodu aby przechowywać w tak drogi sposób większej części informacji. 
Ilość obrabianych i przechowywanych danych rośnie głównie z powodu spadku ceny przechowywania informacji. Gdyby ceny dysków były takie jak 20 lat temu to nie byłoby tak wielkiego wzrostu ilości przechowywanych danych. Wtedy były popularne dyski po 2,5 GB.

Ludzkimi zachowaniami rządzi w pierwszym rzędzie ekonomia. Coś jest tanie to jest masowe. Coś jest drogie to jest rzadkie.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
6 minut temu, thikim napisał:

Im więcej zużyjemy materii Ziemi na przechowywanie informacji tym nośniki informacji staną się droższe. Im staną się droższe tym mniej informacji będziemy mogli przechowywać.
Jednocześnie stwierdzimy że nie ma powodu aby przechowywać w tak drogi sposób większej części informacji. 
Ilość obrabianych i przechowywanych danych rośnie głównie z powodu spadku ceny przechowywania informacji. Gdyby ceny dysków były takie jak 20 lat temu to nie byłoby tak wielkiego wzrostu ilości przechowywanych danych. Wtedy były popularne dyski po 2,5 GB.

Ludzkimi zachowaniami rządzi w pierwszym rzędzie ekonomia. Coś jest tanie to jest masowe. Coś jest drogie to jest rzadkie.

Całkiem słusznie, ale można też na to spojrzeć odwrotnie. Technologia magazynowania danych rozwinęła się tak bardzo w ciągu tych 20 lat, bo było jasne że warto w nią inwestować. Nikt by sobie nie zawracał tym głowy gdyby nie było zapotrzebowania. Myślę że w tym przypadku to potrzeba przechowywania informacji była przyczyną rozwoju w tym kierunku. I jest to bardziej prawdziwe niż stwierdzenie że tworzymy sobie dużo danych, bo mamy sporo wolnego miejsca na tanich nośnikach :D Jednak prawdą jest też że wielki apetyt na dane nie pozwoli nam pokonać praw fizyki i nawet najsprytniejsza ekonomia sobie z tym nie poradzi. Myślę że zawsze będziemy mieli powody i chęć żeby zwiększać nasze możliwości i zawsze będziemy chcieli więcej danych. Co nie znaczy że będziemy mieli taką możliwość.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

No, ale raczej niewiele z tego wynika w sensie weryfikowalnej prawdy. Hipoteza jak hipoteza. Każdy ma prawo do własnej opinii. Metoda naukowa wymaga przynajmniej potwierdzenia ze strony miarodajnych i wiarygodnych nieanonimowych autorytetów-recenzentów. Tak jak - na przykład - publikacja w "Nature". 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

 

3 godziny temu, Astro napisał:

w zeszłym roku w tej publikacji zdefiniował sobie zasadę równoważności masa-energia-informacja

Nie mam nic przeciwko tej równoważności, choć wydaje mi się, że elektron ma mniej więcej taką samą energię, niezależnie od znaku spinu, ale niech tam... Chodzi mi o to, że potrafię podać klika sposobów, od tłuczenia glinianej tabliczki po polaryzację fotonu, gdzie zniszczenie bitu nie kosztuje tyle co jego wytworzenie. W przypadku fotonu nic nie musimy robić, wystarczy mu dać odlecieć i gdzieś, kiedyś, tam sobie ugrzęźnie. Najwyraźniej jest tam jakieś założenie co do sposobu tworzenia tych bitów. Na moje oko, jeśli faktycznie Ziemia stanie się masywniejsza to zacznie mocniej kołysać Słońcem albo i implodujemy do BH, a w Galaktyce będą się z nas śmiać, jak z wioskowego głupka, co to się na śmierć zaciupciał. Przecież większość tych bitów to porno.

Edytowane przez Jajcenty

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
7 godzin temu, Jajcenty napisał:

choć wydaje mi się, że elektron ma mniej więcej taką samą energię, niezależnie od znaku spinu, ale niech tam...

No i pewnie dobrze Ci się wydaje. Tyle że kiedy chcesz zmienić losowy rozkład spinów na taki, jaki Tobie się podoba (zapis informacji), musisz zużyć na to jakąś energię. Tak samo zresztą, jak kiedy chcesz tą swoją informację skasować, nie czekając na to, aż zrobi to za Ciebie entropia.

Jak zwykle ostatnio nie czytałem artykułu (może w zimie uda ni się to wszystko nadrobić), ale intuicyjnie pasuje mi do układanki... Ok, wystarczy ;)

Edytowane przez ex nihilo

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 godzin temu, Astro napisał:

Mam wątpliwości, czy zapchanie dysku szumem termicznym i choćby pornolami wymaga tyle samo energii...

Jeśli upychanie jednego i drugiego będzie wymagało tyle samo przestawień spinów (lub innych zmian stanu nośnika), to tak.

5 godzin temu, Astro napisał:

Podobnie, skopiowanie tego dysku z pornolami na tabliczki gliniane energetycznie nie będzie chyba równoważne. ;)

No nie będzie, bo energetyczny koszt zapisu każdego bitu będzie inny. Ale istnieje (?) minimum, darmochy nie ma.

A z tą informacją w ogóle jest ciekawie... albo i jeszcze ciekawiej :D

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
34 minuty temu, ex nihilo napisał:

No nie będzie, bo energetyczny koszt zapisu każdego bitu będzie inny. Ale istnieje (?) minimum, darmochy nie ma.

Oczywiście tak, generalnie wszyscy patrzymy na ten problem, próbując abstrahować od fizycznej realizacji, a to błąd psujący całe to misterne rozumowanie.

W teorii mamy układ z dwoma energetycznymi minimami lokalnymi (0,1) i płacimy jedynie za różnicę między nimi - to mityczne fizyczne minimum wydatku - nie ma darmo ;) Praktyka jest nieco inna, w pamięciach DDR mamy koszmarnie wielkie nakłady energetyczne żeby informację utrzymać! W dyskach twardych zapisujemy całe sektory, w SDD też całe strony, w koralikach nie muszę niszczyć, wystarczy odczytać, ale jednocześnie waga bitu jest znacznie większa od tych 3e-7 masy elektronu :D 

Imho @raweck ma całkowitą rację. Próbujemy przewidzieć ile pergaminu będziemy potrzebowali. Tymczasem za sto lat opanujemy ujemną energię próżni. Będziemy tworzyć wszechświaty, zamykać je w paluszkach AAA i napędzać nasze tesle zdolne osiągać Warp 10. Zaniesiemy naszą wiedzę w najdalsze zakątki Wszechświata. Ale bardziej prawdopodobne wydaje mi się duszenie stertą własnego łajna i generalnie dystopia, beznadzieja, pustynia zalewana ultrafioletem po której snują się mutanci poubierani w perwersyjnie fantazyjne skórzane ciuszki.

5 godzin temu, Astro napisał:

Czy kopiując dysk z pornolami na setkę innych dysków uzyskujemy nową informację?

Formalnie: tak. Bit jest bit. Kosztuje 3e-7 me

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
5 minut temu, Astro napisał:

Formalizm z d*y wzięty: mc2 = const*kT? Planck przewraca się w grobie, a z równym powodzeniem mogę dowodzić masy cieplika czy kwantu eteru.

Byle się rachunki zgadzały. Użyj sumy Ramanujana (1+2+3+...+n = -1/12) i będzie papier jak marzenie :D

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
11 godzin temu, Astro napisał:

W pierwszym wypadku (jak dziś) wystarczy twardziela na Słonko wystawić i samo się przestawi (jak nie starczy, to tylko kwestią strumienia jest) ;)

To mniej więcej tak, jakbyś chciał pornola zapisać wsadzając dysk do wyrka, na którym notegowieszco odchodzi :D Pornol to obraz, czyli trzeba zrobić też obraz szumu i utrwalić ten obraz na dysku.
 

10 godzin temu, Astro napisał:

Jaką masę ma kubit?

Mniejszą od każdego z możliwych bitów. Minimalną przy rozkładzie pdp 50/50 dla 0 i 1 :P
 

10 godzin temu, Jajcenty napisał:

Próbujemy przewidzieć ile pergaminu będziemy potrzebowali

Nie odnoszę się do treści oryginalnej publikacji (i robactwa, które się w niej zalęgło), bo jej nie czytałem i na razie nie zamierzam (tak jest ciekawiej ;)).
A co do prognoz - już jakieś 20 lat w ogóle nie oglądam filmów fabularnych, a będzie ze 30, kiedy ostatni udało mi się zlukać w całości... Ale z czasów, kiedy jeszcze oglądać mi się zdarzało, jednym z niewielu, które jakoś tam zapamiętałem jest Mad Max :D Nie o fabułę mi chodzi, bo słabo ją pamiętam, ale o świat.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
9 godzin temu, ex nihilo napisał:

Mniejszą od każdego z możliwych bitów. Minimalną przy rozkładzie pdp 50/50 dla 0 i 1 

Ja jako były chemik przywiązany jestem do kombinacji liniowych. Czyli coś jakby: M = (Mo+M1)/2 Zakładając, że masa bitu jest różna w zależności od jego wartości. I zagadka: skąd się bierze, albo gdzie znika masa po ustaleniu wartości bitu? Czyżby jakiś nowy sposób na podkradanie masy?

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chyba autorzy tej teorii przesadzili, na tej samej zasadzie jak naukowcy którzy w latach 90tych wieszczyli totalne przeludnienie po 2000r. Przy iluś tam xHD oko już naprawdę nie dostrzeże różnicy.  Inne zmysły też mają swoja rozdzielczość maksymalną, więc dalsze zwiększanie jakości nie będzie miało sensu, a zdolności człowieka do oglądania pornoli  nie zwiększą się(max 24h/dobę). Więc przyrost danych będzie rósł liniowo i znacznie wolniej. Pozostałe i mniej efektowne formy informacji od  pornoli to tylko eksabajty buforów które mogą i powinny być nadpisane przez kolejne dane. Przecież np. w CERNe ważne informacje i ostateczne wyniki można zmieścić na dyskietce. Po otrzymaniu jakiegoś wyniku te absurdalne ilości danych z eksperymentu już są zbędne i nikt ich więcej nie będzie analizował. A owoc pracy superkomputerów i ich operatorów można przesłać telegrafem "mamy nową cząsteczkę stop żądamy nobla stop" :D

 

 

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
4 minuty temu, tempik napisał:

Przy iluś tam xHD oko już naprawdę nie dostrzeże różnicy.  Inne zmysły też mają swoja rozdzielczość maksymalną, więc dalsze zwiększanie jakości nie będzie miało sensu, a zdolności człowieka do oglądania pornoli  nie zwiększą się(max 24h/dobę).

Myślę że w tej dziedzinie ludzkość nie powiedziała jeszcze ostatniego słowa. Zwiększenie rozdzielczości ponad możliwości wzroku żeby pozwolić na dowolne zbliżenia. Zapis trójwymiarowych danych. Możliwością zmiany widoku 360 stopni. Interaktywność. Dodanie kolejnych zmysłów poza obrazem i dźwiękiem. No i oczywiście coraz bardziej wyspecjalizowane i niszowe kategorie. Będziemy potrzebowali gigantycznej pojemności żeby to pomieścić :D

  • Pozytyw (+1) 1

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      W 2017 roku fizycy wykazali, że dokładność zegara kwantowego jest bezpośrednio proporcjonalna do tworzonej entropii. Teraz naukowcy z Wielkiej Brytanii i Austrii odkryli podobną zależność w przypadku nanoskalowego zegara klasycznego. Z opublikowanej pracy nie tylko dowiadujemy się, że pomiar czasu wymaga zwiększenia entropii, ale również, że związek pomiędzy dokładnością pomiaru a entropią może być uniwersalną cechą mierzenia czasu. Wyniki badań mogą mieć duże znaczenie dla nanoskalowych silników cieplnych oraz technologii, których działanie jest zależne od dokładnych pomiarów czasu.
      W systemach klasycznych badanie związku pomiędzy dokładnością pomiaru a entropią jest trudne, gdyż trudno jest śledzić wymianę ciepła i pracy. Naukowcy z University of Oxford, Lancaster University oraz Wiedeńskiego Centrum Kwantowej Nauki i Technologii stworzyli prosty optomechaniczny nanozegar, składający się z membrany poruszanej za pomocą pola elektrycznego. Membrana porusza się w górę i w dół, a każda zmiana pozycji wyznacza pomiar jednostki czasu. Zegar daje nam użyteczne dane wyjściowe – ciąg pomiarów – kosztem zwiększenia nieuporządkowania swojego otoczenia, które jest ogrzewane przez obwód podłączony do membrany.
      Nanoskalowy zegar był zbyt duży by analizować go z punktu widzenia mechaniki kwantowej. Był też fizycznie całkowicie różny od wcześniej badanych zegarów kwantowych. Mimo to naukowcy zauważyli w nim identyczny tym zależności pomiędzy dokładnością a entropią, jaki istnieje w zegarach atomowych. Związek pomiędzy dokładnością a entropią był też zgodny z opracowanym przez uczonych modelem teoretycznym. Potwierdziło to, że ten sam wzorzec dotyczy systemów klasycznych i kwantowych.
      Autorzy mówią, że – mimo iż badali związek między entropią a dokładnością dla jednej implementacji klasycznego zegara – uzyskane wyniki i ich podobieństwo do wyników zegarów atomowych sugerują, że mogą być one prawdziwe dla każdego zegara. Sugerują jednocześnie, by optymalny zegar definiować jako taki, który ma najwyższą możliwość dokładność przy jak najmniejszej dyssypacji, bez względu na budowę samego zegara.
      Natalia Ares z University of Oxford sugeruje, że badania pomiędzy entropią a dokładnością pomiaru mogą zostać wykorzystane do lepszego zrozumienia natury czasu i powiązanych z tym ograniczeń w wydajności nanoskalowych silników.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...