Skocz do zawartości
Forum Kopalni Wiedzy

Jarek Duda

Użytkownicy
  • Liczba zawartości

    1451
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    77

Zawartość dodana przez Jarek Duda

  1. Czas życia cywilizacji jest niezwykle skomplikowaną kwestią - w tym momencie np. jedna niewłaściwa osoba za arsenałem jądrowym może bardzo szybko zakończyć sprawę (Trump?) ... http://nuclearfiles.org/menu/key-issues/nuclear-weapons/issues/accidents/20-mishaps-maybe-caused-nuclear-war.htm Ale zakładając że rzeczywiście jest pełno innych cywilizacji, pewnie niektórym udało się przejść przez nasz obecny krytyczny punkt - rozprzestrzeniając się poza jedną planetę - uodparniając na głupią zagładę. Pytanie czy takie cywilizacje też w pewnym momencie się kończą? Nauka wydaje się być skończona - w pewnym momencie pewnie taka cywilizacja zacznie ją wysycać, osiągnie wszystko co mogłaby osiągnąć, jednostki stracą motywację - pozostałby tylko czysty hedonizm. Pytanie czy taki marazm mógłby prowadzić cywilizację do umyślnego odejścia?
  2. Myślę że wymyślenie lepszego niż szklanego naczynia to najmniejszy tutaj problem - przykładowo właśnie umieścić w liposomie i zalać żywicą ...
  3. Przy 8 minutowym daje to ok. 200 bajtów na sekundę, czyli np. 1 klatka na sekundę, 40x40, prawdziwe B&W (1 bit/piksel) ... ciężko kompresować taką "jakość". Odnośnie trwałości takiego nośnika, sytuacja wygląda znacznie lepiej. https://en.wikipedia.org/wiki/Ancient_DNA mówi o uszkodzeniach rzędu jednej bazy na 6 milionów lat, dodatkowo bardzo tanio robić kopie (PCR) - czyli teoretycznie można uzyskać trwałość w setkach milionów lat. ps. Odnośnie wideo, kompresji, DNA ... podobnie jak m.in. obecnie domyślna kompresja DNA (CRAM 3.0 z SAMtools), cały sprzęt Apple (LZFSE od iOS9 i OS X 10.11), nowy kodek wideo Google (VP10, m.in. youtube) prawdopodobnie też będzie wszystko zapisywał kodowaniem z Krakowa (ANS): https://chromium.googlesource.com/webm/libvpx/+log/nextgenv2
  4. Podczas gdy sekwencjonowanie DNA staniało ok. 100 000 razy w ciągu ostatnich 15 lat: do około $1000/człowieka (3 miliardy nukleotydów), tak synteza mniej więcej stoi w miejscu (i pewnie wiele się nie poprawi) - w okolicy 10 centów za nukleotyd, czyli jest ponad 100 tys. razy droższe: http://synbiobeta.com/wp-content/uploads/2014/11/Carlson_Price_Seq_Synth_Feb2014-thumb-500x3981.png Na PhysOrg ( http://phys.org/news/2016-04-technicolor-hollywood-history-bottle.html ) piszą że ta synteza kosztowała dziesiątki tysięcy dolarów, potrzebujemy 4 nukleotydów na bajt - czyli mówimy o filmie rzędu 100kB - mocno skompresowanym o tragicznej jakości (100kB mp3 standardowej jakości to rzędu 20s dźwięku!). HDD kosztuje obecnie rzędu $30 za terabajt (10^12 bajtów) ... przy 0.5$/bajt zapisanie tego w DNA kosztowałoby ok. 15 bilionów dolarów, ile mniej więcej wynosi aktualny dług publiczny USA ... obawiam że taki sposób archiwizacji danych to zawsze będzie tylko ciekawostka.
  5. Z tym "ponad 8%" to zależy od źródła - mniej odważne podają około 1%: https://en.wikipedia.org/wiki/Endogenous_retrovirus Nie wolno też zapominać o transposonach: aktywnych śmieciach które prawdopodobnie były przodkami wirusów - tych już u człowieka jest rzędu ... 44% (rzędu 90% u kukurydzy): https://en.wikipedia.org/wiki/Transposable_element Skoro zdarzają się kompletne ERVs, "ciekawe" czy możliwa jest przypadkowa ekspresja - co teoretycznie mogłoby ot tak znikąd zacząć epidemię ... Już ekspresja takich pojedynczych białek może być kancerogenna ... https://en.wikipedia.org/wiki/Oncovirus Teoretycznie można by zbudować życie niekompatybilne z obecnymi patogenami poprzez wzięcie lustrzanych odbić molekuł (enancjomerów - "chiral life concept") - jeśli kiedyś do tego dojdzie, trzeba pamiętać o usunięciu ERVs i może części transposonów.
  6. Pominąłem stellaratory ponieważ są dość podobne do tokamaków i rozwijały się razem z nimi - popularne były w latach 50, 60-tych ... https://en.wikipedia.org/wiki/Stellarator Ogólny problem z tego typu podejściami jest to że plazma zachowuje się dużo bardziej niestabilnie niż naiwne modele magnetohydrodynamiczne. Przykładowo dalej nie rozumiemy coronal heating problem: że podczas gdy powierzchnia słońca ma tysiące kelwinów, wbrew drugiej zasadzie termodynamiki, korona ma miliony ... https://en.wikipedia.org/wiki/Corona#Coronal_heating_problem Jednym z proponowanych wytłumaczeń są rekoneksje magnetyczne - dosłownie obserwują świecące linie w koronie, które wyzwalają duże ilości energii podczas rekoneksji/skracania - takie linie mogą się też pojawiać w tokamaku/stellaratorze https://en.wikipedia.org/wiki/Magnetic_reconnection Kolejnym z wielu ignorowanych podstawowych zjawisk jest (zapomniana) dualna siła Lorenza - dla dipola magnetycznego poruszającego się w polu elektrycznym - co może być istotne dla elektronów https://www.physicsforums.com/threads/dual-lorentz-force-for-classical-spin-orbit-interaction.844322/ Nius z wczoraj o stellaratorze Wendelstein-7 (raczej o utrzymaniu plazmy, nic o pozytywnym balansie energii): http://www.extremetech.com/extreme/219291-huge-german-fusion-reactor-powers-up-giving-age-old-tech-a-new-shot Porównanie tokamaku i stellaratronu:
  7. Owszem, jest wiele rozwiązań ... łącznie z użyciem broni jądrowej ... http://www.popsci.com/elon-musk-tells-stephen-colbert-he-wants-to-use-nuclear-weapons-to-terraform-mars
  8. Bezpośredniej kolizji z olbrzymim ciałem można użyć do nadania prędkości obrotowej czy korekcji orbity. Natomiast dla uzupełnienia atmosfery lepiej nadać asteroidzie (z zamontowanym silnikiem) niską kołową trajektorię.
  9. Spotkałem się z tym w świetnej trylogii Robinsona o Marsie (zielony lub czerwony) z dekadę temu. Zobacz sobie: https://en.wikipedia.org/wiki/Terraforming_of_Mars
  10. Z jednej strony dawno już minęły czasy szachów w 2kB RAM ZX81, czy pisania jądra systemu przez jedną osobę ... Teraz wszystko powinno być super zoptymalizowane, szczególnie kluczowe algorytmy/implementacje u podstaw wszystkiego, jak sortowanie, biblioteki do numeryki ... kompresory (dodatkowo dochodzi problem kompatybilności) ... Pisze je wąska grupa specjalistów, zwykłemu programiście (99%) wystarczy użycie tych gotowych narzędzi ... Z drugiej strony powinien jednak mieć świadomość co jest w środku używanych narzędzi, mieć na uwadze ich słabości, użycie zasobów ... zastanawiać się jak efektywnie rozwiązać problem, a nie tylko żeby działało ... A szczególnie przy tworzeniu nowych narzędzi - wierzę że powinien być przynajmniej jeden teoretyk w drużynie, szczególnie że inżynierowie często nie mają nawet podstaw algorytmiki - tylko bezmyślne użycie gotowych narzędzi.
  11. Optymalizacja niskopoziomowa jest prawdziwą sztuką, np. coś co się wydaje trywialne: dekoder Huffmana - napisane naiwnie kilka linijek daje np. 50 MB/s/rdzeń ... podczas gdy super-implementacje robią to samo powyżej 1000MB/s/rdzeń: https://sites.google.com/site/powturbo/entropy-coder Przykładowym trikiem tutaj jest interleaving: instrukcja musi przejść przez cały pipeline procesora (ok. 8 taktów), więc jest sporo czekania jeśli kolejna porcja bitów zależy od poprzedniej. Naprawia to właśnie interleaving: kodujemy na raz w cyklu np. 4 osobne bufory, dzięki czemu pipeline nie musi czekać. Dalej jest olbrzymia potęga SIMD: współczesny procesor operuje na 128 bitowych wektorach, np. 4 x 32 bity, co można wykorzystać do kodowania: http://arxiv.org/abs/1402.3392 Od pół godziny jest już oficjalnie ZSTD_HC: https://github.com/Cyan4973/zstd Close source lzturbo ma dalej ok. 1.5 razy szybsze dekodowanie czyli są możliwości poprawy - jak ktoś chce stać się częścią historii to dobry moment spróbować coś doszlifować - gzip był napisany żeby dział - dzisiejsze kompresory już ciężko będzie istotnie poprawić, może się okazać że już nigdy nie będzie warto wymieniać ...
  12. Myślę że bardziej byłoby interesujące gdybyś napisał dwa razy szybszy W dzisiejszych czasach zdecydowana większość danych jest poddawanych kompresji - dla zmniejszenia kosztów transmisji i przechowywania, przyśpieszania odczytu i transmisji, coraz częściej nawet pliki systemowe są domyślnie skompresowane ... poprawianie algorytmów kompresji oznacza w skali świata niewyobrażalną oszczędności energii i innych zasobów.
  13. Oczywiście, gadamy głównie o dobrze widocznych korporacjach jak Apple, choć pewnie to są grzeczne baranki w porównaniu z tymi których bezpośrednio nie widzimy, jak Monsanto, cały przemysł zbrojeniowy ... albo bardzo polecam na przykład "Dubai: A city of dreams" - miasto marzeń ... budowane dosłownie przez niewolników ... "teoria skapywania" nie działa ponieważ bogaci często widzą zwykłych ludzi jako jakąś podrasę ... trailer: https://www.youtube.com/watch?v=jERvxazU6qQ Niestety obecny model państwa tonie w długach i korupcji ... ale chyba tylko one mogą nas obronić - o ile będziemy o to walczyć. Coś takiego udało się w Argentynie - podczas gdy politycy nie lubią żeby zwykli ludzie mieszali się w politykę, tam zrobiono to w ramach systemu: utworzyli partię której reprezentanci głosują zgodnie z dyskusją obywateli, oraz zdają sprawozdania z tego co się dzieje (transparency): https://www.ted.com/talks/pia_mancini_how_to_upgrade_democracy_for_the_internet_era?language=en ps. Wracając do wspomnianego ANS, jest obecnie bardzo ciekawa sytuacja odnośnie zastąpienia gzip, który jest mocno przestarzały ale dosłownie wszędzie. No więc Google kilka lat temu wprowadziło Zopfli który jest kompatybilny z gzip. A z miesiąc temu w wielu mediach było głośno o ich fenomenalnym Brotli (na Huffmanie) który będzie wszystko zastępował, wsparcie od Firefox 44 etc ... http://thenextweb.com/insider/2015/09/22/googles-new-brotli-compression-algorithm-is-26-percent-better-than-existing-solutions/ http://www.theregister.co.uk/2015/09/23/googles_brotli_compression_opensourced/ ... chwilę później okazało się że znacznie szybszy jest lzturbo (na ANS), tyle że close source: http://encode.ru/threads/2313-Brotli?p=44970&viewfull=1#post44970 Ale dwa dni temu pojawiły się pierwsze testy świeżego ZSTD_HC (też ANS, Apple LZFSE prawdopodobnie jest kopią ZSTD) - okazuje się że jest rzędu 2 razy szybszy w dekodowaniu niż Brotli, a co najważniejsze jest open source. http://encode.ru/threads/2345-zstd-HC Czyli zapowiada się ciekawa walka jak w przyszłości będzie zapisywana cała nasza informacja ...
  14. Taki mamy świat - korporacje rosną w siłę, państwa słabną dodatkowo tonąc w w długach ... ciekawe (albo i nie) do czego to zmierza ... http://di.com.pl/cyberewolucja-news-deal-news-age-rozwazania-nad-losem-cywilizacji-europejskiej-czesc-3-53516
  15. Z takich ciekawszych historii, warto wspomnieć o głównym wojowniku o poszanowanie własności intelektualnej: Hollywood - mianowicie nasuwa się pytanie dlaczego powstało na zachodnim wybrzeżu, podczas gdy większość technologii na wschodnim (Edison) ... http://www.racjonalista.pl/forum.php/s,478372 Niestety koncept ochrony intelektualnej został współcześnie zupełnie wypaczony - np. Apple patent na prostokąt z zaokrąglonymi rogami czy slide to unlock - nie chodzi o innowacyjność tylko głównie zablokowanie konkurencji (szczególnie patentowanie sekwencjonowanego materiału genetycznego), samodzielny wynalazca nie ma praktycznie żadnych szans ... Jak wszędzie liczy się tylko pazerność, idealiści to frajerzy, zawsze znajdą się tacy którzy będą oddawać za darmo swoje pomysły czy pracę ... ale fajnie żebym np. mógł napisać w publikacji coś więcej niż tylko spekulacje że setki milionów użytkowników Apple ma większość danych zakodowane w dyskutowany sposób ...
  16. Czyli jeśli oprócz copy&paste dokonasz jakichś modyfikacji, albo np. przepiszesz na inny język oprogramowania, licencja open-source już nie obowiązuje? Miło że uszanowali nazwę, dając wyraźne poszlaki, pewnie w wielu przypadkach nawet tego nie było - mimo że zwykle jedyne czego oczekuje twórca open-source za swoją pracę to uszanowanie autorstwa. Gdybym opatentował ANS ( inni obecnie próbują ... http://cbloomrants.blogspot.com/2015/05/05-21-15-software-patents-are-fucking.html ), to z czasem może mógłbym się domagać nawet wyższych kwot niż we wspomnianym artykule (dotyczy też wszelkich przyszłych modeli) ... natomiast gdy ktoś oddaje swoje pomysły za darmo, nie warto go nawet wspomnieć? Śmierć frajerom ...
  17. Apple jest jedną z głośniej krzyczących korporacji odnośnie przestrzegania własności intelektualnych ... oczywiście tylko swoich. Na przykład od kilku tygodni (iOS9 i OS X 10.11) ich domyślnym kompresorem (iOS9 zmniejszył się z 4.6GB do 1.3GB) jest LZFSE, czyli Lempel-Ziv + Finite State Entropy, jak wyraźnie pokazywali na swojej prezentacji ( http://encode.ru/attachment.php?attachmentid=3708&d=1433933124 ) czy slajdach ( http://devstreaming.apple.com/videos/wwdc/2015/7125ovmdf36/712/712_low_energy_high_performance_compression_and_accelerate.pdf ). Finite State Entropy jest znaną w środowisku implementacją kodowania ANS (które kiedyś wymyśliłem i obecnie zastępuje kodowanie Huffmana), wystarczy zapytać googla chociażby o "finite entropy" i wyraźnie kieruje do: https://github.com/Cyan4973/FiniteStateEntropy Tego samego autora (Yann Collet, znany też z https://en.wikipedia.org/wiki/LZ4_%28compression_algorithm%29 ) jest też ZSTD ( https://github.com/Cyan4973/zstd ), który też jest LZ+FSE i pojawił się (open-source) kilka miesięcy przed LZFSE Apple. Czyli wszystko wskazuje na to że ot tak skopiowali (przepisali?) oprogramowanie open source, robiąc je domyślnym w swoim systemach operacyjnych, zostawiając tylko wyraźne poszlaki - mimo że licencja tego oprogramowania nakazuje powiedzieć to wprost, np. " Redistributions of source code must retain the above copyright notice, this list of conditions and the following disclaimer." z licencji FSE. Bardzo to smutne dla ludzi tworzących open-source ... korporacja może ot tak użyć wszystkiego nazywając swoim dziełem, nawet nie wspominając o autorze ...
  18. Jasne, w kryteriach efektywnego użycia odległości, bardzo dobrze wypada np. wspomniana drzemka Aczkolwiek myślę że jednak istotniejsza jest efektywność użycia czasu, szczególnie że dystans można łatwo sztucznie wydłużyć ... a z czasem już niestety tak łatwo nie jest ...
  19. Badanie godne Amerykanów którzy męczą się w korkach żeby móc pochodzić na bieżni w gym, ale chyba nie uwierzę że mogę więcej spalić w danym czasie jeśli zamiast szybkiego marszu będę zwalniał i się zatrzymywał ... to pewnie najwięcej przy uwzględnieniu przerwy na drzemkę
  20. Możliwość "szybko znowu utworzyć superpozycję" nie wystarcza - konieczne jest utrzymanie jednej przez cały proces. Ogólnie polecam zainteresować się kwantową korekcją błędów, czyli właśnie walką z tą dekoherencją - ochrona przed prostym błędem wymaga np. zdziesięciokrotnienia ilości bramek ... co prowadzi do możliwych kolejnych błędów przed którymi należy zabezpieczyć ... i tak dalej ...
  21. Teoria teorią ... dobry wykład fizyka: https://www.ted.com/talks/david_mackay_a_reality_check_on_renewables?language=en
  22. To nie jest tak że wystarczy połączyć bramki kwantowe i dostaniemy komputer kwantowy - kluczowe jest utrzymanie superpozycji, którą błyskawicznie niszczy termodynamika, jak np. "puszczenie kubita kablem".
  23. Energia słoneczna może być pewnym uzupełnieniem - dla pokrycia dachów, pustyni, wewnątrz szyb ( http://www.extremetech.com/extreme/188667-a-fully-transparent-solar-cell-that-could-make-every-window-and-screen-a-power-source ) ... ale ogólnie może lepiej żeby dana powierzchnia była wykorzystywana przez naturę dla fotosyntezy, naturalnego życia ... Żeby stała się podstawowym źródłem energii musielibyśmy zastąpić olbrzymie tereny zielone krzemową pustynią ... i finansowo jeszcze długo to nie będzie realne ... Kluczowe są te podstawowe źródła energii - wszystko czego nie zastąpimy będzie pozyskiwane z najgorszego źródła: węgla - samych ofiar śmiertelnych jest rzędu miliona rocznie, a do tego olbrzymie zniszczenie środowiska https://en.wikipedia.org/wiki/Environmental_impact_of_the_coal_industry Jedynym źródłem które realnie mogłoby przejąć dominację spalania jest energia jądrowa (w jakiejś postaci) - tutaj łączna ilość ofiar przez burzliwy okres rozwoju jest pewnie porównywalny z jednodniowym z węgla: https://en.wikipedia.org/wiki/List_of_nuclear_and_radiation_accidents_by_death_toll
  24. Co do "reaktorów atomowych" ... specjalnie napisałem o spalaniu węgla ... taki ogólny piec niektórzy dziennikarze pewnie nazwaliby "reaktorem molekularnym" No właśnie zachodzą reakcje jądrowe - o energii w skali milionów elektronowoltów ... natomiast fizyka atomowa (blisko optyki) zajmuje się zjawiskami na poziomie pojedynczych elektronowoltów. Artykuł na Wikipedii nawet nie ma przekierowania z "reaktorów atomowych": https://pl.wikipedia.org/wiki/Reaktor_j%C4%85drowy Ten termin, razem np. z rezonansem magnetycznym (który bardziej się kojarzy z biorezonansem niż z MRI/NMR), wziął się pewnie z czasów zimnej wojny, ciągłym strachem przed bronią jądrową ... Dzisiaj to jest raczej ogłupianie społeczeństwa - bo co? Bo w Czarnobylu był jądrowy a my robimy atomowy? Jak chcemy zmniejszyć strach przed energetyką jądrową, mimo że to może być politycznie niepoprawne, lepiej podkreślajmy koszty/porównanie z innymi źródłami - szczególnie głównej alternatywy: węgla. Coś jak że słyszymy głównie o wypadkach samolotów, podczas gdy dużo bardziej prawdopodobna jest śmierć na drodze. Śmierci na TWh: http://nextbigfuture.com/2011/03/deaths-per-twh-by-energy-source.html " Coal – world average 161 (26% of world energy, 50% of electricity)Coal – China 278Coal – USA 15Oil 36 (36% of world energy)Natural Gas 4 (21% of world energy)Biofuel/Biomass 12Peat 12Solar (rooftop) 0.44 (less than 0.1% of world energy)Wind 0.15 (less than 1% of world energy)Hydro 0.10 (europe death rate, 2.2% of world energy)Hydro - world including Banqiao) 1.4 (about 2500 TWh/yr and 171,000 Banqiao dead)Nuclear 0.04 (5.9% of world energy)" ps. Gucio, ogniwa fotowoltaiczne brzmią super, ale - świata jeszcze długo nie będzie stać na nie na istotnym poziomie, - mają żywotność rzędu powiedzmy 20 lat - pewnie znacznie mniej gdy rysowane piaskiem pędzącym z wiatrem, - wymagają paskudnej chemii do wytworzenia - szczególnie że mówimy o skali tysięcy kilometrów kwadratowych ... i że po 20 latach trzeba wszystko wymienić ... - wymagają olbrzymich przestrzeni, zastępując np. las produkujący cenny dla nas tlen (i eksmitując jego mieszkańców) ...
  25. Owszem tokamaki są super ... "i tylko wysp tych nie ma" - od 50 lat krzyczą że za 20 lat to już na pewno będzie działać. Ekonomiści mogą wykonywać wspaniałe analizy finansowe ... tyle że bardzo one zależą od zysku energetycznego ... i nawet nie mamy pewności że będzie on pozytywny dla ITERa. Kolejną olbrzymią trudnością są koszty degradacji takiego reaktora - bombardowanego olbrzymią ilością neutronów, co bardzo niszczy materiały. Warto wspomnieć że poza mainstreamem jest jeszcze rozważane kilka podejść do fuzji: - laserami: https://en.wikipedia.org/wiki/National_Ignition_Facility ... ale chyba nawet najwięksi bajkopisarze już nie twierdzą że to mogłoby mieć jakikolwiek sens finansowo, - ciekawe jest https://en.wikipedia.org/wiki/General_Fusion w którym kilkadziesiąt tłoków synchronicznie wytwarza fale mechaniczne mające doprowadzić do fuzji w centrum kuli, - https://en.wikipedia.org/wiki/Tri_Alpha_Energy,_Inc. - inna geometria niż tokamak, - https://en.wikipedia.org/wiki/Dense_plasma_focus - ukierunkowany strumień jonów (podejście zapoczątkowane w Świerku: http://web.archive.org/web/20121031093355/http://www.paa.gov.pl/dokumenty/ptj/sadowski10.pdf ) - fuzję ponoć mają, ale jeszcze negatywny balans energii, - https://en.wikipedia.org/wiki/Polywell - krążące elektrony w pułapce w kształcie sześcianu - też ponoć są blisko, - mały reaktor z MIT: http://news.mit.edu/2015/small-modular-efficient-fusion-plant-0810 , skunk works: https://en.wikipedia.org/wiki/High_beta_fusion_reactor - no i niesławna zimna fuzja dla której ostatnio co chwilę obiecują bliską komercjalizację, np. http://www.huffingtonpost.com/david-h-bailey/post_10010_b_8052326.html ps. jako fizyka skręca mnie gdy widzę "reaktor atomowy" - każdy reaktor jest zbudowany z atomów, o pozyskiwanie energii atomowej to bardziej chodzi np. przy spalaniu węgla ... natomiast w artykule chyba jednak chodzi o reaktor jądrowy.
×
×
  • Dodaj nową pozycję...