Skocz do zawartości
Forum Kopalni Wiedzy

Jarek Duda

Użytkownicy
  • Liczba zawartości

    1667
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    87

Zawartość dodana przez Jarek Duda

  1. Jeśli zimna fuzja jest możliwa i to o tak optymistycznych parametrach jak obiecują - niewielki, zupełnie nieszkodliwy tani generator wytwarzający dużą ilość energii praktycznie za darmo, to skalę takiego zdarzenie dla naszej cywilizacji aż trudno sobie wyobrazić - zmniejszenie ceny za prąd indywidualnego odbiorcy to jeden z mniej istotnych aspektów. Po pierwsze olbrzymie odwrócenie sytuacji politycznej - koniec władzy/ utrzymywania karteli naftowych, gazpromu etc. ... koniec elektrowni, kopalni węgla, gazów cieplarnianych, wiatraków, paneli słonecznych ale i tankowców, sieci przepływowych (każdy blok mógłby mieć własną mini-elektrownię) ... silne ograniczenie badań w wielu branżach pozyskiwania i oszczędzania energii ... utrata pracy przez tysiące specjalistów ... Dalej pojazdy - jeżdżące/latające praktycznie za darmo, z dostępną znacznie większą niż teraz mocą, czyli ruszają latające samochody ... dalej np. silniki jonowe dużej mocy dla pojazdów kosmicznych ... Kolejna sprawa to w końcu konieczność przejrzenia podstaw przynoszącej kolejne niespodzianki aktualnej fizyki, która przy obecnej - bardzo upraszczającej atom mechanice kwantowej, nie jest w stanie poradzić sobie z praktycznym przechodzeniem protonu przez odpychanie jądra - jeśli te doniesienia są prawdziwe, w końcu na nowo przejrzą m.in. modele atomowe, na przykład wchodząc w przybliżenia semiklasyczne które bazują na klasycznych ... i znowu dochodzimy np. do pewnego naszego fizyka, który twierdził że z porządnych klasycznych rozważań wynika m.in. możliwość zimnej fuzji ( http://en.wikipedia.org/wiki/Free-fall_atomic_model ) ... itd itp ... Podsumowując: jeśli to prawda, to zbliżają się baaardzo ciekawe czasy ...
  2. Kwantowa teleportacja wymaga przesłania klasycznej informacji - ok, jest związek ze splątaniem, ale nie pozwala na przesłanie informacji szybciej niż światło. Jeśli fizyka pozwala na przesyłanie informacji wstecz w czasie, to nie tędy droga - raczej powinniśmy szukać analogów w symetrii CPT konstrukcji typu laser: http://kopalniawiedzy.pl/laser-antylaser-spojny-absorber-doskonaly-pochlanianie-swiatla-monochromatycznego-A-Douglas-Stone-Yale-University-11018.html
  3. Jakby kogoś interesowało, tutaj jest strona z kilkoma tysiącami artykułów o zimnej fuzji: http://www.lenr-canr.org/ O i ciekawostka: w miesiąc po pierwszym doniesieniu, w kwietniu 1989 pojawił się w Nature artykuł Polaka tłumaczący to zjawisko: http://www.nature.com/nature/journal/v338/n6218/pdf/338712a0.pdf
  4. Kwantowa teleportacja to coś zupełnie innego ... a splątanie nie pozwala przenosić informacji. Praktyczna mechanika kwantowa którą jesteśmy w stanie używać zawsze pomija pewne otoczenie układu - z którym jest pewna termodynamiczna interakcja. Nasz model nie ma dostępu do tych istotnych dla ewolucji parametrów, czyli jakoś w nim jest ukryty zespół statystyczny po możliwych stanach otoczenia - praktyczna mechanika kwantowa którą jesteśmy w stanie używać nie jest teorią fundamentalną, tylko efektywną: reprezentuje naszą niekompletną wiedzę o układzie. Modele reprezentujące naszą wiedzę zwykle nie są lokalne - mamy klasyczny analog EPR (splątania): wiemy że jest kulka czerwona i niebieska, które zostają wystrzelone w przeciwnych kierunkach na podstawie np. deterministycznego ale nieznanego wyboru - teraz w modelu reprezentującym naszą informację, poznanie jednego koloru powoduję że natychmiast (szybciej niż światło) poznajemy ten drugi - nie daje to możliwości przesłania informacji pomiędzy obserwatorami. Analogicznie w takich modelach nie ma problemu z retrocausality jak w doświadczeniu Wheelera czy artykule - po prostu późniejsze zdarzenie często daje nam brakującą informację o przeszłym. Ciekawym modelem reprezentującym naszą wiedzę jest założenie jakiegoś rozkładu pomiędzy możliwymi trajektoriami które mogła wybrać cząstka - prowadzi to do podobnych nielokalności jak w mechanice kwantowej ( http://www.scienceforums.net/topic/53324-from-maximal-entropy-random-walk-to-quantum-thermodynamics/ ).
  5. Właśnie znalazłem fajny filmik przedstawiający anihilację cząstek elementarnych dla ośrodka jakim jest nadprzewodnik - fluxonów: http://greenbd.info/video/TxVqO5zPmvU/movements-of-vortices-in-niobium.html Cząstki to prostu pewien stabilny, zlokalizowany stan ośrodka - czyli tzw. soliton - i nawet te makroskopowe już zachowują się jak 'cząstki kwantowe' - zachodzi dla nich interferencja (zaobserwowany efekt Aharonova-Cashera), jak poprawnie zrobimy termodynamikę (np. maksymalizując entropię) to dostajemy kwantowe statystyki ...
  6. Co do modelu standardowego - jak dla nie jest kwestia bycia zbyt ubogim, tylko złego podejścia koncepcyjnego - mianowicie startowania od fal płaskich ... podczas gdy wiemy że cząstki są zlokalizowane (korpuskularna natura), nawet fotony powstają pojedynczo w konkretnych ekscytacjach i pojedynczo są absorbowane (zobacz sobie np. http://redshift.vif.com/JournalFiles/V16NO2PDF/V16N2CRO.pdf )... dalej patrząc się np. na pole elektryczne dookoła elektronu: ma ono w nim osobliwość (topologiczną), podobnie z fazą kwantową dookoła spinu ... a w QFT na siłę próbujemy modelować skomplikowane topologicznie obiekty używając fal płaskich i poprawek z najniższymi potęgami - bo dalej się zbyt komplikuje ... zupełnie nie mamy pewności że nie pomijamy czegoś jakościowo, topologicznie istotnego ... Jest też skutecznie używane podejście nie startujące od QM, tylko w drugą stronę np. w modelach skyrmionowych mezonów/barionów: zacząć od solitonów topologicznych w klasycznej teorii pola i dopiero potem się martwić o mechanikę kwantową ... i nagle wszystko staje się intuicyjne, nie ma żadnych problemów z nieskończonościami ... a gdy jako pole weźmiesz coś jak skyrmiony tylko mniej abstrakcyjne i z potencjałem typu Higgsa - po prostu pole elipsoid (jak tensor naprężeń), okazuje się że jego solitony topologiczne ładnie oddają całą menażerię cząstek, z oddziaływaniami, gradacją masy i dynamiką daną 2 równaniami Maxwella: dla elektromagnetyzmu i grawitacji (zobacz końcówkę prezentacji którą wcześniej zlinkowałem). Chodzi mi o to że zanim rzucimy się na jakieś desperackie pomysły typu M-teroie w 11 wymiarach ... może warto przemyśleć filozofię i spróbować prostsze podejścia ... A co do większości anihilacji ... to chodzi mi o to że jeśli po łamiącej liczbę barionową bariogenezie zostało x barionów i y anty-barionów ... to po anihilacji zostaje jakieś x-y barionów i praktycznie 0 anty-barionów ... jasne, pewnie czasem sobie jakiś wolny polata, ale jednak w świecie zdominowanym przez materię: niedługo.
  7. Przyjmując zachowanie liczby barionowej, pozostają dwie (masz więcej sensownych?) alternatywy: - połowa wszechświata jest zbudowana z antymaterii, albo - już na starcie wielkiego wybuchu (czyli niby zanim powstały bariony), liczba barionowa byłą taka jak dziś - czyli że było porównywalnie materii co teraz ... W takim razie która opcja ma dla Ciebie sens i dlaczego?
  8. To nie tak - żadne morze Diraca o nieskończonej energii ... po prostu próżnia ma 'zdolność' przekształcania jednego rodzaju energii w drugi - np. energii fotonów w energię budującą strukturę cząstki - energię spoczynkową (masę) np. cząstki oraz antycząstki (jak w solitonach). A co do łamania symetrii - Qwax, chyba proponujesz że dla zachowania liczby barionowej, pół wszechświata jest zbudowane z antymaterii ... w takiej sytuacji np. wodór, pył, większe obiekty z obu regionów powinny 'dyfundować' i anihilować blisko granicy, produkując charakterystyczne promieniowanie, które powinniśmy obserwować jako świecącą łunę ... (?) Bezpieczniejszym założeniem jest chyba że większość możliwej anihilacji została już przeprowadzona i balans nie wyszedł na zero - czyli że liczba barionowa wszechświata wzrosła od hipotetycznego startowego zera - czyli mamy jakąś wersję rozpadu protonu i symetryczny stan stacjonarny jest statystycznie niestabilny/odpychający - np. w okolicy jednego rodzaju cząstki bariogeneza tworzy odrobinę częściej ten sam typ materii ... A co do 'wymyślania' - rzeczywiście kosmologia daje sporo do popisu więc mamy pełno ciężko weryfikowalnych hipotez ... dlatego uważam że lepiej na razie skupić się na dobrym zrozumieniu tej praktycznej: mikroskopowej fizyki, dzięki czemu ta makroskopowa wypadkowa też powinna odkryć swoje sekrety ...
  9. Asymetryczne funkcje? Nie słyszałem, ale kojarzy się z łamaniem symetrii na poziomie równań - czyli że wbrew CPT materia jest jakoś faworyzowana nad antymaterią. Zupełnie nie potrzebujemy takich egzotycznych założeń - wystarczy żeby stan stacjonarny nie był stabilny, co jest całkowicie naturalnym zjawiskiem - a wtedy po prostu było pierwsze losowanie w którym wygrała materia no i zdominowała ... Gdy w pobliżu np. protonu dzieje się bariogeneza, ma on niezerowy wpływ na nią (formalnie: dodatkowe krawędzie w grafach Feynmana) - jeśli przy jednym tego typu scenariuszu jest dowolnie mały wpływ w odpowiednią stronę - symetryczny stan stacjonarny staje się statystycznie niestabilny i dominacja wylosowanego jednego rodzaju materii staje się nieunikniona ...
  10. Oj nie emituje stale - podstawowa zasada: zachowanie energii! Po prostu ma możliwość przekształcania energii np. fotonów, w parę cząstek - czyli w ich energię spoczynkową (masę): zgromadzoną w ich strukturze ... i znowu świetnie to widać na solitonach ... A jak się solitony mają do mechaniki kwantowe? Mimo zlokalizowania, bardzo dobrze: http://docs.google.com/viewer?a=v&pid=explorer&chrome=true&srcid=0B7ppK4I%20yMhisYmI3YTAzNzYtMDkyNy00ZDAxLTg1NGEtOTg4NWNkYzU3M%20jQ1&hl=en A co do efektu Casimira - to opiera się on na tym że 'zerowy' mod studni już na dzień dobry ma energię ... popatrzmy się na to z drugiej strony: po prostu studnia sama w sobie ma tą energię - tworząc ją, modyfikując zmieniamy ilość energii zawartej w jej strukturze ... A co do tych glinek to nie słyszałem i musiałbym się przyglądnąć ... ? Złamaną symetrię możemy mieć w kryształach ... w glinkach raczej musiałyby być już substancje o statystycznie dominującej skrętności - może już początki życia?
  11. Niestety Nauka to nie jest tylko idealistyczne szukanie prawdy, ale jednak niezwykle skomplikowane zjawisko społeczne ... No i na przykład ciemną energię uparcie próbują wepchać w 'największą pomyłkę Einsteina' - czyli stałą kosmologiczną: coś jakby oczekiwaną krzywiznę czasoprzestrzeni ... Podczas gdy to nie może być ostateczna odpowiedź - OTW jest teorią makroskopową: uśrednia - jest teorią efektywną ... czyli jeśli chcielibyśmy ją kiedyś połączyć z mikroskopową, musimy też znaleźć tam konkretny odpowiednik dla tej stałej kosmologicznej ... A co do 'ciemnej materii' ... mamy kolejne próby poszukiwań nowych cząstek MONDów itd które nic nie znajdują ... może coś podobnego powinno powstawać w zderzaczach ... poza tym jednak powinna mieć niezerową lepkość (zapadać się grawitacyjnie), oddziaływać/akumulować się w centrach gwiazd ... ... więc może to jednak nie cząstki, tylko coś naturalnego dla każdego rodzaju pól - szum ... tyle że jest to wbrew standardowemu paradygmatowi ...
  12. Kreacja par nie odpowiada na takie pytanie - jest całkowicie naturalna np. w używanych powszechnie modelach solitonowych, jak na animacji anihilacji pary: http://en.wikipedia.org/wiki/Topological_defect którą jeśli puścimy od końca dostaniemy animację kreacji pary cząstek z energii. Są inne, dużo głębsze problemy z tym pytaniem - to że mamy więcej materii niż antymaterii. Czyli jeśli świat powstał z niczego, liczba barionowa wszechświata wzrosła - czyli nie jest zachowana - czyli musimy dopuścić np. rozpad protonu (co wiąże się z tym że np. zanim gwiazda neutronowa zapadłaby do nieskończonej gęstości, powinna zacząć spalać swoje bariony ... ) Jeśli już pozwolimy na to, kolejnym ponoć bardzo trudnym pytaniem jest: skąd ta asymetria? Jak dla mnie odpowiedź jest bardzo prosta: po prostu stacjonarny stan symetryczny był niestabilny - odpychający ... np. wystarczy dowolnie mały efekt typu że w pobliżu protonu bariogeneza tworzy odrobinę więcej protonów niż antyprotonów - no i z symetrii którą łamiemy (CPT), analogicznie w pobliżu anty-protonów powstaje odrobinę więcej anty-protonów niż protonów ... czyli gdy równowaga lekko (lokalnie?) przechyliła się w jedną: losowo wybraną stronę, dalej dzięki anihilacji już z górki było do pełnej dominacji tego typu materii ... Czyli coś jak: dlaczego mimo symetrii nasze życie używana L-aminokwasów? Po prostu stan równowagi jest niestabilny: czym więcej organizmów jednego typu, tym więcej ten typ organizmów ma materiału do budowy i balans się jeszcze bardziej przechyla ...
  13. Ja tam nie widzę problemu z tą odpychającą 'ciemną energią' ... Widzimy termiczny gaz fotonów: które zderzając się z obiektami przekazują im swój pęd, czyli powodują odpychanie ... mianowicie promieniowanie mikrofalowe tła (CMB) - 'malutkie fale' elektromagnetycznego szumu termicznego - dzięki zasadzie ekwipartycji energii, stopnie swobody pola EM wyrównują temperaturę, czyli średnią zawartą w nich energię - do 2.725K - co wg. wikipedii sumuje się do 6*10^-5 oczekiwanej energii wszechświata ... Mało? No ale mamy przecież więcej oddziaływań i odpowiadających im pól - grawitacyjne, słabe, silne - które jest dużo trudniej bezpośrednio obserwować ... ale w pewien bardzo słaby sposób te pola oddziaływają jednak między sobą, czyli przez okres życia wszechświata część ich stopni swobody też powinno wyrównać temperaturę, np. do tych 2.725K - może dając wymaganą 'ciemną energię'... Niektóre stopnie swobody mogą wymagać aktywnych regionów do stermalizowania, tak że dzieje się to tylko w pobliżu galaktyk - zwiększając ich masę w postaci halo np. dla soczewkowania grawitacyjnego - czyli zachowując się dokładnie jak to czego oczekują od 'ciemnej materii' ... Szukają jakichś egzotycznych wyjaśnień, cząstek .. a zupełnie nie widziałem żeby chociaż próbowali rozważać proste i wręcz oczekiwane wyjaśnienie - że te wszystkie 'ciemne byty' to po prostu szum termiczny ...
  14. A mi tam pomysł się podoba - jak już zgromadził energię w postaci ciśnienia gazu, to kontrolując kilka dysz może łatwo jej użyć do precyzyjnego odbicia, lotu, jak i miękkiego lądowania w precyzyjnie wybranym punkcie - jest to dość krótkie zdarzenie, więc chyba można to robić tak żeby praktycznie pominąć np. niekorzystne zjawiska atmosferyczne ... Dzięki temu ma dużo większą mobilność - po prostu wybiera punkt docelowy zamiast męczyć się z trudnym terenem, poza tym jeśli chodzi o awaryjność też wydaje się lepszym rozwiązaniem - części mechanicznych jest mniej i są dużo lepiej ukryte ...
  15. Z sieciami neuronowymi ma to bardzo niewielki związek, ale mimo wszystko większy niż z chaosem - w którym interesuje nas zachowanie podczas ewolucji: przy wielu iteracjach ... podczas gdy tutaj korzystamy z jednej iteracji odwzorowania logistycznego - tylko z tego że np. wartości 4x(1-x) pokrywają w sposób nieliniowy cały przedział (można by chyba też użyć np. linowego (2x modulo 1) ... http://en.wikipedia.org/wiki/Chaos_computing Czyli że możemy robić takie FPGA nie tylko sterowane w standardowy: zerojedynkowo linowy sposób, ale także w ładniej marketingowo brzmiący: wykorzystujący nieliniowość - bardziej skomplikowaną operację i dużo większe wejścia sterujące (żeby to miało choć odrobinę sensu, pewnie jednak robione analogowo). Nieliniowości rzeczywiście może poprawić bezpieczeństwo, w sensie że umożliwia lepszą kryptografię niż opartą na linowych operacjach - ale od tej lokalnej: na poziomie bramek, dużo lepsza powinna być makroskopowa (... jak w asymetrycznych systemach liczbowych) ... a na prawdziwy skok w FPGA to musimy poczekać do memrystorów ... ps. W artykule z wikipedii wszystkie bramki muszą być symetryczne, ale chyba można to obejść dla np. implikacji poprzez przypisanie różnych wag wejściom.
  16. Oj z nazywaniem czegoś czarną dziurą należy bardzo uważać, szczególnie że np. ostatnio potwierdzono gwiazdę neutronową o masie 2 mas słońca - czyli znacznie powyżej granicy Chandrasekhara (1.43) od której wg standardowych teorii powinna się zapaść do czarnej dziury ... http://physicsworld.com/cws/article/news/44209 SN 1979C została tak zaklasyfikowana na podstawie obserwacji promieniowania X, podczas gdy tak na prawdę standardowe teorie nie bardzo sobie radzą z wytłumaczeniem gamma burstów ... Tak silne źródło energii można też wytłumaczyć na przykład uwzględniając rozpad protonów (a więc i neutronów): - ta hipotetyczna reakcja jest niezbędna w wielu teoriach cząstek (np. supersymetrycznych), - takie łamanie zachowania liczby barionowej jest raczej konieczne żeby w wielkim wybuchu mogło powstać więcej materii niż antymaterii, - w teoriach czarnych dziur rozważa się promieniowanie Hawkinga, które ponoć musi być w postaci cząstek bezmasowych - czyli znowu zachowanie liczby barionowej raczej musi być łamane. Uwzględniając taką reakcję - 'bezpiecznik' natury przed tworzeniem nieskończonej gęstości, neutrony/protony mogłyby być niszczone nie już po utworzeniu osobliwości (jak dla promieniowania Hawkinga), ale raczej tuż przed osiągnięciem nieskończonej gęstości masy/enegii - właśnie żeby mu zapobiec ... produkując olbrzymie ilości energii - np. dla gamma burstów czy promieniowania kosmicznego powyżej granicy GZK ...
  17. Bardzo ważna wiadomość - pewnie jest przesadzona (goście zapewnili sobie sławę rosnącą z nieuniknionym rozwojem przemysłu kosmicznego), lobbyści nazwą takie zagrożenie paranoją ... ale jest to też bardzo ważny powód żeby np. rozwijać silniki na ciekły wodór jak SABRE ... http://en.wikipedia.org/wiki/Reaction_Engines_SABRE Fajnie gdyby na ciekłym wodorze oparto też zwykłe silniki turboodrzutowe(i inne), ale może to być uważane za zbyt niebezpieczne do tak powszechnych zastosowań cywilnych...
  18. Niewątpliwie skoro zgadnięte równanie Diraca nie pozwala uwzględnić masy, należy w tym celu wprowadzić dodatkowe wymiary ... i dostajemy kolejny scenariusz do startreka ... podczas gdy solitony są naturalnymi konstrukcjami które mają masę (energię spoczynkową), rozważa się tego modele mezonów, barionów (skyrmiony), widzimy je w optyce, na fluxonach (kwantach pola magnetycznego) w nadprzewodnikach planuje się robić komputery kwantowe - zachowują się jak cząstki 'kwantowe', zachodzi dla nich interferencja ( http://www.rle.mit.edu/media/pr150/44.pdf ) ... Tu jest fajna animacja jak anihiluje najprostszy soliton z antysolitonem i zgromadzona w nich energia spoczynkowa (masa) uwalniana jest w postaci nietopologicznych wzbudzeń (tzw. fotonów): http://en.wikipedia.org/wiki/Topological_defect Niestety takie rozważania są zbyt mało ekscytujące dla rządnych wrażeń mistyków kwantowych ...
  19. Coś słyszałem o tym Długim Marszu 3B ... ano właśnie "(...) On February 14, 1996, a similar failure during the launch of Intelsat 708 a top the Long March 3B rocket resulted in an estimated 500 casualties. The rocket veered severely off course right after clearing the launch tower and landed in a rural village (...)" http://en.wikipedia.org/wiki/Long_March_%28rocket_family%29 Gdzieś czytałem że żeby zrobić tam miejsce na Expo, ot tak przeniosion m.in. ze 270 fabryk ... podsumowując - nie wątpię że dolecą ...
  20. Przepraszam za znowu skrót myślowy - testy pierwszości są podstawą RSA w sensie generacji kluczy. AKS w najlepszej implementacji ma ponoć złożoność 'długość liczby'^6, co przy kluczach 1024 bitowych staje się całkiem sporo. Natomiast elementy tej słynnej rodziny problemów NP-zupełnych już same są powiązane transformacją wielomianową - czyli rozwiązywanie 3SAT w czasie wielomianowym, oznaczałoby że dla rozwiązywania jakichś praktycznych problemów mamy algorytm o złożoności będącej wielomianem znacznie wyższego stopnia. W praktyce zwykle nie potrzebujemy takiego superoptymalnego rozwiązania (np. TSP) i algorytmy zachłanne czy probabilistyczne są zdecydowanie wystarczające. 'Cudownym' zastosowaniem o którym się mówi, to np. generacja dowodów twierdzeń - "znajdź ciąg implikacji, który prowadzi z aksjomatów do twierdzenia" - ale tu złożoność dalej będzie kosmiczna ... podobnie zresztą z łamaniem symetrycznych kryptosystemów - "znajdź klucz, którym dekodując, wynik ma korelacje" ... jeszcze rzeczywiście jest faktoryzacja, ale to trochę jednak inny, wydaje się że prostszy (np. Shor) problem - dlatego ogólnie uważam że używanie wszędzie RSA to kompletna nieodpowiedzialność, szczególnie że mamy dużo bardziej nieprzewidywalne - oparte na krzywych eliptycznych ... Poza tym jest jeszcze wiele nieprzebadanych podejść w jakie można zaprzęgnąć fizykę (nie tylko QC i DNAcomp) i wcale bym się nie zdziwił, gdyby się okazało że pozwala ona nie tylko na wielomianowe, ale nawet praktyczne rozwiązywanie trudnych problemów ...
  21. Przepraszam, nie zauważyłem odpowiedzi ... Owszem - transformacja którą proponuję (z tego co szukałem, wcześniejsze wymagały dodatkowo olbrzymiej ilości więzów http://citeseerx.ist.psu.edu/viewdoc/download?doi=10.1.1.122.726&rep=rep1&type=pdf ), dalej jest algorytmem. Dlatego pisałem 'klasa algorytmów' - bo mam wrażenie że dla większości informatyków tego typu problemy można atakować tylko kombinatorycznie - rozważając przestrzeń konkretnych zerojedynkowych wartościowań zmiennych - i tak wyglądały chyba wszelkie ataki na P!=NP jakie widziałem. Transformacja na problem ciągły powoduje że zaczynamy pracować dosłownie pomiędzy tymi wartościowaniami - jasne, w praktyce mamy dostęp 'tylko' do przeliczalnej ilości z nich, jednak próby panowania na pokryciu tego zbioru pod atak na P!=NP wydają się być jakościowo znacznie trudniejsze niż przy dyskretnym obrazie (może nie są?) ... poza tym w porównaniu z dyskretnym, dochodzi przede wszystkim wyglądające bardzo potężne narzędzie jakim jest gradient ... A co do "Gdyby P=NP, to niby co przewróciłoby się do góry nogami?" to na przykład mamy AKS od jakichś 8 lat ... a (mimo że test pierwszości jest podstawą RSA) z tego co wiem dalej nie opłaca się go używać ... Szczerze to chyba jedyne co taki ewentualny dowód by zmienił to zawalenie systematyki informatyków ... Natomiast z rozwiązywaniem niezwykle złożonych problemów doskonale radzi sobie fizyka ... i może pozwala na jeszcze inne 'nietypowe' sposoby jej wykorzystania niż komputery kwantowe, np. http://www.electro-tech-online.com/electronic-projects-design-ideas-reviews/86973-continious-time-loop-computer.html
  22. Odnośnie 'identycznych fotonów' - żeby zobaczyć że sytuacja nie jest prosta, warto się przyglądnąć http://en.wikipedia.org/wiki/Hanbury_Brown_and_Twiss_effect
  23. Jak najbardziej chodzi o koszty ... a kształty są jakie są nie żeby wyglądało, tylko ze względu na efektywność - rakiety lecą praktycznie pionowo w górę, podczas gdy ten Skylon nabiera wysokości podobnie jak myśliwiec ... Rzeczywiście te nowe silniki hybrydowe wyglądają bardzo obiecująco: http://en.wikipedia.org/wiki/Reaction_Engines_SABRE ... ale ta 2-3 stopniowość w konwencjonalnych podejściach była też po to żeby zwiększyć 'payload fraction' ( http://en.wikipedia.org/wiki/Payload_fraction ) ... jak widzę w planach sprzed 6 lat ( http://www.reactionengines.co.uk/downloads/JBIS_v57_22-32.pdf ), Skylon ma zabierać 12 ton ważąc 275 - przez tą jednostopniowość nie wygląda już tak rewelacyjnie ... ale możnaby to poprawić nadając mu początkową prędkość ... czas pokaże ...
  24. taaa ... powinni więc wzorować się na starwarsach, w których myśliwiec ot tak wylatuje sobie z planety ... ;P Wydaje się prosta sprawa - żeby wynieść kilogram z pola grawitacyjnego Ziemi niby wystarczy kilkanaście kWh energii ... podczas gdy w praktyce kosztuje to dziesiątki tysięcy dolarów ... Główny problem w tym że rakieta musi też wynosić swoje paliwo - dlatego właściwy ładunek to tylko pewien drobny procent jej masy ... czyli możliwość zapłacenia za pierwsze kilka kWh zwykłym prądem jaką daje taka szyna, dodatkowo poprawia proporcje wagi - szczególnie że zbliża też do minimalne prędkości potrzebnej dla scramjetów, które są znacznie bardziej wydajne niż napęd rakietowy (wyrzuca cząstki paliwa z większą prędkością). Za ostateczne rozwinięcie tej koncepcji można uznać windę kosmiczną - kosmiczna ilość 'ograniczeń i kosztownych zabiegów techniczno-kontrolnych' ... ale za to za wynoszenie możemy płacić praktycznie tylko tanim prądem.
  25. Na pierwszy rzut oka wydaje się że zysk jest niewielki: energia kinetyczna przy 1 Machu jest 100 razy mniejsza niż przy 10 ... Dlatego warto wspomnieć o pewnym istotnym problemie z silnikami typu ramjet/scramjet - ze względu na aerodynamikę, takie silniki zaczynają mieć rację bytu dopiero przy prędkościach rzędu 4-6 Machów: http://en.wikipedia.org/wiki/File:Specific-impulse-kk-20090105.png ... czyli dalej taki pojazd raczej wciąż potrzebuje napędu rakietowego, który dostarczy zdecydowaną większość energii ... ale ogólnie fajny pomysł z wyniesieniem działa elektromagnetycznego na powierzchnię - dzięki temu można sobie pozwolić na większą długość, a więc i bardziej znośne przyspieszenia ... a może z czasem umieścić w rurze próżniowej na stoku góry dla osiągnięcia większej startowej energii grawitacyjnej i kinetycznej ...
×
×
  • Dodaj nową pozycję...