peceed
Użytkownicy-
Liczba zawartości
1797 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
64
Zawartość dodana przez peceed
-
I każdy z tych specjalistów poświęcił tematowi może 15 minut swojego czasu. Zaatakowani slajdami z buzzwordów raczej nie mają szans na jakąkolwiek analizę. Na forum męczysz nas tą koncepcją od lat i mieliśmy duuużo czasu aby zrozumieć co właściwie proponujesz i dlaczego to nie zadziała. Pomijając fakt, że najwyraźniej ma kolega manierę ignorowania fizycznego przebiegu obliczeń w czasie przyjmując jakąś perspektywę eternalistyczną przez co nie dostrzega, że nie da się "ustawić" końca tych obliczeń jako wyników pomiarów (nie ma fizycznej operacji która to robi)? To z perspektywy CPT każdy fizyczny proces związany z obliczeniami będzie zmniejszał swoją entropię, będąc całkowicie bezużytecznym jako model czegokolwiek co miałoby zachodzić w naszym świecie! Obliczenia w naszym świecie polegają na tym, że ustawiamy klasyczne wejście z problemem (klasyczne bity) i dostajemy klasyczny wynik (klasyczne bity) - z wysokim prawdopodobieństwem. Niezależnie jaką maszynkę proponuje kolega, musi ona podlegać temu schematowi. Nie zaprezentował kolega najprostszego przykładu obliczeń który by byłby kompletny w taki sposób. Problem->kodowanie->transkodowanie na qbity->przebieg obliczeń/struktura "logiczna" -> odczyt wartości klasycznych. Uważa kolega że ma on generalną moc dokonywania postselekcji ze względu na pewne qbity? Zatem trzeba zaprezentować prosty kwantowy algorytm z postselekcją, zakodować wejście (którym jest wartość klasycznych bitów określających postselekcję) i pokazać przebieg takich obliczeń: wejście klasyczne(więzy na qbity)->"mambo jumbo"-> wyjście klasyczne (czyli ustalone bity wejścia dla postselektowanego problemu) Ze szczególnym uwzględnieniem "mambo jumbo". Dopiero taki kompletny schemat będzie podstawą prostego dowodu niemożności zajścia takich obliczeń. Z bardzo prostego powodu: wszystkie operacje od wejścia do wyjścia muszą być opisywane unitarną ewolucją. Niezależnie od tego co się koledze wydaje, "mambo jumbo" jest unitarne, i będzie można pokazać że prawidłowa odpowiedź zawsze będzie uzyskiwana z wykładniczo malejącym prawdopodobieństwem. Można też inaczej. Tłumaczyłem koledze, że te układy fizyczne które kolega prezentował konieczne do realizacji swojego komputera mają w bardzo trywialny sposób własność komunikacji ponadświetlnej. W sensie możliwości stworzenia klasycznego kanału o dowolnym poziomie sygnału do szumu, nie abstrakcyjnie tylko konkretnie i napisałem w jaki sposób to uzyskać powiększając układ. Ale czysto abstrakcyjnie - od drugiej strony, operacja postselekcji zawsze pozwala na komunikację ponadświetlną, tutaj ma kolega bardzo ładnie to opisane: https://quantumcomputing.stackexchange.com/questions/70/what-is-postselection-in-quantum-computing Nie jest to przypadek, mamy pełną konsystencję: Postselekcja i FTL są sobie równoważne. Więc jak napisałem że jest kolega na pozycji obalacza podobnego do wynalazców perpetuum mobile to nie była licencia poetica, tylko twardy fakt. Może sobie kolega poszukać prac (ja już na pewno tego nie będę robił) które pokazują, że mechanika kwantowa zapewnia najsilniejszy możliwy poziom korelacji który nie łamie przyczynowości. Więc przypuszczam że można jeszcze ugryźć problem pokazując, że obliczenia "dwustronne" wymagają silniejszych korelacji niż graniczne. Dla sportu, bo oba powyższe argumenty są całkiem wystarczające aby ubić 2WQC jako uniwersalny mechanizm postselekcji. Ale może przyda się to koledze w celu ochrony przed kolejnymi figlami swojego umysłu, gdyby próbował wymyku że "może postselekcja to nie, ale jakiś mniejszy speedup to może się uda" ... Każdy speedup przekształcony na język silniejszych korelacji od razu będzie dowodem swojej niemożności fizycznej realizacji. P.S. Oczywiście wychodzi kolega od konsekwentnego ignorowania przyczynowości swoimi "wizjami CPT", więc można powiedzieć że doszedł do konsystentnych rezultatów Dlatego widzę dla kolegi ratunek w postaci zajęcia się czysto formalnymi problemami - im wystarcza kontakt z rzeczywistością na poziomie spełniania aksjomatów Na koniec postanowiłem jeszcze dopracować terminologię - niech to ostatecznie będą ekspermenty i ekspermentatorzy. Powinienem napisać "klasycznemu uśrednieniu fizycznej obserwabli" żeby w pełni oddać to o co chodzi.
-
Radioterapia oparta ASE (amplified spontaneous emission)?
peceed odpowiedział Jarek Duda na temat w dziale Nauka
Nie, gdyby były takie molekuły w istotnej ilości to powinien być prawie czarny. Ale ich nie ma - cząsteczki biologiczne są w środowisku wodnym a nie próżni, więc gdyby mogły sobie oddawać od tak nadwyżki energii w postaci światła to i tak od razu byłyby wytrącane z tego stanu przez kontakt z otoczeniem. Wszelkie transfery energii mają charakter chemiczny, czyli znacznie bardziej ograniczony i celowy. Przezroczystość wielu organizmów jest potwierdzeniem. Szczęśliwie nic takiego nie nastąpi! Widzę tutaj projekcję własnych przeżyć z ANS (nawet ilość liter się zgadza) Duża cześć terapii nowotworowych uszkadza metabolizm komórek nowotworowych niszcząc mitochondria i mutując mtDNA (co jest też powodem ogólnego wyniszczenia organizmu). Mam inny pomysł. Można podać dużą ilość błękitu metylenowego i sprawdzić jak będzie reagował na oświetlanie błękitnym światłem. -
@Jarek Duda I jeszcze taka myśl - naukowcy dokonują swoich przełomowych odkryć w młodym wieku, nawet przed 25 rokiem życia, zazwyczaj przed 30. Po 40 praktycznie jest to niespotykane, dlatego przyjęto takie ograniczenie dla Medalu Fieldsa. Przyjmijmy że zużyłeś ten okres na ANS i MERW. To jest naprawdę przyzwoite i nie oczekuj po sobie większych przełomów. Siląc się na więcej narażasz się na śmieszność, w wieku 40-paru lat proponując teorie które uchodzą uczonym dopiero po 60. Do tego obie rzeczy są w pewnym sensie "drobne", to krótka forma która najwyraźniej Ci wychodzi. Problem powstał gdy zacząłeś przerabiać opowiadnia na epopeje. Temat 2WQC niezależnie od wątpliwości udało Ci się skutecznie obsikać i nikt Ci już tego nie zajmie, więc spokojnie możesz zająć się bardziej satysfakcjonującymi problemami. Znacznie lepiej wychodzą Ci problemy dobrze definiowalne i absolutnie ścisłe, dlatego skupiłbym się jednak na mat/infie. Tam masz obliczenia, wzory a nie hand-waving z językiem naturalnym, każda praca z definicji jest dowodem. Nie popadasz w bagnistą pułapkę niezformalizowanych podstaw. Najważniejszym obecnie tematem jest obecnie sztuczna inteligencja i myślenie maszynowe. To dyscyplina na której powinieneś się koncentrować. Z perspektywy historycznej obecna dekada będzie określana największym przełomem w historii ludzkości. Informatyka jest w punkcie w którym znalazło się lotnictwo w latach 30, AI to pojawienie się silników odrzutowych. Z punktu widzenia polskich podatników każda chwila którą poświęcasz na inne zagadnienia jest "statystyczną stratą"
-
Nie ma. Impuls ma dostatecznie dużą szerokość w czasie , że φT nie rośnie przed impulsem, czyli nie ma sytuacji że 0 -> !0 Jak wspomniałem jeden na 60 fotonów przechodzi. φ0 jest efektywnie podzielona przez 60 aby znormalizować przesunięcie fazy jako efekt pod wpływem jednego fotonu. Te przesunięcia fazy to nie są gołe wartości przesunięć, więc absolutnie nie jest to "wartość przesunięcia fazy zmierzona gdy zaobserwowaliśmy foton". To różnica w stosunku do sytuacji bez obserwacji fotonu, wyłącznie w kategoriach średnich: Co ważne - oni nie rozróżniają sytuacji gdy detektor jest trafiany wieloma fotonami, co powoduje że wykres im się rozjeżdża dla małych gęstości optycznych, gdy takie zdarzenia są częstsze. To absolutny idiotyzm, bo fotony są nierozróżnialne. O ile można mówić w kategoriach średnich, że przeciętny foton spędza ileś w stanie ekscytacji, to odjęcie średniej z sytuacji, gdy nie zaobserwowano przejścia fotonu od średniej z sytuacji w której zaobserwowano przejście fotonu i utożsamianie z tych sytuacji ze średnią zachowania dla pojedynczego fotonu jest całkowitym spierdoleniem umysłowym (przepraszam ale czasami trzeba nazywać rzeczy po imieniu). To myślenie niefizyczne i niekwantowe. W praktyce pojawia się "efekt interefencyjny": φT (t) = φC(t)−φNC(t) podczas gdy: φ0 (t) = φC(t)+φNC(t) (ignorując normalizację) Powstaje taka piękna sinusoidka pomnożona przez Gaussa (tak naprawdę dostaliby ją w granicy dla nieskończonej gęstości optycznej, czyli na przykład 1 foton na milion). Jak widać nie ma czego wyjaśniać. Problemy zaczynają się, kiedy ludzie zaczynają "wyjaśniać" sobie obserwacje przez "klasyczne trybiki działające w środku", w tym wypadku zrobili sobie klasyczny trybik w postaci pojedynczego fotonu. Pojedynczy foton pojawia się dopiero w detektorze. P.S. Ta praca naukowa ma teoretyczną wartość gówna. Odpowiedz mi Jarku jak chcesz dokonywać postępu w fizyce opierając się na takim gównie? Notabene spotkałem się z opiniami że ekspermenty starają się przedstawiać banalne doświadczenia w najbardziej zawoalowany sposób i ta praca pięknie to ilustruje. P.P.S. Czemu starasz się na siłę wymyślać teorie w sytuacji kiedy nie masz rozeznania aktualnym "state of the art"? Model Standardowy ma już 50 lat i przez ten czas fizycy teoretyczni naprawdę się nie obijali. Nic Ci nie ujmując absolutna większość publikacji jest tworzona przez osoby zdolniejsze od Ciebie. Według mnie chyba warto przynajmniej zachować kontakt z naukowym topem zamiast łudzić się że uda Ci się coś wyskrobać w swoim "garażu".
-
Radioterapia oparta ASE (amplified spontaneous emission)?
peceed odpowiedział Jarek Duda na temat w dziale Nauka
Jak dla kogo - to podstawowa zasada dzięki której działają lasery, a "zewnętrzność" nie ma nic do rzeczy. Nie ma celów. Organizmy żywe co do zasady są przezroczyste, każdy cel musiałby być bardzo silnym barwnikiem. Zasadniczo nie ma niczego głupszego niż marnować energię na bezproduktywne świecenie, więc może być kolega pewny że takich celów po prostu nie ma. -
Radioterapia oparta ASE (amplified spontaneous emission)?
peceed odpowiedział Jarek Duda na temat w dziale Nauka
Ależ doskonale wiem jak działa izolator optyczny (nie ma to jak walczyć z kukiełką, erystyka idzie koledze lepiej niż logika), bzdurą jest: Odwrócony "pozwoli tylko w drugim", tylko że nie odwraca to przyczynowości w takim stylu w jakim kolega sobie wyobraża na potrzeby 2WQC. Może to pomoże: Za pomocą łańcucha da się tylko ciągnąć, nie da się pchać - nawet po obróceniu w drugą stronę Może problemem są wizualizacje kolegi w głowie - to nie jest odwrócenie urządzenia w czasie w czasoprzestrzeni 4D. Na czystą logikę - nawet jakby to miało zadziałać, to efektem będzie wyświecenie energii na zewnątrz. Tylko że z drugiej strony mielibyśmy zaraz molekuły które takie świecenie z zewnątrz mogłoby naładować - bo nie mamy inwersji obsadzeń. Do tego gdyby takie zjawisko miało następować, to mielibyśmy dostępną doskonałą metodę diagnostyczną która ocenia metabolizm tkanek za pomocą świecenia. Na razie musimy się posiłkować metodami pośrednimi z radioaktywną glukozą, więc gdyby metoda miała choćby promil potencjału o którym mówi kolega to byłaby totalnie genialnym narzędziem diagnostycznym - a nie ma jej! Ponieważ jednak do świecenia generalnie potrzebne są specjalne białka a życie w wodzie na pewno nie chce świecić, więc bardzo wątpię w cudowne własności takiego celu terapeutycznego. No właśnie nie - skoro bez problemu dochodziłoby tam światło, to bez problemu by uciekło - brak grzania. Przy okazji - mam wrażenie że potencjał elektrochemiczny ATP jest bardzo wysoki, więc byłoby to światło niebieskie jeśli wręcz nie bliski ultrafiolet. Tylko że zmiana stanu energetycznego wymaga zmiany wiązań atomowych. A na wolniej - mitochondria wytrzymują znacznie więcej, zwłaszcza że utrzymują gradient temperatury. Jest to sprzeczne z aktualnie obowiązującą fizyką, w naprawdę mocny sposób. Tzn. "standardowa' fizyka całkowicie dobrze przewiduje co się stanie i jaki będzie efekt eksperymentu. Niestety przewiduje inaczej niż twierdzisz. Więc zasadniczo nie jesteś na pozycji gościa, który przewidział nowe ciekawe zjawisko efektywne, tylko na pozycji obalacza aktualnie obowiązującej nauki, i to na poziomie gości którzy próbują sfinansować swoje perpetuum mobile - czyli naprawdę grubo. Ile razy byś nie powtarzał swojego magicznego zaklęcia z Lagranżem, Janami i Cepete - nie pomoże przed poważnym gremium. I nie jest to żadne "prześladowanie nauki", tylko zdrowy rozsądek: Jako specjalista od teorii informacji sam dobrze wiesz dlaczego tak jest - Wielkie i Doniosłe Odkrycia Drastycznie Zmieniające Stan Obecnej Nauki muszą mieć ekstremalnie niskie prawdopodobieństwo zachodzenia. To znaczy że są skrajnie niepodobne do prawdy -
W takim razie 99% ludzi nie dysponuje żadną inteligencją. tzw. One Trick Pony. Nie zauważyłem aby fizycy teoretyczni spoczęli na laurach, stworzono też dużo podejść nieperturbacyjnych. Mam nieodparte wrażenie że kolega w ogóle nie śledzi prac współczesnej fizyki teoretycznej, zamiast tego zajmując się jakąś kroplologią. No cóż... Jak na razie opierając się na swoim zrozumieniu i wzorach znalazł kolega 2 Way Quantum Computing, czyli koncepcję która nie ma żadnych szans funkcjonowania w naszej rzeczywistości, wbrew zapewnieniom o istnieniu fizycznych implementacji, co jest oczywiste dla każdego choćby pół-kompetentnego fizyka. To bardzo, ale to bardzo źle rokuje w kwestii szukania Teorii Wszystkiego! Ja liczyłem. Zer jest 132, najwyraźniej dla kolegi Jarka pomylić się bilion razy to nie problem - haha. Jak już zamiast napisać po ludzku 10^120 ktoś bawi się w rozwijanie z powodów czysto emfatycznych by dowalić oponentowi, warto zadbać aby zrobić to dobrze bo inaczej zadziała w drugą stronę! Sądzę że Jarek liczy na fuksa. To góra ma przyjść do Mahometa. Osobiście widzę w tym podejściu bardzo wiele arogancji. Podobnie bardzo ciężko od Jarka uzyskać jakąkolwiek polemikę, tzn. nigdy nie dostarcza jakiejkolwiek argumentacji zwrotnej, tylko wciąż wkleja (zazwyczaj ten sam) slajd. Na przykład bardzo chciałbym się dowiedzieć, czy dalej będzie się upierał że https://arxiv.org/pdf/2409.03680 demonstruje nadświetlną sygnalizację (i potwierdza nowe fenomeny "cpt-symetryczne"). Jeśli tak, to czego nie zrozumiał w mojej argumentacji? Ale wiele lat doświadczenia nauczyło, że raczej się nie dowiem. To malutcy mają marnować czas rozkminiając posty Wielkiego Jarka (nie mylić z Wielkim Małym Jarkiem), a nie odwrotnie.
-
Radioterapia oparta ASE (amplified spontaneous emission)?
peceed odpowiedział Jarek Duda na temat w dziale Nauka
Właśnie to jest kompletną afizyczną brednią. Jeśli do takich wniosków prowadzi kolegę jego zrozumienie fizyki przez perspektywę QFT, to mamy najlepszy dowód że ono nie działa. Wszystko to przedstawia kolega przez pryzmat swoich "pomysłów" które nie działają. Nie da się "powodować deekscytacji zewnętrznego celu", można jedynie wysłać fotony o określonej długości fali. Zwłaszcza że mowa o skalach makro ludzkiego organizmu - więc nawet gdyby jakimś cudem udało się coś uzyskać w obwodach fotonicznych, to i tak nie dałoby wyskalować zjawiska (nie uważam że to możliwe, po prostu ma kolega podwójnie nierealistyczną perspektywę) . Myślę że dość rzeczowo wyjaśniłem też sytuację, że ATP nie jest jakąś wzbudzoną cząsteczką która spontanicznie wysyła fotony, tylko musi dojść do reakcji chemicznej. Jak rozumiem chciałby sobie kolega wysłać wiązkę światła jednego koloru, potem światłu drugiego koloru i na ich przecięciu miałoby dojść do magicznego zjawiska zabijania komórek ciała... Zdradzę koledze sposób - można stworzyć odpowiednio przygotowane trucizny które by działały przez podwójną fotoaktywację. Tylko co nam po stymulowanej emisji o intensywności mniejszej od absorpcji? Oczywiście wiem, że magiczna emisja cpt miała działa inaczej i nie byłoby to problemem, ale nie działa. To niech kolega uderza od drugiej strony i zagada fizycznych celebrytów. Numer jeden to obecnie Andrzej Dragan, kiedy troll to dość subtelny. Na ile widziałem kilka jego produkcji - nie tylko ogarnia fizykę znacznie lepiej od kolegi, ale wystarczająco dobrze aby zjechać kolegę w całości profesjonalnie. W sumie to dobry pomysł. -
Żebym nie zapomniał - gratuluję odnalezienia Teorii Wszystkiego. Tylko żeby było jasne - wynik pomiaru oznacza zapisanie klasycznego rezultatu, a to - wzrost entropii, co raczej narzuca nam określoną strzałkę czasu. Dlatego wynik pomiaru nie może wpływać na przeszłość, bo w przeszłości jest nieznany, i w sumie skąd miałby się pojawiać w tym eternalistycznym świecie 4D. Być może chce kolega powiedzieć, że jest predeterminowany? Dlaczego formalizm liczy jedynie amplitudy prawdopodobieństwa zdarzeń? Mam dla kolegi dobrą wiadomość. Sztuczna inteligencja w wersji hard już praktycznie jest, i poradzi sobie z tym zagadnieniem (szukanie TW) lepiej od człowieka. W końcu ktoś wyda te kilka(dziesiąt) miliardów dolarów na wytrenowanie sieci do rozwiązywania problemów fizycznych. Z koniem nie będzie się kolega ścigał, ani tym bardziej kopał, więc może lepiej zużyć te następne 10-15 aktywności zawodowej lat na jakieś bardziej przyziemne, ale pilniejsze problemy stojące obecnie przed ludzkością?
-
Radioterapia oparta ASE (amplified spontaneous emission)?
peceed odpowiedział Jarek Duda na temat w dziale Nauka
Oczywiście neutron. Nie wiem czemu napisałem elektron... Tzn. wiem - z powodu lasowania się mózgu :/ Mam jeszcze wrażenie że dodatkowym "koproblemem" jest traktowanie mechaniki kwantowej w sposób do bólu klasyczny i doszukiwanie się jakiejś obiektywnej i realistycznej struktury matematycznej pod spodem. On nie traktuje formalizmu lagranżowskiego jako innej formy reprezentacji wiedzy apriorycznej o systemie fizycznym, tylko zaczyna utożsamiać z tą strukturą... -
Radioterapia oparta ASE (amplified spontaneous emission)?
peceed odpowiedział Jarek Duda na temat w dziale Nauka
Tylko przy inwersji obsadzeń. Symetria CPT wyjaśnia działanie lasera (klasyczne rozumowanie ignoruje CP), ale niczego nie wymaga ponad znane wszystkim fakty z działania tych urządzeń. Nie ma żadnych dwóch przyczynowości. Gdzieś tam w głowie kolegi powstała chora idea, że każde zjawisko w każdej skali można poddać symetrii CPT, i musi być często obserwowalne, nawet jeśli miałoby zmniejszać entropię. Możemy rozpatrzeć rozpad radioaktywny beta minus: leci sobie elektron, i w zupełnie przypadkowym momencie, bez żadnego powodu, nagle zamienia się w proton emitując elektron i antyneutrino elektronowe. Po odwróceniu czasu mamy sytuację w której lecą sobie elektron i antyneutrino elektronowe, w jednym momencie trafiając w przelatujący proton i tworząc neutron. Zjawisko jest wysoce deterministyczne a moment powstania neutronu jest dobrze określony. To by było na tyle w kwestii "odwracania przyczynowości". Warto też zauważyć, że entropia trzech cząsteczek jest większa niż jednej. Zjawisko odwrotne jest zmniejsza entropię, ale taka konfiguracja cząsteczek akurat spotykających się w jednym punkcie jest skrajnie mało prawdopodobona, ilustrując tezę że spadek entropii jest skrajnie mało prawdopodobny nawet na poziomie mikroświata. Nie bardzo chce - przyroda tak sobie to wymyśliła, że musi nastąpić transport elektronów. Przez tkanki lecą fizyczne fotony o określonych długościach fali które nie bardzo chcą nabyć magicznych właściwości zmieniających ich oddziaływanie z materią na skutek zmiany nazwy eksperymentu w jakim uczestniczą. -
Ale ten eksperyment nie pokazuje żadnego działania wstecz w czasie. Fizyczną wartością którą można interpretować w kategorii sygnałów jest φ0. φT jest wielkością urojeniową powstałą w głowach autorów, do której zrekonstruowania użyto korelacji (czyli informacji) nabytych długo po tej obserwacji, i została ona zrekonstruowana wstecznie. Dlatego nie jest to mierzalny sygnał. Nie jest to wielkość odpowiadająca klasycznej obserwabli. Czy naprawdę musimy się bawić w głupiego i głupszego? Poznając dokładnie φ0 jesteśmy w stanie czysto lokalnie odtworzyć, kiedy pojawił się impuls wymuszający bez żadnych dodatkowych informacji z Andromedy zza milionów lat ( bo co do zasady można tam przenieść "końcówkę" doświadczenia zliczającą fotony - zdaję sobie sprawę że z takimi czysto fizycznymi argumentami ma kolega problem, na szczęście nie dotyczy to wszystkich czytelników forum). I to jest związek przyczynowo-skutkowy, to jest sygnalizacja! Żeby było jasne - wspomniany eksperyment w niczym się nie różni na poziomie koncepcyjnym od rekonstrukcji prążków interferencyjnych z użyciem dodatkowej informacji. Głębia optyczna w doświadczeniu to de facto współczynnik skalowania wykresów w skali logarytmicznej, pierwszy rysunek ze slajdu kolegi dla OD = 4.1 powinien mieć przeskalowaną krzywą φ0 o współczynnik e^4.1~= 60x (orientacyjnie liniowo bo powinniśmy być skrajnie daleko od stanu nasycenia), i wtedy doskonale widać że nic nie "zaczyna się wcześniej". To oczywiście nie przypadek, że kolega wybrał na slajd skrajny przypadek w którym najłatwiej się oszukać, bo kolega chce się oszukać, już wykresy z OD rzędu 2 jasno pokazują, że eksperyment jest interferencją w domenie czasowej, a "sygnalizacja" ponadświetlna - złudzeniem. Żeby zajmować się fizyką trzeba mieć operacyjne zrozumienie podstawowych pojęć. Kolega ma tendencję do "podstawiania" sobie w głowie/utożsamia różnych sytuacji tylko dlatego, że podobnie się nazywają albo są opisane podobnymi wzorami. Za bardzo fiksuje się kolega na jednym formalizmie! (I generalnie za bardzo fiksuje). Różne formalizmy w fizyce są równoważne tylko i wyłącznie na poziomie operacyjnym, tzn. dają identyczne przewidywania odnośnie wyników eksperymentów. Najpierw trzeba rozumieć co znaczy to słowo. Przyznam się, że koncepcji "przyczynowości w tył" nie ogarniam. Czekamy na artykuł w Nature. vixra.org przyjmie wszystko. Wtedy ginie koncepcja szyfrowania i nikt z tym nic nie zrobi. Dane będzie się ukrywać ("szyfrować") komunikacją kwantową która już była testowana nawet w sieciach satelitarnych! Już tam idę.
-
Tam już sobie wyjaśniliśmy, że nie. Te wszystkie zjawiska mają swoje standardowe opisy w ramach obowiązującej fizyki i po prostu nie widać czego miałyby dowodzić! To też nie jest żadna "odpowiedź przed impulsem" jeśli używać prawidłowych definicji fizycznych tych pojęć (w sensie FTL). Więc jedyną możliwością jest to, że próbujesz sobie tłumaczyć świat za pomocą pseudoklasycznego modelu intuicyjnego, i ze zdziwieniem dostrzegasz, że on gdzieś tam w części działa, z czego starasz się zrobić wielkie odkrycie. Zastanawiałeś się może, czemu te fizyczne żuczki które w końcu wyturlały sobie kulki z tymi doświadczeniami nie potrzebowały twojej teorii aby je zaproponować, i nie dostrzegły żadnych luk w opisie teoretycznym? Cały problem z twoją zabawą w fizyka polega na tym, że nie przedstawiasz sedna problemów i kluczowych rozumowań z różnych punktów widzenia. Jesteś jak matematyk, który wysmażył wielki kilkusetstronicowy totalnie hermetyczny dowód z setką lematów nie mających żadnego związku z czymkolwiek innym. Wtedy może twierdzenie rzeczywiście jest prawdziwe, tylko że zamiast lepszego wyjaśnienia dostajemy kolejne wydania tomów z dowodem, ze zmienioną czcionką. Fizyka jest systemem bardzo mocno połączonych ze sobą różnych abstrakcyjnych modeli używanych do opisu rzeczywistości, ale nie są one zupełne w tym sensie, że żaden jeszcze nie przewiduje wszystkich zjawisk. Mimo wszystko każdy przewiduje ścisłe ograniczenia. Na przykład w klasycznym świecie (czyli dużej skali) entropia zawsze rośnie, a sygnalizacja zawsze jest podświetlna. Więc jeśli uważasz, że twoja teoria przewiduje takie zdarzenia, to jest ona z automatu niefizyczna. Już sobie "wyjaśniliśmy" (cudzysłów bo nie zrozumiałeś), że symetria CPT nie zachowuje prawdopodobieństw. Przez co w dużej skali zjawiska odwrotne są możliwe, ale nieskończenie mało prawdopodobne. Jeśli tego nie zrozumiesz czy zaakceptujesz, to możesz odpuścić sobie uprawianie fizyki! Powinieneś też dojść samodzielnie po tylu latach do wniosku, że cały nurt "quantum foundation" to sekta przegrywów nie potrafiących ogarnąć mechaniki kwantowej i robiącej z tego swojego nieogarniania naukowy problem do rozwiązania. Jak już kiedyś pisałem na tym forum, ludzie którzy ogarniali mechanikę kwantową w ciągu 20 lat zbudowali reaktory i zrzucili bomby nuklearne, na dokładkę unifikując wszystkie klasyczne działy fizyki. Ale wystarczyło 100 lat, i mamy w fizyce wykształcone nisze ekologiczne dla pasożytów (bez obrazy). To jest humanistyczny pierdolet - "zachowana makroskopowo" nic nie znaczy. Musi kolega dostarczyć detali do swojego pytania. Uzupełniając - prawdopodobny proces fizyczny poddany symetrii CPT wraz ze wzrostem skali staje się coraz mniej prawdopodobny aż w końcu staje się niemożliwy. Czy tak ciężko to zrozumieć? dekomponowalnośc to pojęcie zalatujące myśleniem klasycznym, będące szukaniem "śrubek". Ostatecznie to pomiar wprowadza asymetrię i logiczną strzałkę czasu. W dużej skali mamy termodynamiczną strzałkę czasu. Muszą być sobie równe - to termodynamiczna strzałka czasu "klasycznego obserwatora" pozwala mu się posługiwać logiczną strzałką czasu w opisie kwantowym (działanie obserwatora wymaga wzrostu entropii) tego co ogarnia więc logiczna strzałka obserwowanego/modelowanego układu i termodynamiczna strzałka obserwatora muszą być sobie równe. A dla dużych obserwowanych układów pojawia się termodynamiczna strzałka czasu, równa logicznej. I oczywiście mamy równość strzałek termodynamicznych układu i obserwatora.
-
Dość dawno doszedłem do wniosku, że podstawowym celem pieśni była ochrona przekazu wartościowych informacji. Przekaz ustny wprowadza bardzo dużo błędów, użycie pieśni wykorzystujących rymy i inne ograniczenia w strukturze przekazu pozwala na wprowadzenie lepszej "korekcji błędów". Jednocześnie stworzenie takiego przekazu wymaga większego nakładu pracy i zdolności kognitywnych, co naturalnie pozwala dać większą wagę takim przekazom. Mamy zatem mechanizm sprzężenia zwrotnego dla fitness po obu stronach, a w pewnym momencie mógł zaskoczyć dobór grupowy gdy zaczęto tak przekazywać istotne informacje istotne dla przetrwania. Dlatego przekazy w tekstach piosenek znacznie lepiej trafiają do ludzi - to mechanizm biologiczny.
-
Parafrazując Einsteina nie potrzebujemy 100 różnych argumentów dla działania "analogów CPT", wystarczy nam jeden eksperyment P.S. Nie chcę być złośliwy, ale coś czuję że za te badania możesz kiedyś dostać Medal Fleischmanna-Ponsa "Za wybitne osiągnięcia zbyt obiecujące aby mogły być prawdziwe". I przyznam, że zmarnowałem kiedyś kilka miesięcy na wymyślenie podstaw teoretycznych "LENR" -ów. W końcu uznałem że zjawisko które wymaga dwóch cudów to o jeden za dużo aby traktować je jako potencjalnie prawdziwe.
-
Udało się określić miejsce pochodzenia ponad 90% meteorytów
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
To jest założenie na wstępie - bo chodzi o to że te, które spadły niedawno, powstały niedawno. Zupełnie oczywiste jest to, że te które powstały wcześniej zdążyły spaść wcześniej.- 6 odpowiedzi
-
- Ziemia
- główny pas asteroid
-
(i 3 więcej)
Oznaczone tagami:
-
Nie chcą poznać niewygodnej prawdy. Odbiorcy mediów przedkładają własne poglądy nad prawdę
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Psychologia
Umysł pracuje w sposób Bayesowski, co oznacza że na wstępie uwzględnia swoje poglądy odbierając treść komunikatu. Jeśli więc ktoś ma silne przekonania, to sprzeczne informacje nie są w stanie nimi zachwiać, a raczej uzna te wiadomości za niewiarygodne, i wszystkie im podobne. Gdy informacje potwierdzają jego poglądy, będzie je z automatu uważał za prawdziwe i wiarygodne. Problem powstaje, gdy ludzie są systemowo urabiani propagandą i zamykani w bańkach informacyjnych. -
Jak kupić ethereum? Jak kupić bitcoina? Poradnik początkującego inwestora
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Artykuły
Nikt nie ukrywał, że jest to narzędzie do mierzenia ilości głupków, liczących na późniejszy napływ jeszcze większych głupków. W sytuacji gdy wolumen bitcoina wzrósł ponad pewien poziom, i jest on traktowany jako instrument inwestycyjny, wiele instytucji finansowych jest prawnie zobligowanych do "inwestycji" w to gówno. Nie myl wartości z ceną. -
Cud rozmnożenia ryb nad Genezaret mógł mieć miejsce. Ale był zjawiskiem naturalnym
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Humanistyka
Będzie jak w serii dowcipów z radiem Erewań: "Po pierwsze nie bochenki, tylko ...".- 10 odpowiedzi
-
- jezioro Genezaret
- rozmnożenie ryb
-
(i 1 więcej)
Oznaczone tagami:
-
Neutrina miały inny wpływ na ewolucję wszechświata niż się wydawało?
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Astronomia i fizyka
Rozciąganie wszechświata nie zmniejsza energii układów związanych, więc w przypadku "podświetlnej" energii kinetycznej to nie byłbym taki pewny że transformuje się dokładnie w taki sam sposób co w przypadku cząsteczek bezmasowych. Rozumowanie jest raczej takie, że jeśli obiekt został wyemitowany z prędkością V0 przez obiekt który oddala się z prędkością vu, to jego obecna prędkość wynosi V0-Vu i to ta prędkość wyznacza nam energię kinetyczną ( a dokładniej trzeba dokonać transformacji relatywistycznej). W każdym razie jak obiekt jest bardzo lekki i jego prędkość była praktycznie równa C, to obecnie też będzie bardzo bliska C, natomiast jak była bardzo mała to obecnie też jest bardzo mała. Zbyt wolne cząsteczki będą miały znacznie mniejszy "horyzont zdarzeń" z którego są w stanie nadlecieć. Mam też wrażenie że po przetransformowaniu rozkład przestaje być stermalizowany.- 13 odpowiedzi
-
- ewolucja
- wszechświat
-
(i 1 więcej)
Oznaczone tagami:
-
Małpy od 40 milionów lat posiadają zdolność rozumienia gramatyki
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Nauki przyrodnicze
Mnie najbardziej rozczulają sami badacze. Rozpoznawanie gramatyki to banalnie proste zadanie w porównaniu do autonomicznego poruszania się w złożonym środowisku. Badania interdyscyplinarne chyba nie polegają na tym, że tworzy się prace na styku kilku odmiennych dyscyplin niż ta o której posiada się nominalne pojęcie... -
Czy małpa mogłaby napisać Szekspira? Uczeni sprawdzili twierdzenie o nieskończonej liczbie małp
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Pełne dokładne rozwiązanie wygląda na proste zadanie z programowania dynamicznego. Ilość ciągów 10^9 wyrazowych zawierających bananas to oczywiście suma ilości wyrazów zawierających słowo bananas na pierwszej pozycji czyli 30**(10^9-7) dodać ilość wyrazów w których pierwsze wystąpienie słowa bananas występuje na 2 pozycji itd. Chyba jednak lepiej poprawić kwestie okna. Otóż wcześniejsze wybory klawiszy niż ostatnie 6 nie zmieniają statystyki i pozostaje ona całkowicie stała przy jego przesuwaniu .Tylko poprzednie 6 liter może mieć minimalny wpływ na statystykę.- 11 odpowiedzi
-
- twierdzenie o nieskończonej liczbie małp
- Szekspir
-
(i 2 więcej)
Oznaczone tagami:
-
Czy małpa mogłaby napisać Szekspira? Uczeni sprawdzili twierdzenie o nieskończonej liczbie małp
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
No ale przecież podałem dwie poprawki do wzoru które pozbywają się tych problemów. Pierwsza dość jasno traci sens dla ilości losowań mniejszej niż 7, a druga zdecydowanie unika prawdopodobieństw powyżej 100%. Te wzory przechodzą w siebie w kolejnych przybliżeniach.- 11 odpowiedzi
-
- twierdzenie o nieskończonej liczbie małp
- Szekspir
-
(i 2 więcej)
Oznaczone tagami:
-
Czy małpa mogłaby napisać Szekspira? Uczeni sprawdzili twierdzenie o nieskończonej liczbie małp
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Rozkład po ASCII czy wyrazach raczej nie wskazywał że chodzi o model statystyczny dla zachowania małpy, zwłaszcza że wyraźnie napisano: Tam nie ma równości tylko falka, co oznacza rachunek przybliżony, w dodatku dla małych prawdopodobieństw. Ale prawidłowy bardziej prawidłowy wzór to (10^9-7)/30^7 - dla małych prawdopodobieństw. Jeszcze dokładniejszy to: 1-(1-(1/30)^7)^(10^9-7), Gdzie przesuwamy okno o długości 7 i stwierdzamy, że kolejne losowane litery nie stanowią wyrazu "bananas". Nie jest to dokładne: Brak wyrazu "bananas" przy poprzednim potencjalnym rozpoczęciu oznacza, że mogło to nastąpić z powodu, że druga litera była różna od "a", czyli szanse że wylosowane będzie b są większe. Nie do końca są to zatem zdarzenia niezależne, więc wymnażanie jest przybliżeniem.- 11 odpowiedzi
-
- twierdzenie o nieskończonej liczbie małp
- Szekspir
-
(i 2 więcej)
Oznaczone tagami:
-
Czy małpa mogłaby napisać Szekspira? Uczeni sprawdzili twierdzenie o nieskończonej liczbie małp
peceed odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Naukowcy nie mający szans na Nobla postanowili się przerzucić na igNoble. A to jak widać coraz twardsza konkurencja. Jak widać nie zrozumiał kolega prostego modelu: Żadne zaawansowane modele danych nie mają żadnego zastosowania, co jest zawarte implicite w w sformułowaniu "małpy". Do tego zupełnie błędnie zajmuje się kolega modelem danych dla generowanego tekstu, zamiast zająć się modelem statystycznym dla klawiatury: czy małpy aby na pewno wybierają swoje guziki przypadkowo. Prawdopodobieństwo zależy od entropii obliczonej z użyciem modelu w ramach którego małpy naciskają guziki. A mogą mieć skłonności do walenia po kilka razy w ten sam klawisz z rzędu... Mogą mieć leniwą łapkę i skupiać się na tym samym rejonie- 11 odpowiedzi
-
- twierdzenie o nieskończonej liczbie małp
- Szekspir
-
(i 2 więcej)
Oznaczone tagami: