Skocz do zawartości
Forum Kopalni Wiedzy

Jarek Duda

Użytkownicy
  • Liczba zawartości

    1575
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    85

Ostatnia wygrana Jarek Duda w dniu 20 listopada

Użytkownicy przyznają Jarek Duda punkty reputacji!

Reputacja

139 Wyśmienita

2 obserwujących

O Jarek Duda

  • Tytuł
    Lis Major
  • Urodziny 03.06.1980

Informacje szczegółowe

  • Płeć
    Mężczyzna

Ostatnie wizyty

Blok z ostatnimi odwiedzającymi dany profil jest wyłączony i nie jest wyświetlany użytkownikom.

  1. Też liczyłem np. na attosekundowe pomiary przejść atomowych jak https://science.sciencemag.org/content/328/5986/1658 O fotonie rzeczywiście niewiele wiemy, np. dlaczego ta konfiguracja pola EM nie dysypuje (podejrzewam że moment pędu jest kluczowy jak fala typu wir za śrubą okrętową), jaki ma mniej więcej rozmiar/ile trwa proces emisji (attosekundy) ... Jest kilka odważnych artykułów jak "Einstein’s Photon Concept Quantified by the Bohr Model of the Photon" https://arxiv.org/pdf/quant-ph/0506231.pdf "1) Its length of λ is confirmed by: – the generation of laser pulses that are just a few periods long; – for the radiation from an atom to be monochromatic (as observed), the emission must take place within one period [10]; – the sub-picosecond response time of the photoelectric effect [11]; 2) The diameter of λ/π is confirmed by: – he attenuation of direct (undiffracted) transmission of circularly polarized light through slits narrower than λ/π: our own measurements of the effective diameter of microwaves [8,p.166] confirmed this within the experimental error of 0.5%; – the resolving power of a microscope (with monochromatic light) being “a little less than a third of the wavelength”; λ/π is 5% less than λ/3, [12];" Też polecam np. https://www.researchgate.net/publication/351493979_The_quantum_and_electromagnetic_process_of_photon_emission_by_the_hydrogen_atom - zaczyna od gęstości elektronu w jednym orbitalu, ewoluuje ją do drugiego i bada kształt wynikłej fali EM.
  2. Artykuł: https://www.science.org/doi/10.1126/science.adr2464 Diagram poniżej z https://phys.org/news/2024-11-physicists-fully-mechanical-qubit.html Najbardziej interesuje mnie preparacja stanu: "the current sloshing in the superconducting qubit would excite vibrations in the mechanical oscillator." - czyli jeśli dobrze rozumiem, impulsem mikrofalowym sprzęgają mechaniczny rezonator z nadprzewodzącym qubitem, wymuszając jego wartość - jeśli tak, to dlaczego wolno tylko na początku obliczeń, a nie też na końcu dla 2WQC ( https://www.qaif.org/2wqc )?
  3. Podczas gdy niczego nie możemy być pewni, dla rozwoju nauki potrzebujemy na czymś bazować - w mainstreamowej fizyce na szczycie zaufania są CPT symetryczne modele lagranżowskie, jak QFT modelu standardowego czy ogólna teoria względności - którym ponoć brakuje już tylko unifikacji dla pełnego zrozumienia fizyki (ja bym dodał szczególnie obraz nieperturbacyjny, czyli np.: jaka jest struktura "jabłka" w poprawnym perturbacyjnym "jabłko + jabłko = 2 jabłka"). Natomiast druga zasada termodynamiki to tylko własność efektywnych przybliżeń rozwiązania, zakaz superluminal/retrocausal to są właściwie tylko ludzkie intuicje, jest pełno teoretycznie dozwolonych konstrukcji które je łamią, z czym zespoły Feynmanowskie QFT nie mają żadnego problemu ( https://en.wikipedia.org/wiki/Novikov_self-consistency_principle ) - jak cykliczny wszechświat, zamiana czasu z przestrzenią pod horyzontem zdarzeń, wormhole, rozwiązania tachionowe - w nauce warto takie rzeczy badać: albo doprowadzając do formalnego dowodu, a może szukania kontrprzykładów czy dalej realistycznych sposobów ich obchodzenia, jak wykorzystanie fundamentalnej symetrii CPT fizyki. Przykładowo jeśli było Wielkie Odbicie, wszytko było wtedy zlokalizowane czyli entropia była minimalna - czyli musiała rosnąć w obu kierunkach czasowych, przy hipotetycznym cyklicznym kolejnym zeszłaby znowu do tego minimum entropii ... druga zasada termodynamiki jest fundamentalnie też CPT symetryczna - jest tendencją do wzrostu entropii w obu kierunkach czasowych od sytuacji nisko-entropijnej jak Wielkie Odbicie. Z perspektywy naszej wiedzy: jeśli wiemy tylko że w danym momencie wszystkie cząstki były w lewym z dwóch połączonych pojemników, próbując z tego przewidywać sytuację przed i po, w obu kierunkach czasowych entropia rośnie - rozkładu zakładanego w naszych głowach, którym fizyka się nie przejmuje - rozwiązując CPT symetrycznymi równaniami obraz fundamentalny (nie efektywny, nieperturbacyjny). Przykład konstrukcji teoretycznie dozwolonej przez ogólną teorię względności, która łamie powyższe założenia, to nieorientowalny wormhole ( https://en.wikipedia.org/wiki/Non-orientable_wormhole ) np. w kształcie butelki Kleina - przelatując przez niego aplikowana byłaby symetria P i/lub T - przy tej drugiej: m.in. odwracałby się gradient entropii, równania absorpcji-stymulowanej emisji lasera zamieniałyby się miejscami, preparacja stanu <0| komputera kwantowego stałaby się postparacją |0> szukaną dla 2WQC ( https://www.qaif.org/2wqc ):
  4. Współczesna fizyka statystyczna to: nie znając parametrów statystycznych jak 'p' poniżej, (nam) najbezpieczniej założyć maksymalizujące entropię - ponieważ odpowiadają najszybciej rosnącym podzbiorom, kombinatorycznie dominują pozostałe, szczególnie asymptotycznie. Odpowiada to rozkładowi jednorodnemu, albo Boltzmannowskiemu jeśli dołożymy więzy energetyczne - z których buduje się fizykę statystyczną (najlepiej 4D scenariuszy dla zgodności z kwantowymi przewidywaniami). https://en.wikipedia.org/wiki/Principle_of_maximum_entropy
  5. Działające podstawowe opisy fizyki to CPT symetryczny formalizm lagranżowski - QFT modelu standardowego, oraz ogólna teoria względności - ponoć prawie idealnie wszystko przewidujące ... ... czyli matematyka, mainstreamowi fizycy wierzą że wszystko z niej/nich wynika, że jedyne co zostało to zunifikować obie - uważasz że czego im brakuje? Natomiast fizyka statystyczna to z definicji modele efektywne na podstawie zasady maksymalizacji entropii - najbezpieczniejsze dla nas założenia rozkładów, przy naszej niepełnej wiedzy ... nasze narzędzia ułatwiające nam życie, nie coś na podstawie czego fundamentalnie działa fizyka. Co do tego że powinienem się zająć swoimi tematami, oprócz kodera entropii którego pewnie też używacie, zacząłem i sporo pracowałem nad MERW ( https://en.m.wikipedia.org/wiki/Maximal_entropy_random_walk ) - cenię fizykę statystyczną, entropię ... i znam ich ograniczenia.
  6. Jeszcze raz, entropię dostajesz przybliżając różnymi uśrednieniami - po przybliżeniu można pokazywać wzrosty, podczas gdy naprawdę (przed przybliżeniem) może być np. cykliczne zachowanie entropii. Owszem obserwujemy wzrost entropii, ale tylko jako lokalna własność rozwiązania, jak siedząc w jeziorze blisko miejsca rzucenia kamienia - nie ma podstaw twierdzić że tak będzie zawsze i wszędzie, np. przy śmierci termicznej w przyszłości entropia stanie, jeśli było Wielkie Odbicie to przed nim entropia raczej rosła w przeciwnym kierunku, przy cyklicznym wszechświecie entropia raczej zmienia się cyklicznie. Natomiast symetria CPT jest po prostu konieczna w teoriach które działają, rozwiązywanymi głównie zespołami Feynmanowskimi po 4D scenariuszach - co znowu jest fundamentalnie CPT symetryczne. Może chłopski rozum osoby bez wykształcenia w fizyce nie pozwala, ale to co działa jak zespoły Feynmanowskie nie widzą tutaj problemu. Sory ale fizyka to matematyka - tego z Kaku się nie nauczysz. Problem zrozumienia fizyki to jest właśnie ta pycha narzucania ludzkich intuicji - którymi fizyka się nie przejmuje, żeby ją zrozumieć trzeba zaakceptować teorie dające poprawne predykcje - czyli formalizmy lagranżowskie jak QFT, EM, GRT ... wszystkie CPT symetryczne. Nie można nimi przesyłać informacji ale QM ma pełno efektów superluminal i retrocausal. GRT np. pod horyzontem czarnej dziury zamieniania przestrzeń z czasem, może trudno je zrealizować ale teoretycznie zezwala na wormhole. Teorie pola teoretycznie zezwalają na rozwiązania tachionowe - wymieniając kierunek przestrzenny z czasowym ... intuicja niemożliwości nie wystarczy - potrzebujesz dowód ...
  7. Ehhh jak grochem o ścianę ... sorry ale z popularnonaukowych nie nauczysz się fizyki - chcesz nie gadać tylko coś zrozumieć, skończ chociaż licencjat z fizyki. Jeszcze raz: są własności fundamentalne jak symetria CPT równań rządzących fizyką, oraz efektywne własności rozwiązania - jak fundamentalnie symetryczna powierzchnia jeziora, ze złamaniem symetrii wrzuceniem kamienia. https://en.wikipedia.org/wiki/CPT_symmetry : "The CPT theorem says that CPT symmetry holds for all physical phenomena, or more precisely, that any Lorentz invariant local quantum field theory with a Hermitian Hamiltonian must have CPT symmetry. " Jeszcze raz polecam Kac ring ( https://en.wikipedia.org/wiki/Kac_ring ). Mając "dowód" wzrostu entropii dla symetrycznego modelu, używając go po zastosowaniu symetrii dostajesz wzrost w przeciwnym kierunku - sprzeczność ( https://en.wikipedia.org/wiki/Loschmidt's_paradox ). Czyli taki "dowód" musi zawierać przybliżenie (~średniopolowe "stosszahlansatz"), jak zastąpienie klasycznych pozycji cząstek np. ich ilością w lewym zbiorniku poniżej - w pierwszym mamy np. tw. o powracaniu Poincare, a po przybliżeniu można dowodzić wzrost entropii - co nie zgadza się z rozwiązaniami. Wzrost entropii to nie jest fundamentalna własność, tylko uśredniającego przybliżenia - w przeciwieństwie do symetrii. Superluminal i retrocausal to codzienność też eksperymentalnej mechaniki kwantowej (np. EPR, Wheeler, delayed choice), co z jednej strony jeszcze nie znaczy że można przesyłać tak informację, a z drugiej gdzie jest dowód niemożliwości? Ja nie znam, wręcz przeciwnie - jest wiele teoretycznie dozwolonych możliwości, jak wormhole dozwolone przez OTW, czy tachiony - teoretycznie dozwolone w obszarach gdzie pole jest w pobliżu maksimum potencjału np. wymieniając czas i przestrzeń w sine-Gordon phi_xx - phi_tt = V(phi) ...
  8. Podsumowując, jest pełno testów eksperymentalnych symetrii CPT w skali mikro: https://arxiv.org/pdf/0801.0287 Brakuje w skali makro jak proponowane ( - https://arxiv.org/pdf/2409.15399). Niewykluczone że jest łamana, choć dekomponując znaczyłoby to też lamanie w skali mikro. Robię co mogę żeby zorganizować takie testy, ale nie jest łatwe ... jeśli jest zachowana to 2WQC są kwestią czasu, a jeśli łamana to warto zrozumieć szczegóły. Pozdrawiam
  9. Spotykamy się co sobotę od wielu miesięcy, te fundamenty przedyskutowaliśmy z wielu perspektyw, mieliśmy 40 praktykantów z https://qworld.net/qintern-2024/ ... Rzeczywiście matematycznie takie sprzężone state preparation działa jak postselekcja, tylko z poprawioną szansą sukcesu. Co do wzrostu entropii, jak wspominałem unikamy go w unitarnej ewolucji komputera kwantowego - pytanie o warunki brzegowe, odwrócenie użytego impulsu je zamienia, nie znaleźliśmy fundamentalnych przeszkód, aczkolwiek realizacja może być trudna - trzeba przetestować różne podejścia. Mainstream wierzy że fundmantalnie fizyka to CPT symetryczne QFT, rozwiązywane zespołami Feynmanowskimi po 4D scenariuszach - tam nie ma problemów ustawiania warunków brzegowych z dwóch stron (jak 2WQC), co zresztą powszechnie się robi np. analizie danych z LHC: https://en.wikipedia.org/wiki/S-matrix#Interaction_picture Ogólnie jeśli "istnieje preparacja stanu |0>", oraz "fizyka jest CPT symetryczna" to "istnieje sprzężona wersja preparacji stanów <0|" - żeby zaprzeczyć potrzebujesz albo zanegować istnienie komputerów kwantowych, albo pokazać łamanie CPT ... Ale chyba się powtarzamy ... pozdrawiam
  10. Są podejścia qubitów na solitonach topologicznych np. poniżej z https://www.science.org/doi/10.1126/sciadv.abp8371 dla ciekłych kryształów , może warto też w stronę topological quantum computers - owszem mam na uwadze, szczególnie że preparacja stanu tam jest bardzo symetryczna: łatwo ulepszyć do 2WQC.
  11. Dyskutowałem 2WQC w dziesiątkach miejsc, ze specjalistami - jedyne kontrargumenty to że potężniejsze niż obecne 1WQC - z czym całkowicie się zgadzam, ale to jeszcze nie znaczy że niemożliwe - specjalistów raczej przekonuję że możliwe, powstało kilka artykułów różnych autorów ( https://www.qaif.org/2wqc ), mamy plany testów na kupowanych komputerach kwantowych jak IQM ... Dla wielu technologii komputerów kwantowych preparacja stanu to impuls EM - wykonując odwrotny impuls na końcu V(t) -> V(-t), z perspektywy symetrii CPT czym to się będzie różniło od oryginalnej preparacji stanu? Np. dla silicon quantum dots ten impuls jest dla przetunelowania elektronów - wykonując na końcu odwrotny impuls, z perspektywy CPT czym to się będzie różniło od oryginalnego? Owszem gradientem entropii (dookoła odseparowanej unitarnej ewolucji), ale dlaczego miałoby to wpływać na wynik impulsu dla przetunelowania elektronu? Widzę że wykształceni na Kaku będą pluć bo pomysł Polaka nie Amerykanina, ale proszę spróbuj wskazać chociaż jeden merytoryczny kontrargument.
  12. Są przeróżne transfery energii w chemii - zarówno za pomocą fotonów, jak i bez ( https://en.wikipedia.org/wiki/Internal_conversion_(chemistry) ) ... a w biochemii przez miliardy lat ewolucji to już kosmos, jak różne enzymy przekazujące część energii między molekułami, zbieranie energii z przeskakującego elektronu np. w fotosyntezie ... https://en.wikipedia.org/wiki/Intersystem_crossing Lasery o wąskim spektrum potrafią bardzo precyzyjnie celować w konkretną strzałkę na takim diagramie - zwykle ekscytując "w górę", ale np. w STED ułatwia deekscytację "w dół" (~3-stanowego barwnika) - np. izolatorem optycznym powinniśmy być w stanie ograniczyć do jednego z tych 2 trybów. Wzbudzone w biologii to np. ATP czy inne wyniki ukierunkowanego przekazywania energii między molekułami, pochodzącej zwykle z mitochondriów z glukozy w cyklu Krebsa ( https://pl.wikipedia.org/wiki/Cykl_kwasu_cytrynowego ) Molekuły jak ATP też energetycznie wyglądają podobnie jak powyżej - teoretycznie mają możliwość szybkiego oddania energii jako foton, ale ewolucja zrobiła co mogła żeby to spowolnić - co moglibyśmy lokalnie popsuć/przyśpieszyć za pomocą lasera jak w mikroskopie STED. Co do przeźroczystości, wzbudzanie przez laser traci energię wiązki z ilością wzbudzanych, możliwości do tego po drodze - atomów/molekuł w stanie podstawowym (kropek na dole na diagramie). Czyli powodowanie deekscytacji powinno tracić tą możliwość z ilością po drodze w stanie wzbudzonym (kropek na górze) - tych drugich jest zwykle znaczni mniej, czyli transparencja powinna być znacznie lepsza. Ale takich możliwości przejść w biologii jest kosmiczna ilość - optymalizacja częstotliwości (+polaryzacji z chiralności) pod onkoterapię i inne zastosowania to będą duuuuże badania. Oczywiście raczej wszelkie onkoterapie mają też poważne skutki uboczne - więc trzeba szukać kolejne generacje które mają mniejsze. Przy proponowanym lokalnym np. przyśpieszeniu degradacji ATP, mówimy o uwalnianiu z nich nadmiarowych fotonów pewnie podczerwonych - zaraz zamienianych w energię termiczną, to nie jest promieniowanie jonizujące żeby powodować mutacje. Jeśli potwierdzi się lepsza przeźroczystość, to np. zwiększamy taką degradację ATP w nowotworze o kilkaset procent (zagładzając i podgrzewając), a dla tkanek pośrednich o kilka procent lub mniej - np. obracającą się macierzą laserów diodowych o wiązkach przecinających się na osi obrotu w tkance nowotworowej. Były niedawno pomysły picia wybielacza ... z perspektywy onkoterapii blisko jest fotodynamiczna - podajemy lokalnie fotouczulacz i oświetlamy: https://pl.wikipedia.org/wiki/Terapia_fotodynamiczna
  13. Wiązkę ekscytującą zatrzymują atomy/molekuły w stanie podstawowym, więc deekscytucjącą powinny te w stanie wzbudzonym - których rzeczywiście jest znacznie mniej, więc organizm powinien być prawie przeźroczysty ... ... z wyjątkiem wzbudzonych deekscytujących w wybranej energii - np. dla deekcytacji ATP żeby zagłodzić tkankę nowotworową i lokalnie podgrzać ... albo żeby precyzyjnie zinhibować jakiś cykl metaboliczny.
  14. Mainstream twierdzi że brakuje tylko unifikacji modelu standardowego z ogólną teorią względności - oba to formalizmy lagranżowskie, CPT/T symetryczne ... nie spotkałem się z rozsądnymi teoriami które by wychodziły poza, nie słyszałem też sensownych argumentów niemożliwości istnienia takiej teorii ... a wychodzenie z zakładania niemożliwości zrozumienia to byłby antynaukowy kreacjonizm. Czego brakuje to głównie unifikacja, oraz obraz nieperturbacyjny - czyli szukanie konfiguracji "EFEKTYWNE PRZYBLIŻANYCH" diagramami Feynmana modelu standardowego, też naprawiając te wszystkie nieskończoności/rozbieżności np. energii próżni ... owszem szuka się ich dla niektórych cząstek w lattice QCD, podczas gdy powinno się dla wszystkich - łącznie z elektronem, ale jest to jedno z wielu podstawowych pytań ignorowanych przez mainstream. Pisałem tylko że obserwuje odpowiedź przed impulsem - co jest na wykresach w artykule, z interpretacją że foton spędził ujemny czas w chmurze - z czym się nie zgadzam, proponując alternatywne wyjaśnienie na symetrii CPT - w którą większość fizyków wierzy, aczkolwiek jest wbrew "chłopskiemu rozumowi". Jeśli jest inne wytłumaczenie otrzymanych wyników, proszę podziel się.
  15. Owszem, np. terapia fotodynamiczna ma podwójne targetowanie, ale w większość radioterapii wystarczy pozycyjne. Owszem nie ma żadnej magii, nigdy nie twierdziłem inaczej - ale powodowanie deekscytacji zewnętrznego celu jednak jest dość nieintuicyjne, więc dopiero początki zastosowań - dobry moment żeby szukać kolejnych ... Zwykle taki efekt jest usuwany jako niechciany izolatorem optycznym w jednej pozycji, przestawiając w przeciwną powinniśmy go odseparować od powodowania wzbudzenia. Podejrzewam że taki sprzęt do radioterapii ASE, czyli np. macierz laserów diodowych z systemem naprowadzania, za jakąś dekadę będzie standardowym wyposażeniem szpitali onkologicznych, oferując zdrowszą i tańszą wersję standardowego napromieniowywania ... niestety raczej nie Made in Poland, pewnie raczej z Chin.
×
×
  • Dodaj nową pozycję...