
Jarek Duda
Użytkownicy-
Liczba zawartości
1705 -
Rejestracja
-
Ostatnia wizyta
-
Wygrane w rankingu
87
Zawartość dodana przez Jarek Duda
-
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Entropia von Neumanna w unitarnej ewolucji (np. funkcji falowej wszechświata) jest stała - nie ma drugiej zasady termodynamiki. Widzę że obie zalinkowane prace zakładają znalezienie minimum energii - co w praktyce nie działa ponieważ dla trudnych problemów ilość lokalnych minimów (fałszywych rozwiązań) rośnie wykładniczo. W praktyce układ nie osiąga minimum energii, tylko rozkład Boltzmannowski stanów - na czym opiera się podejście o którym mówię, unikając problemu wykładniczej ilości lokalnych minimów. Konkretnie, układ jest tak dobrany żeby ograniczyć zespół możliwych ścieżek do odpowiadających wartościowaniom zmiennych które spełniają wszystkie alternatywy.- 177 odpowiedzi
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami:
-
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Nie wiem co ma piernik do wiatraka - fundamentalne teorie są czasowo/CPT symetryczne, diagramy Feynmana nie determinują kierunku czasu, w QFT nie ma entropii. Żeby w ogóle móc mówić o entropii, trzeba przejść do obrazu efektywnego - matematycznie uśrednić, np. zamieniając cząstki Gaussami, średnimi gęstościami - taki model statystyczny (z entropią) nie wie gdzie są poszczególne cząstki, ale bardziej fundamentalny bez entropii jak QFT wie. Twierdzenia "dowodzące" wzrost entropii dla symetrycznych teorii można sprowadzić do sprzeczności "dowodząc" też w drugą stronę po zastosowaniu symetrii. One zawsze ukrywają subtelne założenie o uśrednianiu, tzw. "Stosszahlansatz" np. w https://en.wikipedia.org/wiki/H-theorem Polecam Kac ring - prosty symetryczny układ (koraliki na okręgu, zmieniają kolor przechodząc przez znacznik), w którym łatwo tak "udowodnić" wzrost entropii dzięki tego typu założeniu (że przed znacznikami jest średni rozkład) ... podczas gdy bez przybliżania entropia ewoluuje tu np. cyklicznie: http://www.maths.usyd.edu.au/u/gottwald/preprints/kac-ring.pdf Jaka symetria w czasie? Układ który pokazałem nie używa czasu, tylko założenia rozkładu Boltzmannowskiego w przestrzeni - jeśli jest ono spełnione, to rozwiąże 3-SATa. Dokładnie to mówię - rozwiązanie takiego układu Isinga kosztowałoby wykładniczo długi czas na komputerze klasycznym, chcemy wykorzystać fizykę: żeby szybko nam rozwiązała zakodowany tam np. NP-zupełny problem.- 177 odpowiedzi
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami:
-
SARS, Ebola, Marburg i koronawirus 2019-nCoV – łączą je nietoperze
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Przypuszczam że z HIV chodzi o problem atakowania układu immunologicznego - przez co taka infekcja zwykle ciągnie się całe życie. Natomiast przy koronawirusie raczej tego nie ma, mam nadzieję że podobnie jak dla przeziębienia czy grypy, "recovered" to już nie są nosiciele (?) - co wymaga kompletnego usunięcia go z organizmu (ERVs?) i zwykle dzieje się "samoistnie": czyli dokonał tego układ immunologiczny. Więc tutaj terapia przeciwwirusowa oznacza głównie chwilowe wspomożenie naturalnej obrony organizmu - co często może być kwestią życia lub śmierci, szczególnie że podczas gdy śmiertelność dla grypy jest ~0.1%, dla NCov jest ~2%. Dla zatrzymania epidemii najlepsza byłaby szczepionka, ale jej opracowanie + testy kliniczne to raczej kwestia rzędu roku, dyskusja z kimś wyglądającym kompetentnie: https://www.scienceforums.net/topic/121181-provisional-vaccine-for-fast-spreading-new-viruses/ Gdzieś były doniesienia o udanej terapii antywirusowej - dla innego wirusa, ale to są często podobne mechanizmy jak ten popularny acyclovir podmieniający nukleotyd, tutaj były jakieś leki oparte na polimerazach. Tylko trudno coś wnioskować z pojedynczego przypadku. Przypuszczam że nietoperze mają głównie odporność opartą na przeciwciałach, których wyizolowanie daje dużo opcji aż do western blotów ... ale pewnie też doprowadzenie tego do terapii to jest kwestia rzędu roku. Miejmy nadzieję że uda się powstrzymać epidemię, tempo przyrostu niby spada z dnia na dzień (dzięki bardzo ostrym środkom jak zamykanie ludzi w ich domach), ale może to być też kwestią utrudnienia detekcji przy tak dużych liczbach.- 37 odpowiedzi
-
- koronawirus 2019-nCoV
- SARS
- (i 6 więcej)
-
Transposony to trochę takie "gołe wirusy", raczej nie opuszczające hosta (?), bardzo skuteczne: ponoć stanowią ~44% naszego DNA: https://en.wikipedia.org/wiki/Transposable_element Mają swoje enzymy pomocnicze, ale jakoś nie widzę dla nich możliwości ewolucji kapsydu (?) Dużo łatwiej sobie wyobrazić wyjście z jednokomórkowca, który tak rozbudowuje białka powierzchniowe że w pewnym momencie przestaje potrzebować błony fosfolipidowej. Ściana komórkowa jest trochę podobnym przykładem rozbudowy z cukrów - jednak zachowując błonę.
- 5 odpowiedzi
-
Chyba rzeczywiście przesadziłem z możliwością osobnej selekcji naturalnej, ale skoro są znajdowane w dużej ilości w krwiobiegu to chyba makrofagi ich nie zjadają (przynajmniej nie wystarczająco szybko). Wg. https://en.wikipedia.org/wiki/Apoptosis : np. " After the shrinking, the plasma membrane blebs and folds around different organelles. " - to by się zgadzało (znajdują enkapsulowane), mogą też zostawać z nekrozy. Dalej mogą być po prostu efektem ubocznym, z czasem trawione ... choć może rzeczywiście mogą też łączyć się z innymi komórkami - co pewnie wymagałoby specjalnych mechanizmów, dodatkowych białek w tej błonie - warto sprawdzić czy bardzo odbiega ona od zwykłej błony. Co do ewolucji wirusów, na pierwszy rzut oka transpozony wydają się ich przodkiem ... na drugi ewolucja kapsydów wydaje się dość nieprawdopodobna z tej strony (?) Nie mam pojęcia o megawirusach, ale ogólnie komórki nowotworowe przełączają się na osobną ewolucję jako kolonialne jednokomórkowce - czasem nawet zmieniając hosta jak w DFTD diabłów tasmańskich. Do czego mogłaby doprowadzić ich dalsza ewolucja? Nie wiem, ale megawirusy mają gigantyczne kapsy np. ~400nm, co wymaga dość nietypowych wyspecjalizowanych białek - choć może kapsydy oryginalnie powstały dla wymiany błony jakiegoś jednokomórkowca na coś bardziej praktycznego, wtedy małe wirusy mogłyby wyewoluować ze zmniejszania/optymalizacji dużych...
- 5 odpowiedzi
-
SARS, Ebola, Marburg i koronawirus 2019-nCoV – łączą je nietoperze
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Skoro ich system odpornościowy dobrze sobie radzi z tymi wirusami, nie dałoby się tego użyć dla zrobienia czegoś w stylu surowicy, np. wyizolować i zsyntetyzować odpowiednie przeciwciała - podawane dla poprawienia odpowiedzi u zarażonego człowieka?- 37 odpowiedzi
-
- koronawirus 2019-nCoV
- SARS
- (i 6 więcej)
-
Ciekawy jestem co się dzieje z mitochondriami podczas apoptozy? To jest dość skomplikowany proces eukariotów, pewnie wykorzystujący funkcje cytoszkieletu - których może brakować mitochondriom: będącymi udomowionymi prokariotami ... dalej poddanymi selekcji naturalnej. Może zdarza im się przeżywać apoptozę - ich obecność w krwiobiegu nie musi wynikać z posiadania funkcji dla człowieka, może być produktem ubocznym, czy nawet wynikiem ich naturalnej selekcji.
- 5 odpowiedzi
-
Odkryto wirusa z genami nieznanymi nauce
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Nauki przyrodnicze
Chyba najciekawsze jest to że każdy taki gen to jest nowe białko, często enzym - maszynka zoptymalizowana przez miliony lat do konkretnego zadania ... które może mieć dla nas praktyczne znaczenie np. jako lek czy dla procesów (bio)technologicznych. Tylko pytanie co to znaczy "genów nieznanych nauce" - czy chodzi tylko o zmodyfikowane standardowe enzymy jak polimerazy, czy też jakieś rzeczywiście nowe?- 1 odpowiedź
-
Polscy naukowcy odkryli, co nie zmienia się w komórkach
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Nauki przyrodnicze
Daje do myślenia, są np. różnice mechaniczne między komórkami - ponoć często można rozróżniać nowotworowe mikroskopem sił atomowych ponieważ mają słabiej rozwinięty cytoszkielet. Lepkość mówi o stężeniach, są mechanizmy utrzymujące stałe stężenia jonów jak pompa sodowa-potasowa, wymagająca aktywnego użycia energii (ATP). Bardzo ważne jest też stężenie wody - błona komórkowa jest dość dobrze przepuszczalna dla niej, co wydaje się kluczowe dla wyrównania stężenia w całym organizmie (?) W cytozolu jest bardzo gęsto od białek - które zwykle mają ujemne sprzężenia zwrotne regulujące ich stężenia. Zaburzenia tych sprzężeń zwrotnych mogą prowadzić do patologicznych stężeń - szczególnie nadmiarowych jak przy prionach: system hamujący produkcję nie rozpoznaje zdeformowanych białek, prowadząc do złogów - pewnie też zwiększonej lepkości (skutek). Ale próba naprawiania lepkości tutaj byłaby trochę jak leczenie objawowe - chyba lepiej celować bezpośrednio w patologiczny mechanizm (?) -
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Owszem, raczej założenie Boltzmannowskości jest tylko przybliżone, ale jest ono analogiczne do założenia Feynmanowskości w mechanice kwantowej - które w takim razie może też jest tylko przybliżone, co raczej uniemożliwiłoby działanie np. algorytmu Shora w większej skali niż kilka bitów. Co do rozkładu Boltzmannowskiego po trajektoriach np. w Isingu, definiujemy energię pary E_ij, energię ścieżki jako suma E_ij po tej ścieżce, zakładamy że prawdopodobieństwo ścieżki jest proporcjonalne do exp(-beta * energia ścieżki). To jest coś innego niż minimalizacja energii - która mówi że osiągamy jeden stan o minimalnej energii, w fizyce statystycznej dostajemy zespół stanów a nie samo minimum. Idealny ferromagnetyk zachowuje spin - można go używać jako kabel. Idealny anty-ferromagnetyk wymusza przeciwny spin - jak bramka NOT. Brak oddziaływania pozwala na dowolne przejścia (bramka X) - np. do przygotowania zespołu 2^w spinów, czy nie-mierzenia danego spinu dla łamania Bella. W QM dzieje się to w czasie - od strony przyszłości potrafimy tylko mierzyć, dostając losową wartość. Shor super to wykorzystuje - zespół Feynamnowskich trajektorii zostaje w ten sposób ograniczony do dających tą samą (zmierzoną) wartość, z tego ograniczonego zespołu dostajemy podpowiedź do faktoryzacji. Żeby wymuszać od strony przyszłości, potrzebowalibyśmy CPT-analog przygotowania stanu ... Mam pomysł na CPT-analog lasera ( https://physics.stackexchange.com/questions/308106/causality-in-cpt-symmetry-analogue-of-free-electron-laser-stimulated-absorbtion ), dla przygotowania stanu nie mam (?)- 177 odpowiedzi
-
- 1
-
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami:
-
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
W subset-sum pytamy się czy istnieje podzbiór o zadanej sumie, możliwych podzbiorów w zbiorze o wielkości n jest 2^n, w NP-zupełnych (duże liczby) rzeczywiście ilość podzbiorów jest porównywalna ilość. Te podejścia np. na fotonach liczą wszystkie możliwe sumy po podzbiorach i sprawdzają czy jest zadana wartość - żeby dostała ona chociaż jeden foton, musielibyśmy zacząć od 2^n fotonów, czyli konieczne natężenie światła do użycia rośnie wykładniczo z wielkością problemów. Jeszcze większym problemem jest to że żeby sprawdzić czy jest foton dla pytanej wartości, potrzebowalibyśmy wykładniczo poprawiać rozdzielczość mikroskopu. Technika jest super do niusów, ale ciężko mi uwierzyć że kiedykolwiek będzie praktyczna - do czego potrzebowalibyśmy czegoś sprytniejszego niż testowanie 2^n podzbiorów. W subset-sum przybliżenie praktycznie nic nie mówi o prawdziwym rozwiązaniu - tutaj (z https://www.dropbox.com/s/nwyxf44u38i42d8/pnpslides.pdf) mam przykładowe posortowane dodatnie sumy podzbiorów z współczynnikami +1 (czarny kwadrat) lub -1 (biały) dla kilku zestawów liczb - na podstawie fałszywych rozwiązań (kolumny po lewej) potrzebujemy stwierdzić czy najbardziej lewa daje sumę 0 : Znam więcej przykładów gdzie jest wykładniczo wiele fałszywych rozwiązań które praktycznie nic nie mówią o prawdziwym. Pytanie czy są trudne problemy w których fałszywe rozwiązania: lokalne minima (o wartości bliskiej globalnemu) coś nam dają? Nie spotkałem się, no i jeśli by były to można też klasyczną numeryką szukać przybliżonych. Wyobraź sobie ogólnego Isinga z E_uv energią między sąsiadami, zapytaj się np. o prawdopodobieństwo 'u' w środku, dostaniesz Pr(u) = (psi_u)^2 i całą resztę dokładnie jak w MERW - jako że matematycznie to jest to samo. Jeśli założysz że fizyka używa Boltzmannowskiego rozkładu między możliwymi sekwencjami na takim komputerze na Isingu, wtedy rozwiąże naszego np. 3-SAT. Analogicznie działanie Shora jest uwarunkowane tym że fizyka używa rozkładu Feynanowskiego między sekwencjami - tym razem w kierunku czasowym. Owszem można się tak patrzeć, ale restrykcja tylko do wyników które losowo dały konkretne n bitów, oznacza zmniejszenie statystyki 2^n razy. Natomiast w przestrzennej realizacji jak Ising, nie ma problemu z zamontowaniem dużej ilości spinów z obu stron.- 177 odpowiedzi
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami:
-
Koronawirus uderza w rynek smartfonów
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Technologia
jest nadzieja - z https://en.wikipedia.org/wiki/2019–20_Wuhan_coronavirus_outbreak- 3 odpowiedzi
-
- 1
-
-
- koronawirus
- smartfony
-
(i 3 więcej)
Oznaczone tagami:
-
Skąd wziął się koronawirus 2019-nCoV? Jeśli nie znajdziemy źródła, epidemie mogą się powtarzać
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Artykuł z tym i z szerszym drzewkiem filogenetycznym: https://www.sciencemag.org/news/2020/01/mining-coronavirus-genomes-clues-outbreak-s-origins -
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
peceed, jedno pytanie: jaki rozkład powinna osiągnąć cząstka na przedziale [0,1]? Wszelkie chaosy, dyfuzje powiedzą że rozkład jednorodny rho=1. Jednak QM i MERW mówią że zlokalizowany: rho~sin^2. Skąd ta lokalizacja? MERW nie ma interferencji, ale jest dyfuzją zrobioną zgodnie z zasadą maksymalizacji entropii (Jaynes) - co jest konieczne dla modeli fizyki statystycznej. Dzięki temu naprawia rozbieżność dla rozkładu stacjonarnego: daje dokładnie taki sam jak kwantowy stan podstawowy. Dzieje się dzięki użyciu rozkładu Boltzmannowskiego po trajektoriach - który jest matematycznie analogiczny do Feynmanowskiego QM ... i jest powszechnie zakładany np. w modelu Isinga. Matematycznie też mamy mamy superpozycje, np. 2^w wartości dla ciągu w spinów ... na których możemy robić analogiczne bramki. Jasne można rozwiązywać np. 3-SAT w czasie wykładniczym, pytanie czy da się w czasie wielomianowym - pozwala na to np. założenie Boltzmannowskiego rozkładu po sekwencjach w takim Wick-rotated quantum computer. ps. Jest teraz głośno o tym "komputerze fotonicznym rozwiązującym NP-zupełne": https://advances.sciencemag.org/content/6/5/eaay5853 Ale niestety od kogoś kto przynajmniej udaje że nie rozumie trudności z subset-sum: https://en.wikipedia.org/wiki/Subset_sum_problem Czyli mamy zbiór liczb, pytanie jak wybrać podzbiór który np. sumuje się do ustalonej liczby. Sęk w tym że jeśli te liczby są małe, to można to tanio zrobić programowaniem dynamicznym: markujemy osiągalne wartości gdy używamy lub nie kolejnej liczby - ten zbiór rósł by wykładniczo chyba że są małe liczby: wtedy możemy wykorzystać to że dana suma jest osiągana na wiele sposobów. Subset-sum staje się NP-zupełny dopiero gdy tego nie możemy zrobić: kiedy używamy dużych liczb np. po 1000 cyfr ... w tej pracy skupiają się na wersji prostej, chociażby żeby móc wykryć czy jest foton w pytanej pozycji, potrzebowalibyśmy wykładniczo wzmacniać natężenie wchodzącego światła. Ogólnie subset-sum jest świetnym problemem żeby zrozumieć dlaczego adiabatyczne komputery kwantowe raczej nie mają sensu. Mianowicie ilość różnych podzbiorów jest 2^n dla zbioru liczb o wielkości n. Statystycznie te 2^n wartości dają mniej więcej rozkład Gaussa o szerokości ~sqrt(n). Czyli z n szerokość rośnie bardzo powoli, a ilość wartości w niej rośnie wykładniczo - zagęszczenie możliwych sum. Dookoła wartości sumy o którą się pytamy, w wąskim przedziale pojawia się wykładniczo wiele możliwych do osiągnięcia sum - fałszywych lokalnych minimów z perspektywy optymalizacji. Czyli z perspektywy adiabatycznych komputerów kwantowych oznacza to że spectral gap maleje wykładniczo - różnica między prawdziwym rozwiązaniem: globalnym minimum, a pierwszym fałszywym. Co oznacza wykładniczy czas obliczeń i konieczność wykładniczego obniżania temperatury. Też tam widać że te fałszywe lokalne minima nic nie mówią o prawdziwym: globalnym.- 177 odpowiedzi
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami:
-
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Siła oddziaływania monopol-monopol (np. elektryczny) jest 1/r^2, monopol-poruszający się dipol: v/r^3, dipol-dipol (np. dwa magnesy/spiny) jest 1/r^4. Ale nawet biorąc 1/r^3, przechodząc z angstrema do np. mikrometra w sieciach optycznych, spada ~10^12, czyli o niebo lepiej niż w komputerach kwantowych. Ten arXiv jest o nowym podejściu do liczenia modeli typu Isinga, spojrzenie na nie perspektywy pól Markova - które są znane dla ludzi z teorii informacji, ale praktycznie nieznane dla ludzi z condensed matter. Rozwinięcie do łamania Bella czy Wick-rotated quantum computers to na razie tylko dodatek, z którego pewnie kiedyś napiszę osobną pracą może z analogiem kwantowej korekcji błędów, ale ciężko stwierdzić kiedy. Ale ogólnie mając doświadczenie z komputerami kwantowymi to jest dość naturalne - kwestia zamiany Feynmanowskich zespołów, bramek na Boltzmannowskie - co matematycznie jest dość podobne. Nie ma interferencji, ale jest zgodność wielu własności, jak np. lokalizacyjne - jako rozkład stacjonarny dostajemy dokładnie to co w kwantowym stanie podstawowym, jak rho~sin^2 w [0,1] zamiast rho=1 w zwykłej dyfuzji. Ogólnie polecam przemyśleć MERW: https://en.wikipedia.org/wiki/Maximal_Entropy_Random_Walk- 177 odpowiedzi
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami:
-
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Oddziaływanie między spinami jako dipole magnetyczne maleje 1/r^4, jak w angstomach jest za dużo, to oddalmy np. do mikrometrów ... nie będzie zero, ale w komputerach kwantowych też nie jest idealnie.- 177 odpowiedzi
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami:
-
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Jak dla mnie nieoddziaływanie spinów jest tutaj najmniejszą trudnością, np. można drukować na niemagnetycznym podłożu czy wręcz w próżni w sieciach optycznych ( https://en.wikipedia.org/wiki/Optical_lattice ), oddzielać przestrzennie takie ścieżki etc. ... oczywiście nigdy nie będzie idealnie, ale w komputerach kwantowych też na to nie ma szans. No i można się obejść bez idealnych, analogicznie do korekcji błędów można np. wzmacniać różne efekty poprzez zrównoleglanie etc. Dużo większym problemem jest rzeczywiście pytanie czy rozkład Boltzmannowski w przestrzeni nie jest tylko przybliżeniem ... ale jeśli tak to dlaczego rozkład Feynmanowski w czasie miałby nie być też tylko przybliżeniem? Jeśli żyjemy w czasoprzestrzni, to są one swoimi matematycznymi odpowiednikami (czas i przestrzeń mają przeciwne sygnatury).- 177 odpowiedzi
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami:
-
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Oczywiście podczas gdy np. bramka NOT to antyferromagnetyk, pozostaje wiele technicznych problemów do zrealizowania takiego układu, przedstawioną idealizację trzeba zastąpić realizacją obchodzącą trudności ... ... ale np. z Shorem wcale nie jest lepiej, opierając się na podobnym założeniu: zespole Feynmanowskim po ścieżkach zamiast Boltzmannowskiego w Isingu ... po wydaniu miliardów dolarów błędy np. jednego CNOTa są na poziomie kilkunastu procent, a dla praktyczności potrzebujemy liczyć bezbłędnie setki tysięcy bramek, dodatkowo unikając dekoherencji. Korekcja błędów wymaga mnożenia ilości bramek - też niedoskonałych, dając błędne koło. To są alternatywne ścieżki rozwoju, z trochę innymi problemami, ale jak dla komputerów kwantowych szczytem marzeń jest faktoryzacja czyli łamanie RSA, na Isingu teoretycznie można nieporównywalnie więcej: rozwiązywać NP-zupełne, czyli np. błyskawicznie łamać już wszelką kryptografię. Poprawiony diagram (v4 https://arxiv.org/pdf/1912.13300 ):- 177 odpowiedzi
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami:
-
Opublikowano wyniki badań genetycznych 10 próbek koronawirusa 2019-nCoV
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Jedno pytanie to czy aby na pewno "wyleczeni" nie pozostają nosicielami? Pewnie jest jakiś niemały czas zanim zacznie się ich mieszać z resztą populacji (?) Drugie, skoro znana już jest sekwencja, to czy nie można by szybko zacząć syntetyzować jego zewnętrzne białka kapsydu/otoczki i podawać dożylnie w niewielkich ilościach jako prowizoryczna szczepionka - żeby wstępnie uczyć układ odpornościowy, szczególnie w obszarach gdzie wirus jest raczej nieunikniony?- 1 odpowiedź
-
- koronawirus
- 2019-nCoV
- (i 5 więcej)
-
Koronawirus z Wuhan może zostać z nami na stałe
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Działania ludzkie są kluczowym czynnikiem selekcyjnym dla patogenów, jednak zbyt mało od nas zależy żeby nazwać to sztuczną selekcją (choć jest i taka np. dla wirusów: http://news.mit.edu/2009/virus-battery-0402 ) ... chyba lepiej o tym myśleć jako o ewolucji w aktywnie modyfikowanym środowisku.- 11 odpowiedzi
-
- koronawirus
- 2019-nCoV
-
(i 5 więcej)
Oznaczone tagami:
-
Koronawirus z Wuhan może zostać z nami na stałe
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Ewolucyjnie dosłownie maksymalizowana jest ilość osobników w kolejnych pokoleniach - mając dwie podpopulacje z których jedna statystycznie prowadzi do trochę większej ilości osobników, asymptotycznie powinna ona całkowicie zdominować populacją ... Ale oczywiście to jest duże uproszczenie, tutaj nie mamy nieskończonego czasu ze statycznymi parametrami, tylko niezwykle szybko ewoluującą sytuację - selekcję na ilość osobników, najszybsze rozprzestrzenianie się w środowisku, np. z ludźmi aktywnie walczącymi z patogenem. Śmiertelność pewnie jest głównie efektem ubocznym "przeskoczenia" ze zwierzęcia na dość innego hosta ludzkiego, inną specyfikę populacji - też z perspektywy ewolucji patogenu jest dość negatywnym czynnikiem selekcyjnym. Do największej ilości osobników patogenu doprowadzają mutacje pozwalające w miarę po cichu dalej się rozprzestrzeniać w populacji - podobnie jak w przypadku wielu innych patogenów, które przeewoluuowały do w miarę niegroźnych acz powszechnych jak przeziębienie, grypa, odra ... co pewnie czeka też koronawirusa - w mniej niebezpiecznej wersji niż obecny. W przypadku poważniejszych epidemii w historii, patogen też wprowadzał czynnik selekcyjny na hosta - współczesny człowiek pewnie jest dość odporny na wiele historycznych patogenów, na przykład przypuszcza się (np. Jared Diamond) że za prawie wymarcie indian odpowiada różnica odporności wynikła z kontaktów ze zwierzętami hodowlanymi mieszkańców starego świata. ps. Co do eboli, udało się ją praktycznie wyeliminować - ukierunkowanymi działaniami ludzi.- 11 odpowiedzi
-
- koronawirus
- 2019-nCoV
-
(i 5 więcej)
Oznaczone tagami:
-
Koronawirus z Wuhan może zostać z nami na stałe
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Ten jak narazie ma wykładniczy wzrost: https://gisanddata.maps.arcgis.com/apps/opsdashboard/index.html#/bda7594740fd40299423467b48e9ecf6 Co więcej "recovered" może oznaczać nosiciela.- 11 odpowiedzi
-
- koronawirus
- 2019-nCoV
-
(i 5 więcej)
Oznaczone tagami:
-
Koronawirus z Wuhan może zostać z nami na stałe
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Medycyna
Z perspektywy wirusa, sukcesem ewolucyjnym nie jest wybicie wszystkich hostów jak w grach komputerowych, tylko zadomowienie się na stałe w populacji. Byłem kiedyś na świetnym wykładzie o ewolucji ospy (od https://dblp.org/pers/hd/b/Bier:Martin) - że stała się istotna dość niedawno dzięki rozwojowi miast, początkowo była dużo bardziej zabójcza, ewolucyjnie uspokajając się i zadomowiając na stałe w populacji - pewnie coś podobnego czeka koronawirus: stanie się łagodniejszym powszechnym zjawiskiem typu przeziębienia czy grypy.- 11 odpowiedzi
-
- 2
-
-
- koronawirus
- 2019-nCoV
-
(i 5 więcej)
Oznaczone tagami:
-
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Co do tego układu, dołączam chyba ciut lepszy diagram. W przestrzennej realizacji jako model Isinga, "montowanie amplitud" z dwóch stron jest względnie proste, np. - z lewej nieoddziaływujące spiny mają Boltzmannowską superpozycję 2^w możliwości (wychodzi jak próbujesz liczyć np. macierzą transferu), - z prawej wymuszenie spinów 1 to jest kwestia np. przyłożenia silnego pola magnetycznego. "Kabel" to silny ferromagnetyk, bramka NOT to anty-ferromagnetyk, ale z pozostałymi bramkami chyba byłoby ciężko np. OR. Ale ogólnie zgadzam się że największy problem to że założenie rozkładu Boltzmannowskiego w Isingu to raczej tylko przybliżenie ... ale w takim razie może zespoły Feynmanowskie też są tylko przybliżeniem? Jeśli tak to nie ma żadnych szans na praktyczność Shora. Ogólnie odnośnie mechaniki kwantowej, fajnie byłoby w końcu przestać machać rękami jaka ona jest niemożliwa do zrozumienia i wrócić do prawdziwych podstawowych pytań których nie rozumiemy - np. o konfigurację pól (m.in. EM) elektronu. Twierdzenie Bella niby zakazuje fizyki która byłaby realistyczna i lokalna. Formalizm Lagrażowski jak Model Standardowy niby jest lokalny i realistyczny ... a fizycy którzy go uprawiają zupełnie nie przejmują się Bellem. Więc tutaj tłumaczę nieporozumienie: problem w tym że w tw. Bella jest lokalność asymetryczna (narzucająca przeszłość->przyszłość), podczas gdy fizyka fundamentalnie jest CPT symetryczna - jak w Isingu: regułę Borna dostajemy dokładnie z symetrii lewo-prawo, co pozwala na łamanie Bella. Równanie Shrodingera do opisu np. pojedynczego atomu, czy w praktyce bardziej pojedynczego elektronu w atomie, jest bardzo efektywnym opisem - model musi ukrywać uśrednienie po wszystkim czego bezpośrednio nie uwzględnia jak otoczenie. W związku z czym musi "zamknąć oczy" podczas oddziaływania z tym otoczeniem (kolaps), np. ewolucja unitarna nie opisuje deekscytacji atomu, ale uwzględniając otoczenie to jest proces odwracalny: wzbudzony atom <---> zdeekscytowany atom + foton do otoczenia Dla pełniejszego opisu trzeba dodawać otoczenie do rozważań, dochodząc do "Funkcji Falowej Wszechświata" rzeczywiście MK staje się pełnym opisem - czysta unitarna ewolucja, brak oddziaływania z otoczeniem - kolapsu. No ale jest ona dla nas zupełnie niedostępna, co możemy robić to szukać bardziej wygodnych lokalnych perspektyw - interpretacji, no i dBB jest bardzo wygodną dosłownie transformacją zmiennych do psi = sqrt(rho) exp(iS / hbar) ... potwierdzoną eksperymentalnie np. w https://science.sciencemag.org/content/332/6034/1170 - widzę że unikasz skomentowania tej pracy, co o niej uważasz?- 177 odpowiedzi
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami:
-
Znacznie szybciej niż światło
Jarek Duda odpowiedział KopalniaWiedzy.pl na temat w dziale Ciekawostki
Mówię o klasycznym modelu Isinga - zespół Boltzmannowski po sekwencjach np. spinów, czyli zespoły Feynmanowskie (równoważne z MK) po "obrocie Wicka". Też o formalizmie Lagranżowskim na przykładzie Modelu Standardowego - jest konkretne pole (realizm), z dynamiką opartą o pochodne i wartości - czyli lokalność, w diagramach Feynmana nie ma nieciągłości. Więc czy twierdzenie Bella zaprzecza modelowi standardowemu? Co do interpretacji dBB, przyjmuje się że jest poprawna dla 1 cząstki (wręcz równoważna), są prace eksperymentalne twierdzące potwierdzenie (np. https://science.sciencemag.org/content/332/6034/1170 ) - przyjmuje się że jej problem pojawia się przy wielu cząstkach, eksperymenty typu Coudera mogą sugerować jak to naprawiać, np. uzyskują kwantyzację orbit dla wielu kropelek z dualizmem korpuskularno-falowym, "kryształy" na tych kropelkach: http://dualwalkers.com/crystals.html Wracając do łamania nierówności Bella na modelu Isinga, rozszerzając tą konstrukcję możemy na układach typu Isinga realizować "Wick-rotated" komputery kwantowe. Podczas gdy takie "obrócone bramki kwantowe" wydają się ciut słabsze, dzięki przestrzennej realizacji możemy ustawiać amplitudy z obu stron (lewej i prawej), co wydaje się pozwalać rozwiązywać 3-SAT (końcówka https://arxiv.org/pdf/1912.13300 ):- 177 odpowiedzi
-
- informacja
- splątane fotony
-
(i 2 więcej)
Oznaczone tagami: