Skocz do zawartości
Forum Kopalni Wiedzy

peceed

Użytkownicy
  • Liczba zawartości

    1616
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    57

Zawartość dodana przez peceed

  1. Niczego im nie odmawiam, po prostu tłumaczenie że adaptacje do wysokiego metabolizmu pozwoliły na dłuższe życie jest nie tylko niczym nie poparte (to spekulacja), ale i błędne. Co wynika właśnie z naiwnego rozumienia problemów. Co do wirusów to mają one naturalną zjadliwość optymalną do swojej replikacji i nie ma nic dziwnego, że w przypadku zakażeń międzygatunkowych pojawia się rozjazd: albo wirus nie jest w stanie zakazić (typowy przypadek) albo za szybko zabija (roz)nosiciela. Chiński odłuskowcowy koronowirus (aka polityczna-poprawność-na-sterydach-19 czy jak mu tam) to przypadek w którym patogenowi udało się wstrzelić w okno w którym może odnieść sukces.
  2. Bardzo dokładnie, trzeba znać prawdziwą przyczynę. Biolodzy notorycznie zapominają o ewolucji i skupiają się na fizjologii. Wytłumaczenie w artykule jest po prostu błędne, bo zwiększony metabolizm nie jest w stanie wywołać nadkompensacji poprzez mechanizmy ewolucyjne. To nie jest pojedyncza mutacja jednego nukleotydu która nagle wydłuża życie 20 razy.
  3. Dynamika infekcji jest tak niska, że nie jest to dla nas żaden problem. Rok całkowicie wystarczy. Dałoby się. Przypuszczam że w przyszłości każdy będzie miał wszczepiony chip który będzie w stanie generować i potem namnożyć dowolne przeciwciało korzystając z informacji przekazanych przez sieć. W okresie przejściowym może to za nas zrobić zewnętrzna firma która "dostarczy zastrzyk". Teraz jest to za wolny proces, do tego wymóg badań klinicznych zabiera zbyt wiele czasu i pieniędzy.
  4. Znajomy obskoczył 75 (jak się walczy o życie i ma się na to środki, to się da). Stwierdził że niczym się pomiędzy sobą nie różnią i wszyscy są "egzemplifikacją tego samego lekarza". Ci top polecani są przeważnie polecani przez ludzi nie mających pojęcia o medycynie (czyli są polecani bo są polecani), nawet ci "teoretycznie najlepsi" mają takie obłożenie, że każdy bardziej skomplikowany przypadek to dla nich strata netto, mają za mało czasu na przepadanie pacjenta. I nie wiedzą nic więcej niż jest w stanie powiedzieć literatura, a nawet mniej bo się "specjalizują". W ten sposób mama koleżanki była, mając neuroboreliozę, leczona na alzheimera, parkinsona, i parę innych chorób. Młotek wszędzie widzi gwoździe, podobnie jest z lekarzami: są w stanie wykrywać tylko te choroby na których "się znają". Do poprawnego diagnozowania jest potrzebny pełny klasyfikator który zna wszystkie choroby i jest w stanie rozpoznawać je uwzględniając statystykę bayesowską (oba te warunki nie są spełnione przez "grono medyczne"). To nie tak, badania uwzględniły wszystkie takie oczywiste czynniki. Tutaj mówimy o bodajże miesiącach, których nie da się wyjaśnić znanymi czynnikami.
  5. Wirusy mogły startować jako prawie gołe dna. Mam też podejrzenie że w początku życia mogło być bardzo wiele twistów, i na przykład całe życie DNA mogło być wirusem który pasożytował na świecie RNA. Użyłem nazwy tylko dla ogólnej idei, to mogły być całkiem inne "megawirusy" z inną strukturą.
  6. Badania genetyczne wskazują, że kiedyś tym rozmnażającym się musiało średnio wystarczyć 50 kompletów "na zmianę". Kultura się zmieniła, ale geny zostały
  7. Jeszcze jedna kwestia. Najważniejszą pojedynczą cechą którą mężczyźni cenią sobie u kobiet jest różnorodność. Zdecydowana większość mężczyzn woli różne piersi, ale bez łamania symetrii P
  8. Przypuszczalnie to co z resztą - są ładnie pakowane i zjadane przez makrofagi. Ciekawsze jest to, co może się z nimi stać podczas nekrozy. Mitochondria pełnią integralną rolę podczas apoptozy, są częścią mechanizmu. Nie ma organizmów eukariotycznych bez mitochondriów (z wyjątkiem kilku pasożytów wciąż posiadających genetyczne szczątki po nich), co oznacza że ostatni wspólny przodek eukariotów już je miał. Mam podejrzenia, że jądro komórkowe wyewoluowało jak megawirus, który przejmował coraz więcej genów z infekowanych hostów (dzięki temu wirusy mogą infekować kadłubki bakterii z niesprawnym, np. po zniszczeniu przez UV własnym genomem). Być może pierwszy megawirus który postanowił, że lepsza będzie praca "na swoim" już posiadał odziedziczone symbionty po swoim hoście. Co do funkcji biologicznej to przypuszczam że jest to fragment mechaniki odpowiadającej za transplantację mitochondriów z komórek macierzystych do docelowych komórek w ciele, coś takiego zachodzi na przykład w mięśniach, ale przypuszczam na podstawie bardzo silnych przesłanek że jest to ogólny mechanizm dostępny awaryjnie w całym organizmie. Inną możliwością jest to, że one po prostu mają tam funkcjonować i "ładować" krążące we krwi ADP w ATP zwiększając moc sygnalizacji (pozakomórkowe ATP jest cząsteczką sygnałową). mtDNA koduje jedynie enzymy oddechowe więc ciężko mówić o selekcji - bez dopływu białek syntetyzowanych przez geny w jądrze są to po prostu żywe trupy.
  9. peceed

    Inteligencja kobiet

    Jeśli mężczyźni są z Marsa, a kobiety z Venus, to kto jest z Ziemi? BTW. testy były tak manipulowane aby usuwać zadania w których mężczyźni radzili sobie lepiej. Więc równość inteligencji pomiędzy płciami jest obecnie tautologicznie prawdziwa. Jak ktoś chce, to może sobie ustawić taki zbiór testów, że może udowodnić każdą tezę. Przyroda w STEM ustawiła taki zbiór wymagań, że nieco lepiej wypadają mężczyźni (przewagi nie da się wytłumaczyć mierzonym odchyleniem standardowym). Górne 2%. W praktyce są drobne wahania, bo próg jest stały. Nie trzeba. Można się przecież ograniczyć tylko to tych sklasyfikowanych z pewnością ponad 99%
  10. Pewnie dlatego właśnie D-Wave stracił jakąkolwiek przewagę wydajnościowokosztową w stosunku do klasycznych komputerów. Co do tego mam wątpliwości, że fizyka realizuje obliczeniowy model Isinga, a dokładniej mam pewność, że nie bardzo. On tylko jakościowo przybliża zachowanie pewnych struktur rzeczywistych struktur. Takie odstępstwo fizyki od perfekcyjnego Isinga może zostać potraktowane analogicznie jak niestabilność numeryczna, i to najprawdopodobniej rozwala fizyczną realizację. Bardzo prosiłbym o odniesienie się do opisu "ścieżkowego" tego modelu obliczeń, bo taki poziom abstrakcji jest najbardziej zrozumiały. W sensie wskazania co jest poprawne a co złe i uzupełnienie kwestii relacji ścieżek z prawdopodobieństwami i energią stanów. Wygląda na to, że "ścieżka obliczeniowa" to tak naprawdę graf data-flow obliczeń, i obsadzone według statystyki Boltzmanna powinny być wszystkie możliwe ścieżki obliczeniowe według swojej energii? Jak rozumiem energia ścieżki zależy od stanów bitów (różne stany to różne poziomy energetyczne, można przyjąć konwencję że 1 to większa energia 0 niższa, ale też od przejść pomiędzy sąsiednimi bitami (co pozwala realizować "statystyczne" bramki obliczeniowe). Bramka NOT to duża energia dla stanów 00 i 11 oraz mała dla 10 i 01. Więzy wyznaczane są przez bardzo duże różnice energetyczne pomiędzy 1 i 0 w stanie pojedynczego bitu(czy mają być tego rzędu co różnice energii na bramkach, czy też powinny być "nieskończone")? Czy różnica poziomów energetycznych w poszczególnych bitach pozwala nam kodować coś użytecznego poza więzami? Zerowa różnica energii pozwala nam wyrazić pełną superpozycję możliwości obliczeń. Od strony fizycznej nie ma żadnego problemu aby "zamontować" dowolne bity w procesie obliczeniowym. Znacznie trudniejsze jest osiągnięcie takiego stanu układu który będzie równoważny rozkładowi boltzmannowskiemu tych trajektorii przy utrzymaniu zadanych bitów.
  11. Ustawianie warunków brzegowych w "przyszłości" tego procesu b-obliczeniowego jest analogiem postselekcji w obliczeniach kwantowych. Komputer kwantowy z postselekcją ma "moc obliczeniową" PP, co oznacza że bez problemu (wielomianowo) rozwiązuje problemy NP. To kolejny "trick" który może odpowiadać za "zwiększoną" w stosunku do komputera kwantowego moc obliczeniową, obok nieliniowych bramek.
  12. Wysłanie każdego fotonu może być uznane za osobną elementarną operację obliczeniową, czyli algorytm nie jest wielomianowy. Jak najbardziej mają mogą mieć sens w zastosowaniach gdzie się je stosuje - w inżynierii. Tam nie interesuje nas rozwiązanie globalne, ale wystarczająco do niego zbliżone i taki komputer jest niczym innym jak tylko aproksymatorem. To czy dają rzeczywisty speedup kwantowy nie jest nawet tak istotne jak to, że za określone pieniądze wykonują oczekiwane obliczenia niemożliwe do wykonania taniej w okresie kiedy zamówiono sprzęt (piję do tego, że znaleziono efektowne algorytmy klasyczne bijące ówczesne implementacje D-Wave). Jednak jak sprawdziłem to komputery klasyczne są teraz około 1000x tańsze dla analogicznej mocy obliczeniowej. Być może taki sprzęt zamawia się w celach prestiżowych. Ja rozumiem jak działa MERW. Nie rozumiałem jak ma działać ten komputer i nie jestem w stanie przeanalizować związku między MERW i modelem isinga obliczeń. Teraz moje (niez?)zrozumienie jest takie: Zamiast obliczeń kwantowych przeprowadzanych w czasie tworzymy sobie model oparty na MERW który udaje przeprowadzanie obliczeń. Jest to rozpięty "w przestrzeni" układ b-bitów połączonych bramkami obrazujący kroki wszystkich obliczeń w tym modelu. Ma on taką własność, że jeżeli prawdopodobieństwa uzyskają wartości takie, że jednocześnie będą spełnione warunki brzegowe na ich wartości oraz zostanie osiągnięta statystyka Boltzmana obsadzeń na wszystkich wirtualnych ścieżkach obrazujących przejścia pomiędzy bitami (tutaj zakładam, że chodzi o wszystkie ścieżki łączące przeszłość (lewo) z przyszłością (prawo)), to b-bity będące wynikiem obliczeń uzyskają prawdopodobieństwo różne od 0.5, co można uzyskać jako probabilistyczną odpowiedź na zadany problem. I tutaj mam pytania: Jaka jest zależność pomiędzy wartością b-bitu a ścieżkami? Czy to stosunek ilości ścieżek przechodzących przez dany bit w stosunku do wszystkich ścieżek (raczej niemożliwe), czy też raczej stosunek wszystkich konfiguracji ścieżek pomiędzy przeszłością a przyszłością, tych przechodzących przez bit i nie? "Początkowy warunek brzegowy" (ten od lewej) tak naprawdę nie określa żadnego prawdopodobieństwa b-bitów? Może są procesy stochastyczne ściśle zbieżne do takiego modelu (jak Ising który jest bardzo problematyczny w fizycznej realizacji), ale nie widzę opcji aby uzyskać gwarancję odpowiedzi w wielomianowym czasie, mamy tutaj eksplozję kombinatoryczną wartości (ścieżki) po których optymalizujemy wartości prawdopodobieństwa. Sam model obliczeniowy którego przebieg chcemy osiągnąć w wyniku działań komputera jest inny od mechaniki kwantowej i liczy problemy NP, bo ma nieliniowe bramki. Nie jest to żadna nowość, o takich konstrukcjach czytałem kilkanaście lat temu. Odnośnie terminologii to proponuję nazwę b-bity jako określenie bitów w procesie obliczeniowym stacjonarnym, ich wartości ma osiągnąć nasz działający komputer przy pomocy p-bitów/q-bitów. Czyli dostajemy generyczne b-bity które wykonują obliczenia w swoim modelu, przechodzą przez bramki.
  13. Ale zniechęcanie daje długi kontakt w którym mechanizm alergiczny dałby radę zadziałać. Kontakt drapieżnika z ofiarą jest zbyt krótki aby doszło do uczulenia, więc nosiciel alellu uczulającego nie miałby żadnej relatywnej przewagi nad tym co go nie ma. Ochrona "gatunkowa" ma sens tylko w sytuacji kiedy jest sprzężenie zwrotne promujące określony gen. Ogólnie "zniechęcanie" to wciąż nieskończenie lepsza hipoteza niż antydrapieżnictwo.
  14. To jest tak głupie na tylu płaszczyznach... Przede wszystkim drapieżniki nie są problemem drapieżników lądowych, nie ma szans aby pojawiła się taka presja selekcyjna. Jeśli już o coś może chodzić to ochronę przeciw pasożytom przez rozregulowanie ich układu odpornościowego. Kolejną opcją jest strategia według której koty starają się zniechęcić inne koty (te nieprodukujące alergenu) do przebywania w tym samym miejscu (strategia "wygrała" i zdominowała populację).
  15. Ta teoria tłumacząca znaną obserwację, że osoby które wcześniej kończą pracę zawodową szybciej umierają, i to po uwzględnieniu wpływu zdrowia na koniec pracy (tzn. nie rozpatrujemy przypadków gdzie ktoś kończy karierę zawodową wcześniej z powodów zdrowotnych, uwzględniamy tylko inne przyczyny). Moja obserwacja na razie zobaczyła załamanie zdrowia ludzi którzy "w końcu zaczęli się leczyć". Na wyższym poziomie abstrakcji jest to tak trywialne jak stwierdzenie że leki mają poważne efekty uboczne a błędy medyczne się zdarzają. To nie jest wielki efekt w skali populacji, tylko dobrze widoczny. Ale oczywiście należałoby przeanalizować dane pod kątem ilościowym.
  16. peceed

    Polskie zwycięstwo.

    DJ Aenes Problemem jest to, że gdyby Jarek chciał zarobić na swoim pomyśle, to przypuszczalnie nie zobaczyłby ani grosza albo bardzo śmieszne kwoty. Nie wystarczy zdobyć patent, trzeba go jeszcze obronić w sądzie a to są gigantyczne kwoty, tutaj pomogła tylko nietypowa sytuacja że inwencja została przekazana w sferę PD co umożliwiło powstanie pospolitego ruszenia i groziło Googlowi stratami wizerunkowymi przewyższającymi wartość technologii. Nie da się nawet zajrzeć do lodówki aby nie natknąć się na informacje o tym gazie.
  17. Pisałem w kontekście psychiatrii. Dlaczego ta teoria jest nonkonformistyczna (i czy to w ogóle jest sensowna kategoria w których należy rozpatrywać teorie)? A obserwacje nie były jednostkowe, miałem sporą bazę do jej sformułowania, i potem przyszły jednostkowe obserwacje które ją dodatkowo potwierdzały. Najważniejszą przesłanką było uświadomienie sobie jak gigantyczna i niedoszacowana jest kwestia efektów ubocznych leków. Moja hipoteza to już tylko prosty wniosek: musi zachodzić podany mechanizm. Oczywiście nie neguję ani potrzeby ani możliwości dodatkowych badań, tylko dla mnie według moich subiektywnych szacunków szanse że efekt jest istotny to co najmniej 90% a dominujący ponad 50%.
  18. Zazwyczaj ani nie podnosi komfortu ani nie jest błogosławieństwem, długofalowe rokowania osób które nie korzystają z leków są lepsze. Samo odstawianie leków psychiatrycznych jest ogromnie problematyczne, bo działanie wszystkich wywołuje duże zmiany kompensujące znacznie trudniejsze. Znam przypadek w którym osoba zabiła bo zaczęła brać leki. Ale o takich sytuacjach się nie mówi, zamiecione pod dywan. Ładowanie prozacu osobie z urojeniami nie mogło się skończyć dobrze. Smutne jest to, że zjawisko zobaczyłem w swojej rodzinie już po sformułowaniu tej hipotezy. Przy okazji to nie jest tak, że wszystkie hipotezy trzeba potwierdzać albo obalać nowymi badaniami aby o nich dyskutować. W rzeczywistości mamy tutaj 2 konkurencyjne wykluczające się hipotezy z wiedzą zerową - podane zjawisko zachodzi lub nie - i można oceniać prawdopodobieństwo w inny sposób niż analiza statystyczna przypadków, ważne jest to czy ona jest konsystentna i tłumaczy już obserwowane zjawiska. Tutaj mechanizm jest oczywisty - zwiększona ilość zabiegów i spożycie leków o których wiemy, że mają negatywne skutki zdrowotne. To że ludzie odkładają zabiegi medyczne i leczenie na początek emerytury to też zjawisko znane (wielokrotnie obserwowane osobiście). Zatem możemy tylko zastanawiać jaka jest skala zjawiska, ale nie to czy występuje. Ono musi występować. A dlaczego twierdzę że ma największy udział? Bo inne konkurencyjne hipotezy są słabe (co nie znaczy że te mechanizmy nie zachodzą, tak naprawdę wszystkie możliwe mechanizmy statystycznie muszą zachodzić).
  19. Jeśli chodzi o zasadę to tak. W praktyce nie. Jako osoba z FTS trafiłem kilkanaście lat temu do psychiatrów którzy stwierdzili nietypową depresję (dzisiaj byłby to bardziej syndrom przewlekłego zmęczenia z dodatkami) i po SSRI dostałem hipomanii objawiającej się 4 godzinami snu. Każdy rozsądny człowiek uznałby że kuracja mi nie służy, ale co tam. Dowalono mi antykonwulsanty jako stabilizator. Oczywiście całość w żaden sposób nie dawała żadnych długofalowych pozytywnych efektów. Teraz wiem że przy gdy fluorochinolony uszkadzają neurony gabaergiczne (czyli osłabiają funkcje hamujące na wielu poziomach) jakiekolwiek ekstra wymuszenie będzie nieskompensowane i musi wywalić w kosmos. A SSRI zwiększa pobudzenie synaps o 500% przy typowych dawkach. Wtedy nie miałem wyrobionego sceptycyzmu, a wszelkie niewiadome jakie miałem tłumaczyłem brakiem wiedzy, zakładałem że ta teoria według której mnie "leczono" ma jakiś sens widoczny w nieznanych mi opracowaniach naukowych. Okazało się że nic tam głębiej nie ma (poza mułem). Teraz wiadomo że SSRI nie leczy praktycznie niczego. Użycie leku aby częściowo skompensować skutki uboczne drugiego to oczywiście pomysł. Inny przykład to wspomniany kolega. Miał przewlekłe nadciśnienie śródczaszkowe, które skutkowało zaburzeniami widzenia. Oczywiście nie udało się go prawidłowo zdiagnozować, ale że podejrzewano chorobę autoimmunologiczną dowalono mu ogromne dawki sterydów, które pomogły. Co ciekawe trafiono w ten sposób, że jest to jedna z dwóch podstawowych farmakologicznych metod leczenia nadciśnienia. Ale pani doktor doktor (to drugie to tytuł) Dobromirowa wpadła na genialny pomysł, że zmniejszy ilość o połowę ilość sterydów i dorzuci leki immunosupresyjne, przez co efekty uboczne "się rozłożą" (a kolega znakomicie znosił te sterydy). Tutaj wyjaśnię że ten lek nie robi nic innego niż hamowanie podziałów komórkowych przez zaburzenie syntezy DNA. Do tego wprowadza masę mutacji, a chorzy po kilkudziesięciu latach mają znacznie podwyższone szanse zachorowania na raka (jest ogromnie mutagenny). Ale co tam, nazwa "immunosupresyjny" wcale tak groźnie nie brzmi. Niestety pomiędzy lekami uszkadzającymi strukturę/syntezę DNA i lekami mającymi efekty przeciwzapalne jest potężna interakcja negatywna (lekarze nie myślący abstrakcyjnie wyrażają to w postaci kilkuset interakcji), mechanizm odkryłem sam o czym bezczelnie się pochwalę: w skrócie zablokowanie reakcji zapalnej uruchamia rewitalizację mitochondrialną dokonywaną przez komórki macierzyste (blokowaną pod wpływem stanu zapalnego), leki te wywołują w mtDNA masę mutacji wstrzykiwanych komórkom w postaci dysfunkcyjnych mitochondriów. Źle poczuł się od razu, po 3 dniach było bardzo źle ale pani doktor doktor Dobromirowa stwierdziła że nic nie szkodzi, to normalne efekty uboczne i nie trzeba się przejmować.Po 3 tygodniach wyglądał jak wrak człowieka, rozwalająca się skóra w stanie przypominającym zapalny, 0 energii do działania, nic nie działa (to dokładnie ten sam problem jaki mają ludzie w FTS) i w końcu zrezygnował samoistnie. Te 3 tygodnie nazywa największym błędem jaki popełnił w swoim życiu. To znaczy te przypadki ilustrują jaki jest poziom lekarzy w stopniu doktor med. i prawie doktor medycyny, więc niżej może być tylko gorzej. Zwykłe błędy medyczne też koszą, w kręgu rodzinnym jedna osoba zeszła bo lekarka pierwszego kontaktu co prawda przepisywała lek "na serce", nawet kierunek działania leku był całkowicie prawidłowy, niestety zwrot był przeciwny i serce po prostu stanęło którejś nocy "na amen". Odejmijmy urazówkę/chirurgię/szczepienia i nagle okazuje się, że lepiej byłoby ludziom bez żadnej medycyny. Ludzie zdrowieją sami. Lekarze w 95% potrzebni są tylko do wydawania L4. Błędy medyczne i efekty uboczne mają tę przewagę, że ciężko je wykazać/powiązać a każdy któremu się poprawi wiąże tę poprawę z działaniami lekarzy. Jest znane zjawisko że ludzie którzy przestają pracować żyją krócej. Jest to całkowicie zadziwiający efekt nieudolnie tłumaczony przez kwestie psychologiczne. Prawdziwa przyczyna zjawiska jest znacznie bardziej porażająca - ludzie którzy pracują odkładają na przyszłość wszystkie zabiegi i operacje medyczne, pierwsza rzecz którą robią jak mają więcej czasu to "wreszcie zaczynają się leczyć". Efekt jest tragiczny. Dopiero drugim, znacznie mniej istotnym czynnikiem jest zmniejszenie ilości ruchu.
  20. Przemyślałem sobie wiele lat temu i wniosek był taki że nie jest to żaden model MK i rzeczywistości. Może natomiast aproksymować pewne zjawiska na poziomie kwantowym. Interferencja jest jedynym powodem dla którego mamy kwantowy speedup. Bez interferencji mamy komputer klasyczny, bo nie jesteśmy w stanie wyciąć ścieżek obliczeń nie prowadzących do prawidłowych rozwiązań. Poproszę o odpowiedź na jedno proste pytanie: czym jest jednostka informacji w tym modelu obliczeń. Czy jest to q-bit czy bit? Czy też może jakiś wariant p-bitu? Skoro jest to komputer, to musi istnieć prosta odpowiedź na tak postawione pytanie. Bo pomimo starań wygląda to wciąż na "zlepek idei". Użycie nieunitarnych bramek w obliczeniach nie wyklucza użycia q-bitów, ale każda taka bramka w trakcie działania dokonuje redukcji wektora stanu w sposób całkowicie losowy, co powoduje że szanse na uzyskanie prawidłowej ścieżki obliczeń maleją wykładniczo z ich ilością. p-bity są obecnie tworzone przez szybkie stany oscylacyjne, według innego spojrzenia taki komputer jest układem chaotycznym z atraktorami w pobliżu rozwiązań, jest to komputer probabilistyczny. Samo rozwiązywanie 3-SAT nic nie znaczy, to robi 6502. Potrzebna jest niewielomianowa ilość powtórzeń obliczeń.
  21. Ale nas interesuje nie siła a energia wzajemnego oddziaływania, a ta jest jak 1/r^3. To bardzo szybki spadek, ale nie wystarczająco szybki aby zignorować oddziaływanie spinów odległych o 2-3 przeskoki, co robi się w Isingu. Pewnie wciąż czegoś nie rozumiem, ale równoważność przejść po ścieżkach zachodzi dla dokładnego modelu Isinga według równania (4). Ta praca jest na oko kilka razy za krótka jak na zakres zagadnień które porusza. Brakuje dokładnego wskazania gdzie i jak odczytuje się bity wyniku. Bardzo przydałby się pełny "diagram scalony" dla prostego przypadku, powiedzmy kilka zmiennych i klauzul. W kilku stanach, tzn. jaki jest początek układu, jak wygląda faza obliczeń, gdzie są bity a gdzie qbity. Jak wygląda odczyt. Jeśli to ma ręce i nogi, to na pewno da się nawet przygotować animację która pokazuje jak mają działać te obliczenia, z demonstracją rozkładu po ścieżkach, jak ma się to do działania bramek itd. W komputerach kwantowych jest idealnie, bo jest możliwa korekcja błędów na co jest sporo twierdzeń. Do tego wciąż czekamy na topologiczne komputery kwantowe które mają mieć znikomy poziom błędów. Komputery kwantowe w większości implementacji są dyskretne, operują dobrze zdefiniowanymi q-bitami. Na przykład taki q-bit oparty na jądrze zupełnie nie dba o to jak moment magnetyczny rozkłada się na składowe (bariony/kwarki itd), mechanika kwantowa gwarantuje nam "dyskretność". Tak samo można rozłożyć qbity logiczne na kilkaset realnych splątanych. Ogólnie nie musimy się martwić o indywidualną "jakość" qbitu inaczej niż przez dekoherencję, o resztę dba mechanika kwantowa. Nie trzeba się przejmować faktem, że wartości amplitud spadają na przykład do poziomu 10^-10, każdy qubit to obsłuży za darmo. Patrząc na ten komputer nie wiem czy tam w ogóle obowiązuje koncepcja q-bitu czy też mamy coś w rodzaju b-bitu.
  22. To jest właśnie podejście medycyny. Nauka jest jedna. Gałęzie to podział techniczny spowodowany praktycznymi ograniczeniami ludzkimi, wymuszającymi specjalizację. Ale jeśli coś mnie interesuje to takie płotki, rowy i poletka zupełnie mnie nie interesują. Z praktyki zauważyłem, że o ile nie muszę posiadać gęstej znajomości jakiejś dyscypliny to jeśli chodzi o poziom zrozumienia tego co wiem to jest on często lepszy ze względu na szerszą wiedzę. Zjawiska w przyrodzie nie przejmują się sztucznym podziałem na dyscypliny, stąd też coraz większa popularność "zespołów interdyscyplinarnych" do prowadzenia badań naukowych. Patrząc w drugą stronę bardzo chętnie się dowiem co powstrzymuje kolegę przed możliwością oceny prac medycznych. To też jest prawda przy odpowiednim znaczeniu "naprawdę dobrych". Różnica jest taka, że przeciętni fizycy mają większe kompetencje w kierunku prowadzenia badań naukowych niż najlepsi lekarze. Co nie znaczy że przy innej ścieżce kształcenia ci najlepsi lekarze nie mogliby być co najmniej przeciętnymi fizykami (maksymalnie połowa, taki jest udział ludzi którzy posiadają "spójny model rzeczywistości", niezbędny do sprawnego programowania i uprawiania fizyki, cecha praktycznie niezależna od inteligencji i nie wymagana w medycynie), ale nie są. Drobiazg. Równowartość 1-3 książek czytana codziennie od ponad 30 lat. Historycy są specyficzni z tego powodu, że walczą z entropią ścigając się z czasem i rozpadem archiwów Żadna inna dyscyplina wiedzy nie jest tak oddalona od odnajdywania prawd ogólnych, jeśli spotykają się gdzieś kosmici z dwóch różnych planet to ta dziedzina wiedzy jest najbardziej dowolna i przypadkowa. Fizycy to w pewnym sensie całkowicie przeciwny biegun.
  23. Ale problem zasięgu oddziaływania nie zależy od sposobu technicznej realizacji, tylko od zauważenia że jeśli mamy gdzieś oddziałujące pary sąsiednich spinów z energiami, Ji i+1, Ji+1 i+2 to na skutek mechanizmu oddziaływania przez pole magnetyczne musimy mieć Ji i+2 != 0. I to całkiem nie mało, wciąż na poziomie 1/8 średniej oddziaływań Ji i+1, Ji+1 i+2.To jest problem nie do obejścia przez żadne zabawy z implementacją i fundamentalny rozjazd. Jeśli mielibyśmy kodować problem w postaci poziomu sprzężenia spinów, to miałby on z pewnością jakąś dokładność reprezentacji (promil?). To wymusza uwzględnianie nawet do 10 sąsiednich spinów w modelu a nie tylko te na diagonali, aby błędy modelu nie były większe od kodowania. A to już nie jest model Isinga.
  24. Nie znajdę bo to było kilka lat temu. Teraz jest wysyp treści po artykule https://www.bmj.com/content/358/bmj.j3418. więc słowa kluczowe nie pomogą. Problemem jest to że takie zalecenia z d*py stały się bezmyślnymi wytycznymi WHO. To pokazuje jak działają "eksperci". Aby się zorientować że nie może być to prawda wystarczyło pomyśleć minutę. Nawet jeśli ktoś ma przeciętną inteligencję, to jeśli ogarnia temat powinna wystarczyć mu maksymalnie godzina! Kluczowy jest jednak brak jakiegokolwiek myślenia w stylu "czy to może być prawda". Oraz brak ogarniania tematu przez ekspertów (może zakuli kilka haseł o ewolucji i Darwinie w swoim życiu, ale nie potrafią modelować niczego w głowie). Jeszcze bardziej zawstydzające jest to, że czysto teoretyczny problem został zweryfikowany eksperymentalnie. Obserwowano coś takiego w ZSRR w międzywojniu, kiedy pozbyto się wykształconych burżuazyjnych inżynierów potrafiących cokolwiek policzyć, w zamian wszystko sprawdzano "eksperymentalnie". To takie samo zjawisko. (Kiedy niedawno badano użycie drona do transportu serca celem transplantacji, też eksperymentalnie przeprowadzono lot i wszyto je świni. Żadne badanie w stylu badamy wstrząsy akcelerometrami w różnych warunkach pogodowych i porównujemy z wytrzymałością serca (gigantyczna, w każdym rozsądnym pojemniku problem nie istnieje). To pokazuje skrzywienie zawodowe, w którym zrobiono biurokratyczną podkładkę wcale nie analizując realnych zagrożeń.) Aby uniknąć anybiotykoodporności szczepów chorobotwórczych potrzebna jest jedna zasada: należy wykluczyć możliwość zarażenia innych przed końcem infekcji. Naiwnie myśląc tylko przy kuracji antybiotykowej, jednak biorąc pod uwagę transfer plazmidów trzeba wszystkich chorych izolować do momentu zaprzestania możliwości zajścia zakażenia, bo antybiotykoodporność może się pojawić u osoby która nigdy nie brała antybiotyków (a jedynie zaraziła się nieszkodliwą odporną bakterią wcześniej i w jej ciele dokonał się "transfer" plazmidu do tej chorobotwórczej). To byłby znakomity model dla ekspertów medycznych, ale różnica jest taka że członkowie wspomnianej komisji doskonale wiedzieli dlaczego i po co są w tej komisji i im prywatnie wcale nie wydawało się, że naprawdę są ekspertami. Kolega sam siebie podsumował? Bo ja wcale nie twierdzę że "uzdolnienia matematyczne" nie są potrzebne w innych dyscyplinach, wręcz przeciwnie. Po prostu nie są weryfikowane w żaden systematyczny sposób. Dla prawnika logika to semestr na studiach, można się prześliznąć a potem mamy prawników takich jak widać, co to nie nawet warunku koniecznego od wystarczającego nie potrafią odróżnić. Naprawdę dobrych prawników jest niewielu, i oni nie mają problemów z logiką. Historycy są bardzo specyficzni, ale oni potrafią się wykładać na elementarnych podstawach. Na przykład powstaje gruba książka starająca się wykazać (to jedna z tez), że gdyby tylko Niemcy zablokowali konwoje i transport przez kanał Sueski i Morze Śródziemne, zmuszając je do pływania na około Afryki, to może nawet wygraliby wojnę. Tylko że nie było takich konwojów i wszystko pływało dookoła Afryki praktycznie od początku! Detal.
  25. Chodziło mi o "Drogę do rzeczywistości". Bardzo miła jeśli chodzi o odświeżenie czy ogólną prezentacje koncepcji, nie nadaje się do nauki a jedynie jako pomoc a w miejscach gdzie jest błędna jest bardzo mocno błędna. Nie jest to trudność techniczna, wydaje mi się że jest to fundamentalna niezgodność modelu z rzeczywistością. Nie widzę opcji aby dało się wprowadzić ekranowanie pomiędzy dalszymi spinami. Nawet jeśli wprowadzi się kwadraty z materiału o niskiej przenikalności magnetycznej, to efektywnie zbliża to jedynie metrykę odległości pomiędzy spinami "na ukos" do taksówkowej. Spin który reaguje z sąsiadem z energią Jij, będzie reagował z dalszymi z energią malejącą jak trzecia energia odległości, czyli Jij/8, Jij/27, Jij/64. Model Isinga przypomina rzeczywistość tylko dlatego, że jest to bardzo szybki spadek i rozwiązania jakościowo są bardzo podobne. Nie znam mechanizmów fizycznych które mogły by spowodować brak takiego oddziaływania w zasadzie, to po prostu nie jest trudność techniczna a raczej fundamentalna. Jeśli tak jest, to cała matematyka "rozwiązująca" problemy według tego założenia jest nieadekwatna. Aby to uzyskać działanie Isinga w rzeczywistych układach fizycznych potrzebne byłoby bardzo magiczne oddziaływanie które dokładnie kompensuje energię pomiędzy dalszymi spinami, całkowicie nielokalne. Mam wrażenie że to może być powód "łamania bella" (tutaj od razu mówię że nie analizowałem prawdziwości tego stwierdzenia na poziomie technicznym) nawet w przypadku klasycznym, ten wydaje się być nielokalny. To w ogóle nie jest tak, Shor działa bo wykorzystuje matematyczne własności komputera kwantowego. Wszelkie wyobrażanie sobie mechanizmów działania tego algorytmu za pomocą superpozycji klasycznych ścieżek obliczeniowych nie ma znaczenia dla fizyki, to wirtualna, matematyczna część która uzasadnia i wizualizuje poprawność algorytmu, ale "fizyczna realizacja" obliczeń kwantowych w ten sposób nie jest wymagana. Dlatego też komputer kwantowy nie jest "dowodem" MWI. I to jest kolejna bardzo poważna przesłanka za tym, że model jest zupełnie "niefizyczny". Jedyna na co bym liczył w przypadku komputerów kwantowych to efektywne metody aproksymacji problemów np-trudnych. Są znane modele "hiperfizycznych" komputerów które dają sobie radę z obliczeniami NP-com, na przykład wykorzystujące nieliniową odmianę MK. Jeden z moich profesorów miał całkiem interesującą metahipotezę, że dla przyrody problemy NP-com muszą być trudne, bo to do czego efektywnie dąży świat to stan o maksymalnej możliwej entropii, jedyny powód dla którego idzie to tak wolno i mamy stabilną rzeczywistość wynika z faktu, że jest to problem "trudny obliczeniowo dla praw fizyki" (jego sformułowanie było nieco inne i dotyczyło minimalizacji energii ale duch był dokładnie taki sam). Wciąż mam wrażenie że ten cały alternatywny model jest oparty na "alternatywnej interpretacji klasycznej MK". To rzeczywiście byłby trochę inny problem, bo wtedy nie ma nawet podstaw teoretycznych aby coś takiego mogło zadziałać. Całe założenie że fizyka będzie tak kierować spinami aby spełnić założenia MERW może być po prostu nieprawdziwe. Z kolei obliczenia kwantowe mają żelazne fundamenty teoretyczne i muszą działać, problemy rzeczywiście mają charakter techniczny. I kwantowa supremacja jest do uzyskania w sposób praktycznie pewny, bo obserwujemy wykładniczy wzrost możliwości komputerów kwantowych. Tylko że to "kwantowe prawo Moora" jest znacznie wolniejsze od tego, do czego przyzwyczaiła nas elektronika klasyczna.
×
×
  • Dodaj nową pozycję...