Skocz do zawartości
Forum Kopalni Wiedzy

peceed

Użytkownicy
  • Liczba zawartości

    1860
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    65

Zawartość dodana przez peceed

  1. Ustawianie warunków brzegowych w "przyszłości" tego procesu b-obliczeniowego jest analogiem postselekcji w obliczeniach kwantowych. Komputer kwantowy z postselekcją ma "moc obliczeniową" PP, co oznacza że bez problemu (wielomianowo) rozwiązuje problemy NP. To kolejny "trick" który może odpowiadać za "zwiększoną" w stosunku do komputera kwantowego moc obliczeniową, obok nieliniowych bramek.
  2. Wysłanie każdego fotonu może być uznane za osobną elementarną operację obliczeniową, czyli algorytm nie jest wielomianowy. Jak najbardziej mają mogą mieć sens w zastosowaniach gdzie się je stosuje - w inżynierii. Tam nie interesuje nas rozwiązanie globalne, ale wystarczająco do niego zbliżone i taki komputer jest niczym innym jak tylko aproksymatorem. To czy dają rzeczywisty speedup kwantowy nie jest nawet tak istotne jak to, że za określone pieniądze wykonują oczekiwane obliczenia niemożliwe do wykonania taniej w okresie kiedy zamówiono sprzęt (piję do tego, że znaleziono efektowne algorytmy klasyczne bijące ówczesne implementacje D-Wave). Jednak jak sprawdziłem to komputery klasyczne są teraz około 1000x tańsze dla analogicznej mocy obliczeniowej. Być może taki sprzęt zamawia się w celach prestiżowych. Ja rozumiem jak działa MERW. Nie rozumiałem jak ma działać ten komputer i nie jestem w stanie przeanalizować związku między MERW i modelem isinga obliczeń. Teraz moje (niez?)zrozumienie jest takie: Zamiast obliczeń kwantowych przeprowadzanych w czasie tworzymy sobie model oparty na MERW który udaje przeprowadzanie obliczeń. Jest to rozpięty "w przestrzeni" układ b-bitów połączonych bramkami obrazujący kroki wszystkich obliczeń w tym modelu. Ma on taką własność, że jeżeli prawdopodobieństwa uzyskają wartości takie, że jednocześnie będą spełnione warunki brzegowe na ich wartości oraz zostanie osiągnięta statystyka Boltzmana obsadzeń na wszystkich wirtualnych ścieżkach obrazujących przejścia pomiędzy bitami (tutaj zakładam, że chodzi o wszystkie ścieżki łączące przeszłość (lewo) z przyszłością (prawo)), to b-bity będące wynikiem obliczeń uzyskają prawdopodobieństwo różne od 0.5, co można uzyskać jako probabilistyczną odpowiedź na zadany problem. I tutaj mam pytania: Jaka jest zależność pomiędzy wartością b-bitu a ścieżkami? Czy to stosunek ilości ścieżek przechodzących przez dany bit w stosunku do wszystkich ścieżek (raczej niemożliwe), czy też raczej stosunek wszystkich konfiguracji ścieżek pomiędzy przeszłością a przyszłością, tych przechodzących przez bit i nie? "Początkowy warunek brzegowy" (ten od lewej) tak naprawdę nie określa żadnego prawdopodobieństwa b-bitów? Może są procesy stochastyczne ściśle zbieżne do takiego modelu (jak Ising który jest bardzo problematyczny w fizycznej realizacji), ale nie widzę opcji aby uzyskać gwarancję odpowiedzi w wielomianowym czasie, mamy tutaj eksplozję kombinatoryczną wartości (ścieżki) po których optymalizujemy wartości prawdopodobieństwa. Sam model obliczeniowy którego przebieg chcemy osiągnąć w wyniku działań komputera jest inny od mechaniki kwantowej i liczy problemy NP, bo ma nieliniowe bramki. Nie jest to żadna nowość, o takich konstrukcjach czytałem kilkanaście lat temu. Odnośnie terminologii to proponuję nazwę b-bity jako określenie bitów w procesie obliczeniowym stacjonarnym, ich wartości ma osiągnąć nasz działający komputer przy pomocy p-bitów/q-bitów. Czyli dostajemy generyczne b-bity które wykonują obliczenia w swoim modelu, przechodzą przez bramki.
  3. Ale zniechęcanie daje długi kontakt w którym mechanizm alergiczny dałby radę zadziałać. Kontakt drapieżnika z ofiarą jest zbyt krótki aby doszło do uczulenia, więc nosiciel alellu uczulającego nie miałby żadnej relatywnej przewagi nad tym co go nie ma. Ochrona "gatunkowa" ma sens tylko w sytuacji kiedy jest sprzężenie zwrotne promujące określony gen. Ogólnie "zniechęcanie" to wciąż nieskończenie lepsza hipoteza niż antydrapieżnictwo.
  4. To jest tak głupie na tylu płaszczyznach... Przede wszystkim drapieżniki nie są problemem drapieżników lądowych, nie ma szans aby pojawiła się taka presja selekcyjna. Jeśli już o coś może chodzić to ochronę przeciw pasożytom przez rozregulowanie ich układu odpornościowego. Kolejną opcją jest strategia według której koty starają się zniechęcić inne koty (te nieprodukujące alergenu) do przebywania w tym samym miejscu (strategia "wygrała" i zdominowała populację).
  5. Ta teoria tłumacząca znaną obserwację, że osoby które wcześniej kończą pracę zawodową szybciej umierają, i to po uwzględnieniu wpływu zdrowia na koniec pracy (tzn. nie rozpatrujemy przypadków gdzie ktoś kończy karierę zawodową wcześniej z powodów zdrowotnych, uwzględniamy tylko inne przyczyny). Moja obserwacja na razie zobaczyła załamanie zdrowia ludzi którzy "w końcu zaczęli się leczyć". Na wyższym poziomie abstrakcji jest to tak trywialne jak stwierdzenie że leki mają poważne efekty uboczne a błędy medyczne się zdarzają. To nie jest wielki efekt w skali populacji, tylko dobrze widoczny. Ale oczywiście należałoby przeanalizować dane pod kątem ilościowym.
  6. peceed

    Polskie zwycięstwo.

    DJ Aenes Problemem jest to, że gdyby Jarek chciał zarobić na swoim pomyśle, to przypuszczalnie nie zobaczyłby ani grosza albo bardzo śmieszne kwoty. Nie wystarczy zdobyć patent, trzeba go jeszcze obronić w sądzie a to są gigantyczne kwoty, tutaj pomogła tylko nietypowa sytuacja że inwencja została przekazana w sferę PD co umożliwiło powstanie pospolitego ruszenia i groziło Googlowi stratami wizerunkowymi przewyższającymi wartość technologii. Nie da się nawet zajrzeć do lodówki aby nie natknąć się na informacje o tym gazie.
  7. Pisałem w kontekście psychiatrii. Dlaczego ta teoria jest nonkonformistyczna (i czy to w ogóle jest sensowna kategoria w których należy rozpatrywać teorie)? A obserwacje nie były jednostkowe, miałem sporą bazę do jej sformułowania, i potem przyszły jednostkowe obserwacje które ją dodatkowo potwierdzały. Najważniejszą przesłanką było uświadomienie sobie jak gigantyczna i niedoszacowana jest kwestia efektów ubocznych leków. Moja hipoteza to już tylko prosty wniosek: musi zachodzić podany mechanizm. Oczywiście nie neguję ani potrzeby ani możliwości dodatkowych badań, tylko dla mnie według moich subiektywnych szacunków szanse że efekt jest istotny to co najmniej 90% a dominujący ponad 50%.
  8. Zazwyczaj ani nie podnosi komfortu ani nie jest błogosławieństwem, długofalowe rokowania osób które nie korzystają z leków są lepsze. Samo odstawianie leków psychiatrycznych jest ogromnie problematyczne, bo działanie wszystkich wywołuje duże zmiany kompensujące znacznie trudniejsze. Znam przypadek w którym osoba zabiła bo zaczęła brać leki. Ale o takich sytuacjach się nie mówi, zamiecione pod dywan. Ładowanie prozacu osobie z urojeniami nie mogło się skończyć dobrze. Smutne jest to, że zjawisko zobaczyłem w swojej rodzinie już po sformułowaniu tej hipotezy. Przy okazji to nie jest tak, że wszystkie hipotezy trzeba potwierdzać albo obalać nowymi badaniami aby o nich dyskutować. W rzeczywistości mamy tutaj 2 konkurencyjne wykluczające się hipotezy z wiedzą zerową - podane zjawisko zachodzi lub nie - i można oceniać prawdopodobieństwo w inny sposób niż analiza statystyczna przypadków, ważne jest to czy ona jest konsystentna i tłumaczy już obserwowane zjawiska. Tutaj mechanizm jest oczywisty - zwiększona ilość zabiegów i spożycie leków o których wiemy, że mają negatywne skutki zdrowotne. To że ludzie odkładają zabiegi medyczne i leczenie na początek emerytury to też zjawisko znane (wielokrotnie obserwowane osobiście). Zatem możemy tylko zastanawiać jaka jest skala zjawiska, ale nie to czy występuje. Ono musi występować. A dlaczego twierdzę że ma największy udział? Bo inne konkurencyjne hipotezy są słabe (co nie znaczy że te mechanizmy nie zachodzą, tak naprawdę wszystkie możliwe mechanizmy statystycznie muszą zachodzić).
  9. Jeśli chodzi o zasadę to tak. W praktyce nie. Jako osoba z FTS trafiłem kilkanaście lat temu do psychiatrów którzy stwierdzili nietypową depresję (dzisiaj byłby to bardziej syndrom przewlekłego zmęczenia z dodatkami) i po SSRI dostałem hipomanii objawiającej się 4 godzinami snu. Każdy rozsądny człowiek uznałby że kuracja mi nie służy, ale co tam. Dowalono mi antykonwulsanty jako stabilizator. Oczywiście całość w żaden sposób nie dawała żadnych długofalowych pozytywnych efektów. Teraz wiem że przy gdy fluorochinolony uszkadzają neurony gabaergiczne (czyli osłabiają funkcje hamujące na wielu poziomach) jakiekolwiek ekstra wymuszenie będzie nieskompensowane i musi wywalić w kosmos. A SSRI zwiększa pobudzenie synaps o 500% przy typowych dawkach. Wtedy nie miałem wyrobionego sceptycyzmu, a wszelkie niewiadome jakie miałem tłumaczyłem brakiem wiedzy, zakładałem że ta teoria według której mnie "leczono" ma jakiś sens widoczny w nieznanych mi opracowaniach naukowych. Okazało się że nic tam głębiej nie ma (poza mułem). Teraz wiadomo że SSRI nie leczy praktycznie niczego. Użycie leku aby częściowo skompensować skutki uboczne drugiego to oczywiście pomysł. Inny przykład to wspomniany kolega. Miał przewlekłe nadciśnienie śródczaszkowe, które skutkowało zaburzeniami widzenia. Oczywiście nie udało się go prawidłowo zdiagnozować, ale że podejrzewano chorobę autoimmunologiczną dowalono mu ogromne dawki sterydów, które pomogły. Co ciekawe trafiono w ten sposób, że jest to jedna z dwóch podstawowych farmakologicznych metod leczenia nadciśnienia. Ale pani doktor doktor (to drugie to tytuł) Dobromirowa wpadła na genialny pomysł, że zmniejszy ilość o połowę ilość sterydów i dorzuci leki immunosupresyjne, przez co efekty uboczne "się rozłożą" (a kolega znakomicie znosił te sterydy). Tutaj wyjaśnię że ten lek nie robi nic innego niż hamowanie podziałów komórkowych przez zaburzenie syntezy DNA. Do tego wprowadza masę mutacji, a chorzy po kilkudziesięciu latach mają znacznie podwyższone szanse zachorowania na raka (jest ogromnie mutagenny). Ale co tam, nazwa "immunosupresyjny" wcale tak groźnie nie brzmi. Niestety pomiędzy lekami uszkadzającymi strukturę/syntezę DNA i lekami mającymi efekty przeciwzapalne jest potężna interakcja negatywna (lekarze nie myślący abstrakcyjnie wyrażają to w postaci kilkuset interakcji), mechanizm odkryłem sam o czym bezczelnie się pochwalę: w skrócie zablokowanie reakcji zapalnej uruchamia rewitalizację mitochondrialną dokonywaną przez komórki macierzyste (blokowaną pod wpływem stanu zapalnego), leki te wywołują w mtDNA masę mutacji wstrzykiwanych komórkom w postaci dysfunkcyjnych mitochondriów. Źle poczuł się od razu, po 3 dniach było bardzo źle ale pani doktor doktor Dobromirowa stwierdziła że nic nie szkodzi, to normalne efekty uboczne i nie trzeba się przejmować.Po 3 tygodniach wyglądał jak wrak człowieka, rozwalająca się skóra w stanie przypominającym zapalny, 0 energii do działania, nic nie działa (to dokładnie ten sam problem jaki mają ludzie w FTS) i w końcu zrezygnował samoistnie. Te 3 tygodnie nazywa największym błędem jaki popełnił w swoim życiu. To znaczy te przypadki ilustrują jaki jest poziom lekarzy w stopniu doktor med. i prawie doktor medycyny, więc niżej może być tylko gorzej. Zwykłe błędy medyczne też koszą, w kręgu rodzinnym jedna osoba zeszła bo lekarka pierwszego kontaktu co prawda przepisywała lek "na serce", nawet kierunek działania leku był całkowicie prawidłowy, niestety zwrot był przeciwny i serce po prostu stanęło którejś nocy "na amen". Odejmijmy urazówkę/chirurgię/szczepienia i nagle okazuje się, że lepiej byłoby ludziom bez żadnej medycyny. Ludzie zdrowieją sami. Lekarze w 95% potrzebni są tylko do wydawania L4. Błędy medyczne i efekty uboczne mają tę przewagę, że ciężko je wykazać/powiązać a każdy któremu się poprawi wiąże tę poprawę z działaniami lekarzy. Jest znane zjawisko że ludzie którzy przestają pracować żyją krócej. Jest to całkowicie zadziwiający efekt nieudolnie tłumaczony przez kwestie psychologiczne. Prawdziwa przyczyna zjawiska jest znacznie bardziej porażająca - ludzie którzy pracują odkładają na przyszłość wszystkie zabiegi i operacje medyczne, pierwsza rzecz którą robią jak mają więcej czasu to "wreszcie zaczynają się leczyć". Efekt jest tragiczny. Dopiero drugim, znacznie mniej istotnym czynnikiem jest zmniejszenie ilości ruchu.
  10. Przemyślałem sobie wiele lat temu i wniosek był taki że nie jest to żaden model MK i rzeczywistości. Może natomiast aproksymować pewne zjawiska na poziomie kwantowym. Interferencja jest jedynym powodem dla którego mamy kwantowy speedup. Bez interferencji mamy komputer klasyczny, bo nie jesteśmy w stanie wyciąć ścieżek obliczeń nie prowadzących do prawidłowych rozwiązań. Poproszę o odpowiedź na jedno proste pytanie: czym jest jednostka informacji w tym modelu obliczeń. Czy jest to q-bit czy bit? Czy też może jakiś wariant p-bitu? Skoro jest to komputer, to musi istnieć prosta odpowiedź na tak postawione pytanie. Bo pomimo starań wygląda to wciąż na "zlepek idei". Użycie nieunitarnych bramek w obliczeniach nie wyklucza użycia q-bitów, ale każda taka bramka w trakcie działania dokonuje redukcji wektora stanu w sposób całkowicie losowy, co powoduje że szanse na uzyskanie prawidłowej ścieżki obliczeń maleją wykładniczo z ich ilością. p-bity są obecnie tworzone przez szybkie stany oscylacyjne, według innego spojrzenia taki komputer jest układem chaotycznym z atraktorami w pobliżu rozwiązań, jest to komputer probabilistyczny. Samo rozwiązywanie 3-SAT nic nie znaczy, to robi 6502. Potrzebna jest niewielomianowa ilość powtórzeń obliczeń.
  11. Ale nas interesuje nie siła a energia wzajemnego oddziaływania, a ta jest jak 1/r^3. To bardzo szybki spadek, ale nie wystarczająco szybki aby zignorować oddziaływanie spinów odległych o 2-3 przeskoki, co robi się w Isingu. Pewnie wciąż czegoś nie rozumiem, ale równoważność przejść po ścieżkach zachodzi dla dokładnego modelu Isinga według równania (4). Ta praca jest na oko kilka razy za krótka jak na zakres zagadnień które porusza. Brakuje dokładnego wskazania gdzie i jak odczytuje się bity wyniku. Bardzo przydałby się pełny "diagram scalony" dla prostego przypadku, powiedzmy kilka zmiennych i klauzul. W kilku stanach, tzn. jaki jest początek układu, jak wygląda faza obliczeń, gdzie są bity a gdzie qbity. Jak wygląda odczyt. Jeśli to ma ręce i nogi, to na pewno da się nawet przygotować animację która pokazuje jak mają działać te obliczenia, z demonstracją rozkładu po ścieżkach, jak ma się to do działania bramek itd. W komputerach kwantowych jest idealnie, bo jest możliwa korekcja błędów na co jest sporo twierdzeń. Do tego wciąż czekamy na topologiczne komputery kwantowe które mają mieć znikomy poziom błędów. Komputery kwantowe w większości implementacji są dyskretne, operują dobrze zdefiniowanymi q-bitami. Na przykład taki q-bit oparty na jądrze zupełnie nie dba o to jak moment magnetyczny rozkłada się na składowe (bariony/kwarki itd), mechanika kwantowa gwarantuje nam "dyskretność". Tak samo można rozłożyć qbity logiczne na kilkaset realnych splątanych. Ogólnie nie musimy się martwić o indywidualną "jakość" qbitu inaczej niż przez dekoherencję, o resztę dba mechanika kwantowa. Nie trzeba się przejmować faktem, że wartości amplitud spadają na przykład do poziomu 10^-10, każdy qubit to obsłuży za darmo. Patrząc na ten komputer nie wiem czy tam w ogóle obowiązuje koncepcja q-bitu czy też mamy coś w rodzaju b-bitu.
  12. To jest właśnie podejście medycyny. Nauka jest jedna. Gałęzie to podział techniczny spowodowany praktycznymi ograniczeniami ludzkimi, wymuszającymi specjalizację. Ale jeśli coś mnie interesuje to takie płotki, rowy i poletka zupełnie mnie nie interesują. Z praktyki zauważyłem, że o ile nie muszę posiadać gęstej znajomości jakiejś dyscypliny to jeśli chodzi o poziom zrozumienia tego co wiem to jest on często lepszy ze względu na szerszą wiedzę. Zjawiska w przyrodzie nie przejmują się sztucznym podziałem na dyscypliny, stąd też coraz większa popularność "zespołów interdyscyplinarnych" do prowadzenia badań naukowych. Patrząc w drugą stronę bardzo chętnie się dowiem co powstrzymuje kolegę przed możliwością oceny prac medycznych. To też jest prawda przy odpowiednim znaczeniu "naprawdę dobrych". Różnica jest taka, że przeciętni fizycy mają większe kompetencje w kierunku prowadzenia badań naukowych niż najlepsi lekarze. Co nie znaczy że przy innej ścieżce kształcenia ci najlepsi lekarze nie mogliby być co najmniej przeciętnymi fizykami (maksymalnie połowa, taki jest udział ludzi którzy posiadają "spójny model rzeczywistości", niezbędny do sprawnego programowania i uprawiania fizyki, cecha praktycznie niezależna od inteligencji i nie wymagana w medycynie), ale nie są. Drobiazg. Równowartość 1-3 książek czytana codziennie od ponad 30 lat. Historycy są specyficzni z tego powodu, że walczą z entropią ścigając się z czasem i rozpadem archiwów Żadna inna dyscyplina wiedzy nie jest tak oddalona od odnajdywania prawd ogólnych, jeśli spotykają się gdzieś kosmici z dwóch różnych planet to ta dziedzina wiedzy jest najbardziej dowolna i przypadkowa. Fizycy to w pewnym sensie całkowicie przeciwny biegun.
  13. Ale problem zasięgu oddziaływania nie zależy od sposobu technicznej realizacji, tylko od zauważenia że jeśli mamy gdzieś oddziałujące pary sąsiednich spinów z energiami, Ji i+1, Ji+1 i+2 to na skutek mechanizmu oddziaływania przez pole magnetyczne musimy mieć Ji i+2 != 0. I to całkiem nie mało, wciąż na poziomie 1/8 średniej oddziaływań Ji i+1, Ji+1 i+2.To jest problem nie do obejścia przez żadne zabawy z implementacją i fundamentalny rozjazd. Jeśli mielibyśmy kodować problem w postaci poziomu sprzężenia spinów, to miałby on z pewnością jakąś dokładność reprezentacji (promil?). To wymusza uwzględnianie nawet do 10 sąsiednich spinów w modelu a nie tylko te na diagonali, aby błędy modelu nie były większe od kodowania. A to już nie jest model Isinga.
  14. Nie znajdę bo to było kilka lat temu. Teraz jest wysyp treści po artykule https://www.bmj.com/content/358/bmj.j3418. więc słowa kluczowe nie pomogą. Problemem jest to że takie zalecenia z d*py stały się bezmyślnymi wytycznymi WHO. To pokazuje jak działają "eksperci". Aby się zorientować że nie może być to prawda wystarczyło pomyśleć minutę. Nawet jeśli ktoś ma przeciętną inteligencję, to jeśli ogarnia temat powinna wystarczyć mu maksymalnie godzina! Kluczowy jest jednak brak jakiegokolwiek myślenia w stylu "czy to może być prawda". Oraz brak ogarniania tematu przez ekspertów (może zakuli kilka haseł o ewolucji i Darwinie w swoim życiu, ale nie potrafią modelować niczego w głowie). Jeszcze bardziej zawstydzające jest to, że czysto teoretyczny problem został zweryfikowany eksperymentalnie. Obserwowano coś takiego w ZSRR w międzywojniu, kiedy pozbyto się wykształconych burżuazyjnych inżynierów potrafiących cokolwiek policzyć, w zamian wszystko sprawdzano "eksperymentalnie". To takie samo zjawisko. (Kiedy niedawno badano użycie drona do transportu serca celem transplantacji, też eksperymentalnie przeprowadzono lot i wszyto je świni. Żadne badanie w stylu badamy wstrząsy akcelerometrami w różnych warunkach pogodowych i porównujemy z wytrzymałością serca (gigantyczna, w każdym rozsądnym pojemniku problem nie istnieje). To pokazuje skrzywienie zawodowe, w którym zrobiono biurokratyczną podkładkę wcale nie analizując realnych zagrożeń.) Aby uniknąć anybiotykoodporności szczepów chorobotwórczych potrzebna jest jedna zasada: należy wykluczyć możliwość zarażenia innych przed końcem infekcji. Naiwnie myśląc tylko przy kuracji antybiotykowej, jednak biorąc pod uwagę transfer plazmidów trzeba wszystkich chorych izolować do momentu zaprzestania możliwości zajścia zakażenia, bo antybiotykoodporność może się pojawić u osoby która nigdy nie brała antybiotyków (a jedynie zaraziła się nieszkodliwą odporną bakterią wcześniej i w jej ciele dokonał się "transfer" plazmidu do tej chorobotwórczej). To byłby znakomity model dla ekspertów medycznych, ale różnica jest taka że członkowie wspomnianej komisji doskonale wiedzieli dlaczego i po co są w tej komisji i im prywatnie wcale nie wydawało się, że naprawdę są ekspertami. Kolega sam siebie podsumował? Bo ja wcale nie twierdzę że "uzdolnienia matematyczne" nie są potrzebne w innych dyscyplinach, wręcz przeciwnie. Po prostu nie są weryfikowane w żaden systematyczny sposób. Dla prawnika logika to semestr na studiach, można się prześliznąć a potem mamy prawników takich jak widać, co to nie nawet warunku koniecznego od wystarczającego nie potrafią odróżnić. Naprawdę dobrych prawników jest niewielu, i oni nie mają problemów z logiką. Historycy są bardzo specyficzni, ale oni potrafią się wykładać na elementarnych podstawach. Na przykład powstaje gruba książka starająca się wykazać (to jedna z tez), że gdyby tylko Niemcy zablokowali konwoje i transport przez kanał Sueski i Morze Śródziemne, zmuszając je do pływania na około Afryki, to może nawet wygraliby wojnę. Tylko że nie było takich konwojów i wszystko pływało dookoła Afryki praktycznie od początku! Detal.
  15. Chodziło mi o "Drogę do rzeczywistości". Bardzo miła jeśli chodzi o odświeżenie czy ogólną prezentacje koncepcji, nie nadaje się do nauki a jedynie jako pomoc a w miejscach gdzie jest błędna jest bardzo mocno błędna. Nie jest to trudność techniczna, wydaje mi się że jest to fundamentalna niezgodność modelu z rzeczywistością. Nie widzę opcji aby dało się wprowadzić ekranowanie pomiędzy dalszymi spinami. Nawet jeśli wprowadzi się kwadraty z materiału o niskiej przenikalności magnetycznej, to efektywnie zbliża to jedynie metrykę odległości pomiędzy spinami "na ukos" do taksówkowej. Spin który reaguje z sąsiadem z energią Jij, będzie reagował z dalszymi z energią malejącą jak trzecia energia odległości, czyli Jij/8, Jij/27, Jij/64. Model Isinga przypomina rzeczywistość tylko dlatego, że jest to bardzo szybki spadek i rozwiązania jakościowo są bardzo podobne. Nie znam mechanizmów fizycznych które mogły by spowodować brak takiego oddziaływania w zasadzie, to po prostu nie jest trudność techniczna a raczej fundamentalna. Jeśli tak jest, to cała matematyka "rozwiązująca" problemy według tego założenia jest nieadekwatna. Aby to uzyskać działanie Isinga w rzeczywistych układach fizycznych potrzebne byłoby bardzo magiczne oddziaływanie które dokładnie kompensuje energię pomiędzy dalszymi spinami, całkowicie nielokalne. Mam wrażenie że to może być powód "łamania bella" (tutaj od razu mówię że nie analizowałem prawdziwości tego stwierdzenia na poziomie technicznym) nawet w przypadku klasycznym, ten wydaje się być nielokalny. To w ogóle nie jest tak, Shor działa bo wykorzystuje matematyczne własności komputera kwantowego. Wszelkie wyobrażanie sobie mechanizmów działania tego algorytmu za pomocą superpozycji klasycznych ścieżek obliczeniowych nie ma znaczenia dla fizyki, to wirtualna, matematyczna część która uzasadnia i wizualizuje poprawność algorytmu, ale "fizyczna realizacja" obliczeń kwantowych w ten sposób nie jest wymagana. Dlatego też komputer kwantowy nie jest "dowodem" MWI. I to jest kolejna bardzo poważna przesłanka za tym, że model jest zupełnie "niefizyczny". Jedyna na co bym liczył w przypadku komputerów kwantowych to efektywne metody aproksymacji problemów np-trudnych. Są znane modele "hiperfizycznych" komputerów które dają sobie radę z obliczeniami NP-com, na przykład wykorzystujące nieliniową odmianę MK. Jeden z moich profesorów miał całkiem interesującą metahipotezę, że dla przyrody problemy NP-com muszą być trudne, bo to do czego efektywnie dąży świat to stan o maksymalnej możliwej entropii, jedyny powód dla którego idzie to tak wolno i mamy stabilną rzeczywistość wynika z faktu, że jest to problem "trudny obliczeniowo dla praw fizyki" (jego sformułowanie było nieco inne i dotyczyło minimalizacji energii ale duch był dokładnie taki sam). Wciąż mam wrażenie że ten cały alternatywny model jest oparty na "alternatywnej interpretacji klasycznej MK". To rzeczywiście byłby trochę inny problem, bo wtedy nie ma nawet podstaw teoretycznych aby coś takiego mogło zadziałać. Całe założenie że fizyka będzie tak kierować spinami aby spełnić założenia MERW może być po prostu nieprawdziwe. Z kolei obliczenia kwantowe mają żelazne fundamenty teoretyczne i muszą działać, problemy rzeczywiście mają charakter techniczny. I kwantowa supremacja jest do uzyskania w sposób praktycznie pewny, bo obserwujemy wykładniczy wzrost możliwości komputerów kwantowych. Tylko że to "kwantowe prawo Moora" jest znacznie wolniejsze od tego, do czego przyzwyczaiła nas elektronika klasyczna.
  16. Z pozycji kierowcy tylko słoneczko zostanie przyciemnione i ewentualnie "korona" wokół niego. Słońce to pół minuty kątowej. Na szybie pojawią się dwa niewielkie ciemne placki. Rozwiązanie z fasetkami jest niewiarygodnie prymitywne, najcenniejszy jest patent na funkcjonalność jeśli dostał.
  17. Mam jeszcze jedną wątpliwość odnośnie komputera opartego na modelu Isinga. Mianowicie w fizycznie realizowalnej regularnej siatce spinów nie da się uniknąć interakcji pomiędzy niesąsiednimi spinami. Jeśli energia oddziaływania pomiędzy sąsiadami wynosi r, to energia pomiędzy spinami o dwukrotnie większej odległości powinna wynosić 1/8, potem 1/27. Dochodzą jeszcze przekątne. Nie widzę możliwości ekranowania tych interakcji. Dlatego nawet jeśli model Isinga przewiduje możliwość magicznych obliczeń, to ta matematyka może się załamać ze względu na niezgodność z rzeczywistością. Można sobie wyobrazić foton latający pomiędzy dwoma lustrami prostopadłymi do kierunku ruchu. Taki obiekt zachowuje się jak cząsteczka obdarzona masą. Nieważkie pudełko z fotonem w środku też zachowuje się jakby miało masę, to podstawa do wyprowadzenia wzoru E=mc^2 w oryginalnym rozumowaniu Einsteina. https://physics.stackexchange.com/questions/75783/penroses-zig-zag-model-and-conservation-of-momentum Penrose opisał podobną interpretację dla elektronu jako oscylację pomiędzy dwoma stanami (nota bene "Nowy umysł cesarza" zawiera też trochę bzdur").
  18. To zależy od tego, czy procesor jest wąskim gardłem przetwarzania. Jeśli i tak karta grafiki nie wyrabia, to będzie 0%. Prawidłowo zrobione testy powinny zmniejszać rozdzielczość do minimum, jeśli chcemy wiedzieć o ile zwalnia kod gier. Do tego gra powinna mieć odpowiednią ilość wątków z czym jest problem. Jeśli wyłączymy SMT a gra dostanie 4 pełne rdzenie mając 4 wątki, to możemy nawet zobaczyć przyspieszenie. Co jest oczywiste jeśli pamięta się o wątkach i wąskich gardłach w systemie (na starszym/tańszym sprzęcie jest mniej zasobów). W sumie z punktu widzenia użytkowników objawia się tam, gdzie boli najbardziej.
  19. "Wynalazek" sprzed 8-10 lat, aktualnie w szuflandii. Bardzo ciężko na czymś takim zarobić niezależnej osobie a koszty patentu są zaporowe. Ciekawszym rozwiązaniem jest zrobienie okularów zacieniających źrenice, chroni zarówno przed słońcem jak i przed światłami aut z naprzeciwka. Bardziej zaawansowany układ z kamerą może robić pełny tone-mapping otoczenia. Lepiej zadziała przy wysokim poziomie jasności, przy niskim rozmiar źrenic robi się duży i halo wokół obiektów robią się większe. Pierwszym oczywistym klientem takiej technologii są siły powietrzne.
  20. Hyper-threading to nazwa marketingowa dla SMT u intela i jest to jak najbardziej wielowątkowość na poziomie procesora, nie da się wyłączyć tej na poziomie systemu operacyjnego bo komputer przestałby być używalny. Ma dramatyczny wpływ na wydajność, SMT to średnio +25% wydajności. Pewne aplikacje nawet więcej. HT to jednoczesne wykonywanie dwóch wątków obliczeniowych (niezależnych strumieni instrukcji), co z jednej strony lepiej pozwala wykorzystać jednostki wykonawcze gdyż często brakuje niezależnych instrukcji do wykonania w ROB (reorder buffer) aby wykorzystać wszystkie dostępne zasoby, a z drugiej strony pozwala błyskawicznie amortyzować brak danych w cache i konieczność oczekiwania na dostęp do pamięci co zajmuje nawet kilkaset cykli, w tym czasie procesor ma prawie zawsze drugi wątek do wykorzystania. Ciężko aby wyłączenie spekulacji na dostępie do pamięci nie powodowało spadku wydajności, to był główny powód przewagi Intela nad AMD (ryzyko było znane od początku, ewentualne wyłączenie funkcjonalności musiało być planowane). To nie był "bug", tylko "feature". Nie ma prostego rozwiązania. Trzeba by używać do spekulacji dodatkowych niezależnych zasobów najlepiej wydzielonych dla każdego wątku, jest to bardzo trudne do wykonania, wymaga przeprojektowania podstaw architektury, trzeba stworzyć specjalne bufory tylko na potrzeby spekulatywnego wykonania, każda spekulacyjnie ściągnięta linia pamięci powinna lądować w buforze pośrednim i dopiero po zaakceptowaniu spekulacji być przenoszona do cache (a slot w hierarchii niżej zwalniany). Zostanie to zrobione, bo zyski ze spekulacji są za duże a innych metod podnoszenia wydajności nie ma. Ale na efekty będzie trzeba poczekać kilka lat, bo zaprojektowanie architektury od podstaw to co najmniej 5 lat. 2023 to najwcześniejsza możliwa data, chyba że zaczęli dłubać wcześniej niż publikacja luki. Być może jakieś półśrodki zmniejszające stratę do AMD (po wszystkich łatach są już w tyle) pojawią się wcześniej.
  21. Z Doliny Krzemowej. Bardziej narzekam na stan wiedzy medycznej, lekarze są jacy "są i nie będą nigdy lepsi". Problem numer 1 to brak dobrych kadr do tworzenia wiedzy medycznej (inżynierów), bo lekarze (mechanicy) się nie nadają. Oni żyją w świecie prawd objawionych i są trenowani w doszukiwaniu się różnic, w sytuacji kiedy naukowiec wie że wiedza jest niepewna, rozumie zależności i szuka podobieństw/wzorców. To jest mentalnie niekompatybilne. Wystarczy poczytać medyczne prace naukowe, to wygląda bardziej na produkcje "licealistów bawiących się w naukowców". Oni mogą mieć tytuły, kitle, formalnie prowadzić badania naukowe ale się do tego nie nadają. Weźmy dla przykładu zalecenie brania antybiotyków do końca, "żeby bakterie się nie uodporniły" , powtarzane przez wszystkich lekarzy i farmaceutów jak mantra. To jest tak idiotyczne i sprzeczne z wszystkimi prawami ewolucji jakie mamy (błyskawicznie falsyfikowane przez rozumowanie z plazmidami kodującymi całkowitą odporność uogólnia się dla każdej nawet minimalnej mutacji, odpowiednio 5 sekund i minuta roboty), że zacząłem szukać skąd mogła pochodzić taka bzdura. I od razu trafiłem na biologicznego bloga którego autor też zadał sobie to pytanie i przeprowadził śledztwo. Błędny artykuł z tą tezą został napisany w 1945 roku. Pokolenia medycznych geniuszy nie zorientowały się że to bzdura przez 75 lat. Bo nikt nie zadał sobie prostego pytania "dlaczego".
  22. Kinetycznej. Pływy można zaniedbać. Można na to spojrzeć inaczej - wszystkie obiekty elementarne poruszają się z prędkością światła, ale obiekty masywne składają się z zygzakujących części. I niemożliwość staje się czysto logiczna, bo nie da się lecieć z prędkością światła i mieć zygzakujące składowe lecące z prędkością światła. Albo-albo. Dobra jest analogia stanem oscylacyjnym światła między dwoma lusterkami, bo łatwo też zobrazować dylatację czasu. Energia to pojęcie abstrakcyjnę będące funkcją stanu układu, więc pytanie "czy coś jest formą energii" nie ma sensu logicznego. Układowi można przyporządkować energię. Fale grawitacyjne przenoszą energię, ale pole grawitacyjne nie ma czegoś takiego jak lokalna gęstość energii. W MK można tylko mówić o wartości oczekiwanej pomiarów operatora H, potocznie mówiąc energia każdego układu może fluktuować.
  23. Te leki są poza rzadkimi sytuacjami bardzo szkodliwe. Ale psychiatria ma tendencję do interpretowania uszkodzeń mózgu jako poprawy obrazu klinicznego. Naprawdę warto wspomnieć lobotomię, za to był Nobel. Po wycofaniu lobotomii w poważnej nauce, jak fizyka, przeanalizowalibyśmy jak i dlaczego mogliśmy się tak pomylić i przedsięwzięlibyśmy środki aby analogiczna sytuacja nie mogła się powtórzyć. W psychiatrii po prostu przeszli nad tym do początku dziennego, w głowach co najwyżej pojawiło się jedno nowe zdanie "lobotomia jest be". To powoduje, że nie było żadnej gwarancji że ta sytuacja się nie powtórzy. I ona już się powtórzyła wielokrotnie w postaci neuroleptyków, SSRI, elektrowstrząsów (Ernest Hemingway przed popełnieniem samobójstwa po elektrowstrząsach powiedział coś w stylu "co z tego że operacja się udała, skoro pacjent zmarł" ) itp. Teraz tak to wygląda. Ma być świeżo, czysto, miło, profesjonalnie ("w czym mogę panu pomóc"), tylko treść się nie zmieniła. Wystarczy jednak wytknąć lekarzowi błąd i czar pryśnie Kryterium jest wyłącznie sprawność pamięci w kategorii "rycie". Potem mamy studia, które nie rozwijają żadnych innych możliwości intelektualnych poza ryciem. I nie zostawiające nawet czasu na "myślenie". Do tego dochodzi bardzo patologiczna struktura hierarchiczna i niska jakość samej wiedzy medycznej. Nauki ścisłe nie produkują wyznawców, niepewność wiedzy jest oczekiwana, można kwestionować autorytety (a nawet trzeba). Nie w medycynie. Oczywiście zdarzają się bardzo inteligentni lekarze (najinteligentniejszy internista jakiego spotkałem okazał się być też programistą i poważnie myślał o zmianie zawodu. zabawnie wyglądałaby stopka w stylu Senior Software Developer lek.med X ). Ale ci inteligentni też nie są trenowani w kierunku sprawności myślenia, i mam podejrzenia że swoje studia znoszą znacznie gorzej od tych mniej inteligentnych. Pamiętam historię ze sciam o lekarzu który pierwszy wyleczył pacjenta ze wścieklizny. Bardzo skomplikowana procedura, znakomite rozumowanie, czapki z głów. Ale o środowisku świadczy niemożność reprodukcji osiągnięcia, wielokrotnie próbowano stosować tylko elementy postępowania co nie miało szansy zadziałać, i na tej podstawie wnioskowano że metoda nie działa.
  24. Odnośnie 2) dodam jeszcze kwestię efektów ubocznych która była bardzo dobrze rozwałkowanym przeze mnie tematem na potrzeby książki. Efekty ubocznie nigdy nie są problemem, ta kategoria efektywnie funkcjonuje jako coś do świadomego ignorowania w stylu "możesz się nie przejmować, to tylko efekt uboczny". Często efekty uboczne są znacznie gorsze niż podstawowy problem indywidualnie, a dostaje się ich komplet. Historie o ludziach którym "pomógł sok z buraka który jest najlepszym lekiem na wszystkie choroby świata" są prawdziwe: ludzie dzięki temu sokowi zrezygnowali z koktajlu leków o wątpliwej skuteczności działania (warto poczytać metaanalizy o skuteczności choćby leków na choroby krążenia) a ogromnych skutkach ubocznych potęgowanych przez problemy z metabolizowaniem tychże (ze względu na wiek i samą ilość). Testując jakiekolwiek leki mamy gigantyczną asymetrię w traktowaniu efektów, przede wszystkim lista efektów ubocznych jest całkowicie otwarta, a lista korzyści zamknięta i bardzo dokładnie sprawdzana. Bezpieczeństwo stosowania leków z założenia jest testowane na maksymalnie zdrowych, stosunkowo młodych osobnikach bez chorób i nie przyjmujących innych leków . To bardzo niereprezentatywna grupa w stosunku do docelowej, ktoś zapomniał po co się to robi (cult cargo science w akcji). Do tego osoby startujące w takich badaniach to nie jest elita intelektualna i życiowa, ci ludzie często zatajają własne choroby (warunek przyjęcia do badań) co skutkuje bardzo małą wiarygodnością odnośnie ich prawdomówności jeśli chodzi efekty niepożądane. Są leki o "bandyckim" mechanizmie działania, który musi prowadzić do długofalowych negatywnych konsekwencji zdrowotnych z definicji, na przykład warfaryna która wyłącza witaminę K. W takim wypadku nawet nic nie trzeba badać. Taki lek trzeba traktować jako środek "ostatniej szansy" a nie pełnoprawny. No i w końcu chinolony. Przez 60 lat geniusze nie zorientowali się że efekty "uboczne" wynikają prosto z mechanizmu działania, tzn. jeśli ten lek działa niszcząc DNA bakterii, to musi dawać efekty uboczne przez niszczenie DNA mitochondrialnego, bo te wpadają w tak lubiane przez lekarzy "szerokie spektrum działania". Hehe. Mi lekarz powiedział prosto w twarz, że on swoje zrobił dobrze a jak czuję się chory to zaprasza do innych specjalistów. Ogólnie nie zobaczyłem nigdy wyrzutów sumienia u lekarzy (to pierwsza rzecz której uczą się nie mieć), a kiedy umrę to i tak mi nie pomoże. Mniej więcej 20 tysięcy ludzi (już nie pamiętam czy w USA czy w krajach rozwiniętych) ginie w ciągu roku, bo aparatura która robi "bip" przestaje robić "bip" albo zaczyna robić zwariowane rzeczy w wyniku błędów software, doliczone są zgony z powodów innych błędów software medycznego jak kalkulatory do leków. Gość z UK który mówił o tym na wykładzie nie mógł zrozumieć dlaczego nikt w środowisku medycznym nie przejmuje się tym problemem pomimo wielu lat jego (i innych) starań i bardzo prostych środków zaradczych. Po wykładzie uświadomiłem go, że przecież w stosunku do ilości zgonów z powodu wszystkich błędów medycznych to bardzo nieznacząca wartość, dla nich to "business as usual". To nawet nie jest kwestia poddawania się, tylko faktu że dostałem amnezji dysocjacyjnej (myśli do książki powstawały po angielsku a ja nawet przestałem się posługiwać czynnie tym językiem). Inne ograniczenia były do przezwyciężenia, min. nauczyłem się ponownie czytać ze zrozumieniem rozbudowany tekst (40x wolniej niż dawniej, ale żeby uzyskać zrozumienie często muszę czytać kilka razy), obecna sprawność posługiwania się tekstem jest upierdliwa, ale raczej by wystarczyła. Charakterystyczny sposób budowania myśli, unikanie zdań złożonych i masa błędów jakie popełniam to efekt uszkodzeń. Wystarczy porównać to z kilkoma moimi postami sprzed kilku lat. Ale wciąż by wystarczył. W sytuacji kiedy zaniknęła pamięć, nic nie jestem w stanie zrobić. Nigdy nie spotkałem innej grupy zawodowej o takiej dysproporcji pomiędzy swoimi możliwościami intelektualnymi a mniemaniem o sobie. Winne częściowo może być środowisko pracy, gdyż mają ciągły kontakt z "przeciętnym człowiekiem". I dr House. Z tym że ta postać z pewnością była oparta na "autentycznych faktach" Chyba nigdy kolega nie musiał się nauczyć "nowej technologii" w tydzień z 1000+ stronowego klocka z API włącznie. Mam bardzo poważne wątpliwości czy pamięć lekarzy jest rzeczywiście lepsza od pamięci programistów przy podobnej selektywności. Lekarze mogą wygrać tylko w konkurencji zapamiętywania "rzeczy które nie mają sensu". Problemem jest to, że lekarze nie muszą być dobrzy w niczym innym (z wyjątkiem sprawności manualnej u chirurgów), liczy się tylko sprawność pamięci w bardzo wąskim zakresie zresztą. Szukanie asocjacji ma u nich charakter wybitnie tekstowy, w sensie przypominają sobie listę terminów, i potem szukają w głowie odniesień do tych terminów. Nie ma tego naturalnego procesu kiedy asocjacje skaczą w tempie kilku-kilkunastu na sekundę, budowania drzewa skojarzeń itd (ale to też pochodna płytkości wiedzy). Zastanawiające jest jednak to, że większość lekarzy zupełnie nie zna informacji z ulotek lekarskich leków które przepisują, to raczej chora sytuacja. A lekarz potrafi się nawet upierać, że coś jest sprzeczne z wiedzą medyczną, pomimo informacji zarówno na ulotce jak i na każdej internetowej stronie opisującej określony lek. Tam nie ma skomplikowania w innym sensie niż ilość informacji. Ostatnio poznana koleżanka powiedziała mi, że jej brat po medycynie "wie wszystko", tylko że nigdy nie jest w stanie wyjaśnić "dlaczego tak jest". Jedyna odpowiedź to "bo tak jest i już".
  25. To nawet było moim osobistym celem - w skrócie wyp******** lekarzy z medycyny (jak widać sprawa mocno osobista) oferując kompletne komercyjne rozwiązanie w ciągu 15 lat (technologie już są, wystarczy je poskładać i dopracować). Niestety lekarze odpowiedzieli kontratakiem uprzedzającym. Każde stwierdzenie jest subiektywne. Warto o tym pamiętać. Co do ogólności to jest to nieuniknione gdyż moje wypowiedzi są syntezą ogromnej ilości nieznanych koledze faktów. Tak należy je traktować. Jeśli zada sobie kolega trud podjęcia samodzielnych studiów nad tematem (a to nie proste czytanie podręczników medycyny tylko setek prac naukowych, przy podejściu w którym one same są też obiektem studiów a nie tylko ich dziedzina ) to może traktować moje wypowiedzi jako rodzaj klucza do interpretacji. Na te tematy miała powstać książka która rozrosła się do planów na trzy ze względu na ilość materiału, w sumie rozbieżną tematykę i lepszy efekt z rynkowego punktu widzenia. Już nie powstaną. 1) Wyczerpująca analiza implikacji wprowadzenia leków niszczących DNA do medycyny (ze szczególnym uwzględnieniem chinolonów i pochodnych) - największy błąd medycyny XX wieku (i to mnie wykończyło). Spojler: to one są odpowiedzialne za wysyp "chorób cywilizacyjnych" 2) Bardzo dokładna krytyczna analiza stanu współczesnej, medycyny, opisująca błędy i patologie jakich dopuściła się w XX wieku, oraz opisująca dokładne intelektualne ograniczenia lekarzy jako dominujący czynnik. Spojler: kabelki i klepki których brakuje lekarzom to te niezbędne do uprawiania fizyki na najwyższym poziomie. Medycyna jest znacznie bardziej religią niż nauką. Ludzie o uzdolnieniach niezbędnych do tworzenia wiedzy medycznej dobrej jakości skrajnie rzadko wybierają medycynę jako kierunek studiów, a jeśli tam trafią to są niszczeni przez nieadekwatny system nauczania. Lekarze to analogi mechaników, nie inżynierów. Potem ci mechanicy są powoływani do zajęć dla inżynierów. 3) Teoria powstawania zaburzeń psychicznych/neurologicznych oparta na neurokognitywistyce. Do tego raczej niezbędna jest biegła znajomość informatyki w zakresie NN, chociaż chodzi bardziej o paradygmaty i sposób myślenia a nie detale.
×
×
  • Dodaj nową pozycję...