Skocz do zawartości
Forum Kopalni Wiedzy

peceed

Użytkownicy
  • Liczba zawartości

    1626
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    57

Zawartość dodana przez peceed

  1. peceed

    Polskie zwycięstwo.

    DJ Aenes Problemem jest to, że gdyby Jarek chciał zarobić na swoim pomyśle, to przypuszczalnie nie zobaczyłby ani grosza albo bardzo śmieszne kwoty. Nie wystarczy zdobyć patent, trzeba go jeszcze obronić w sądzie a to są gigantyczne kwoty, tutaj pomogła tylko nietypowa sytuacja że inwencja została przekazana w sferę PD co umożliwiło powstanie pospolitego ruszenia i groziło Googlowi stratami wizerunkowymi przewyższającymi wartość technologii. Nie da się nawet zajrzeć do lodówki aby nie natknąć się na informacje o tym gazie.
  2. Pisałem w kontekście psychiatrii. Dlaczego ta teoria jest nonkonformistyczna (i czy to w ogóle jest sensowna kategoria w których należy rozpatrywać teorie)? A obserwacje nie były jednostkowe, miałem sporą bazę do jej sformułowania, i potem przyszły jednostkowe obserwacje które ją dodatkowo potwierdzały. Najważniejszą przesłanką było uświadomienie sobie jak gigantyczna i niedoszacowana jest kwestia efektów ubocznych leków. Moja hipoteza to już tylko prosty wniosek: musi zachodzić podany mechanizm. Oczywiście nie neguję ani potrzeby ani możliwości dodatkowych badań, tylko dla mnie według moich subiektywnych szacunków szanse że efekt jest istotny to co najmniej 90% a dominujący ponad 50%.
  3. Zazwyczaj ani nie podnosi komfortu ani nie jest błogosławieństwem, długofalowe rokowania osób które nie korzystają z leków są lepsze. Samo odstawianie leków psychiatrycznych jest ogromnie problematyczne, bo działanie wszystkich wywołuje duże zmiany kompensujące znacznie trudniejsze. Znam przypadek w którym osoba zabiła bo zaczęła brać leki. Ale o takich sytuacjach się nie mówi, zamiecione pod dywan. Ładowanie prozacu osobie z urojeniami nie mogło się skończyć dobrze. Smutne jest to, że zjawisko zobaczyłem w swojej rodzinie już po sformułowaniu tej hipotezy. Przy okazji to nie jest tak, że wszystkie hipotezy trzeba potwierdzać albo obalać nowymi badaniami aby o nich dyskutować. W rzeczywistości mamy tutaj 2 konkurencyjne wykluczające się hipotezy z wiedzą zerową - podane zjawisko zachodzi lub nie - i można oceniać prawdopodobieństwo w inny sposób niż analiza statystyczna przypadków, ważne jest to czy ona jest konsystentna i tłumaczy już obserwowane zjawiska. Tutaj mechanizm jest oczywisty - zwiększona ilość zabiegów i spożycie leków o których wiemy, że mają negatywne skutki zdrowotne. To że ludzie odkładają zabiegi medyczne i leczenie na początek emerytury to też zjawisko znane (wielokrotnie obserwowane osobiście). Zatem możemy tylko zastanawiać jaka jest skala zjawiska, ale nie to czy występuje. Ono musi występować. A dlaczego twierdzę że ma największy udział? Bo inne konkurencyjne hipotezy są słabe (co nie znaczy że te mechanizmy nie zachodzą, tak naprawdę wszystkie możliwe mechanizmy statystycznie muszą zachodzić).
  4. Jeśli chodzi o zasadę to tak. W praktyce nie. Jako osoba z FTS trafiłem kilkanaście lat temu do psychiatrów którzy stwierdzili nietypową depresję (dzisiaj byłby to bardziej syndrom przewlekłego zmęczenia z dodatkami) i po SSRI dostałem hipomanii objawiającej się 4 godzinami snu. Każdy rozsądny człowiek uznałby że kuracja mi nie służy, ale co tam. Dowalono mi antykonwulsanty jako stabilizator. Oczywiście całość w żaden sposób nie dawała żadnych długofalowych pozytywnych efektów. Teraz wiem że przy gdy fluorochinolony uszkadzają neurony gabaergiczne (czyli osłabiają funkcje hamujące na wielu poziomach) jakiekolwiek ekstra wymuszenie będzie nieskompensowane i musi wywalić w kosmos. A SSRI zwiększa pobudzenie synaps o 500% przy typowych dawkach. Wtedy nie miałem wyrobionego sceptycyzmu, a wszelkie niewiadome jakie miałem tłumaczyłem brakiem wiedzy, zakładałem że ta teoria według której mnie "leczono" ma jakiś sens widoczny w nieznanych mi opracowaniach naukowych. Okazało się że nic tam głębiej nie ma (poza mułem). Teraz wiadomo że SSRI nie leczy praktycznie niczego. Użycie leku aby częściowo skompensować skutki uboczne drugiego to oczywiście pomysł. Inny przykład to wspomniany kolega. Miał przewlekłe nadciśnienie śródczaszkowe, które skutkowało zaburzeniami widzenia. Oczywiście nie udało się go prawidłowo zdiagnozować, ale że podejrzewano chorobę autoimmunologiczną dowalono mu ogromne dawki sterydów, które pomogły. Co ciekawe trafiono w ten sposób, że jest to jedna z dwóch podstawowych farmakologicznych metod leczenia nadciśnienia. Ale pani doktor doktor (to drugie to tytuł) Dobromirowa wpadła na genialny pomysł, że zmniejszy ilość o połowę ilość sterydów i dorzuci leki immunosupresyjne, przez co efekty uboczne "się rozłożą" (a kolega znakomicie znosił te sterydy). Tutaj wyjaśnię że ten lek nie robi nic innego niż hamowanie podziałów komórkowych przez zaburzenie syntezy DNA. Do tego wprowadza masę mutacji, a chorzy po kilkudziesięciu latach mają znacznie podwyższone szanse zachorowania na raka (jest ogromnie mutagenny). Ale co tam, nazwa "immunosupresyjny" wcale tak groźnie nie brzmi. Niestety pomiędzy lekami uszkadzającymi strukturę/syntezę DNA i lekami mającymi efekty przeciwzapalne jest potężna interakcja negatywna (lekarze nie myślący abstrakcyjnie wyrażają to w postaci kilkuset interakcji), mechanizm odkryłem sam o czym bezczelnie się pochwalę: w skrócie zablokowanie reakcji zapalnej uruchamia rewitalizację mitochondrialną dokonywaną przez komórki macierzyste (blokowaną pod wpływem stanu zapalnego), leki te wywołują w mtDNA masę mutacji wstrzykiwanych komórkom w postaci dysfunkcyjnych mitochondriów. Źle poczuł się od razu, po 3 dniach było bardzo źle ale pani doktor doktor Dobromirowa stwierdziła że nic nie szkodzi, to normalne efekty uboczne i nie trzeba się przejmować.Po 3 tygodniach wyglądał jak wrak człowieka, rozwalająca się skóra w stanie przypominającym zapalny, 0 energii do działania, nic nie działa (to dokładnie ten sam problem jaki mają ludzie w FTS) i w końcu zrezygnował samoistnie. Te 3 tygodnie nazywa największym błędem jaki popełnił w swoim życiu. To znaczy te przypadki ilustrują jaki jest poziom lekarzy w stopniu doktor med. i prawie doktor medycyny, więc niżej może być tylko gorzej. Zwykłe błędy medyczne też koszą, w kręgu rodzinnym jedna osoba zeszła bo lekarka pierwszego kontaktu co prawda przepisywała lek "na serce", nawet kierunek działania leku był całkowicie prawidłowy, niestety zwrot był przeciwny i serce po prostu stanęło którejś nocy "na amen". Odejmijmy urazówkę/chirurgię/szczepienia i nagle okazuje się, że lepiej byłoby ludziom bez żadnej medycyny. Ludzie zdrowieją sami. Lekarze w 95% potrzebni są tylko do wydawania L4. Błędy medyczne i efekty uboczne mają tę przewagę, że ciężko je wykazać/powiązać a każdy któremu się poprawi wiąże tę poprawę z działaniami lekarzy. Jest znane zjawisko że ludzie którzy przestają pracować żyją krócej. Jest to całkowicie zadziwiający efekt nieudolnie tłumaczony przez kwestie psychologiczne. Prawdziwa przyczyna zjawiska jest znacznie bardziej porażająca - ludzie którzy pracują odkładają na przyszłość wszystkie zabiegi i operacje medyczne, pierwsza rzecz którą robią jak mają więcej czasu to "wreszcie zaczynają się leczyć". Efekt jest tragiczny. Dopiero drugim, znacznie mniej istotnym czynnikiem jest zmniejszenie ilości ruchu.
  5. Przemyślałem sobie wiele lat temu i wniosek był taki że nie jest to żaden model MK i rzeczywistości. Może natomiast aproksymować pewne zjawiska na poziomie kwantowym. Interferencja jest jedynym powodem dla którego mamy kwantowy speedup. Bez interferencji mamy komputer klasyczny, bo nie jesteśmy w stanie wyciąć ścieżek obliczeń nie prowadzących do prawidłowych rozwiązań. Poproszę o odpowiedź na jedno proste pytanie: czym jest jednostka informacji w tym modelu obliczeń. Czy jest to q-bit czy bit? Czy też może jakiś wariant p-bitu? Skoro jest to komputer, to musi istnieć prosta odpowiedź na tak postawione pytanie. Bo pomimo starań wygląda to wciąż na "zlepek idei". Użycie nieunitarnych bramek w obliczeniach nie wyklucza użycia q-bitów, ale każda taka bramka w trakcie działania dokonuje redukcji wektora stanu w sposób całkowicie losowy, co powoduje że szanse na uzyskanie prawidłowej ścieżki obliczeń maleją wykładniczo z ich ilością. p-bity są obecnie tworzone przez szybkie stany oscylacyjne, według innego spojrzenia taki komputer jest układem chaotycznym z atraktorami w pobliżu rozwiązań, jest to komputer probabilistyczny. Samo rozwiązywanie 3-SAT nic nie znaczy, to robi 6502. Potrzebna jest niewielomianowa ilość powtórzeń obliczeń.
  6. Ale nas interesuje nie siła a energia wzajemnego oddziaływania, a ta jest jak 1/r^3. To bardzo szybki spadek, ale nie wystarczająco szybki aby zignorować oddziaływanie spinów odległych o 2-3 przeskoki, co robi się w Isingu. Pewnie wciąż czegoś nie rozumiem, ale równoważność przejść po ścieżkach zachodzi dla dokładnego modelu Isinga według równania (4). Ta praca jest na oko kilka razy za krótka jak na zakres zagadnień które porusza. Brakuje dokładnego wskazania gdzie i jak odczytuje się bity wyniku. Bardzo przydałby się pełny "diagram scalony" dla prostego przypadku, powiedzmy kilka zmiennych i klauzul. W kilku stanach, tzn. jaki jest początek układu, jak wygląda faza obliczeń, gdzie są bity a gdzie qbity. Jak wygląda odczyt. Jeśli to ma ręce i nogi, to na pewno da się nawet przygotować animację która pokazuje jak mają działać te obliczenia, z demonstracją rozkładu po ścieżkach, jak ma się to do działania bramek itd. W komputerach kwantowych jest idealnie, bo jest możliwa korekcja błędów na co jest sporo twierdzeń. Do tego wciąż czekamy na topologiczne komputery kwantowe które mają mieć znikomy poziom błędów. Komputery kwantowe w większości implementacji są dyskretne, operują dobrze zdefiniowanymi q-bitami. Na przykład taki q-bit oparty na jądrze zupełnie nie dba o to jak moment magnetyczny rozkłada się na składowe (bariony/kwarki itd), mechanika kwantowa gwarantuje nam "dyskretność". Tak samo można rozłożyć qbity logiczne na kilkaset realnych splątanych. Ogólnie nie musimy się martwić o indywidualną "jakość" qbitu inaczej niż przez dekoherencję, o resztę dba mechanika kwantowa. Nie trzeba się przejmować faktem, że wartości amplitud spadają na przykład do poziomu 10^-10, każdy qubit to obsłuży za darmo. Patrząc na ten komputer nie wiem czy tam w ogóle obowiązuje koncepcja q-bitu czy też mamy coś w rodzaju b-bitu.
  7. To jest właśnie podejście medycyny. Nauka jest jedna. Gałęzie to podział techniczny spowodowany praktycznymi ograniczeniami ludzkimi, wymuszającymi specjalizację. Ale jeśli coś mnie interesuje to takie płotki, rowy i poletka zupełnie mnie nie interesują. Z praktyki zauważyłem, że o ile nie muszę posiadać gęstej znajomości jakiejś dyscypliny to jeśli chodzi o poziom zrozumienia tego co wiem to jest on często lepszy ze względu na szerszą wiedzę. Zjawiska w przyrodzie nie przejmują się sztucznym podziałem na dyscypliny, stąd też coraz większa popularność "zespołów interdyscyplinarnych" do prowadzenia badań naukowych. Patrząc w drugą stronę bardzo chętnie się dowiem co powstrzymuje kolegę przed możliwością oceny prac medycznych. To też jest prawda przy odpowiednim znaczeniu "naprawdę dobrych". Różnica jest taka, że przeciętni fizycy mają większe kompetencje w kierunku prowadzenia badań naukowych niż najlepsi lekarze. Co nie znaczy że przy innej ścieżce kształcenia ci najlepsi lekarze nie mogliby być co najmniej przeciętnymi fizykami (maksymalnie połowa, taki jest udział ludzi którzy posiadają "spójny model rzeczywistości", niezbędny do sprawnego programowania i uprawiania fizyki, cecha praktycznie niezależna od inteligencji i nie wymagana w medycynie), ale nie są. Drobiazg. Równowartość 1-3 książek czytana codziennie od ponad 30 lat. Historycy są specyficzni z tego powodu, że walczą z entropią ścigając się z czasem i rozpadem archiwów Żadna inna dyscyplina wiedzy nie jest tak oddalona od odnajdywania prawd ogólnych, jeśli spotykają się gdzieś kosmici z dwóch różnych planet to ta dziedzina wiedzy jest najbardziej dowolna i przypadkowa. Fizycy to w pewnym sensie całkowicie przeciwny biegun.
  8. Ale problem zasięgu oddziaływania nie zależy od sposobu technicznej realizacji, tylko od zauważenia że jeśli mamy gdzieś oddziałujące pary sąsiednich spinów z energiami, Ji i+1, Ji+1 i+2 to na skutek mechanizmu oddziaływania przez pole magnetyczne musimy mieć Ji i+2 != 0. I to całkiem nie mało, wciąż na poziomie 1/8 średniej oddziaływań Ji i+1, Ji+1 i+2.To jest problem nie do obejścia przez żadne zabawy z implementacją i fundamentalny rozjazd. Jeśli mielibyśmy kodować problem w postaci poziomu sprzężenia spinów, to miałby on z pewnością jakąś dokładność reprezentacji (promil?). To wymusza uwzględnianie nawet do 10 sąsiednich spinów w modelu a nie tylko te na diagonali, aby błędy modelu nie były większe od kodowania. A to już nie jest model Isinga.
  9. Nie znajdę bo to było kilka lat temu. Teraz jest wysyp treści po artykule https://www.bmj.com/content/358/bmj.j3418. więc słowa kluczowe nie pomogą. Problemem jest to że takie zalecenia z d*py stały się bezmyślnymi wytycznymi WHO. To pokazuje jak działają "eksperci". Aby się zorientować że nie może być to prawda wystarczyło pomyśleć minutę. Nawet jeśli ktoś ma przeciętną inteligencję, to jeśli ogarnia temat powinna wystarczyć mu maksymalnie godzina! Kluczowy jest jednak brak jakiegokolwiek myślenia w stylu "czy to może być prawda". Oraz brak ogarniania tematu przez ekspertów (może zakuli kilka haseł o ewolucji i Darwinie w swoim życiu, ale nie potrafią modelować niczego w głowie). Jeszcze bardziej zawstydzające jest to, że czysto teoretyczny problem został zweryfikowany eksperymentalnie. Obserwowano coś takiego w ZSRR w międzywojniu, kiedy pozbyto się wykształconych burżuazyjnych inżynierów potrafiących cokolwiek policzyć, w zamian wszystko sprawdzano "eksperymentalnie". To takie samo zjawisko. (Kiedy niedawno badano użycie drona do transportu serca celem transplantacji, też eksperymentalnie przeprowadzono lot i wszyto je świni. Żadne badanie w stylu badamy wstrząsy akcelerometrami w różnych warunkach pogodowych i porównujemy z wytrzymałością serca (gigantyczna, w każdym rozsądnym pojemniku problem nie istnieje). To pokazuje skrzywienie zawodowe, w którym zrobiono biurokratyczną podkładkę wcale nie analizując realnych zagrożeń.) Aby uniknąć anybiotykoodporności szczepów chorobotwórczych potrzebna jest jedna zasada: należy wykluczyć możliwość zarażenia innych przed końcem infekcji. Naiwnie myśląc tylko przy kuracji antybiotykowej, jednak biorąc pod uwagę transfer plazmidów trzeba wszystkich chorych izolować do momentu zaprzestania możliwości zajścia zakażenia, bo antybiotykoodporność może się pojawić u osoby która nigdy nie brała antybiotyków (a jedynie zaraziła się nieszkodliwą odporną bakterią wcześniej i w jej ciele dokonał się "transfer" plazmidu do tej chorobotwórczej). To byłby znakomity model dla ekspertów medycznych, ale różnica jest taka że członkowie wspomnianej komisji doskonale wiedzieli dlaczego i po co są w tej komisji i im prywatnie wcale nie wydawało się, że naprawdę są ekspertami. Kolega sam siebie podsumował? Bo ja wcale nie twierdzę że "uzdolnienia matematyczne" nie są potrzebne w innych dyscyplinach, wręcz przeciwnie. Po prostu nie są weryfikowane w żaden systematyczny sposób. Dla prawnika logika to semestr na studiach, można się prześliznąć a potem mamy prawników takich jak widać, co to nie nawet warunku koniecznego od wystarczającego nie potrafią odróżnić. Naprawdę dobrych prawników jest niewielu, i oni nie mają problemów z logiką. Historycy są bardzo specyficzni, ale oni potrafią się wykładać na elementarnych podstawach. Na przykład powstaje gruba książka starająca się wykazać (to jedna z tez), że gdyby tylko Niemcy zablokowali konwoje i transport przez kanał Sueski i Morze Śródziemne, zmuszając je do pływania na około Afryki, to może nawet wygraliby wojnę. Tylko że nie było takich konwojów i wszystko pływało dookoła Afryki praktycznie od początku! Detal.
  10. Chodziło mi o "Drogę do rzeczywistości". Bardzo miła jeśli chodzi o odświeżenie czy ogólną prezentacje koncepcji, nie nadaje się do nauki a jedynie jako pomoc a w miejscach gdzie jest błędna jest bardzo mocno błędna. Nie jest to trudność techniczna, wydaje mi się że jest to fundamentalna niezgodność modelu z rzeczywistością. Nie widzę opcji aby dało się wprowadzić ekranowanie pomiędzy dalszymi spinami. Nawet jeśli wprowadzi się kwadraty z materiału o niskiej przenikalności magnetycznej, to efektywnie zbliża to jedynie metrykę odległości pomiędzy spinami "na ukos" do taksówkowej. Spin który reaguje z sąsiadem z energią Jij, będzie reagował z dalszymi z energią malejącą jak trzecia energia odległości, czyli Jij/8, Jij/27, Jij/64. Model Isinga przypomina rzeczywistość tylko dlatego, że jest to bardzo szybki spadek i rozwiązania jakościowo są bardzo podobne. Nie znam mechanizmów fizycznych które mogły by spowodować brak takiego oddziaływania w zasadzie, to po prostu nie jest trudność techniczna a raczej fundamentalna. Jeśli tak jest, to cała matematyka "rozwiązująca" problemy według tego założenia jest nieadekwatna. Aby to uzyskać działanie Isinga w rzeczywistych układach fizycznych potrzebne byłoby bardzo magiczne oddziaływanie które dokładnie kompensuje energię pomiędzy dalszymi spinami, całkowicie nielokalne. Mam wrażenie że to może być powód "łamania bella" (tutaj od razu mówię że nie analizowałem prawdziwości tego stwierdzenia na poziomie technicznym) nawet w przypadku klasycznym, ten wydaje się być nielokalny. To w ogóle nie jest tak, Shor działa bo wykorzystuje matematyczne własności komputera kwantowego. Wszelkie wyobrażanie sobie mechanizmów działania tego algorytmu za pomocą superpozycji klasycznych ścieżek obliczeniowych nie ma znaczenia dla fizyki, to wirtualna, matematyczna część która uzasadnia i wizualizuje poprawność algorytmu, ale "fizyczna realizacja" obliczeń kwantowych w ten sposób nie jest wymagana. Dlatego też komputer kwantowy nie jest "dowodem" MWI. I to jest kolejna bardzo poważna przesłanka za tym, że model jest zupełnie "niefizyczny". Jedyna na co bym liczył w przypadku komputerów kwantowych to efektywne metody aproksymacji problemów np-trudnych. Są znane modele "hiperfizycznych" komputerów które dają sobie radę z obliczeniami NP-com, na przykład wykorzystujące nieliniową odmianę MK. Jeden z moich profesorów miał całkiem interesującą metahipotezę, że dla przyrody problemy NP-com muszą być trudne, bo to do czego efektywnie dąży świat to stan o maksymalnej możliwej entropii, jedyny powód dla którego idzie to tak wolno i mamy stabilną rzeczywistość wynika z faktu, że jest to problem "trudny obliczeniowo dla praw fizyki" (jego sformułowanie było nieco inne i dotyczyło minimalizacji energii ale duch był dokładnie taki sam). Wciąż mam wrażenie że ten cały alternatywny model jest oparty na "alternatywnej interpretacji klasycznej MK". To rzeczywiście byłby trochę inny problem, bo wtedy nie ma nawet podstaw teoretycznych aby coś takiego mogło zadziałać. Całe założenie że fizyka będzie tak kierować spinami aby spełnić założenia MERW może być po prostu nieprawdziwe. Z kolei obliczenia kwantowe mają żelazne fundamenty teoretyczne i muszą działać, problemy rzeczywiście mają charakter techniczny. I kwantowa supremacja jest do uzyskania w sposób praktycznie pewny, bo obserwujemy wykładniczy wzrost możliwości komputerów kwantowych. Tylko że to "kwantowe prawo Moora" jest znacznie wolniejsze od tego, do czego przyzwyczaiła nas elektronika klasyczna.
  11. Z pozycji kierowcy tylko słoneczko zostanie przyciemnione i ewentualnie "korona" wokół niego. Słońce to pół minuty kątowej. Na szybie pojawią się dwa niewielkie ciemne placki. Rozwiązanie z fasetkami jest niewiarygodnie prymitywne, najcenniejszy jest patent na funkcjonalność jeśli dostał.
  12. Mam jeszcze jedną wątpliwość odnośnie komputera opartego na modelu Isinga. Mianowicie w fizycznie realizowalnej regularnej siatce spinów nie da się uniknąć interakcji pomiędzy niesąsiednimi spinami. Jeśli energia oddziaływania pomiędzy sąsiadami wynosi r, to energia pomiędzy spinami o dwukrotnie większej odległości powinna wynosić 1/8, potem 1/27. Dochodzą jeszcze przekątne. Nie widzę możliwości ekranowania tych interakcji. Dlatego nawet jeśli model Isinga przewiduje możliwość magicznych obliczeń, to ta matematyka może się załamać ze względu na niezgodność z rzeczywistością. Można sobie wyobrazić foton latający pomiędzy dwoma lustrami prostopadłymi do kierunku ruchu. Taki obiekt zachowuje się jak cząsteczka obdarzona masą. Nieważkie pudełko z fotonem w środku też zachowuje się jakby miało masę, to podstawa do wyprowadzenia wzoru E=mc^2 w oryginalnym rozumowaniu Einsteina. https://physics.stackexchange.com/questions/75783/penroses-zig-zag-model-and-conservation-of-momentum Penrose opisał podobną interpretację dla elektronu jako oscylację pomiędzy dwoma stanami (nota bene "Nowy umysł cesarza" zawiera też trochę bzdur").
  13. To zależy od tego, czy procesor jest wąskim gardłem przetwarzania. Jeśli i tak karta grafiki nie wyrabia, to będzie 0%. Prawidłowo zrobione testy powinny zmniejszać rozdzielczość do minimum, jeśli chcemy wiedzieć o ile zwalnia kod gier. Do tego gra powinna mieć odpowiednią ilość wątków z czym jest problem. Jeśli wyłączymy SMT a gra dostanie 4 pełne rdzenie mając 4 wątki, to możemy nawet zobaczyć przyspieszenie. Co jest oczywiste jeśli pamięta się o wątkach i wąskich gardłach w systemie (na starszym/tańszym sprzęcie jest mniej zasobów). W sumie z punktu widzenia użytkowników objawia się tam, gdzie boli najbardziej.
  14. "Wynalazek" sprzed 8-10 lat, aktualnie w szuflandii. Bardzo ciężko na czymś takim zarobić niezależnej osobie a koszty patentu są zaporowe. Ciekawszym rozwiązaniem jest zrobienie okularów zacieniających źrenice, chroni zarówno przed słońcem jak i przed światłami aut z naprzeciwka. Bardziej zaawansowany układ z kamerą może robić pełny tone-mapping otoczenia. Lepiej zadziała przy wysokim poziomie jasności, przy niskim rozmiar źrenic robi się duży i halo wokół obiektów robią się większe. Pierwszym oczywistym klientem takiej technologii są siły powietrzne.
  15. Hyper-threading to nazwa marketingowa dla SMT u intela i jest to jak najbardziej wielowątkowość na poziomie procesora, nie da się wyłączyć tej na poziomie systemu operacyjnego bo komputer przestałby być używalny. Ma dramatyczny wpływ na wydajność, SMT to średnio +25% wydajności. Pewne aplikacje nawet więcej. HT to jednoczesne wykonywanie dwóch wątków obliczeniowych (niezależnych strumieni instrukcji), co z jednej strony lepiej pozwala wykorzystać jednostki wykonawcze gdyż często brakuje niezależnych instrukcji do wykonania w ROB (reorder buffer) aby wykorzystać wszystkie dostępne zasoby, a z drugiej strony pozwala błyskawicznie amortyzować brak danych w cache i konieczność oczekiwania na dostęp do pamięci co zajmuje nawet kilkaset cykli, w tym czasie procesor ma prawie zawsze drugi wątek do wykorzystania. Ciężko aby wyłączenie spekulacji na dostępie do pamięci nie powodowało spadku wydajności, to był główny powód przewagi Intela nad AMD (ryzyko było znane od początku, ewentualne wyłączenie funkcjonalności musiało być planowane). To nie był "bug", tylko "feature". Nie ma prostego rozwiązania. Trzeba by używać do spekulacji dodatkowych niezależnych zasobów najlepiej wydzielonych dla każdego wątku, jest to bardzo trudne do wykonania, wymaga przeprojektowania podstaw architektury, trzeba stworzyć specjalne bufory tylko na potrzeby spekulatywnego wykonania, każda spekulacyjnie ściągnięta linia pamięci powinna lądować w buforze pośrednim i dopiero po zaakceptowaniu spekulacji być przenoszona do cache (a slot w hierarchii niżej zwalniany). Zostanie to zrobione, bo zyski ze spekulacji są za duże a innych metod podnoszenia wydajności nie ma. Ale na efekty będzie trzeba poczekać kilka lat, bo zaprojektowanie architektury od podstaw to co najmniej 5 lat. 2023 to najwcześniejsza możliwa data, chyba że zaczęli dłubać wcześniej niż publikacja luki. Być może jakieś półśrodki zmniejszające stratę do AMD (po wszystkich łatach są już w tyle) pojawią się wcześniej.
  16. Z Doliny Krzemowej. Bardziej narzekam na stan wiedzy medycznej, lekarze są jacy "są i nie będą nigdy lepsi". Problem numer 1 to brak dobrych kadr do tworzenia wiedzy medycznej (inżynierów), bo lekarze (mechanicy) się nie nadają. Oni żyją w świecie prawd objawionych i są trenowani w doszukiwaniu się różnic, w sytuacji kiedy naukowiec wie że wiedza jest niepewna, rozumie zależności i szuka podobieństw/wzorców. To jest mentalnie niekompatybilne. Wystarczy poczytać medyczne prace naukowe, to wygląda bardziej na produkcje "licealistów bawiących się w naukowców". Oni mogą mieć tytuły, kitle, formalnie prowadzić badania naukowe ale się do tego nie nadają. Weźmy dla przykładu zalecenie brania antybiotyków do końca, "żeby bakterie się nie uodporniły" , powtarzane przez wszystkich lekarzy i farmaceutów jak mantra. To jest tak idiotyczne i sprzeczne z wszystkimi prawami ewolucji jakie mamy (błyskawicznie falsyfikowane przez rozumowanie z plazmidami kodującymi całkowitą odporność uogólnia się dla każdej nawet minimalnej mutacji, odpowiednio 5 sekund i minuta roboty), że zacząłem szukać skąd mogła pochodzić taka bzdura. I od razu trafiłem na biologicznego bloga którego autor też zadał sobie to pytanie i przeprowadził śledztwo. Błędny artykuł z tą tezą został napisany w 1945 roku. Pokolenia medycznych geniuszy nie zorientowały się że to bzdura przez 75 lat. Bo nikt nie zadał sobie prostego pytania "dlaczego".
  17. Kinetycznej. Pływy można zaniedbać. Można na to spojrzeć inaczej - wszystkie obiekty elementarne poruszają się z prędkością światła, ale obiekty masywne składają się z zygzakujących części. I niemożliwość staje się czysto logiczna, bo nie da się lecieć z prędkością światła i mieć zygzakujące składowe lecące z prędkością światła. Albo-albo. Dobra jest analogia stanem oscylacyjnym światła między dwoma lusterkami, bo łatwo też zobrazować dylatację czasu. Energia to pojęcie abstrakcyjnę będące funkcją stanu układu, więc pytanie "czy coś jest formą energii" nie ma sensu logicznego. Układowi można przyporządkować energię. Fale grawitacyjne przenoszą energię, ale pole grawitacyjne nie ma czegoś takiego jak lokalna gęstość energii. W MK można tylko mówić o wartości oczekiwanej pomiarów operatora H, potocznie mówiąc energia każdego układu może fluktuować.
  18. Te leki są poza rzadkimi sytuacjami bardzo szkodliwe. Ale psychiatria ma tendencję do interpretowania uszkodzeń mózgu jako poprawy obrazu klinicznego. Naprawdę warto wspomnieć lobotomię, za to był Nobel. Po wycofaniu lobotomii w poważnej nauce, jak fizyka, przeanalizowalibyśmy jak i dlaczego mogliśmy się tak pomylić i przedsięwzięlibyśmy środki aby analogiczna sytuacja nie mogła się powtórzyć. W psychiatrii po prostu przeszli nad tym do początku dziennego, w głowach co najwyżej pojawiło się jedno nowe zdanie "lobotomia jest be". To powoduje, że nie było żadnej gwarancji że ta sytuacja się nie powtórzy. I ona już się powtórzyła wielokrotnie w postaci neuroleptyków, SSRI, elektrowstrząsów (Ernest Hemingway przed popełnieniem samobójstwa po elektrowstrząsach powiedział coś w stylu "co z tego że operacja się udała, skoro pacjent zmarł" ) itp. Teraz tak to wygląda. Ma być świeżo, czysto, miło, profesjonalnie ("w czym mogę panu pomóc"), tylko treść się nie zmieniła. Wystarczy jednak wytknąć lekarzowi błąd i czar pryśnie Kryterium jest wyłącznie sprawność pamięci w kategorii "rycie". Potem mamy studia, które nie rozwijają żadnych innych możliwości intelektualnych poza ryciem. I nie zostawiające nawet czasu na "myślenie". Do tego dochodzi bardzo patologiczna struktura hierarchiczna i niska jakość samej wiedzy medycznej. Nauki ścisłe nie produkują wyznawców, niepewność wiedzy jest oczekiwana, można kwestionować autorytety (a nawet trzeba). Nie w medycynie. Oczywiście zdarzają się bardzo inteligentni lekarze (najinteligentniejszy internista jakiego spotkałem okazał się być też programistą i poważnie myślał o zmianie zawodu. zabawnie wyglądałaby stopka w stylu Senior Software Developer lek.med X ). Ale ci inteligentni też nie są trenowani w kierunku sprawności myślenia, i mam podejrzenia że swoje studia znoszą znacznie gorzej od tych mniej inteligentnych. Pamiętam historię ze sciam o lekarzu który pierwszy wyleczył pacjenta ze wścieklizny. Bardzo skomplikowana procedura, znakomite rozumowanie, czapki z głów. Ale o środowisku świadczy niemożność reprodukcji osiągnięcia, wielokrotnie próbowano stosować tylko elementy postępowania co nie miało szansy zadziałać, i na tej podstawie wnioskowano że metoda nie działa.
  19. Odnośnie 2) dodam jeszcze kwestię efektów ubocznych która była bardzo dobrze rozwałkowanym przeze mnie tematem na potrzeby książki. Efekty ubocznie nigdy nie są problemem, ta kategoria efektywnie funkcjonuje jako coś do świadomego ignorowania w stylu "możesz się nie przejmować, to tylko efekt uboczny". Często efekty uboczne są znacznie gorsze niż podstawowy problem indywidualnie, a dostaje się ich komplet. Historie o ludziach którym "pomógł sok z buraka który jest najlepszym lekiem na wszystkie choroby świata" są prawdziwe: ludzie dzięki temu sokowi zrezygnowali z koktajlu leków o wątpliwej skuteczności działania (warto poczytać metaanalizy o skuteczności choćby leków na choroby krążenia) a ogromnych skutkach ubocznych potęgowanych przez problemy z metabolizowaniem tychże (ze względu na wiek i samą ilość). Testując jakiekolwiek leki mamy gigantyczną asymetrię w traktowaniu efektów, przede wszystkim lista efektów ubocznych jest całkowicie otwarta, a lista korzyści zamknięta i bardzo dokładnie sprawdzana. Bezpieczeństwo stosowania leków z założenia jest testowane na maksymalnie zdrowych, stosunkowo młodych osobnikach bez chorób i nie przyjmujących innych leków . To bardzo niereprezentatywna grupa w stosunku do docelowej, ktoś zapomniał po co się to robi (cult cargo science w akcji). Do tego osoby startujące w takich badaniach to nie jest elita intelektualna i życiowa, ci ludzie często zatajają własne choroby (warunek przyjęcia do badań) co skutkuje bardzo małą wiarygodnością odnośnie ich prawdomówności jeśli chodzi efekty niepożądane. Są leki o "bandyckim" mechanizmie działania, który musi prowadzić do długofalowych negatywnych konsekwencji zdrowotnych z definicji, na przykład warfaryna która wyłącza witaminę K. W takim wypadku nawet nic nie trzeba badać. Taki lek trzeba traktować jako środek "ostatniej szansy" a nie pełnoprawny. No i w końcu chinolony. Przez 60 lat geniusze nie zorientowali się że efekty "uboczne" wynikają prosto z mechanizmu działania, tzn. jeśli ten lek działa niszcząc DNA bakterii, to musi dawać efekty uboczne przez niszczenie DNA mitochondrialnego, bo te wpadają w tak lubiane przez lekarzy "szerokie spektrum działania". Hehe. Mi lekarz powiedział prosto w twarz, że on swoje zrobił dobrze a jak czuję się chory to zaprasza do innych specjalistów. Ogólnie nie zobaczyłem nigdy wyrzutów sumienia u lekarzy (to pierwsza rzecz której uczą się nie mieć), a kiedy umrę to i tak mi nie pomoże. Mniej więcej 20 tysięcy ludzi (już nie pamiętam czy w USA czy w krajach rozwiniętych) ginie w ciągu roku, bo aparatura która robi "bip" przestaje robić "bip" albo zaczyna robić zwariowane rzeczy w wyniku błędów software, doliczone są zgony z powodów innych błędów software medycznego jak kalkulatory do leków. Gość z UK który mówił o tym na wykładzie nie mógł zrozumieć dlaczego nikt w środowisku medycznym nie przejmuje się tym problemem pomimo wielu lat jego (i innych) starań i bardzo prostych środków zaradczych. Po wykładzie uświadomiłem go, że przecież w stosunku do ilości zgonów z powodu wszystkich błędów medycznych to bardzo nieznacząca wartość, dla nich to "business as usual". To nawet nie jest kwestia poddawania się, tylko faktu że dostałem amnezji dysocjacyjnej (myśli do książki powstawały po angielsku a ja nawet przestałem się posługiwać czynnie tym językiem). Inne ograniczenia były do przezwyciężenia, min. nauczyłem się ponownie czytać ze zrozumieniem rozbudowany tekst (40x wolniej niż dawniej, ale żeby uzyskać zrozumienie często muszę czytać kilka razy), obecna sprawność posługiwania się tekstem jest upierdliwa, ale raczej by wystarczyła. Charakterystyczny sposób budowania myśli, unikanie zdań złożonych i masa błędów jakie popełniam to efekt uszkodzeń. Wystarczy porównać to z kilkoma moimi postami sprzed kilku lat. Ale wciąż by wystarczył. W sytuacji kiedy zaniknęła pamięć, nic nie jestem w stanie zrobić. Nigdy nie spotkałem innej grupy zawodowej o takiej dysproporcji pomiędzy swoimi możliwościami intelektualnymi a mniemaniem o sobie. Winne częściowo może być środowisko pracy, gdyż mają ciągły kontakt z "przeciętnym człowiekiem". I dr House. Z tym że ta postać z pewnością była oparta na "autentycznych faktach" Chyba nigdy kolega nie musiał się nauczyć "nowej technologii" w tydzień z 1000+ stronowego klocka z API włącznie. Mam bardzo poważne wątpliwości czy pamięć lekarzy jest rzeczywiście lepsza od pamięci programistów przy podobnej selektywności. Lekarze mogą wygrać tylko w konkurencji zapamiętywania "rzeczy które nie mają sensu". Problemem jest to, że lekarze nie muszą być dobrzy w niczym innym (z wyjątkiem sprawności manualnej u chirurgów), liczy się tylko sprawność pamięci w bardzo wąskim zakresie zresztą. Szukanie asocjacji ma u nich charakter wybitnie tekstowy, w sensie przypominają sobie listę terminów, i potem szukają w głowie odniesień do tych terminów. Nie ma tego naturalnego procesu kiedy asocjacje skaczą w tempie kilku-kilkunastu na sekundę, budowania drzewa skojarzeń itd (ale to też pochodna płytkości wiedzy). Zastanawiające jest jednak to, że większość lekarzy zupełnie nie zna informacji z ulotek lekarskich leków które przepisują, to raczej chora sytuacja. A lekarz potrafi się nawet upierać, że coś jest sprzeczne z wiedzą medyczną, pomimo informacji zarówno na ulotce jak i na każdej internetowej stronie opisującej określony lek. Tam nie ma skomplikowania w innym sensie niż ilość informacji. Ostatnio poznana koleżanka powiedziała mi, że jej brat po medycynie "wie wszystko", tylko że nigdy nie jest w stanie wyjaśnić "dlaczego tak jest". Jedyna odpowiedź to "bo tak jest i już".
  20. To nawet było moim osobistym celem - w skrócie wyp******** lekarzy z medycyny (jak widać sprawa mocno osobista) oferując kompletne komercyjne rozwiązanie w ciągu 15 lat (technologie już są, wystarczy je poskładać i dopracować). Niestety lekarze odpowiedzieli kontratakiem uprzedzającym. Każde stwierdzenie jest subiektywne. Warto o tym pamiętać. Co do ogólności to jest to nieuniknione gdyż moje wypowiedzi są syntezą ogromnej ilości nieznanych koledze faktów. Tak należy je traktować. Jeśli zada sobie kolega trud podjęcia samodzielnych studiów nad tematem (a to nie proste czytanie podręczników medycyny tylko setek prac naukowych, przy podejściu w którym one same są też obiektem studiów a nie tylko ich dziedzina ) to może traktować moje wypowiedzi jako rodzaj klucza do interpretacji. Na te tematy miała powstać książka która rozrosła się do planów na trzy ze względu na ilość materiału, w sumie rozbieżną tematykę i lepszy efekt z rynkowego punktu widzenia. Już nie powstaną. 1) Wyczerpująca analiza implikacji wprowadzenia leków niszczących DNA do medycyny (ze szczególnym uwzględnieniem chinolonów i pochodnych) - największy błąd medycyny XX wieku (i to mnie wykończyło). Spojler: to one są odpowiedzialne za wysyp "chorób cywilizacyjnych" 2) Bardzo dokładna krytyczna analiza stanu współczesnej, medycyny, opisująca błędy i patologie jakich dopuściła się w XX wieku, oraz opisująca dokładne intelektualne ograniczenia lekarzy jako dominujący czynnik. Spojler: kabelki i klepki których brakuje lekarzom to te niezbędne do uprawiania fizyki na najwyższym poziomie. Medycyna jest znacznie bardziej religią niż nauką. Ludzie o uzdolnieniach niezbędnych do tworzenia wiedzy medycznej dobrej jakości skrajnie rzadko wybierają medycynę jako kierunek studiów, a jeśli tam trafią to są niszczeni przez nieadekwatny system nauczania. Lekarze to analogi mechaników, nie inżynierów. Potem ci mechanicy są powoływani do zajęć dla inżynierów. 3) Teoria powstawania zaburzeń psychicznych/neurologicznych oparta na neurokognitywistyce. Do tego raczej niezbędna jest biegła znajomość informatyki w zakresie NN, chociaż chodzi bardziej o paradygmaty i sposób myślenia a nie detale.
  21. Trzeba czytać z zrozumieniem. Sztuczność związku polega na tym, że typowe paradygmaty medycyny nie działają, nie na tym że nie da się wyjaśnić dlaczego mamy taką rzeczywistość w zakresie organizacji służby zdrowia jaką mamy. Problemy ludzi są prawdziwe, ale klasyfikacja psychiatryczna nie ma żadnych podstaw etiologicznych. Tworząc przestrzeń problemów które dotykają pacjentów klasyfikacja zaburzeń nawet nie tworzy rozłącznych klastrów, jest rozdmuchana, niestabilna czasowo itd. Tworzona na podstawie "widocznych" objawów ginie w szumie semantycznym. Bo zazwyczaj każdy objaw może mieć kilka podstawowych przyczyn. To jest jasne dla osób które mają informatyczne wykształcenie z data miningu, AI, problemów klasyfikacji itd. Przestrzeń chorób chorób psychicznych jest znacznie gorszym (bo całkowicie wtórnym i sztucznym) opisem w porównaniu do zbiorów objawów, pod względem wszystkich rozsądnych metryk. Jest to wynik kalkowania algorytmu który działa w pozostałych gałęziach medycyny: jeśli mamy zbiór objawów który się statystycznie powtarza to tworzymy jednostkę chorobową. Działa to w przypadku oczywistych "dyskretnych" powodów zaburzeń (rodzaj bakterii/wirusa, konkretny defekt metaboliczny). Nie działa to w przypadku zaburzeń , które dają całkowicie różne obrazy z powodu w gruncie rzeczy przypadkowych powodów. Wytłumaczę to na przykładzie analogii rzucania ze schodów. Pacjenci są dosyć podobni, ale charakteryzuje się ich obecnie przez dokładną specyfikację uszkodzeń. Teraz wyobraźmy sobie, że nie ma rtg, a medycyna jest na etapie, w którym nie do końca jest rozumiane że istnieją kości. Wszystkie informacje byłyby uzyskiwane od pacjentów na podstawie "powiedz mi jak się czujesz". Oczywiście odkryto by, że brak ruchu zdecydowanie pomaga, podobnie jak środki przeciwbólowe i przeciwzapalne. Tylko że źle zrośniętych pacjentów leczono by nimi przez kilkanaście lat. To właśnie jest psychiatria, która posługuje się całkowicie wirtualnymi pojęciami (aż chce się powiedzieć "urojonymi"). Jeśli jeszcze dodamy fakt, że lekarze wykorzystują modele lingwistyczne wnioskowania (istotne jest jak coś się nazywa, jeśli pojawia się abstrakcja to ma ona zawsze postać statycznej klasyfikacji drzewiastej, zazwyczaj pojedynczej, a nie jest tworzona dynamicznie), to widać że tam nic nie może działać. (Taka "depresja" to jest kilka całkowicie różnych zaburzeń, często współwystępujących. Dodawanie sufiksów i prefiksów nie zmienia niczego w zrozumieniu istoty problemu, które jest okołozerowe). Jedyne co działa to "system" jak to określa wielu pacjentów. Psychiatrzy i koncerny farmaceutyczne mają się dobrze. Najważniejszą rzeczą która powinna się rzucić każdej myślącej osobie jest fakt, że osoby chore psychicznie pomimo różnych rozpoznań są bardzo podobni do siebie a spektrum zaburzeń jest ciągłe. Drugim istotnym faktem jest praktyka wykorzystania wszystkich leków do "leczenia" praktycznie każdego zaburzenia, teraz najmodniejszym panaceum są neuroleptyki. Trzecią ważną cechą jest współdzielenie przez zaburzenia psychiczne czynników ryzyka, zwłaszcza (w sensie doniosłości implikacji faktu) dziedzicznych. Ciekawe ilu psychiatrów zauważyło, że dzieci autystyczne mają zasadniczo identyczne problemy jak schizofrenicy, włącznie z identyczną statystyką zaburzeń współwystępujących. Wystarczy jeszcze uwzględnić "zadziwiający" fakt, że u osób dorosłych nie stwierdza się zachorowań na autyzm a u dzieci zasadniczo nie stwierdza się schizofrenii. Magia? Nie, to wynik dokładnie identycznych procesów chorobowych które całkowicie inaczej wyglądają w starym nauczonym mózgu a zupełnie inaczej w młodym, nienauczonym i elastycznym. Do tego dochodzą diametralnie większe możliwości wyrażania problemów u osób dorosłych, które jeszcze dodatkowo mają punkt odniesienia sprzed choroby. Jako spojler przed książką której już nie napiszę wspomnę, że schizofrenia (ale nie typu II) wymaga popsucia jeszcze jednego mechanizmu w mózgu, ale może to nastąpić (to czy musi to kwestia otwarta, mogą istnieć inne niezależne mechanizmy) z powodu tych samych procesów które odpowiadają za "wcześniejsze" objawy. Na deser przykład procesów myślowych lekarzy z autopsji, sprowadzone do tego samego schematu: L (abstrakcyjna kategoria leków) jest używana do leczenia C (abstrakcyjna kategoria chorób). Ale dokładniejsza analiza mechanizmów działania pokazuje, że L1 nie jest w stanie zadziałać w konkretnym przypadku C1 (bo kategorie mają rozległy i sztuczny, taksonomiczny charakter). Lekarz stwierdził że co prawda tak rzeczywiście jest, ale nie jest to problem. Bo chorobę wciąż można nazwać C, a wtedy "wciąż można mieć nadzieję" że L1 jako "lek na C" pomoże i można to przepisać. To już nawet nie jest naiwna metoda wnioskowania, to usankcjonowana metoda oszukiwania. Przytoczę wypowiedź Feynmanna o uczciwości w nauce i o tym jak wiele wysiłku trzeba włożyć w to, aby się nie oszukać samemu. Medycyna to dziedzina, w której za oszukiwanie się dostaje się gigantyczną premię w postaci możliwości skutecznego oszukiwania innych. Warto jeszcze pochylić się nad rozszerzonym efektem placebo, który pozwala wrzucić do kosza praktycznie wszystkie psychiatryczne badania kliniczne (a wraz z nimi większość leków). Jeszcze zanim poznałem ten mechanizm zastanawiała mnie praktycznie identyczna skuteczność całkowicie różnych leków o innych mechanizmach działania i stosunkowo mała przewaga nad placebo (typowe wartości które przykuły moją uwagę to max 60% vs. min 40%). Można było małpować postępowanie fizyków i bawić się w statystyczną analizę błędów przypadkowych, wyglądało to mądrze. Tylko nikt nie bawił już w analizę możliwych błędów systematycznych, które są znacznie ważniejsze z naukowego punktu widzenia, i to przez kilkadziesiąt lat. Łatwo to wyjaśnić faktem, że nikomu nie zależało na "złapaniu króliczka". Dla koncernów znacznie łatwiejsze jest promowanie leków o podobnych mechanizmach działania do już istniejących nawet jeśli mechanizmy działania są spekulatywne i niepewne, bo podstawowym zadaniem jest przekonać lekarzy aby przepisywali ten lek. Wystarczy dodać hasło "nowa generacja", "nowocześniejszy" itd. Lek o całkowicie nowych mechanizmach działania musiałby być znacząco bardziej skuteczny a takie cuda zdarzają się rzadko.
  22. Te baterie o 10x większej gęstości to miały być "baterie kwantowe". Czyli w skrócie bardzo zaawansowane superkondensatory o nanoskalowej strukturze. Kiedyś rozważałem jaka jest granica dla akumulatorów energii. Najlepszym sposobem było koło zamachowe z nanorurek. Dla przykładu takie o masie 5 ton wirującej masy było w stanie zmagazynować ponad 15kT energii, co pozwalało go porównać do pierwszej bomby atomowej (równowartość rozpadu 1kg uranu), i rozpędzało się chyba do 90km/s prędkości granicznej na brzegu (dane z pamięci). Najmniejszy pyłek dokonałby lawinowej destrukcji a rozciąganie byłoby źródłem znacznych problemów. Innym pomysłem była nanorurkowa sprężyna. Tutaj wychodziły wartości pozwalające na napędzanie takim czymś samochodów. Do tego idea że samochody przyszłości będą nakręcane jak zabawki była przekomiczna. Początkowo rozważałem układ jak w kasecie vhs, niestety siły ściskające się kumulują i układ się rozwala Podparcie/obudowa to krytyczny problem każdego takiego rozwiązania sprężynowego zmniejszający gęstość dostępnej energii. Przypuszczam że każdy układ który zbliża się lub przekracza gęstość energii chemicznej musi być mocno niestabilny i niepraktyczny, ale są znaczne rezerwy w tym co może dać nam materia w stosunku do obecnych.
  23. Fizyk ma tę przewagę nad większością "naukowców odległych sobie dziedzin", że był selekcjonowany, trenowany i weryfikowany pod kątem umiejętności myślenia. Niewygodna dla wielu prawda jest taka, że tzw. uzdolnienia matematyczne wcale nie są matematyczne, tylko akurat nauki ścisłe potrafią obiektywnie zweryfikować deficyty poznawcze mniej krytyczne dla operowania w innych dziedzinach. Sama fizyka jest z kolei ucieleśnieniem nauki w najczystszej możliwej postaci, to wyznacznik funkcjonowania metody naukowej. Każde poprawnie zadane pytanie dotyczące świata jest w domenie fizyki. Nie rozumiem co ma oznaczać zarzut braku kierunkowego przygotowania akademickiego. Przecież jest dokładnie odwrotnie - to studentom medycyny brakuje przygotowania do rozwiązywania jakichkolwiek skomplikowanych problemów. Wiedza medyczna jest jest po prostu zakuwana, bezrefleksyjnie i bez wyjaśnień. Nie ma w niej żadnych koncepcyjnych twistów i rozbudowanych abstrakcji. Jedyną prawdziwą podstawą i tak jest znajomość biologii i chemii, a te miałem jakby to powiedzieć - topowe. W liceum byłem przekonany że w przyszłości będę się zajmował tworzeniem lekarstw i chciałem iść na biotechnologię. Doskonale zdawałem sobie, że lekarze są to tak naprawdę cienkie bolki, będące odpowiednikiem mięsa armatniego (dopiero życie mnie nauczyło że ta rola bezwarunkowo przypisana jest pacjentom ) na froncie walki ludzkości z chorobami.| "Przygotowanie akademickie" w zakresie medycyny może oznaczać jedynie opanowanie terminologii. A to jest bardzo prosta sprawa - jeśli coś czytam to to rozumiem - nieznane terminy sprawdzam na bieżąco. Chętnie się dowiem, czego miałoby mi brakować po przeczytaniu dokładnie takiego samego materiału w stosunku do studenta medycyny. Bo w swoim życiu obserwowałem dokładnie odwrotne zjawisko. Widziałem lekarzy, którzy popełniali oczywiste błędy i wykazywali się brakiem zrozumienia podstaw (na przykład lekarz z 25 letnim doświadczeniem akademickim który nie rozumie co oznacza okres półtrwania w przypadku leków). Raz udało mi się zidentyfikować chorobę u kolegi z pracy co nie udało się stadu specjalistów ze szpitala uniwersyteckiego w Krakowie po pół roku intensywnych starań ("nadzwyczajny przypadek"). Nie byłoby w tym nic dziwnego gdyby nie fakt, że ani choroba nie była specjalnie nieznana, ani przebieg nietypowy. W przypadku psychiatrii związek z resztą medycyny jest całkowicie sztuczny i szkodliwy, bo kalka metod stosowanych w medycynie daje błędne rezultaty. Mózg to biologiczny komputer i jako taki nie zostanie zrozumiany przez ludzi którzy nie rozumieją jak działają sieci neuronowe (nie są w stanie nawet policzyć wahadła). BTW. Kto powiedział że jestem fizykiem? Uważam się za informatyka, ta dyscyplina dała mi znacznie lepsze "podstawy akademickie" do analizowania medycyny. Jasne. Zastanawiam się jak nieupośledzony człowiek w XXI może w ogóle rozważać, że homofobia jest uwarunkowana zaburzeniami psychicznymi. To by oznaczało, że są populacje w których 98% ludzi ma te zaburzenia psychiczne, do tego są one w stanie przenosić się przez "święte księgi".
  24. Tytułem wyjaśnienia - tak, psychiatria jak najbardziej nie ma problemu z wytworzeniem totalnie niesprecyzowanej jednostki chorobowej (wszystkie są takie) pod którą można podpiąć zachowanie które jest akurat nie po myśli wpływowym ludziom. Schizofrenia bezobjawowa nic koledze nie mówi? Nie ma bardziej skurwionej gałęzi medycyny od psychiatrii, ale wahałbym się nazwać ją nauką. Do niedawna pracowałem nad stworzeniem książki o patologiach w medycynie, ich źródłach itd. Psychiatria to perfekcyjne wcielenie "cult cargo science", nic tam nie działa , ale znakomicie udaje że jest inaczej. Oczywiście że nie. Dlatego wypowiadam się tylko w tematach o których mam pojęcie.
  25. Albo czytał kolega psychiatryczne prace naukowe (do tego naprawdę nie trzeba specjalnego "sakramentu namaszczenia") a ja nie zrozumiałem głębokiej ironii, albo jest kolega, bez obrazy, bardzo naiwny.
×
×
  • Dodaj nową pozycję...