Skocz do zawartości
Forum Kopalni Wiedzy

peceed

Użytkownicy
  • Liczba zawartości

    1604
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    55

Zawartość dodana przez peceed

  1. Wózek jest zamontowany nieprawidłowo. Należy go odwrócić , i przenieść poprzeczkę nad belkę, a całość przesunąć do tyłu.
  2. Jeśli coś jest bełkotem to tylko dlatego, że nie tworzy w mózgu odbiorcy informacji. Tylko czasami wynika to z braku informacji w mózgu nadawcy Odnośnie kreatywności to mam wrażenie że samo określenie jest źle określone "ill conditioned", to taki "buzzword". Dlatego przyjąłem właśnie definicję wynikłą z obecnej praktyki. Sieci neuronowe mapują wejścia w elementy przestrzeni wektorowych, zazwyczaj o rozmiarze kilku tysięcy elementów (to przestrzenie ich wyjść), w taki sposób że określony wymiar odpowiada istnieniu pewnej abstrakcyjnej cesze. Jednocześnie na podstawie tych wyjść generowane są wejścia, działanie takiej sieci jest odwracalne (to nie jest bijekcja). Jak się okazuje, operacje wektorowe w przestrzeni wyjściowej odpowiadają całkiem sensownym operacjom w przestrzeni wejściowej. Ta przestrzeń wyjściowa jest przykładem "przestrzeni mentalnej", tutaj zakładam że pojęcie może być ogólniejsze od sieci neuronowych. Właściwie każdy "ekstraktor cech" może służyć do jej stworzenia, tylko że musimy mieć procedurę do satysfakcjonującego odwracania pracy co pewnie będzie wymagało tworzenia ograniczeń na wejścia, naiwnie można by wykorzystywać losowe przeszukiwanie przestrzeni wejść. Esencją prostej kreatywności są chyba nie nawet operacje na tej przestrzeni cech, które są bardzo proste, tylko właśnie sprawne odwracanie mapowania (to jest domena sztuki, tworzymy ze zdjęcia pejzaż w stylu Moneta). Pewne problemy mogą wymagać przeszukiwania przestrzeni cech (gdy na przykład rozwiązanie jest nieoczywistą funkcja cech) lub tworzenia rozwiązań hierarchicznych. Iteracyjne poprawianie rozwiązań przez dynamiczną zmianę przestrzeni. Tak chyba można dokonywać nawet wynalazków. Ponieważ byłem bardzo sprawnym wynalazcą, mogę przedstawić o co chodzi na przykładzie jednego ze swoich pomysłów (tutaj się bezczelnie chwalę): Jest to silnik w układzie omega. Ponieważ nie mam rysunków, przedstawię krótki opis jak można iteracyjnie dojść do jego konstrukcji: Bierzemy na wstępie 24 cylindrowy silnik w układzie H, usuwamy rozrząd i głowice, zaginamy cylindry w romb stykając je razem (kąt rozwarcia cylindrów 150 stopni, zagadka -dlaczego tyle? ), montujemy wspólną głowicę dla stykających się par cylindrów, z prawie helikalną komorą spalania (bo się da!), a na bokach cylindrów umieszamy kanały dolotowe. Wały korbowe muszą kręcić się w przeciwnych kierunkach, ale bez problemu można ustawić dowolny kąt wyprzedzenia dla lepszej wymiany ładunku. Jak do tego doszedłem? Chciałem zrobić lżejszy silnik w układzie H, i wymyśliłem sobie że może dałoby się wykorzystać wspólny wałek rozrządu. Po pewnym czasie kombinowania "znienawidziłem" go. Był skomplikowany, uniemożliwiał niezależną pracę połówek, pochylone bloki cylindrów nierównomiernie rozkładały impulsy mocy (to akurat mały problem ale wciąż odstępstwo od ideału). Był takim problemem, że usunąłem go mentalnie i wtedy mnie olśniło, że w układzie dwusuwowym byłby zbędny. Nie dość że pozbyłem się żelastwa to jeszcze uzyskałem dwusuwowy cykl pracy. Potem były drobne zabawy z kątami, kształtem komory spalania i opcjonalnymi suwakami na wydechu (erozja tłoka). Dość szybko dotarło do mnie że silnik ten jest krzyżówką silnika w układzie H i silnika z przeciwbieżnymi tłokami (np. Jumo 204). Jestem całkowicie przekonany, że jeśli sieć neuronowa byłaby wytrenowana do reprezentowania cech silników spalinowych, to byłaby w stanie stworzyć taki silnik pośredni. Moja własna droga przypomina algorytm ewolucyjny wykonujący abstrakcyjne operacje w takiej przestrzeni cech: odejmij element, dodaj element, itd. Metodyka TRIZ może być rozumiana jako systematyczne tworzenie odpowiednich przestrzeni mentalnych + zbiór operacji na tych przestrzeniach. Taki zaawansowany proces kreatywny naśladujący ludzki musiałby mieć możliwość do pracy z ogromną ilością abstrakcyjnych aspektów, byłoby dobrze móc tworzyć je dynamicznie. Uwagą nazwalibyśmy podzbiór aspektów który używamy do tworzenia rozwiązań. Potem generowalibyśmy wejście (albo lepiej rodzinę losowych rozwiązań) , przełączali aspekty i szukali ulepszeń rozwiązań i ich modyfikacji (wiadomo że pewne pożądane cechy są statystycznie przeciwstawne, w ten sposób sieć której naiwnie zada się taki wektor cech od razu mogłaby wygenerować śmieci zamiast rozwiązania). Taka wsteczna generacja nie musiałaby pracować na warstwie wejściowej (ostatecznie mózg nie pobudza siatkówki), można by użyć warstwy pośredniej. I tutaj kłania się rozróżnienie ludzi jako typów percepcyjnych i koncepcyjnych wprowadzone przez Ducha. Ludzie percepcyjni mają rekurencyjne połączenia sięgające warstwy wejściowej albo płytkiej. To są artyści. Ludzie u których brakuje rekurencyjnych połączeń do płytszych warstw to są tzw. typy koncepcyjne. Ludzie sprawniej myślący w kategoriach abstrakcyjnych. Jak widać ma to przełożenie na nasz model. Jest to inna przestrzeń na której dokonuje się kreatywność. Artyści tworzą obrazy, bawią się słowami, ważne są dla nich tak trywialne asocjacje jak rymy czy proste przenośnie . Ścisłowcy bawią się bardzo głębokimi ideami. Oczywiście mózg może być znacznie bardziej elastyczny, i dynamicznie zmieniać poziomy (warstwy sieci, lecz nie muszą być dobrze określone) na których dokonuje się kreatywność. Może być to też element uczenia tych warstw. Być może kluczem do oceny trenowania sieci nie jest propagacja błędów, ale zdolności do generowania realistycznych wejść. Takim procesem mogą być sny. Generowanie obiektów zdeformowanych kończyłoby się koszmarami i strachem, a strach w mózgu podczas snu jest sygnałem do odłączania elementów mózgu ( w domyśle ostatnio uczonych ale ten mechanizm się p...suje ). @Antylogik tak bełkot, wiem. Czasy kiedy moje wypowiedzi były wzorem klarowności skończyły się 3 lata temu, a definitywnie 2.
  3. Jeśli zrozumienie wyrazimy liczbą z przedziału <0,1> to tylko iloczyn zapewnia odpowiednie własności: Też mieści się w przedziale <0,1>. Wystarczy jedna osoba która całkowicie nie zrozumie w ciągu 1,1,1,1,0,1,1,1,1 i całkowite zrozumienie będzie równe 0. Całkowite zrozumienie wymaga całkowitego zrozumienia po drodze. Małe niezrozumienia e1,e1,...,eN to (1-e1)(1-e2)...(1-eN), co daje 1-(e1+e2+...+eN)+o(e) co powoduje że malutkie niezrozumienia w takim rozumieniu rzeczywiście rosną addytywnie. Pewnie to miał na myśli @Astro. Niestety nie pamiętam już dokładnie swoich intuicji które pokazywały na wykładniczy wzrost zaburzeń, możliwe że po prostu źle zapamiętałem :/ (to taki niemiły efekt uboczny dziur w mózgu: sensowność przestaje być walidacją wspomnień, a skojarzenia przestają być naturalną mnemotechniką) Kreatywność to zwykła ekstrapolacja i interpolacja (a ogólnie poszukiwanie rozwiązań o zadanych abstrakcyjnych cechach) w odpowiedniej "przestrzeni mentalnej". Takie przestrzenie tworzą na przykład sieci neuronowe.
  4. Mechanika kwantowa jest logicznie nieunikniona. Nie da się uniknąć losowości. Splątanie występuje w każdej skali i wszędzie. Wszystko jest splątane ze wszystkim. Tworzenie układów kwantowych to tak naprawdę odplątywanie ich od reszty świata Analogia krawiecka: Zjawiska niciowe występują na szpulce i na szwach, ale tkanina też jest z nici nawet jeśli ktoś się będzie upierał że nie Bela materiału też jest z nici, to już może być szok, prawie tak wielki jak informacja że bele materiału da się rozwinąć na tkaninę Jeśli zobaczy kolega Jezusa na toście, to istnieje wszechmogący, a co najmniej 1/3 jego ładunku
  5. No przecież właśnie tym jest teoria strun. Wiedza, wynika to wprost z kwantowości świata. Przy nieliniowych neuronach muszą znaleźć się przypadki graniczne kiedy reakcja zależy od jednego zdarzenia kwantowego (btw. mózg jest w stanie zobaczyć pojedyncze fotony, to ilustracja tej intuicji). Chaos - tak, ale motylki są kwantowe To nie tak. Po prostu opis kwantowy jest skomplikowany i trudny. A modele z definicji są uproszczone. Termodynamika zapomina o pojedynczych cząsteczkach, mechanika klasyczna zapomina o "fazie" cząsteczek. Teorie efektywne muszą korzystać z uśrednień.
  6. Nie do końca. Całkiem inna filozofia. U mnie wszystko jest fundamentalnie rozmyte, u niego dyskretne (w pewnym sensie). U mnie jest bardziej kwantowo a u niego klasycznie. Ja wychodzę ze stanowiska, że mamy 2 różne systemy które maszynowo zrobiły swoje wewnętrzne modele świata. U Mazura (jak na szybko sprawdziłem) istnieje rzeczywistość obiektywna w postaci oryginałów rozumianych tak samo przez obie osoby. I przede wszystkim u mnie to nie była rozbudowana teoria. Rozważania na wstępie, ale musiałbym przeczytać dokładnie aby to sobie przypomnieć: amnezja to ciężka sprawa.Pamiętam (nieostro) wnioski, natomiast znacznie gorzej przesłanki do nich prowadzące: to już są ślady pamięciowe których nie potrafię zrozumieć, nic wrażeniem.
  7. Czytałem pracę Mazura, jest coś innego na ten temat? BTW. Część jego rozważań "trąci myszką", widać nawet echo autentycznych przekonań komunistycznych Niestety nie pamiętam tej teorii, bardziej pamiętam swoje spostrzeżenia. I to, że była lekkim rozczarowaniem.
  8. TAK. A dokładniej MK jest językiem w którym muszą być napisane wszystkie teorie opisujące działanie przyrody. -nadciekłość -nadprzewodnictwo -rozpady radioaktywne (w tym bomba atomowa) -laser -MRI -pojemność cieplna materii skondensowanej Chcę powiedzieć że w mózgu istotne są zjawiska prawdziwie losowe. Źródełko promieniotwórcze + licznik Geigera podpięty do usb (marka Radeon zyskałaby nowe znaczenie). W sumie to aż dziwne że nikt jeszcze nie zrobił betawoltaicznych generatorów liczb losowych... Symulowanie to obliczenia oparte na modelu.
  9. Obawiam się, że odlecieli na księżyc Księżyca. Teoretycy strunowi to nie ludzie którzy non-stop zajmują się tylko strunami, tylko fizycy teoretyczni intelektualnie zdolni do pracą z teorią strun. Zajmują się też innymi podejściami. Z pewnością dopracowanie takiego toy-modelu to kilka dni/tygodni pracy, ale doskonale rozumieją dlaczego takie podejście prowadzi donikąd. Z boku wygląda to jak: "Gdybym tylko potrafił to co fizycy strunowi, to ja już bym im pokazał jak się uprawia fizykę". To bardzo niebezpieczne przypomina "świat zwariował a tylko ja jestem normalny". Gdybyśmy pracowali na Wydziale Nauk Społecznych, to moglibyśmy tak pracować. Ale my już wiemy że prawidłowy opis to QCD, i nie ma żadnych powodów matematycznych aby efektywne teoria efektywna oddziaływań jądrowych zachowywała się dokładnie tak jak inna uproszczona teoria. To jest oczekiwanie cudu od matematyki. A gdyby tak było, to i tak należałoby ten cud wyprowadzić. Jakby to powiedzieć: zachowuje się kolega jak osoba, która chce znaleźć wielomian (najlepiej niskiego stopnia) opisujący funkcję okresową ze setkami znanych dominujących współczynników trygonometrycznych. Już udało się dopasować kilka dolinek i górek, jest coraz lepiej... tylko sukcesu nie widać. A argumenty że to fundamentalnie złe podejście nie trafiają, bo pan Fourier odleciał na księżyc... Prawo Gaussa w ogóle nie ogranicza wartości ładunku. A w przyrodzie obserwujemy ułamkowe ładunki w kwazicząsteczkach jak i teoria strun dopuszcza istnienie cząsteczek o ułamkowych ładunkach. MK działa perfekcyjnie w każdej skali. W dużych skalach można stosować uproszczenie zwane mechanika klasyczną. Te wszystkie "zjawiska kwantowe" to niedoskonałości opisu klasycznego wyrażane przy pomocy jego pojęć: stąd bierze się "aura niesamowitości". Cała losowość "klasyczna" pochodzi od nieliniowo wzmocnionej losowości kwantowej. Dlatego w większości takich symulacji potrzebny będzie jakiś generator liczb losowych. Co mają ortodoksyjni żydzi do tej dyskusji? (bo ortodoksyjni fizycy widzą tylko kwanty).
  10. No właśnie nie. W teorii strun startujemy od HEP, zauważając że funkcja beta Eulera daje amplitudę rozpraszania modelującą oddziaływania silne. Dopiero później odkrywamy że ta cząsteczka musi być struną. Potem okazuje się, że naturalnie odtwarza grawitację. ale musi być w 26 wymiarach - to wynik zachowania konsystencji matematycznej. Potem supersymetria odtwarza chiralność i obniża wymiarowość. Itd. https://en.wikipedia.org/wiki/History_of_string_theory To jest teoria która powstawała a raczej była odkrywana w kolejnych logicznych krokach. Nikt nie bawił się w "weźmy sobie 11 wymiarów i zobaczymy co się stanie"! Tak, udało się wykluczyć inne możliwości. Jeśli chcemy mieć mechanikę kwantową i OTW to wychodzi teoria strun. Warto dodać jak wiele dostaliśmy z niej za darmo: pozbyliśmy się wolnych liczbowych parametrów. Teoria strun jest dyskretna! Od strony podejścia to jest całkiem inna filozofia, bo nikt tworząc teorię strun nie zakładał określonej ilości wymiarów (spodziewano się 4). Ona wyszła sama. Zresztą twistorowa teoria strun też siedzi w 4 wymiarach, i o ile dobrze pamiętam, to chyba twistor jest struną. A to się Penrose musiał zdziwić. 4D nie jest "nudne", tylko jest niekonsystentne matematycznie! Nikt nigdzie nie odlatywał... To byli poważni fizycy którzy mieli robotę do wykonania. Proste modele to mogli sobie rysować na serwetkach ale nie działały. Na tym właśnie polega odkrywanie teorii fizycznych: na przeskakiwaniu błędnych. Co do brzytwy ockhama to nawet nie jest metoda poznawcza. Aby ja stosować trzeba mieć równie dobre teorie dające takie same rezultaty i dopiero wtedy wybiera się tę prostszą! A nie a priori ogranicza teorie do prostych z obawy przed zarżnięciem w przyszłości. I to nie jest zasada która mówi co jest "prawdą", tylko jest to pragmatyczna metoda oszczędzania zasobów, wykorzystywana pewnie również przez mózg. Mniejszy "ośrodek" który realizuje tę samą funkcjonalność musi wygrać. Prostsza teoria ma większą szansę być tę prawdziwą (ale nie musi) z dających równie dobre wyniki do wyboru! Ale kolega stosuje postępowanie iście w duchu oryginalnego Ockhama i wycina sobie te strony z teoriami które mu nie pasują Wygląda na niezłą rozrywkę. Nie mam nic przeciwko o ile ktoś nie traktuje tego jako fragmentu poszukiwania teorii ostatecznej. Te prace mogłyby dawać nadzieje w latach 50-60, obecnie to strata czasu, oczywiście jeśli ceni się swój czas. Umiejętność konstruowania takich teorii to pewnie podstawa fizycznego survivalu: "publish or perish" Ale jak sam się kolega określa, jest obecnie "uznanym informatykiem". Świat to absolutnie fascynujące miejsce i jest tyle fajnych rzeczy do zrobienia... To miejsce badawcze (w sensie skali) które obrał sobie kolega jest paskudnie niewdzięczne: zdecydowanie poniżej jakichkolwiek zastosowań inżynieryjnych a powyżej prawdziwego frontu na którym walczą obecnie teoretycy.
  11. Sukcesem to jest wyprowadzenie prostszego modelu z dokładnego albo posiadanie jak najlepszego przybliżenia jeszcze w zasięgu możliwości obliczeniowych. Solitony nic nam nie dadzą - wiemy, że "pod spodem" jest fizyka QCD. Uczenie maszynowe jest znacznie sprytniejsze niż "dokładanie stopni wielomianów", ono naprawdę rozumie dane w nietrywialny i raczej niedostępny dla człowieka sposób. Upraszczanie modelu jest bezcelowe, nas interesuje dokładność. Jeśli mamy zasoby to chcemy je jak najlepiej użyć. Oczywiście zdarza się, że czasami analizując na przykład model neuronowy odkrywamy prostszy model analityczny jeśli akurat on był najlepszym rozwiązaniem problemu (na przykład kora wzrokowa sama z siebie odkrywa logarytm zespolony).
  12. Proste pytanie - po co. Proste modele są użyteczne jeśli znamy dokładne i potrafimy policzyć błędy uproszczeń lub nie mamy lepszych. Dokładnym modelem dla sił jądrowych jest obecnie chromodynamika kwantowa. Do stworzenia modeli przybliżonych trzeba użyć uczenia maszynowego. No właśnie. A to że w końcu przestanie się zgadzać mamy gwarantowane i tylko dokładne obliczenia z użyciem chromodynamiki są w stanie to stwierdzić, albo eksperymenty. Nie rozumiem tego o tyle, że to nie jest to żadna fundamentalna nauka. Nie rozumiem też podejścia, w których człowiek fiksuje nie na ciekawym problemie, tylko na określonej klasie odpowiedzi.
  13. Tak. Można sobie zdefiniować statystyczną mechanikę klasyczną z użyciem operatorów i cała różnica polega na tym, że wszystkie komutują, co jest równoważne przejściu granicznemu iH -> 0. Chodzi o to, że duże układy kwantowe zachowują się w sposób, który z doskonałym przybliżeniem odpowiada zachowaniu teorii klasycznej. To takie przybliżenie. Nie powoduje to, że jest klasyczny, jest klasyczny w przybliżeniu. Ale te zjawiska nie zawierają żadnych "cudów". Byłyby cudami w świecie klasycznym a nasz taki nie jest. Najpierw poproszę o opis za pomocą formalizmu mechaniki klasycznej
  14. Myślenie introspektywne wysiadło mi 2 lata temu. Ogólnie jestem na poziomie 1% tego co kiedyś jeśli chodzi o sprawność myślenia :/
  15. Rozumiem że kolega używa skali logarytmicznej. Do opisu niezrozumienia i ludzkiej głupoty - niezbędna
  16. Nie. Brak zrozumienia ma charakter narastający i kumulatywny, o czym łatwo się przekonać bawiąc się translatorem googla Mowa była o, cytuję: "Percepcji rzeczywistości". Przyjmijmy, że XIX wiek jeszcze ogarniałem. Jakiś dowód na poparcie tak rewolucyjnej tezy? Najlepiej nie odwołujący się do swoich problemów z samooceną.
  17. Nie wystarczy, nie ma odpowiednich własności: już zabawa w głuchy telefon uczy, że niezrozumienie ma charakter geometryczny
  18. To zabawne, bo spać muszą nawet mrówki i problem dotyczy wszystkich odpowiednio długo żyjących mózgów (jętka pewnie spać nie musi), zdolności intelektualne człowieka nie są żadną cezurą. Tylko nie za bardzo ich sens. Wszystkie obliczenia logiczne są "nieliniowe" (poza kwantowymi w pewnym sensie), to żadna nowość. Jakiś sens gdzieś tam się obija, ale nie został przekazany.
  19. Niestety nie do końca mogę sobie przypomnieć detale ze względu na amnezję, ale ogólnie w rozważaniach chodziło o zagadnienie komunikacji pomiędzy dwóch mózgów z których każdy ma trochę inny wewnętrzny aparat pojęciowy (bo każdy ma inny), i one bardzo rzadko dokładnie przystają. Aby coś komuś przekazać, musimy mieć model mentalny tej innej osoby i dopasować komunikat do naszego zrozumienia jego zrozumienia tego co musimy powiedzieć To działa też w drugą stronę. Mogę dobrać komunikat który najlepiej oddaje zagadnienie w moim rozumieniu, ale wiem że ktoś na 100% źle to zrozumie. Zatem muszę "kłamać" dopasować się do odbiorcy, użyć innego sformułowania które najlepiej "przeniesie istotę rzeczy". Między innymi po to używamy analogii. W ten sposób pojawia się nieusuwalna "nieoznaczoność" komunikacji. Systemy formalne są bardzo przyjemne, bo nie posiadają tej nieoznaczoności: każdy komunikat ma perfekcyjnie określone znaczenie i można przyjąć że brak wzajemnego zrozumienia po przesłaniu takiego komunikatu da się przedstawić jako iloczyn niezrozumienia nadawcy i odbiorcy wobec komunikatu. Jeśli informacja to komunikat + model informacji od strony odbiorcy, to exformacja to taki komunikat i model informacji od strony nadawcy. W komunikacji cyfrowej nie ma problemu że są różne. W matematyce na poziomie formalnym też nie ma (ale w praktyce używa się skrótów). Ale na fundamentalnym poziomie odbiorca i nadawca są różni i pełna komunikacja po prostu nie jest możliwa. W pewnym sensie można ogólniej traktować exformację jako polecenie. Informacje zapewniają nerwy przychodzące, exformację - wychodzące. Informacja to zrozumienie świata, exformacja to wpływanie na świat. I tutaj widziałem dobrze (bo teraz już tego nie ogarniam tak klarownie, to takie echa mysli) dosyć precyzyjną analogię pomiędzy fizyką a takim światem komunikatów i mózgów, i rolę formalizacji pełniło wytworzenie rzeczywistości klasycznej. Ale to wciąż tylko zabawa.
  20. Rozumiem to podejście i jest ono w pewnym sensie prawdziwe, dopiero model zamienia komunikat w informację. Ale to jest ujęcie abstrakcyjne i granica pomiędzy informacją a komunikatem jest czysto umowna. Fotony padające na siatkówkę są źródłem informacji gdzie zaabsorbowano foton, modelem informacji jest struktura siatkówki a komunikatem aktywność neuronów w siatkówce! Przez metainformację rozumiem sytuację, w której mózg przesyła informację, (sygnał) że pewien neuron wysłał sygnał analizując sygnały. Tutaj język płata figle bo nie ma on odpowiedniej rozdzielczości aby wyrazić takie idee, on ma tylko pobudzić struktury gramatyczne w mózgu które są pewnymi neuronalnymi aproksymacjami idei... Informacja zamienia się w komunikaty dla kolejnego poziomu abstrakcji. Znacznie lepiej byłoby operować pojęciami lepiej przystającymi do fizyki. W fizyce podstawowym aksjomatycznym pojęciem są zdarzenia. Obserwator to ktoś kto dysponuje modelem zdarzeń. Fizyka zajmuje się granicą zachowania najlepszych modeli zdarzeń (rzeczywistością), obserwator fizyczny ma maksymalnie dokładny model zdarzeń i jego zachowanie opisuje mechanika kwantowa. Informacja przypuszczalnie jest zbyt ogólnym terminem i oznacza wiele różnych zjawisk w różnych kontekstach, związanych z korelacjami pomiędzy zdarzeniami. Kiedyś aby dokładniej analizować zagadnienie wprowadziłem sobie pojęcie exformacji, ale w fizyce mamy kilkanaście różnych rodzajów informacji
  21. Jak się rozumie mechanikę kwantową to doświadczenie jest dosyć banalne, natomiast założenie że rzeczywistość w ogóle mogłaby być obiektywna jest dziwne na starcie. Problem z tym doświadczeniem polega na tym, że dokładnie potwierdza ono mechanikę kwantową i od początku nie było żadnej opcji by było inaczej. Jeżeli fizycy wciąż się fascynują takimi setupami to można się martwić o stan ich umysłu.
  22. Bo uderza kolega do niewłaściwej osoby. Nie prowadzę kursu teorii strun ani nawet nie planowałem się jej uczyć przed 50. Te wszystkie konstrukcje są opisane w literaturze, ale trzeba ją do cholery łaskawie zacząć czytać! A wcześniej przerobić kursy wprowadzające. To już tłumaczyłem dadaistycznym wierszykiem opisującym zasadę antropiczną. To czysty przypadek, możliwe są na pewno wszechświaty w których jest odwrotnie, ale nie powstanie w nich życie. Teoria strun + odpowiednia kompaktyfikacja są w stanie odtworzyć całą fizykę i nic na razie nie wskazuje by mogło być inaczej. To pytanie to żart? Stabilne stany związane muszą być lżejsze od składników swobodnych i to jest fizyka na poziomie liceum... Gdyby było odwrotnie to siły jądrowe by odpychały... Jej zadaniem jest odtworzyć Model Standardowy. Odtworzenie fizykę jądrowej z chromodynamiki kwantowej zostawiamy jako ćwiczenie dla uważnego czytelnika.
  23. Po zerowo to jest pytanie do ekspertów teorii strun. Po pierwsze obliczenia w teorii strun to nie jest banalna sprawa. Po drugie, leptony mają wiele możliwych reprezentacji geometrycznych w różnych kompaktyfikacjach teorii strun (co w sumie nie dziwi, rozumiem to tak że fizyczny obiekt ma różne reprezentacje w różnych teoriach dualnych).. Po trzecie, kwantyzacja wynika z własności topologicznych, czyli tak jak chce to robić kolega. To właśnie jest takie zadziwiające w niechęci kolegi do teorii strun: rozwija teoryjkę która na miniaturową skalę stara się opisać izolowany aspekt rzeczywistości środkami analogicznymi do używanych przez teorię strun. Nie lepiej od razu zabrać się za coś poważnego? Czy poza faktem wykorzystywania przez teorię strun mechaniki kwantowej jest jeszcze jakiś inny powód dla którego nie pasuje ona koledze? Najgorsze jest to, że nawet po opracowaniu teorii która daję jakieś fragmenty fizyki cząstek nic z tego wynika. Spodziewamy się, że się da. Co najwyżej powstanie jeszcze jeden toi toi model.
  24. PSI. Perwersyjna Sztuczna Inteligencja Osobiście postulowałem wielkie znacznie rezonansu stochastycznego który może wzmacniać słabe myśli: Czasami w mózgu pojawia się taka ledwo istniejąca myśl, skojarzenie i czasami trzeba poświęcić minutę czasu na wyostrzenie tego wewnętrznego sygnału który najczęściej przekształca się bardzo nieoczywiste skojarzenie.
  25. No to jednak kolega nie rozumie Przejście MK->klasyczna jest ścisłe (h->0). Kluczem jest zrozumienie, że wielkie obiekty kwantowe dekoherują i zaczynają zachowywać się jakby klasycznie bo fazy się rozjeżdżają. Zamiast formalnego przejścia h->0 (strzałka skraca się do 0) mamy uśrednianie się przypadkowych faz do 0. Przecież już wiązania chemiczne są czysto kwantowymi efektami... Wszystkie efekty są kwantowe, tylko czasami tego nie widać na pierwszy rzut oka. Te ekstra poziomy to są kolejne abstrakcyjne uproszczenia. Ja to atomowy glut. Moje zachowanie może być rozumiane w kategoriach coraz to bardziej ogólnych modeli. No i jeszcze można łatwo pokazać jaki obiekt zachowuje się kwantowo (a tak naprawdę falowo): taki w którym strzałki fazy ustawią się w jedną stronę. W wielkim obiekcie jest to skrajnie nieprawdopodobne, w jednostrzałkowym - gwarantowane Teoria strun nie wymaga dofitowania tych parametrów, ona je pozwala wyliczyć. Jeśli przypadkiem nie opisuje świata, to w całkowicie dowodliwy sposób można to wykazać, że nie ma kompaktyfikacji dającej takie parametry. Jeśli opisuje, to zasadniczo można wskazać taką kompaktyfikację, która je daje. Wbrew obiegowym memom jest całkowicie falsyfikowalna. A że może to potrwać bardzo długo w praktyce - nie jest to problem przyrody. Od działalności Archimedesa upłynęło już 2300 lat.
×
×
  • Dodaj nową pozycję...