Jump to content
Forum Kopalni Wiedzy

peceed

Users
  • Content Count

    1617
  • Joined

  • Last visited

  • Days Won

    57

Everything posted by peceed

  1. Jest jeszcze jedna ciekawa, wręcz doniosła właściwość semantyczna neuronów KAN która odróżnia je od zwykłych - każde wyjście można traktować jako punktację łączną po pewny ważonych wielkościach, i jest to bardzo naturalne odzwierciedlenie typowych działań ludzkich dla złożonych problemów. Co oznacza, że robimy w dużej, makroskopowej skali dokładnie to samo co nasze neurony na najniższym poziomie. W ten sposób można mówić o poprawionej interpretowalności również jako heurystyk. Widzę też możliwość pewnej optymalizacji - można zastosować drugą funkcję "postaktywacyjną" (na wyjściu), która mogłaby przejmować albo uzupełniać skomplikowane funkcje w aksonach. Idea jest taka, że jeśli wiele aksonów powtarza pewne nieliniowe obliczenia, to lepiej je wykonać jeden raz. Jeśli wszystkie funkcje aktywacji na wejściach miałyby podobne zachowanie (byłyby koherentne), to wystarczyłoby wyodrębnić to zachowanie i przenieść je do "dendrytu", pozostawiając w aksonie klasyczną wagę z biasem. Jeśli aksony wymagałyby kilku funkcji, to wówczas można pomyśleć o podzieleniu neuronów (niemożliwe w przyrodzie, ale łatwe matematycznie), licząc że być może w wyniku dalszego uczenia można by dokonać prucia jednego z tych wyodrębnionych neuronów. Przy czym takie wyodrębnienie można po prostu zamodelować jako kolejną warstwę - neuron z jednym wejściem i wyjściem.
  2. A ja bym wciąż obstawiał tzw. "barierę uranową". Nie jako wyjaśnienie braku obserwowanych cywilizacji ale jako nasze największe wyzwanie. Natomiast zupełnym błędem jest "antroporfizowanie" cywilizacji. Cywilizacje to byty abstrakcyjne i jedynie efekt uboczny funkcjonowania ludzi którzy mają swoje przypadkowe cele, ostatecznie zaś realizują "interesy" ich kodu genetycznego. Może celem cywilizacji wcale nie jest pokonywanie kolejnych stopni Kardaszewa, bo co niby miałoby im z tego przyjść? Rozwój naukowy w końcu się zatrzyma, będziemy wiedzieć "praktyczne wszystko" z jasno wytyczonymi teoretycznymi granicami poznania i możliwościami technicznymi, i może ktoś tam w przyszłości uzna że nie warto się rozprzestrzeniać po galaktyce. W sumie ma to sens - bo nie ma z tego żadnej korzyści poza "mentalną", a jest ryzykiem, bo taki cywilizacyjny odszczep może się bardzo szybko uzłośliwić i wymyślić własne, niebezpieczne dla nas idee. Jeszcze większym filtrem może być sama tzw. "nieśmiertelność", która jest niczym innym jak tylko zastojem cywilizacyjnym: 10 miliardów osobników którzy chcą aby było jak dawniej, w kółko odtwarzając cywilizację jaką znają.
  3. Argument ma sens zawsze. Struktura na najniższym poziomie (wag i topologii) nie może być refleksywna, a jest tworzona w dość przypadkowy sposób zwłaszcza jak uwzględni się prucie połączeń. Tylko wsteczna propagacja błędów ma potencjał aby działać niezależnie od topologii sieci w taki sam sposób, wszystkie inny wymagałyby magicznie skorelowanych zmian w strukturze uczącej! Wyżej zorganizowane struktury o mniejszej granularności mogą już być rozpatrywane jako obiekty podlegające innym algorytmom (darwinowsko-ekonomicznym), oceniane jako całość z uwagi na prezentowane właściwości. Mam też wrażenie, że nie do końca ogarnia kolega stopień skomplikowania mózgu, licząc na jakieś olśnienie i magiczną sztuczkę - tymczasem mózg wykorzystuje wszystkie użyteczne zasady funkcjonowania sieci jakie udało się nam wynaleźć - bo ewolucja miała wystarczającą ilość czasu aby również je odkryć i zastosować w domenach w których były najefektywniejsze. Próbuje kolega rozumieć mózg jak jak początkujący programista programy - starając się ogarniać wszystko na poziomie kodu - najniższym poziomie abstrakcji. A tak się nie da w skomplikowanych projektach. Dopiero z czasem przychodzi zrozumienie że pewne detale są kluczowe a inne nie. Na szczęście bardzo dużo wysokopoziomowych funkcji mózgu w przypadku SI jest realizowanych za pomocą klasycznego softwaru i algorytmiki, dlatego interesuje nas jedynie "magia" polegająca na maszynowym tworzeniu modeli na podstawie wielkiej ilości danych. W matematycznym sensie interesują takie które mają zdolność do "inteligentnej" interpolacji i ekstrapolacji danych, gdzie "inteligencja" oznacza zgodność z obserwowanymi w przyrodzie zjawiskami. Jeszcze odnośnie "alternatywnych" algorytmów: z jednej strony mamy najpotężniejszy uniwersalny algorytm uczenia wykorzystywany w ogromnej ilości kontekstów, a z drugiej ma on własności że jest jedynym jaki znamy, który może działać w mózgu na najniższym poziomie. Potrzebujemy zatem dwóch niezależnych cudów: znalezienia cudownego algorytmu alternatywnego i do tego jeszcze aby był on efektywniejszy od najlepszego jaki do tej pory znamy. Alternatywnie wystarcza jeden cud - mózg w jakiś sposób stosuje wsteczną propagację. Co w sytuacji gdy już odkryto zjawisko zachowujące się jak wsteczna propagacja, szanse że w mózgu nie zachodzi wsteczna propagacja wynoszą zgrubnie cud^2/<bardzo_prawdopodobne>.
  4. Jak z perpetuum mobile, wciąż czekamy. Haczyk polega na tym, że mam bardzo poważny argument dlaczego się nie da inaczej, a co do optymalizacji gradientowej to jest ona z zasady najszybszą metodą optymalizacji lokalnej. Całe życie. A bardziej na serio, odkąd straciłem zdrowie przez "wysoko funkcjonujących" imbecyli zrobiłem się bardzo cięty na imbecyli.
  5. Taki komunikat w języku naturalnym w mózgu osoby ścisłej po prostu jest punktem startowym który mózg błyskawicznie dopasuje do "najbliższej" sensownej wartości semantycznej, natomiast u tzw. humaniści będą orbitować po wszystkich semantycznych wartościach dookoła niego, nie mając mechanizmów które pozwoliłyby im szybko odnajdywać te sensowne.
  6. 130. 100 lat temu dostał Nobla. To podsumowanie stanu faktycznego. Od czasu do czasu ktoś się trafia, ale w masie brak im odpowiedniego myślenia. Sprawa jest prosta - ile godzin matematyki jest na studiach medycznych -- i to wszystko w temacie. Teoria która działa to matematyka, i nie da się inaczej. Nie mylić z teoryami (czy pitoleniem). Warto jeszcze rozumieć co autor miał na myśli, a nie tworzyć nieprawdopodobne elaboraty co mógłby mieć. Cała materia jest oparta o odziaływania EM, i to jest kontekst w którym trzeba rozumieć sedno mojej wypowiedzi.
  7. Asocjacje. Reprezentacja dyskretnych konceptów (w tym obiektów) ma dyskretną fizyczną reprezentację w postaci podgrafów, które mogą pobudzać inne koncepcje. Mózg nie jest po prostu "siecią neuronową", to system dynamicznie tworzonych sieci, rekurencyjny i zachowujący się jak neuronowy automat skończony - w którym stanem są aktualne aktywacje (pętle samowzbudzeń przechodzące w grafy), wejściem doświadczenia zmysłowe a funkcja przejścia jest realizowana przez te pobudzone obwody na podstawie wejścia. Dokładne mechanizmy wciąż się bada. Szkoda że przeoczył kolega ogromną ilość technik które sobie z tym radzą, najczęściej wprowdza się szumy który wybijają rozwiązanie z takich minimów. Jest całkiem odwrotnie, to neurobiolodzy powinni przysiąść na pupie i w końcu ustalić detale wstecznej propagacji błędów, a ogólniej uczenia gradientowego realizowanego bezpośrednio z użyciem połączeń używanych normalnie do działania/inferencji.' No cóż, na razie do niego nie dotarłem - sensie że nie zrozumiałem. Czytam sobieKAN: Kolmogorov–Arnold Networks, a to nie te czasy kiedy mogłem łykać kartkę A4 w kilka sekund - jestem w sytuacji gdzie bezpośrednio odczuwam skutki postępujących ubytków funkcjonalnych w mózgu :/ I jest ogromna różnica w jakości tych dwóch prac - na każdym poziomie. KAN jest łatwo zrozumiała, w odróżnieniu od od kolarzy asocjacji Jarka Jarek niczego nie tłumaczy, nie wyjaśnia, przez co pojawiają się poważne wątpliwości czy tak naprawdę istnieje coś sensownego co można by wyjaśniać, czy to tylko "pomysł na pomysł". Na 100% sieci działające w różnych kierunkach mogą mieć sens wyłącznie przy uczeniu, co wynika z architektury sieci i przepływu informacji. Byłoby skrajnie ciężko synchronizować działanie dużych układów które dodatkowo mogą sobie przesyłać dane w różnych kierunkach w trakcie normalnej pracy - tak że nie ma prawa to działać w dużej skali, skończyłoby się epilepsją. Natomiast może w małej, w przypadku pojedynczego neuronu - prawie na pewno, być może też w przypadku małych zbitek neuronów oraz w przypadku tworzenia sieci ad-hoc (hipotetycznego) przez astrocyty. Generalnie dobrze by było przy uczeniu biologicznej sieci KAN, gdyby przy każdej sesji uczącej neuron mógł sobie zbierać statystykę błędów i potem dokonywał poprawek w funkcji phi w jednym podejściu, integrując wszystkie dane (w przypadku splinów rozwiązuje się układy równań). Biologiczny akson może być małą rekurencyjną siecią neuronową.
  8. Prosto i tak samo. Wyrąbywane są rejony które miały związek z tymi wydarzeniami i okolice. Co ciekawe tak samo "działa" psychoterapia. Nie jest sztuką uczyć sieć której strukturę się zna. Ale jeśli nie zna się tej struktury, i musi ona uczyć się sama siebie, to tylko wsteczna propagacja jest w stanie działać na niskim poziomie (bo na wysokim można sobie wprowadzić "darwinizm" obwodów). Zostań teoretykiem, to może wymyślisz. Aby dyskutować pod artykułem wypadałoby go przeczytać. Mam wrażenie że określenie teoretyk traktuje kolega potocznie, mniej więcej tak jak tumany traktują "humanistę". Reguła Hebba nie jest uczeniem, a raczej tworzeniem struktury sieci która dopiero ma się nauczyć. Neurony muszą otworzyć temporalną strukturę przyczynową przetwarzania skorelowanych informacji, i reguła Hebba pozwala im taką strukturę tworzyć - bo neuron który łączyłby się z różnymi przypadkowymi poprzednimi warstwami (jako ominięcie) jest mało użyteczny. Zatem reguła Hebba wyłania nowe połączenia "z nicości/potencjalności", podnosząc wagę z zera do pewnej wartości dodatniej, tworząc sensowne logicznie fizyczne połączenia pomiędzy warstwami. Natomiast czy takie nowe połączenie ma sens - o tym powinna decydować wsteczna propagacja. Natomiast w modelu KAM reguła Hebba może być jeszcze mocniej odseparowana - tworząc nowe połączenia które dopiero będą uczone przez dobór funkcji aktywacji (choć brak połączenia to również zero w tym przypadku - tylko jako funkcja zerowa). KAM-y urzekły mnie jeszcze w jeden sposób - bardzo chciałem znaleźć sposób, aby móc umieścić w sieci neuronowej, która bohatersko stara się zrekonstruować jakąś funkcje matematyczną, bezpośrednie odwołanie do instrukcji procesora. Tutaj jest to trywialne. Nie mówię że jej to wychodzi ani że może. Ale się stara Dodałbym tylko, że ten przepływ ładunku jest kontrolowany również przez "sygnał chemiczny". Impulsy w neuronach nie są przepływami ładunków.
  9. Nie ma alternatywy. Wsteczna propagacja to jedyny sposób jaki znamy i przypuszczalnie jedyny istniejący który nie wymaga "znajomości samego siebie". Cały problem z biologią i medycyną polega na tym, że nie posiadają one teoretyków. To tak, jakby całą fizykę chciano poznawać wyłącznie za pomocą opisu kolejnych doświadczeń bez żadnej spinającej teorii, albo teoriach mających jakość humanistycznych opowiastek. A gdy nie posiada się dobrych teorii, nie można nawet określać co jest ważne i doniosłe, a co nie. Dlatego występuje zjawisko skupiania się na nieistotnych detalach bez zrozumienia istoty zagadnień. Te sieci KAN wydają się lepiej odpowiadać funkcjonowaniu neuronów biologicznych, w praktyce jednak te biologiczne wydają się być jeszcze ogólniejsze: do niezależnych funkcji phi można dodać funkcję aktywacji całego neuronu oraz bias dla całego neuronu - który może być bezpośrednio sterowany hormonami jak adrenalina. Jeśli funkcję phi będą liniowe, to uzyskujemy zwykłą sieć neuronową.
  10. Odkryto wsteczną propagację w neuronach (z 10-15 lat temu). To najważniejsze odkrycie odnośnie funkcjonowania mózgu w ostatnim półwieczu, i jakoś nie zdobyło szerszego rozgłosu. Detali nie pamiętam ( było ich zresztą bardzo mało) poza faktem, że jest znacznie słabsza niż propagacja w przód. Szkoda że tak późno, oszczędziłoby to mi bardzo wiele czasu zmarnowanego na szukanie zastępnika w sytuacji, gdy to właśnie wsteczna propagacja błędów jest najlepszym algorytmem z "hardwarowego" punktu widzenia. Generalnie szukałem sieci do trenowania sieci, mogących zastąpić wsteczną propagację. Czyli jakaś "ubersieć" pomaga tworzyć detale małych sieci. Teraz (czyli do momentu gdy mogłem się jeszcze zajmować takimi tematami) mam całkowicie odwróconą wizję - to wsteczna propagacja emergentnie tworzy struktury pobudzeń które mogą być analizowane za pomocą innych sieci. Rozumiem że to pochodna rozmyślań o dwukierunkowych komputerach kwantowych Największym problemem są szczeliny międzysynaptyczne, ich mechanizm działa w jedną stronę. Natomiast w ramach skomplikowanych nieliniowych struktur obliczeniowych w ramach jednego neuronu biologicznego obustronne wyładowania mogą być powszechne i kluczowe. Jedynym widocznym (co jest prawie tożsame z "możliwym") rozwiązaniem obejścia problemu jednokierunkowego funkcjonowania szczeliny międzysynaptycznej są astrocyty, które co do zasady mogą tworzyć "mostki", a może nawet bardziej skomplikowaną strukturę zajmującą się propagacją wsteczną. Idea sieci uczącej inne sieci może być ekstremalnie niskopoziomowa, a dodatkowa sieć ucząca nie musi być neuronowa w sensie biologicznym. Trudno aby nie - nie ma zatem zasobów aby sygnały mogły się poruszać w obu kierunkach bez wzajemnych zakłóceń, jeden niszczy polaryzację potrzebną drugiemu. Najważniejsze jest jednak to, że potencjalna dwukierukowość pozwala wykorzystywać identyczny schemat rozwojowy (neuron z mózgu wypuszcza akson) zarówno do czucia jak i sterowania ruchem, przez co drobne mutacje mogły dramatycznie zmieniać funkcjonalność podobnie budowanych połączeń. Działa działa. Poruszanie się po gradientach jest zbyt szybkie aby dało się zastąpić czymś innym, a wsteczna propagacja błędów jest idealnie dopasowana do właściwości mózgu. Na niskim poziomie (połączeń) nie ma żadnej introspektywności, więc jedynym obiektem który niesie informację o połączeniu neuronowym może być owo samo połączenie. Bardziej zaawansowane algorytmy uczące wymagają znajomości struktury sieci, podczas gdy wsteczna propagacja po prostu przekazuje informację do tyłu nie dbając o szczegóły których nie może znać. Wszystkie AI są trenowane z użyciem wstecznej propagacji, i co ważne - modele są ekstremalnie efektywne w stosunku do ilości parametrów. Ludzkie mózgi wciąż zawierają znacznie większą ilość niskopoziomowych informacji, natomiast zdają się być słabo uczone na tym najniższym poziomie. Możliwość stosowania milionów powtórzeń jest jednak nie do pobicia, również precyzja cyfrowa musi poprawiać działanie - stosujemy pseudolosowość gdy chcemy, ale nie jesteśmy na nią skazanie cały czas. Oczywiście są też inne całkowicie ortogonalne mechanizmy, przypominające dobór naturalny i mechanizmy rynkowe - generalnie każda część mózgu stara się robić absolutnie wszystko, ale te działania są powstrzymywane przez sukces lepiej realizujących określone zadanie rejonów i brak "dopaminowej zapłaty". Przejmowanie funkcjonalności po utracie pewnych rejonów mózgu jest całkowicie "emergentne". Jest to kluczowe dla powstawania różnych architekturalnych udoskonaleń, rejon który je posiada po prostu naturalnie wygrywa rywalizację z tymi które go nie posiadają. Ale nic nie jest wyryte w kamieniu, i czasami ośrodki znajdują się w "nieodpowiednich" miejscach.
  11. Zauważyłem, że młoda Ziemia była bardziej wdzięczna dla potencjalnej cywilizacji technicznej. Bardzo szybki ruch obrotowy pozwalał na łatwiejsze wynoszenie rakiet z równika, orbita geostacjonarna była znacznie niżej co ułatwiałoby stworzenie windy kosmicznej, księżyc był bliżej więc księżycowe noce byłyby jaśniejsze a misje Apollo krótsze, potężniejsze pływy pozwoliłyby zbudować ciekawsze elektrownie, uran był już naturalnie wzbogacony (i było go więcej). Czy ktoś widzi jeszcze jakieś inne zalety? (tak, brak tlenu oznaczałby ogromny problem ze startem cywilizacji technicznej, można założyć że życie w jakiś sposób ogarnęło sprawę szybciej). Ale obecność metali w postaci metalicznej również jest ciekawa. Może taka cywilizacja od początku zaczęłaby korzystać z energii słonecznej (z braku innych możliwości)?
  12. Co do powstawania życia jakie znamy, to kluczowym momentem jest stworzenie czegoś w rodzaju proto-rybosomu który jest w stanie pływając w aminokwasowej zupie tworzyć białka. Pierwsze białko musiało w jakiś sposób zwiększać fitness co najmniej dla fragmentu xNA który go kodował (nawet nie musiało to być RNA). A gdy taki fragment powstał, mogły zacząć obok niego powstawać różne kody, stopniowo usprawniające jego funkcjonowanie za pomocą białek, które z czasem stworzyły sobie własny rybosom i nukleinowy oryginał został usunięty. Rybosom zdecydowanie wymaga takiego "bootstrapu". Nie ma dla mnie żadnej wątpliwości, że jądro komórkowe powstało jako megavirus który w pewnym momencie zmienił strategię z replikowania się bez towarzyszącej maszynerii komórkowej na taką, w której po prostu dzielił komórkę jak oryginalne dna. Wiadomo że takie wirusy najczęściej atakują ciało bakterii która ma zupełnie zniszczone dna przez promieniowanie UV, i reaktywują całą komórkę a dokładniej te elementy które były potrzebne do replikacji wirusa zużywając zasoby komórki. Megawirus który musiał przeżyć jako glut DNA/RNA miał bardzo zaawansowany mechanizm ochrony przed czynnikami środowiskowymi - jądro, i w pewnym momencie pozwoliło mu to prowadzić metabolizm komórkowy w środowisku, które było zabójcze dla oryginalnych "właścicieli ciałek", więc z marszu dostał niszę ekologiczną w której mógł się lepiej rozmnażać. Rozwój musiał być stopniowy - reaktywacja (przejmowanie/ewoluowanie) kolejnych funkcji/białek pozwalała na coraz doskonalszą reanimację komórki a więc stwarzenie większej ilości swoich kopii, aż w końcu wirus doszedł to momentu w którym doprowadzenie do podziału komórki z nowym jądrem było bardziej rozsądne niż wypuszzenie gołego jądra bez własnej maszynerii. Pierwotne niewirusowe DNA mogło całkowicie zaginąć. DNA mogło rozprzestrzenić się jako mechanizm ochronny przed wirusami RNA. Komórka która nie zawiera mechanizmu replikacji RNA nie jest w stanie podtrzymywać replikacji zagrażających jej wirusów. W praktyce potrzeba jednak bootstrapu dla transkryptaz, a lepszym bootstrapem są wirusy, a co najmniej formy przetrwalnikowe. Najprawdopodobniej więc dna z transkryptazami powstało jako forma przetrwalnikowa dla bakterii RNA, w trudnych warunkach powstawała pasywna metabolicznie forma DNA, a w lepszych warunkach następowało odhibernowanie i powrót do RNA. Oczywiście z czasem powstały mechanizmy selektywnej transkrypcji a nie całkowitej, i replikacji DNA, co dało ogromną przewagę w walce z wirusami, więc jeśli jakiś organizm wymyślił coś takiego to bardzo szybko zdominował swoją niszę. Oczywiście wirusy prawie od razu znajdą sposób aby się jakoś urządzić w nowym świecie, ale wystarczy chwilowa przewaga jakiegoś rozwiązania aby miało ono sens - powrót i cofnięcie są zazwyczaj niemożliwe, bo od razu degradacji ulegną mechanizmy ochronne które pozwalały przeżyć w starym świecie RNA. Pamięć ludzka/zwierzęca na pewno jest bardzo pojemna, i ma potencjał aby pamiętać wszystko co się widziało . Problemem jest jedynie sensowne i użyteczne odtwarzanie tego w znaczących sytuacjach. Na pewno istnieją bardzo prymitywne mechanizmy, które ekstremalnie wiernie odtwarzają przeżycia (flashbacki) i mózg stara się za ich pomocą dać jakieś wskazówki dla nowej sytuacji. Tzn. można na nowo przeżyć stare wydarzenie i na nowo je zinterpretować korzystając z nabytej mądrości/opanowanych kategorii myślowych. Przypuszczalnie zwierzę odwiedzając znane miejsce dostaje flashback który pozwala mu porównać czy nic się nie zmieniło (jakiś nowy cień czy poruszone źdźbła trawy mogą oznaczać niebezpieczeństwo). W praktyce moje wspomnienia wizyjne (do czasu "awarii") pozwalały mi chodzić po trójwymiarowym świecie, o jakości rekonstrukcji obrazu na poziomie widzenia obwodowego. To trochę słabo, ale sądzę że to tylko takie adresowanie rzeczywiście zapisywanych obrazów. Zwierzęta i ludzie autystyczni często mogą sobie przypominać "oryginały".
  13. Tzn? To zdanie nie ma żadnego sensu. Algorytm nie ma ograniczenia na "ilość cyfr". Co zasadniczo oznacza, że nie miałeś żadnego kontaktu ze współczesną nauką. Tak jak kiedyś z pitagorejczygów powstali matematycy, tak samo z filozofów wyodrębnili się fizycy, czyli ludzie którzy naprawdę zaczęli rozumieć rzeczywistość. Do opisu świata służą modele matematyczne a nie językowe wygibasy.
  14. Nie przejawiam takiej chęci. A o możliwości świadczy zdanie: Właśnie tym różni się komunikacja osób ścisłych od humanistycznego p****** że jej zdania są znaczące, tzn. przy odrobinie wysiłku może sobie kolega ten algorytm znaleźć samemu. Na przykład wystarczy zadać w wyszukiwarce znaczące pytanie. Takie zdanie może napisać wyłącznie zawodowy laik.
  15. Jak to robić uczą w podstawówce. A od niedawna znamy determistyczny algorytm wielomianowy. Garbage In Garbage Out.
  16. Nic nie szkodzi, i tak zareaguję na zaloty: To może coś w stylu CSS Override Extension?
  17. Czarne dziury mogą być neutralne elektrycznie. Haczyk polega na tym, że promieniowanie Hawkinga nie musi być elektromagnetyczne, tylko że EM jest absolutnie dominujące na odległość w naszym zestawie oddziaływań więc naszą fizykę (klasyczną) oparliśmy o takim założeniu. W innym Wszechświecie o kilku oddziaływaniach dalekozasięgowych CD świeciłyby wszystkimi. I najprawdopodobniej każdy rozgrzany związany stan materii (czyli "ciało") świeciłoby termicznie w taki sam sposób. Dla nas ciała neutralne elektrycznie nie istnieją - bo to oddziaływania EM spinają materię, i w dostatecznie małej skali wciąż dominują. W uogólnionej fizyce materia świeciłaby wszystkim, z czym oddziaływuje. Promieniowanie CD zależy od fluktuacji próżni, więc jest bardziej charakterystyką "fizyki" niż CD samej w sobie, CD jest najbardziej generycznym i bezpostaciowym stanem materii związanej jaki można sobie wyobrazić.
  18. Zwłaszcza na monitorach lcd google: "Dark Mode extension" Działa na kopalni. Nie, nie używałem wcześniej, po prostu to jeden z tych problemów które rozwiązuje się w ten sposób
  19. Układ odpornościowy nie ma prawa przyzwyczaić się do antygenów - poza grasicą. Bo to wyrok śmierci dla organizmu. Zabiłyby nas własne bakterie jelitowe. To nie jest przedawkowanie szczepionki, tylko jej nadużywanie. Jak ktoś nie rozumie różnicy, to niech zamieni w zdaniu słowo "szczepionka" na "alkohol". Kto by podjął takie ryzyko prawne? Raczej by wszczęto dochodzenie, do czego najwyraźniej doszło! Mimo wszystko dalej uważam, że jest spore ryzyko rozwoju chorób autoimmunologicznych przez prezentację antygenu w przypadkowych tkankach. I bardzo chętnie zobaczyłbym przebieg prawdziwej choroby w ramach badań (może jakiś zachęcający grant?)
  20. A do jakiej reakcji ten neutron miałby się przydać? Bo o ile taki stymulowany rozpad to mógłby się odbyć, to nie widzę możliwości użytecznej fuzji, ale dużo już pozapominałem. Na zdrowy rozum - mamy bardzo dużo procesów generujących nadmiarowe neutrony w reaktorach, i nie spotkałem się z podejściem żeby generować za ich pomocą dodatkową energię. Oczywiście powodem może być znikoma wartość energetyczna potencjalnych reakcji w porównaniu do rozbicia uranu i niepotrzebne komplikacje techniczne. Jedynym ważnym procesem jest produkcja trytu, to jedyna fuzja jaka zachodzi. Przede wszystkim powstały neutron byłby bardzo gorący , a do zabawy w przemiany jądrowe chcemy generować neutrony najlepiej zimne. Słabo, chyba nie mamy tyle czasu. Czarne dziury najlepiej generują energię z materii w dyskach akreacyjnych. Ściskanie materii do mikrodziur jest nierealne - nie ma z czego zrobić "szczypiec" Negacja Mechaniki Kwantowej? Lasery o wielkich częstotliwościach raczej zaczną reagować z protonem fotonami niż uzyskają jakieś subtelne dudnienie w jego wnętrzu. Nie wiem też, czy w grę nie wejdzie kwantowy efekt Zenona - ładując co chwila fotony w ten proton sprawiamy, że się nie rozpadnie. Detekcja też nie będzie prosta przy takim szumie.
  21. Nie rozumiem pytania. No cóż, w praktyce Wszechświat nie produkuje takich ideałów. Idealna monochromatyczność wymaga nieskończonej delokalizacji przestrzennej i czasowej. Generalnie stany bozonowe mają nieznany stan obsadzenia z definicji, choć najczęściej mogą być bardzo silne przesłanki za 0 albo 1. A jednak. Teorie strun i supergrawitacja. Przy czym nowoczesne zrozumienie jest takie, że są to jedynie różne OPISY MATEMATYCZNE tej samej rzeczywistości fizycznej. Każdy z nich jest dobry, choć w różnych sytuacjach.
  22. Teoria kwantowa zmieniła nasze pojmowanie świata. To w swej istocie jest zmiana sposobu formułowania teorii fizycznych, framework w którym teorie fizyczne muszą działać. W jego ramach wytłumaczono wszystko co chciano - kompletna unifikacja wszystkich nauk przyrodniczych. Chemia, biologia, kosmologia, wszystkie działy fizyki. Te inne inne atomy uwięzione we wiązaniach atomowych na pozycjach. Fala fotonu jest długa w porównaniu do rozmiaru atomu (rzędu 1-10 tyś. razy) więc można zrobić w miarę rozsądne "lusterko" czy "falowód". Oczywiście nie perfekcyjne, ale ono nie musi idealnie trafiać w położenie atomu ogniskową każdego malutkiego wycinka, a jedynie średnią. Przypuszczam że układ nie ma pełnej symetrii obrotowej 360 stopni na linii pomiędzy atomami, tyko w pewnym wycinku (>X<), czyli wyemitowany foton może nie zaskoczyć, ale jak trafi w odpowiedni kąt to już na nim pozostanie. Owszem, można przyjąć, że każdy atom czy nawet mogący oddziaływać elektron będzie wysyłał fale sferycznie, tylko że po dodaniu wszystkich możliwości wyjdzie propagacja promieni świetlnych. Jeśli tak się stało - to foton został zlokalizowany. W praktyce zdarzenie jest izomorficzne z obserwowalnymi konsekwencjami tego zdarzenia dla reszty wszechświata. Jeśli nie zostanie zaobserwowane wciąż można je rozważać jako jakiś wkład do amplitud, czyli zdarzenie wirtualne. Emisja wymuszona propaguje się w kierunku lotu fotonu, który ja wymusił. A bardziej dokładnie - wzrasta stopień obsadzenia stanów fali która ją wymusiła, to żeby nie wyobrażać sobie że jest to taki punktowy fotonik który się kseruje z drugim fotonem w tym samym miejscu. Te dwa fotony nie muszą zostać zaobserwowane w tym samym momencie. Warto dodać że to kiedy doszło do tego zdarzenia również jest nieoznaczone. Dlatego w laserach montuje się lustra półprzepuszczalne po obu stronach, tylko fala latająca tam i z powrotem ma szansę odpowiednio się wzmocnić. Emisja spontaniczna propaguje się sferycznie (i odpowiednio sferycznie odlatuje funkcja falowa atomu). Jak na przykład zbadamy gdzie poleciał atom, to wiemy, że gdzie poleciał foton i już nie musimy a nawet nie możemy rozpatrywać wkładów reszty kierunków.
×
×
  • Create New...