Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

ZoodaVex, po pierwsze nie od stu lat: Gryziński zaczął rozważać klasyczne modele około 1957, czyli gdy fizycy nie byli jeszcze wychowani na bezgranicznej wierze w teorię której z definicji podstaw ponoć nie da się zrozumieć ...

Po drugie niechęć wzięła się z tego że podstawowe przybliżenia mechaniki kwantowej wcale nie są takie super jak mówią i czasem klasyczne nad którymi pracował po prostu lepiej zgadzały się z eksperymentem - z książki polecam szczególnie 4 rozdział który jest właśnie o tych niedoskonałościach o których zwykle się nie wspomina.

A co do Łągiewki to brakowało prostej koncepcji, którą ktoś w końcu musiał wymyślić - fajnie że Polak, ale chyba nie ma co tutaj szukać jakiejś głębszej interpretacji ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

ZoodaVex, po pierwsze nie od stu lat: Gryziński zaczął rozważać klasyczne modele około 1957, czyli gdy fizycy nie byli jeszcze wychowani na bezgranicznej wierze w teorię której z definicji podstaw ponoć nie da się zrozumieć ...

 

Ależ to przecież fizycy wychowani "na bezgranicznej wierze" w model klasyczny dotarli do granic jego stosowalności. Katastrofa w nadfiolecie to koniec modelu klasycznego a zarazem początek mechaniki kwantowej.

 

Po drugie niechęć wzięła się z tego że podstawowe przybliżenia mechaniki kwantowej wcale nie są takie super jak mówią i czasem klasyczne nad którymi pracował po prostu lepiej zgadzały się z eksperymentem - z książki polecam szczególnie 4 rozdział który jest właśnie o tych niedoskonałościach o których zwykle się nie wspomina.

 

 

Ptolomejskie epicykle w modelu geocentrycznym były dokładniejsze i bardziej zgodne z doświadczeniem niż model heliocentryczny. Mimo trudności obliczeniowych dzisiaj wierzymy Kopernikowi ;)

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ptolomejskie epicykle w modelu geocentrycznym były dokładniejsze i bardziej zgodne z doświadczeniem niż model heliocentryczny. Mimo trudności obliczeniowych dzisiaj wierzymy Kopernikowi ;)

 

Wiesz, Jacenty, że miałem już w poprzednim komentarzu wpisaną tę analogię do Ptolemeusza, ale ją jednak wykasowałem, żeby nie być zbyt zgryźliwym. :P

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Nie mówimy o teorii wszystkiego tylko o przybliżeniach - i w różnych sytuacjach różne są przydatne.

Np. rozmycie pozycji elektronów w orbitale praktycznie uniemożliwia zimną fuzję, więc traktuje się ją trochę jako fringe science ... podczas gdy setki niezależnych grup zaobserwowało nadmiarową energię, tu masz 3500 publikacji w czasopismach na ten temat: http://www.lenr-canr.org/

Nie wiem czy to prawda, czy będzie możliwe do praktycznego wykorzystania, ale chyba już trochę za dużo poważnych ludzi mówiło że coś takiego obserwuje żeby traktować to jako masową halucynację czy przekręt ...

Jeśli wyostrzymy obraz orbitali, wyobrażając sobie za nimi trajektorie swobodnego spadku - pole elektryczne takiego elektrony może pociągnąć proton prosto do jądra. No i kolejna sprawa za którą dyskredytowali Gryzińskiego to to że był entuzjastą zimnej fuzji, miał np. notkę w Nature tłumaczącą zjawisko miesiąc po pierwszych doniesieniach, 2 patenty na ten temat ...

 

Dalej pozostaje kwesta zrozumienia, a ponoć mechaniki kwantowej z definicji się nie da ...  Feynman mówił że po prostu niemożliwe jest klasyczne zrozumienia doświadczenia z 2 szczelinami, które jest kwintesencją mechaniki kwantowej ... podczas gdy niedawno odtworzyli je na makroskopowych kropelkach:

https://hekla.ipgp.fr/IMG/pdf/Couder-Fort_PRL_2006.pdf

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Gryziński był w pełni świadom że jego modele to tylko przybliżenie - np. wprost mówi że używa 'rigid top approximation': w pierwszym przybliżeniu spin jest sztywny, a potem używa precesji spinu do wytłumaczenia kwantyzacji orbit i innych efektów kwantowych (zegar związany z cząstką jak to co daje falową naturę kropelkom) - czyli dodatkowo dochodzą do uwzględnienia interakcje z periodycznymi perturbacjami które tworzy, różne opóźnienia, itd itp ...

Z drugiej strony jak uwzględnimy termodynamikę w klasycznych rozważaniach: że stopnie swobody tak na prawdę oddziaływują ze stopniami swobody otoczenia, zamiast stałej energii w trajektorii, bezpieczniej założyć jakiś Boltzmannowski zespół statystyczny pomiędzy możliwymi trajektoriami - co dosłownie prowadzi do stochastycznego przesunięcie w kierunku bliskich (przekrywających) kwantowych stanów własnych (Maximal Entropy Random Walk i pochodne)...

 

Podsumowując - modele Gryzińskiego to ciekawe przybliżenia, które poprawiają to czego nie uwzględnił Bohr (momenty magnetyczne) i myślę że dobrze być ich świadomym, bo w niektórych sytuacjach (dynamicznych) mogą lepiej oddawać zjawiska fizyczne.

Zresztą orbitale Schroedingera to też tylko przybliżenie - dalej mamy r. Diraca ... QFT ...

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Tak dokładnie to mówimy o tym czy Model Gryzińskiego odsyła kwanty na

 

Najwyraźniej wysłałem przed ukończeniem edycji, choć przysiągłbym, że nie. ;) (skróty klawiszowe FF robią mnie w konia)

 

A formalnie chodzi o to, że publikacje zaczynające się od "mechanika kwantowa jest błędna i niepotrzebna" nie mają wielkich szans z powodu faktów doświadczalnych. Jeśli wychodzi magik i mówi: magia istnieje bo oto na waszych oczach zniknąłem Statuę Wolności to nie jadę zapisać się do Hogwartu. Być może można wyjaśnić budowę atomu na gruncie klasycznym ale wydaje się że powinno to być wyjaśnienie redukowalne do modelu kwantowego, tak jak STW można zredukować do mechaniki klasycznej.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Ok, trochę brakowało mu dyplomacji ;) ... ale pewnie to stanowisko powoli ewoluowało przez pół wieku - przez to że z powodu mistycznego modelu którego ponoć z definicji nie można rozumieć, mimo że bazuje on na mechanice klasycznej którą rozumiemy, wszyscy mają gdzieś poprawianie jej błędnych przybliżeń, które same w sobie okazują się dawać niezłą zgodność z eksperymentem ...

O wyprowadzaniu kwantowej z klasycznej już mówiłem (różne zespoły - Feynmana, Boltzmanna), natomiast w drugą stronę to mamy przybliżenia semiklasyczne WKB,  równania Ehrenfesta, dalej klasyczne zachowanie mamy dla tzw. stanów koherentnych, ... dalej niektórzy autorzy oczekują nieliniowości w mechanice kwantowej - np. żeby paczki falowe/fotony jednak nie rozjeżdżały się - i znowu cząstki są nieźle zlokalizowane, np. spora grupa prof. Croca - polecam ich pracę z fizycznym: kauzalnym, lokalnym wytłumaczeniem doświadczenia Wheelera (i bez przesyłania informacji w przeszłość):

http://redshift.vif.com/JournalFiles/V16NO2PDF/V16N2CRO.pdf

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Choć mało z tego rozumiem (fizyka kwantowa to nie moja dziedzina), to w przeciwieństwie do kolegów po zapoznaniu się z podstawą teorii Gryzińskiego od razu zrozumiałem on nic nie obala, a jedynie udoskonala, lepiej opisuje świat, nie twierdzę nawet ze ma rację, ale to nie jest obalona teoria, dużo bardziej abstrakcyjna jest teoria strun, a ma dosyć dużo zwolenników i jest o niej bardzo głośno.

Ta teoria może zostać potwierdzona nawet dopiero za sto/tysiąc lat będąc w zgodzie z wszystkimi dokonanymi odkryciami i "mistycznymi" (dobre słowo) modelami które nic nie tłumaczą (a nawet motają zrozumienie) i tylko ułatwiają obliczenia (przybliżone).

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Z im większą prędkością dwie powierzchnie metalowe przesuwają się po sobie, tym bardziej się zużywają. Okazało się jednak, że przy bardzo dużych prędkościach, porównywalnych z prędkością pocisku wystrzeliwanego pistoletu, proces ten ulega odwróceniu. Szybszy ruch powierzchni prowadzi do ich wolniejszego zużycia.
      Gdy dwie metalowe powierzchnie ześlizgują się po sobie, zachodzi wiele złożonych procesów. Krystaliczne regiony, z których zbudowane są metale, mogą ulegać deformacjom, pęknięciom, mogą skręcić się czy nawet zlać. Występuje tarcie i niszczenie powierzchni. Ten niepożądany proces powoduje, że urządzenia się zużywają oraz ulegają awariom. Dlatego też ważne jest, byśmy lepiej zrozumieli zachodzące wówczas procesy. Podczas badań nad tym zjawiskiem naukowcy z Uniwersytetu Technicznego w Wiedniu (TU Wien) i Austriackiego Centrum Doskonałości Tribologii dokonali zaskakującego, sprzecznego z intuicją odkrycia.

      W przeszłości tarcie mogliśmy badać tylko w czasie eksperymentów. W ostatnich latach dysponujemy superkomputerami na tyle potężnymi, że możemy w skali atomowej modelować bardzo złożone procesy zachodzące na powierzchniach materiałów, mówi Stefan Eder z TU Wien. Naukowcy modelowali różne rodzaje metalowych stopów. Nie były to doskonałe kryształy, ale powierzchnie bliskie rzeczywistości, złożone niedoskonałe struktury krystaliczne. To bardzo ważne, gdyż te wszystkie niedoskonałości decydują o tarciu i zużywaniu się powierzchni. Gdybyśmy symulowali doskonałe powierzchnie miałoby to niewiele wspólnego z rzeczywistością, dodaje Eder.
      Z badań wynika, że przy dość niskich prędkościach, rzędu 10-20 metrów na sekundę, zużycie materiału jest niewielkie. Zmienia się tylko zewnętrzna jego warstwa, warstwy głębiej położone pozostają nietknięte. Przy prędkości 80–100 m/s zużycie materiału, jak można się tego spodziewać, wzrasta. Stopniowo wchodzimy tutaj w taki zakres, gdzie metal zaczyna zachowywać się jak miód czy masło orzechowe, wyjaśnia Eder. Głębiej położone warstwy materiału są ciągnięte w kierunku ruchu metalu przesuwającego się po powierzchni, dochodzi do całkowitej reorganizacji mikrostruktury.
      Później zaś na badaczy czekała olbrzymia niespodzianka. Przy prędkości ponad 300 m/s zużycie ocierających się o siebie materiałów spada. Mikrostruktury znajdujące się bezpośrednio pod powierzchnią, które przy średnich prędkościach były całkowicie niszczone, pozostają w większości nietknięte. To zaskakujące dla nas i wszystkich zajmujących się tribologią. Jednak gdy przejrzeliśmy literaturę fachową okazało się, że obserwowano to zjawisko podczas eksperymentów. Jednak nie jest ono powszechnie znane, gdyż eksperymentalnie bardzo rzadko uzyskuje się tak duże prędkości, dodaje Eder. Wcześniejsi eksperymentatorzy nie potrafili wyjaśnić, dlaczego tak się dzieje. Dopiero teraz, dzięki symulacjom komputerowym, można pokusić się o bardziej dokładny opis.
      Analiza danych komputerowych wykazała, że przy bardzo wysokich prędkościach w wyniku tarcia pojawia się duża ilość ciepła. Jednak ciepło to jest nierównomiernie rozłożone. Gdy dwa metale przesuwają się po sobie z prędkością setek metrów na sekundę, w niektórych miejscach rozgrzewają się do tysięcy stopni Celsjusza. Jednak pomiędzy tymi wysokotemperaturowymi łatami znajdują się znacznie chłodniejsze obszary. W wyniku tego niewielkie części powierzchni topią się i w ułamku sekundy ponownie krystalizują. Dochodzi więc do dramatycznych zmian w zewnętrznej warstwie metalu, ale to właśnie te zmiany chronią głębsze warstwy. Głębiej położone struktury krystaliczne pozostają nietknięte.
      Zjawisko to, o którym w środowisku specjalistów niewiele wiadomo, zachodzi w przypadku różnych materiałów. W przyszłości trzeba będzie zbadać, czy ma ono również miejsce przy przejściu z dużych do ekstremalnych prędkości, stwierdza Eder. Bardzo szybkie przesuwanie się powierzchni metalicznych względem siebie ma miejsce np. w łożyskach czy systemach napędowych samochodów elektrycznych czy też podczas polerowania powierzchni.
      Szczegóły badań zostały opublikowane na łamach Applied Materials Today.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Poważny błąd pozwala na przeprowadzenie zdalnego ataku na urządzenia z systemem Linux. Dziura znajduje się w sterowniku RTLWIFI, który jest używany przez układy Wi-Fi firmy Realtek działające pod kontrolą Linuksa. Dziura pozwala na wywołanie błędu przepełnienia bufora za pomocą sygnału Wi-Fi. Napastnik, wykorzystując urządzenie znajdujące się w zasięgu sygnału Wi-Fi od celu może doprowadzić co najmniej do awarii systemu operacyjnego. Niewykluczone, że może też przejąć całkowitą kontrolę na systemem ofiary. Błąd występuje we wszystkich jądrach Linuksa od wersji 3.10.1 z 2013 roku.
      To poważna dziura. Jeśli pod kontrolą Linuksa używasz sterownika dla urządzeń Wi-Fi firmy Realtek, to napastnik może wywołać w systemie błąd przepełnienia bufora, ostrzega Nico Waisman, główny inżynier ds. bezpieczeństwa w serwisie Github.
      Dziura zyskała oznaczenie CVE-2019-17666. Przed dwoma dniami zaproponowano łatkę, która w najbliższych dniach lub tygodniach powinna zostać udostępniona użytkownikom.
      Waisman mówi, że nie opracował jeszcze prototypowego kodu atakującego. Wciąż nad nim pracuję. Zajmie mi to trochę czasu (o ile jego stworzenie w ogóle będzie możliwe). Teoretycznie tego typu błąd powinno dać się wykorzystać, mówi.
      Poważnym problemem jest fakt, że do przeprowadzenia ataku nie jest wymagana żadna interakcja ze strony użytkownika. Wystarczy, że urządzenie napastnika znajduje się w zasięgu Wi-Fi, a na urządzeniu ofiary mamy włączoną sieć lokalną i wadliwy sterownik. Ataku nie można przeprowadzić, gdy Wi-Fi jest wyłączone, ani gdy działa pod kontrolną sterownika innego producenta niż Realtek. Najprawdopodobniej błąd występuje też w urządzeniach z Androidem.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Skłaniając ludzi do myślenia w szybkim tempie, można ich zachęcić do podejmowania ryzyka. Amerykańscy psycholodzy uważają, że współczesne filmy o wartkiej akcji czy migające światła w kasynie wywierają na nas taki właśnie wpływ.
      W ramach wcześniejszych badań prof. Emily Pronin z Princeton University wykazała, że można zmienić tempo myślenia i że myślenie w żywszym tempie wprowadza ludzi w dobry nastrój. Wiedząc to, Amerykanka zastanawiała się, czy myśląc szybko, jesteśmy bardziej skłonni podejmować ryzyko. Stąd pomysł na 2 eksperymenty.
      W 1. uczestnicy odczytywali na głos stwierdzenia wyświetlane na ekranie komputera. Prędkość wyświetlania można było kontrolować i czasem była ona 2-krotnie większa od zwykłego tempa czytania, a czasem 2-krotnie mniejsza. Później ochotnicy mieli nadmuchać serię wirtualnych balonów. Każde dmuchnięcie dodawało do banku kolejne 5 centów, jednocześnie zwiększało się jednak ryzyko pęknięcia. Jeśli dana osoba przestawała dmuchać przed pęknięciem, zachowywała zebrane pieniądze. Jeśli nie, ulatniały się one razem z powietrzem z pękniętego balonu. Okazało się, że osoby, które zmuszono do czytania z prędkością większą od przeciętnej, dmuchały dłużej niż reszta i z większym prawdopodobieństwem traciły pieniądze.
      W drugim eksperymencie badani oglądali 3 filmiki wideo. Każdy przedstawiał neutralne sceny - np. wodospady, iguany czy miasta - ale zróżnicowano je ze względu na średnią długość ujęcia. Tempo było więc bardzo duże (jak w klipach muzycznych), średnie (jak w typowym filmie hollywoodzkim) albo plasowało się między nimi. Po obejrzeniu nagrań uczestnicy studium wypełniali kwestionariusz z pytaniami dotyczącymi prawdopodobieństwa angażowania się w najbliższym półroczu w ryzykowne zachowania, np. seks bez zabezpieczeń. I tym razem stwierdzono, że im większe tempo filmu i myślenia, tym większa skłonność do podejmowania ryzyka.
    • przez KopalniaWiedzy.pl
      Poruszając się z prędkością 2 m/s, czyli 7,19 km/h, ludzie wolą biec niż iść. Doktorzy Gregory Sawicki i Dominic Farris z Uniwersytetu Północnej Karoliny uważają, że dzieje się tak, gdyż przy takiej szybkości podczas biegu lepiej wykorzystujemy kluczowy mięsień łydki.
      Naukowcy, których artykuł ukazał się w Proceedings of the National Academy of Sciences (PNAS), posłużyli się ultrasonografią, filmowaniem ruchu szybką kamerą oraz bieżnią mierzącą nacisk. W ten sposób mierzyli zachowanie mięśni łydki podczas biegu i chodzenia.
      Niewielka głowica ultrasonograficzna przymocowywana z tyłu nogi pokazywała w czasie rzeczywistym, jak mięsień dostosowuje się do chodu i biegu z różną prędkością. Szybkie zdjęcia zademonstrowały, że głowa przyśrodkowa mięśnia brzuchatego działa jak sprzęgło uruchamiające się szybko po rozpoczęciu chodzenia. Mięsień brzuchaty przytrzymuje jak linka jeden z końców ścięgna Achillesa, gdy przekazywana jest do niego energia do rozciągania. Później do gry włącza się samo ścięgno, które podczas odrzutu uwalnia zmagazynowaną energię, wspomagając w ten sposób ruch.
      Studium ujawniło, że gdy mięsień coraz szybciej zmienia swoją długość, dostarcza coraz mniej mocy, co oznacza obniżenie ogólnej wydajności. Kiedy jednak ludzie zaczynają biec z prędkością ok. 2 m/s, mięśnie zwalniają: zmiana długości zachodzi wolniej, zapewniając większą moc przy słabszej pracy.
      Techniki ultrasonograficzne pozwalają oddzielić od siebie ruchy poszczególnych mięśni podudzia. Dotąd nie były, niestety, wykorzystywane w takim kontekście - podkreśla Farris. Badanie wyjaśnia, czemu superszybki chód jest ograniczony właściwie do olimpiad i innych zmagań sportowych. Mięśnie pracują zbyt nieefektywnie, dlatego ciało przestawia się na bieg. Rosną wtedy skuteczność zarządzania energią i wygoda.
      W miarę jak idziemy coraz szybciej, miesień nie jest w stanie dopasować się do prędkości ruchu. Kiedy jednak dokonuje się przejście od chodu do biegu, ten sam mięsień staje się niemal statyczny i nie musi zmieniać swojego zachowania w znacznym stopniu, gdy biegacz coraz bardziej się rozpędza (choć nie testowaliśmy go podczas sprintów) - wyjaśnia Sawicki.
       
       
    • przez KopalniaWiedzy.pl
      Plemniki golców (Heterocephalus glaber) są bardzo zniekształcone i wolne. Biolodzy sądzą, że dzieje się tak z powodu braku konkurencji między gametami. Dominująca samica - królowa - decyduje, z którym samcem chce kopulować i tłumi instynkty reprodukcyjne pozostałych.
      Zespół Liany Maree z University of the Western Cape pobrał próbki spermy trzymanych w niewoli golców. Testy ujawniły wiele nieprawidłowości. Zdolność poruszania się zachowało zaledwie 7% plemników, w dodatku pływały one z prędkością zaledwie ok. 35 mikrometrów na sekundę (najwolniej u wszystkich ssaków).
      Stwierdzono skrajny polimorfizm plemników, a większość sklasyfikowano jako anormalne. Główki plemników przyjmowały wiele różnych kształtów. Były kuliste, owalne, wydłużone, asymetryczne i amorficzne. Chromatyna w jądrze wydawała się nieregularna i zdezorganizowana (między jej skupiskami znajdowało się np. dużo wolnej przestrzeni). We wstawce występowało od 5 do 7 okrągłych lub owalnych mitochondriów. W takich okolicznościach nie powinno dziwić, że bez energii do napędu plemniki golców poruszają się tak wolno. Dla porównania: ludzkie plemniki w sekundę przebywają ok. 0,1 mm.
      Golec jest dobrym modelem tego, co dzieje się z ludźmi - uważa Maree, nawiązując do tendencji monogamicznych w obrębie naszego gatunku. Wcześniejsze badania wykazały, że u człowieka porusza się ok. 60% plemników, podczas gdy u bardziej promiskuitycznych gatunków odsetek ten wzrasta do 95%.
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...