Skocz do zawartości
Forum Kopalni Wiedzy

Jarek Duda

Użytkownicy
  • Liczba zawartości

    1600
  • Rejestracja

  • Ostatnia wizyta

  • Wygrane w rankingu

    85

Zawartość dodana przez Jarek Duda

  1. peceed, w takim razie miło że się po tych kilku latach odezwałeś, szkoda tylko że jakieś niezwiązane ogólniki zamiast tego co się liczy w dyskusji: konkretne merytoryczne argumenty/kontrargumenty na dany temat. O przepraszam, jeszcze zamieściłeś obrazę jakiejś pani profesor, która rozumiem że nie sięga Ci pięt. Skoro Hawking też zaczął twierdzić że "there are no black holes" ( http://www.nature.com/news/stephen-hawking-there-are-no-black-holes-1.14583 ), rozumiem że też go klasyfikujesz jako jeden z "trzeciorzędnych fizyków z początkami demencji starczej"...
  2. Zapominasz że fizyka nienawidzi nieciągłości (mają olbrzymią energię) - horyzont zdarzeń nie mógł się ot tak pojawić w niezerowej odległości, tylko musiał ewoluować w sposób ciągły - czyli od punktu ... który powinien natychmiast wyparować. Innymi słowy, wyobraź sobie że w zapadającej się gwieździe neutronowej jest wydrążony tunel pozwalający Ci widzieć jej centrum i płytsze warstwy. Fotony dobiegające z centrum mają najwięcej grawitacji do pokonania, czyli to one pierwsze znikną pod horyzontem zdarzeń.
  3. Dokładnie o tym mówię tylko z innej strony (wspominając swoją starą dyskusję na racjonaliście) - wyparowanie mikroskopowej czarnej dziury w wyniku promieniowania Hawkinga, czyli zamiana materii która ją tworzyła w bezmasowe promieniowanie (pełna konwersja materia -> energia!), to innymi słowy "spalanie barionów" w centrum gwiazdy neutronowej - wyzwalające olbrzymią ilość energii, co zapobiega kolapsowi, i ostatecznie ta energia jest wyzwalana z powierzchni w postaci potężnych gamma ray bursts. Jeśli miałaby się uformować osobliwość, musi zacząć od środka - czyli od mikroskopowej czarnej dziury o nieskończonej gęstości w centrum gwiazdy neutronowej: ... która tak naprawdę zamiast zakładanego rozszerzania powinna natychmiast wyparować - konwertując materię w energię ("spalając bariony" w centrum gwiazdy neutronowej).
  4. rahl, opisujesz horyzont zdarzeń, podczas gdy ja mówię o samym środku - gdzie czasoprzestrzeń staje się "ostra", czyli przestaje być rozmaitością (lokalnie dyfeomorficzna z R^4) - wychodzimy poza stosowalność OTW. Jest to dosłownie punkt w który zapadła się cała materia gwiazdy neutronowej (pod horyzontem wszystko łącznie z materią musi się poruszać w stronę centrum): Co do "rozbijania" barionów, czyli niezachowania liczby barionowej, mam na myśli np. proton decay ( http://en.wikipedia.org/wiki/Proton_decay ), czyli prawie całkowitą konwersję materia -> energia (mc^2). Konieczny np.: - dla hipotetycznego promieniowania Hawkinga które ponoć potrafi zamienić dużą ilość barionów w bezmasowe promieniowanie (początkowo duża liczba barionowa, zero po całkowitym wyparowaniu), - dla bariogenezy, czyli spowodowania że mamy więcej materii (barionów) niż antymaterii (antybarionów) we wszechświecie.
  5. rahl, to się nazywa dowód nie wprost. Założenie czarnych dziur wymaga osobliwości o nieskończonej gęstości, co wymaga żeby materia była w stanie przetrwać taki stan, czyli że bariony są niezniszczalne. Z drugiej strony postulują konieczność promieniowania Hawkinga które jest w stanie niszczyć bariony - czyli koncept czarnej dziury jest wewnętrznie sprzeczny.
  6. Czarna dziura to modny koncept który dobrze się sprzedaje, kariera wielu ludzi jest na nim oparta więc będą go bronić ... ale zdrowy rozsądek podpowiada że to jednak trochę zupełnie bez sensu. Zresztą sam Stephen Hawking niedawno przyznał że "There are no black holes": http://www.nature.com/news/stephen-hawking-there-are-no-black-holes-1.14583 Odnośnie "obserwacji czarnych dziur", ponoć najpewniejszy jest Sagittarius A* ( http://en.wikipedia.org/wiki/Sagittarius_A*#Central_black_hole ) - ponieważ możemy dla niego oszacować gęstość na przynajmniej olbrzymie ... 0.0066 kg/m^3. Moje wytłumaczenie jest proste ( http://www.racjonalista.pl/forum.php/s,457242 ) - ten koncept wymaga istotnej osobliwości w samym środku - że materię można nieskończenie skompresować - czyli po gwieździe neutronowej o gęstości materii jądrowej, można dalej tą materię ściskać w nieskończoność (nie da się zniszczyć barionów). Ale np. wspomniane promieniowanie Hawking oznacza że możemy zebrać dużo barionów i poczekać aż utworzona czarna dziura wyparuje - transformując te bariony w bezmasowe promieniowanie Hawking, czyli niszcząc je. Inny przykład zmiany liczby barionowe to bariogeneza, podczas której niby powstało więcej barionów niż anty-barionów na początku naszego wszechświata. Jeśli liczba barionowa może się zmieniać, jak w wspomnianym artykule, powstanie czarnej dziury nie ma sensu - przed utworzeniem osobliwości o nieskończonej gęstości, bariony zaczną być niszczone (zamieniane w energię np. w rozpadzie protonu). Czyli zamiast zapadnięcia do czarnej dziury, gwiazda neutronowa powinna zacząć kolejny etap ewolucji: zacząć spalać bariony w swoim centrum, uwalniając olbrzymie ilości energii (~mc^2) - np. w postaci niezrozumianych (w dzisiejszych czasach czarnych dziur) gamma ray bursts: http://en.wikipedia.org/wiki/Gamma-ray_burst Odnośnie wielkiego wybuchu, fundamentalna fizyka (QFT) jest oparta na symetrii CPT, która byłaby dość łamana w początkowym punkcie wielkiego wybuchu. Jeśli nie chcemy łamać tej symetrii, wcześniej musiała być jakaś symetryczna ewolucja, czyli mamy Big Bounce ( http://en.wikipedia.org/wiki/Big_Bounce ) - wcześniejszy wszechświat się zapadł grawitacyjnie i odbił, resetując wszystko i zaczynając nasz wszechświat.
  7. Co do spiralnego obważanka to polecam odwzorowanie Hopfa
  8. Inne obiecujące podejścia do gorącej fuzji: http://en.wikipedia.org/wiki/Polywell i http://en.wikipedia.org/wiki/Dense_plasma_focus
  9. Link do pracy: http://engineering.jhu.edu/fsag/wp-content/uploads/sites/23/2013/10/JCP_revised_WebPost.pdf Ciekawe, twierdzą ponad 100 krotne przyśpieszenie ... Dobra nauczka żeby automatycznie nie uznawać nawet podstawowych domyślnie używanych algorytmów jako już tych najlepszych. Np. postawą kompresji danych jest koder entropii: szybkie ale dające gorszą kompresję kodowanie Huffmana, albo dobre ale strasznie wolne kodowanie arytmetyczne ... a tu kilka miesięcy temu pojawiły się dobre i nawet szybsze od Huffmana kodery oparte na nowym podejściu (np. FSE, rANS), dając to co kodowanie arytmetyczne tylko np. 8x szybciej: http://encode.ru/threads/1920-In-memory-open-source-benchmark-of-entropy-coders
  10. Jarek Duda

    EkoChiny

    Rzeczywiście w rankingu najbardziej zanieczyszczonych miast na prowadzenie wysuwają się Indie: http://edition.cnn.com/2014/05/08/world/asia/india-pollution-who/
  11. Jakby kogoś interesował ten temat, to okazuje się że są już podobne inicjatywy i ogólnie tu rozwija się dyskusja: https://bitcointalk.org/index.php?topic=606402.0
  12. Sponsoring wymaga zorganizowania pieniędzy z zewnątrz, natomiast tutaj ludzie sami się napędzają kierowani chęcią zysku - wystarczy nadać wartość rynkową owocom pewnej aktywności ("miningu") poprzez samo zorganizowanie handlu i ludzie będą to robić. Pytanie jak dobrać te aktywności żeby były społecznie użyteczne.
  13. Właśnie się dowiedziałem że dwa dni temu wystartował curecoin - dokładnie odnośnie fałdowania białek: https://bitcointalk.org/index.php?topic=603757.0 Za udział w projektach rozproszonych raczej nic nie dostaniesz ... podczas gdy farmy bitcoinów budujesz czysto pod zysk - zrobi to znacznie więcej ludzi, przeznaczając znacznie więcej środków. Przydałyby się projekty rozproszone na których zarabiasz - trochę więcej niż koszt prądu i starzejącego się sprzętu ... no i porównywalnie jak z miningu kryptowalut.
  14. Nasze społeczeństwo przeżywa obecnie boom na bitcoiny, litecoiny, dogecoiny etc. - miliony ludzi jest zmotywowana chęcią posiadania do użycia olbrzymich ilości czasu, sprzętu i prądu na rozwiązywanie problemów obliczeniowych ... które poza tym nie mają zupełnie żadnej wartości. Chciałbym zaproponować dyskusję o możliwości ukierunkowania tych motywacji użycia olbrzymich środków obliczeniowych do jakichś bardziej wartościowych problemów. Zamiast marnować je np. na szukanie ciągów o małej wartości funkcji haszującej (bitcoin), przeznaczyć je np. na problem fałdowania białek, który pomaga zrozumieć życie i tworzyć nowe leki: dla danej sekwencji aminokwasów, znajdź ich konfigurację (ciąg kątów) o najmniejsze energii. Czyli "mining takiego scicoina" to byłoby np. znalezienie konfiguracji o mniejszej energii niż aktualnie najlepszy. Oczywiście dozwolone (motywowane ekonomicznie) byłyby też inne sposoby "miningu", jak metody krystalograficzne szukania struktury. Inna klasa problemów to może być np. dobór optymalnych parametrów dla jakiegoś algorytmu etc. Czyli potrzebowalibyśmy market z bazą danych zadań które mogą być zaatakowane w ten sposób. Każde z tych zadań (np. białko do sfałdowania) odpowiadałoby osobnej walucie. Liczba "monet" dla każdej z nich może być mocno ograniczona - np. znalezienie najlepszej konfiguracji białka zamraża ilość monet. Oczywiście dalej można nimi handlować i ich cena może fluktuować - np. pewnie wzrosnąć gdy dane białko okaże się ważne. Co dodatkowo motywowałoby ludzi do interesowania się nauką - w miejsce zainteresowań czysto ekonomicznych. Niektóre pytania: - jakie rodzaje problemów nadawałyby się tutaj? Muszą być dobrze określone, pozwalać na względnie dużą ilość "monet". Może można by tego użyć do bardziej ogólnych zadań niż czysto obliczeniowe? - jak optymalnie zbudować infrastrukturę dla takie dużej ilości walut o pewnie małej ilości "monet"? Mogą być traktowane analogicznie do bitcoinów, zawierając np. ciąg kątów konfiguracji. - jak wyglądałaby ich ekonomia? Ogólnie - jak przekierować ludzki egoizm ze skupiania się na społecznie bezużytecznych problemach, na takie które miałyby jakąś wartość? ps. Rok temu bitcoin mining to było ok. 15 milionów dolarów dziennie za sam prąd ( http://www.forbes.com/sites/timworstall/2013/12/03/fascinating-number-bitcoin-mining-uses-15-millions-worth-of-electricity-every-day/ ) ... i pewnie szybko rośnie.
  15. Bardzo ciekawe dzisiejsze obwieszczenie z LHC - potwierdzone wyjście poza klasyczny model kwarków: http://home.web.cern.ch/about/updates/2014/04/lhcb-confirms-existence-exotic-hadrons
  16. Oryginalne źródło z linkiem do raportu: http://www.who.int/mediacentre/news/releases/2014/air-pollution/en/ Niedługo wracam do Krakowa - bardzo lubię to miasto, ale niestety, jak komuś zdrowie miłe, na zimę po prostu trzeba się stamtąd ewakuować. Podczas gdy większość tych ofiar jest spowodowane różnego rodzaju spaleniem, ciekawy jestem jaki procent pochodzi od jedynej realnej alternatywy: energetyki jądrowej? ps. Tutaj są jakieś oszacowania, np. Fukushima 15-1300 ofiar w sumie na przestrzeni lat: http://theenergycollective.com/willem-post/191326/deaths-nuclear-energy-compared-other-causes
  17. Owszem, sygnatura to najbardziej podstawowy "parametr" metryki.
  18. Sygnatura to jeden z wielu "parametrów" metryki http://en.wikipedia.org/wiki/Metric_signature
  19. Interwał to ds^2=dt^2 - (dx^2+dy^2+dz^2) w rozmaitości Minkowskiego. Natomiast sygnatura to to że tam ma być ten minusik ... w rozmaitości Riemanna byłyby same plusy.
  20. Sygnatura to np. różnica między wymiarem przestrzennym i czasowym w STW ...
  21. Ehh, nie mam siły, weź sobie jakiś podstawowy podręcznik ... płaszczyzna/surface to specjalny przypadek rozmaitości/manifold - mająca dwa wymiary rzeczywiste. Z Riemannem jest trochę namieszane, bo jego manifold to zupełnie coś innego niż surface - używają jej raczej fizycy na rozmaitości o dodatniej sygnaturze (w przeciwieństwie do Minkowskiego) ... matematycy raczej rzadko używają rozmaitości o niedodatniej sygnaturze (choć chodziłem na jeden taki wykład). Pozdrawiam
  22. "One-dimensional compex" oznacza dwuwymiarową manifold (gdzie liczy się wymiary rzeczywiste).
  23. http://en.wikipedia.org/wiki/Riemann_surface surface się używa na rozmaitość dwuwymiarową, variety na algebraiczną. Jak na razie nie mamy lepszej fizyki niż przybliżanie rzeczywistości - idealizacja. Ważne że działa, ważne żeby być świadomym słabości danych przybliżeń ... i ważne żeby szukać lepszych. Pozdrawiam
  24. Co do adiabaty, oczywiście odwracalność to idealizacja: np. dla gazu doskonałego, ruchu bez tarcia czy unitarnej ewolucji - mówienie o prawdziwych procesach że są adiabatyczne jest raczej przybliżeniem ... tak przynajmniej byłem uczony, ale to oczywiście dyskusja o nomenklaturę. Co do płaszczyzn Riemanna (surface, nie mylić z manifold), to są te dwuwymiarowe rozmaitości w analizie zespolonej wynikłe z tego że np. pierwiastki zespolone stopnia k mają k rozwiązań, logarytm nieskończoność - opisuje się je przy pomocy grup Galois (np. Forster) ... ale jak powiedziałem - tutaj wystarczy skupić się na rzeczywistych wielomianach (choć może metody geometrii algebraicznej mogą być tutaj użyteczne).
  25. astroboy, zmiana podstawy jest równoważna z liniowym przeskalowaniem wykładnika. Z adiabatą można się też spotkać np. w mechanice klasycznej Arnolda - jest to ogólnie proces na tyle powolny że odwracalny. Co do grup Galois, to myślałem że masz na myśli opis płaszczyzn Riemanna, ale tutaj mamy rzeczywisty wielomian (bez pierwiastków). Flaku, oczywiście jest nieskończenie więcej rodzajów wzrostów niż wielomianowy i eksponencjalny (jak exp(x/ln(x)) między nimi), jednak różnica między tymi dwoma jest tą kluczową tutaj.
×
×
  • Dodaj nową pozycję...