Skocz do zawartości
Forum Kopalni Wiedzy

Rekomendowane odpowiedzi

Unruha ale tylko przy przyspieszaniu. Chociaż owszem - to znaczna część podróży zwłaszcza z ludźmi gdzie byśmy musieli utrzymać 1g, ale przy okazji znika problem grawitacji.
A potem i tak hamowanie.
Tak 0,9c będzie nieosiągalne i masz rację że praktyczny limit będzie w okolicy 0,5c.
Tylko że bliskość 0,9c dawałaby nam zauważalny efekt dylatacji czasu a to by trochę ułatwiło sprawy.
Liczyłem tak żeby te trzy rzędy wielkości utrzymać ale zauważ że jest dość duża swoboda doboru gęstości próżni.
Dalej wiele rzędów wielkości pojechałem do przodu biorąc dane z LHC. Można policzyć dla mniejszych prędkości ale musiałbym excela odpalić.

39 minut temu, cyjanobakteria napisał:

w tym wspomagać się różnymi żaglami

Oj raczej nie. Próżnia naprawdę słabo hamuje. Trzeba będzie włączyć ciąg przeciwny i hamować miesiącami.
Te miliony atomów uderzających w cm2 żagla - to za mało żeby powstrzymać tysiące ton rozpędzone nawet do 0,1c.
Prędkość światła chociaż dla nas duża, rzędami wielkości patrząc nie jest dużo większa od załóżmy sondy 30 km/s - 4 rzędy wielkości. To jest prawie nic.
W życiu codziennym masz prędkości rzędu 1 m/s. Czyli mówimy o 10 rzędach wielkości - pomiędzy nami a c.
A liczba Avogadro to 23 rzędy wielkości. Prędkość światła choć duża dla nas w świecie fizyki jest zwyczajnie mała. Tak samo w skali kosmosu.
A rzędy wielkości pomiędzy: miliony atomów a ilości atomów w setkach ton masy są dużo większe.
Może jak będę miał chwilę czasu to policzę dla 0,5c oraz protonów już dokładniej w Excelu. Z dzieckiem na ręku jak poprzednio liczyłem - słabo się liczy :)

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Chodziło mi o żagle słoneczne albo magnetyczne. Można wysłać najpierw automatyczny system laserowy, aby wspomóc hamowanie. Znasz równanie rakietowe, każdy kilogram jest cenny. Można nawet zrobić lithobraking na tamtejszym pasie asteroid, byle nie przedobrzyć :) Parker solar probe w peryhelium robi 200 km/s. Te 0.5c też trzeba podzielić przez 2, bo połowa paliwa zostanie zużyta na hamowanie, czyli realnie wychodzi 0.25c dla bardzo zaawansowanego napędu. Produkcja antymaterii pochłania miliony razy więcej energii niż można z niej wycisnąć, nie wspominając o problemach z przechowywaniem, więc bardzo długo nie będzie dostępna w wymaganych ilościach. Dlatego zawsze się skłaniam ku temu konserwatywnemu 0.1c :)

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Moim zdaniem obecnie są tylko dwa sposoby na osiągnięcie wysokich prędkości:
laser i żagle dla małych mas
detonacje jądrowe dla większych mas.
No i można z mniejszymi prędkościami przy ogromnych wielopokoleniowych lub zautomatyzowanych statkach kosmicznych.
Antymateria jest za droga.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Problem z żaglami słonecznymi jest tego typu, że nie ma jak wyhamować po drugiej stronie o ile gwiazda nie jest porównywalnej jasności. A jeżeli na miejscu zastosuje się lasery do rozpędzenia pojazdu, to w ogóle nie ma możliwości wyhamowania samym żaglem, więc trzeba by dostarczyć taki system przed misją. Nie jest to złe rozwiązanie, bo nie należy oczekiwać, że tego typu przedsięwzięcia to będą jednorazowe misje.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Projektu Orion nikt nie bierze obecnie na poważnie. Duże głowice wymagają dużych statków kosmicznych, a małe są niewydajne. Do tego tarcza jest znacznie mniej wydajna niż klasyczna dysza rakietowa. Są dostępne lepsze rozwiązania napędów w oparciu o energię nuklearną. Widziałem na KW właśnie artykuł o fuzji, ale na razie nie chce mi się czytać, bo mam jeszcze czas :) To jest, zdaje się, trzy rzędy wielkości więcej energii niż z rozszczepienia, a i potencjalnego paliwa znacznie więcej we Wszechświecie. Z drugiej strony nie można całości od razu uwolnić, podobnie jak w przypadku energii nuklearnej, bo wiązania chemiczne tego nie wytrzymają. O ile mnie pamięć nie myli, Słońce generuje 1W na każde 5 ton wodoru, ale nie chce mi się teraz liczyć, więc szału nie ma, za to jest dużo wodoru :)

Ciekawe jak to będzie z tą antymaterią. Produkcja jest droga, a przechowywanie kłopotliwe. W razie awarii każdy kilogram antymaterii anihiluje z mocą 50 megaton TNT :) Z drugiej strony zaawansowana cywilizacja może mieć nadmiar energii jeżeli zainstaluje odpowiednią infrastrukturę w okolicy Słońca, a gargantuicznych rozmiarów zderzacz lub inna technologia przyszłości może sobie powoli produkować antymaterię do zastosowań podróży kosmicznych oraz militarnych :) Na pewno da się trochę zoptymalizować proces i obciąć może nawet ze 3 rzędy wielkości.

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
20 minut temu, cyjanobakteria napisał:

gargantuicznych rozmiarów zderzacz lub inna technologia przyszłości może sobie powoli produkować antymaterię do zastosowań podróży kosmicznych oraz militarnych

Nie chciało mi się czytać wszystkiego, ale przy obecnej technologii zdaje się mamy sytuację, że (https://en.wikipedia.org/wiki/Antimatter):

Cytat

Assuming a 100% conversion of antiprotons to antihydrogen, it would take 100 billion years to produce 1 gram or 1 mole of antihydrogen (approximately 6.02×1023 atoms of anti-hydrogen).

Tak że nawet nie chce  mi się liczyć, ile galaktyk musiałbyś zużyć do budowy tego gargantuicznego zderzacza, żeby on w rozsądnym czasie produkował potrzebne ilości antymaterii;)

Edytowane przez darekp

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
12 godzin temu, cyjanobakteria napisał:

Z drugiej strony zaawansowana cywilizacja może mieć nadmiar energii jeżeli zainstaluje odpowiednią infrastrukturę w okolicy Słońca, a gargantuicznych rozmiarów zderzacz lub inna technologia przyszłości może sobie powoli produkować antymaterię do zastosowań podróży kosmicznych oraz militarnych

Od strony filmów s-f - zgoda. Ale odróżnij naukę od fabuły. Fabuła musi być ciekawa. Nauka nie musi być ciekawa.
Do tego trzeba znać swoją skalę i nie tylko naszą ale i innych cywilizacji względem Wszechświata. Napisać o cywilizacjach - pyłek - to znaczy pycha ponad gwiazdy.
A tu wrzucę link do Bajtlika:
To co pisałem tu wcześniej, widząc co się dzieje, mimo powszechnego hurraoptymizmu:
"Fizyka trochę ugrzęzła..." 45:20
To się bardzo powoli przebija ale w końcu każdy to zrozumie. Niektórzy po prostu dużo później niż inni.
Od kilkudziesięciu lat stoimy. Koncepcja bozonu Higgsa to bodajże 70-te lata
Koncepcja fal grawitacyjnych to efekt OTW sprzed 100 lat.
Itd. My potwierdzamy teraz rzeczy sprzed 100 czy 50 lat.
Nowe koncepcje? Są ale nieweryfikowalne. Więc nie zasługują na miano hipotez tylko to są spekulacje. Oczywiście, spekulacje są częścią nauki. Ale jednak to dalej są spekulacje.
Ujmę to inaczej: fizyka ugrzęzła nie trochę ale może nawet i ostatecznie.
Wszechświat nie musi być wbrew hurraoptymizmowi nastrojony tak żeby można było każdą jego tajemnicę poznać.
Ja nie piszę że nie ma tajemnic, ja piszę że nie mamy i nie będziemy mieć narzędzi żeby poznać większość tych tajemnic. Jeśli to raczej poznamy drugorzędne tajemnice.
Do tej pory rozwój był prosty: kowal robił młotek, zegarmistrz robił młoteczek, inżynier robił mikroskop elektronowy. Ale dalej nie da się robić bo nie ma mniejszej materii niż atomy (w sensie konstrukcyjnym).
Łatwo można sobie wyobrazić wszechświat w którym EM jest za słaby aby utworzyć atomy. I co? I nawet nie ma kto badać tajemnic takiego wszechświata bo nie powstają tam żadne cywilizacje ani nawet atomy. Może tylko CD i gwiazdy neutronowe.
Ta wiara że Wszechświat został stworzony żebyśmy mogli wydrzeć mu jego tajemnice jest irracjonalna. Do pewnego momentu będziemy je wydzierać a potem koniec bo napotkamy bariery techniczne i fizyczne. I dlaczego myślę że to już? Bo już napotkaliśmy zasadę nieoznaczoności i już napotkaliśmy bariery techniczne w postaci pojedynczych atomów (co nie znaczy że jeszcze gdzieś nam się nie uda jednego czy dwóch skoków kombinacyjnych wykonać, ale to ostatnie podrygi są).
Technika potrzebowała te 100 lat żeby móc dowieść ówczesne teorie.
Najlepiej to widać w fotolitografii. Tempo opanowywania kolejnych technologii spadło dramatycznie. Nadrabiamy większymi waflami krzemu. A gidzie jak gdzie ale w fotolitografii kasy nie brakuje ani nie brakowało. Szły na to nakłady jakie tylko były potrzebne. I co? I zwolniliśmy. I wiemy że już za daleko nie zajdziemy.
Mamy już zresztą rentgenolitografię. Ale i tak nie wyrzeźbimy gówna mniejszego niż atomy.

Atomy są najmniejszym możliwym trwałym technicznym konstruktem. I koniec.
A my żeby mieć postęp musimy badać rzeczy biliardy mniejsze od protonu. I nawet czasem się udaje ale to są już tylko badania pośrednie i nie wiemy co tak naprawdę badamy. Badamy co nam Natura pozwala badać.

 

Edytowane przez thikim

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
1 hour ago, thikim said:

Od strony filmów s-f - zgoda. Ale odróżnij naukę od fabuły. Fabuła musi być ciekawa. Nauka nie musi być ciekawa.

Nigdzie nie napisałem o ramach czasowych oraz odróżniam naukę od SF, bo nic, o czym napisałem, nie łamie znanych praw fizyki. Nic nie stoi na drodze, żeby zbudować w bliskiej orbicie w okół Słońca tak zwany Dyson swarm kolektorów energii i wielki zderzacz albo inne urządzenie wykorzystujące tą energię. To byłaby Tama Hoovera albo Tama Trzech Przełomów w skali Układu Słonecznego skonstruowana przez cywilizację na skali Kardasheva pomiędzy 1.5 - 2. Jeżeli cywilizacja będzie trwać jeszcze dziesiątki lub setki tysięcy lat, to prędzej czy później Układ Słoneczny zostanie przekształcony do tego stopnia, że go nie poznasz :) Ludzie robią tak z każdym środowiskiem w którym żyją i nie ma żadnych przesłanek, aby sądzić, że jest to niemożliwe w kosmosie, bo nie łamie znanych praw fizyki. Jedyne, co jest wymagane to znacznie większa skala przedsięwzięcia. Wszystko może się jednak odbywać autonomicznie, jeżeli mikrograwitacja to będzie problem. Oczywiście nie ma żadnej gwarancji, że tak się stanie, bo zabłąkana kometa długookresowa z obłoku Oorta może nas cofnąć za miesiąc do wczesnego paleolitu.

 

14 hours ago, darekp said:

Tak że nawet nie chce  mi się liczyć, ile galaktyk musiałbyś zużyć do budowy tego gargantuicznego zderzacza, żeby on w rozsądnym czasie produkował potrzebne ilości antymaterii;)

Nie chciało mi się sprawdzać :) Są inne sposoby produkcji antymaterii, ale jeżeli jest to niemożliwe, to nie ma to znaczenia, bo fuzja jest wystarczająca. Nawet jeżeli fuzja nie będzie dostępna, to zwykły reaktor nuklearny oferuje bardzo duże możliwości i różnica nie jest znacząca. Aczkolwiek ilość paliwa jest we Wszechświecie znacznie mniejsza.

Chemical_Fission_Fusion_Energy.jpg

 

Edytowane przez cyjanobakteria

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Niedawno astronomowie usłyszeli głos z kosmicznych zaświatów. Potężny krótkotrwały impuls na chwilę przyćmił wszystkie źródła sygnałów radiowych. Clancy James z australijskiego Curtin University i jego zespół skanowali nieboskłon za pomocą Australian Square Kilometre Array Pathfinder (ASKAP) – zestawu 36 radioteleskopów znajdujących się w Zachodniej Australii – odebrali krótki, bardzo silny sygnał. 
      Niezwykle podekscytowani stwierdzili, być może odkryli nowy pulsar lub inny obiekt, a że źródło sygnału  wydawało się pochodzić z naszej galaktyki, stwierdzili, że nowy obiekt powinien być widoczny za pomocą teleskopów optycznych. Jednak gdy bardziej szczegółowo przeanalizowali sygnał okazało się, że jego źródło było tak blisko, iż ASKAP nie skupić na nim jednocześnie wszystkich swoich anten. A to oznaczało, że źródło sygnału musi znajdować się mniej niż 20 tysięcy kilometrów od Ziemi. Impuls trwał zaledwie 30 nanosekund i przez tę chwilę silniejszy, niż wszystko inne rejestrowane za pomocą radioteleskopów.
      Gdy Australijczycy przeanalizowali pozycję źródła sygnału i porównali ją z pozycjami wszystkich znanych satelitów okazało się, że jedynym możliwym źródłem sygnału jest Relay 2. To jeden z pierwszych satelitów w historii. Został wystrzelony w 1964 roku i służył NASA jako eksperymentalne urządzenie komunikacyjne. Agencja przestała używać Relay 2 już w 1965 roku, natomiast pokładowa elektronika satelity działała do roku 1967. Wówczas Relay 2 zamilkł i od tej pory krąży wokół Ziemi jako bezwładny kawałek metalu.
      Teraz, po niemal 60 latach satelita znowu wysłał sygnał. Jednak jego urządzenie nie działają, więc źródłem sygnału musiały być czynniki zewnętrzne. Clancy i jego koledzy sądzą, że albo na powierzchni satelity zebrały się ładunki elektrostatyczne i doszło do wyładowania, albo uderzył w niego mikrometeoryt, który wywołał pojawienie się chmury plazmy. Sygnały z obu tych wydarzeń wyglądają podobnie, więc trudno byłoby je odróżnić. Przede wszystkim ktoś musiałby chcieć przeprowadzić takie badania. Tylko po co?
      Źródło: A nanosecond-duration radio pulse originating from the defunct Relay 2 satellite, https://arxiv.org/abs/2506.11462

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Krążący wysoko nad Antarktydą wykrywacz promieniowania kosmicznego, zarejestrował nietypowe sygnały, które wykraczają poza nasze obecne rozumienie fizyki cząstek. ANITA (Antarctic Impulsive Transient Antenna) to zespół wyspecjalizowanych anten, które za pomocą balonu wypuszczane były nad Antarktyką i przez około miesiąc krążyły na wysokości do 40 kilometrów, unoszone przez wiatry obiegające kontynent. Celem eksperymentu jest obserwowanie promieniowania kosmicznego po tym, jak dotarło do Ziemi. W trakcie badań co najmniej 2-krotnie zarejestrowano sygnały, które nie pochodzą od promieniowania odbitego przez lód, a kierunek, z którego napłynęły, nie pozwala wyjaśnić ich pochodzenia na gruncie znanych zjawisk fizycznych.
      Sygnały radiowe, które odkryliśmy, nadeszły z bardzo ostrego kąta, około 30 stopni spod powierzchni lodu, mówi profesor Stephanie Wissel. Z obliczeń wynika, że taki sygnał musiałby przejść przez tysiące kilometrów skał, z których zbudowana jest Ziemia, ale wówczas byłby niewykrywalny, gdyż zostałby przez Ziemię zaabsorbowany. To interesujący problem, bo obecnie nie potrafimy wyjaśnić, czym jest ten sygnał. Wiemy jednak, że to najprawdopodobniej nie pochodzi z neutrin, dodaje uczona.
      Neutrina to cząstki bardzo pożądane przez naukowców. Niosą ze sobą ogrom informacji. W każdej sekundzie przez nasze ciała przechodzą biliony neutrin i nie czynią nam szkody. Neutrina niemal nigdy nie wchodzą w interakcje, trudno więc je wykryć.
      Źródłem neutrin mogą być na przykład wydarzenia, do których doszło miliary lat świetlne od nas. Wykrycie takiego neutrina to dla naukowców okazja, by dowiedzieć się czegoś więcej o wydarzeniu, które było jego źródłem.
      ANITA ma wykrywać też neutrina. Została umieszczona nad Antarktyką, gdyż tam istnienie najmniejsze ryzyko zakłócenia jej pracy przez inne sygnały. Unoszony przez balon zespół anten skierowany jest w dół i rejestruje wielkie pęki atmosferyczne odbite od lodu. Wielki pęk atmosferyczny, to wywołana pojedynczą cząstką promieniowania atmosferycznego kaskada cząstek powstających w atmosferze Ziemi.
      ANITA rejestruje takie pęki odbite od lodu, naukowcy są w stanie przeanalizować sam pęk, jak i pęk odbity od lodu i na tej podstawie określić, jaka cząstka wywołała pęk. Na podstawie kąta odbicia sygnału można zaś określić jego źródło. I tutaj pojawia się problem, gdyż zarejestrowano też sygnały, których nie można prześledzić do źródła. Kąt ich odbicia jest bowiem znacznie bardziej ostry, niż przewidują istniejące modele.
      Naukowcy przeanalizowali dane z wielu przelotów, porównali je z modelami matematycznymi, przeprowadzili liczne symulacje i wykluczyli zakłócenia tła i inne źródła sygnałów. Porównali swoje dane z niezależnie zbieranymi danymi innych instrumentów naukowych, takich jak IceCube Experiment czy Pierre Auger Observatory, by sprawdzić, czy i one odebrały podobne nietypowe sygnały. Okazało się, że nie. Dlatego też Wissel i jej koledzy określają znalezione sygnały jako „nietypowe” i wykluczają, by były one spowodowane przez neutrina. Sygnały nie pasują do standardowych modeli fizyki cząstek. Być może wyjaśnieniem tkwi w mniej popularnych teoriach, z których wynika, że sygnały te mogą pochodzić od ciemnej materii, jednak brak na to dowodów.
      Obecnie naukowcy budują nowe urządzenie, PUEO. Będzie ono większe i bardziej czułe. Badacze mają nadzieję, że rzuci ono nowe światło na nietypowe sygnały. Sądzę, że przy powierzchni lodu i blisko horyzontu dochodzi do jakichś interesujących zjawisk związanych z rozprzestrzenianiem się sygnałów radiowych. Nie rozumiemy tego. Sprawdzaliśmy różne hipotezy i do niczego nie doszliśmy. To tajemnica. Bardzo się cieszę na myśl o tym, że powstaje bardziej czułe PUEO. Powinniśmy uchwycić więcej takich anomalii, dzięki czemu być może zrozumiemy, z czym mamy do czynienia, dodaje Wissel.
      Źródło: Search for the Anomalous Events Detected by ANITA Using the Pierre Auger Observatory, https://journals.aps.org/prl/abstract/10.1103/PhysRevLett.134.121003

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Naukowcy potrafią przygotować bakterie tak, by wyczuwały różnego typu molekuły obecne w środowisku, jak składniki odżywcze czy zanieczyszczenia w glebie. Jednak by odczytać takie sygnały, by stwierdzić, że bakterie wyczuły obecność interesujących nas molekuł, trzeba przyjrzeć się samym bakteriom pod mikroskopem. Przez to dotychczas nie mogły być wykorzystywane do monitorowania środowiska na duża skalę. Jednak właśnie się to zmieniło. Naukowcy z MIT stworzyli bakterie, od których sygnały można odczytywać z odległości 90 metrów. W przyszłości mogą więc powstać bakterie, które będzie można monitorować za pomocą dronów lub satelitów.
      Wyprodukowane na MIT bakterie wytwarzają molekuły generujące unikatowe połączenie kolorystyczne. To nowy sposób na uzyskiwanie informacji z komórki. Jeśli staniesz obok, niczego nie zauważysz, ale z odległości setek metrów, wykorzystując specjalną kamerę, możesz odczytać potrzebne informacje, mówi jeden z autorów badań, Christopher Voigt, dziekan Wydziału Inżynierii Biologicznej MIT.
      Naukowcy stworzyli dwa różne typy bakterii, które wytwarzają molekuły emitujące światło o specyficznej długości fali w zakresie widma widzialnego i podczerwieni. Światło to można zarejestrować za pomocą specjalnej kamery. Generowanie molekuł jest uruchamiane po wykryciu sąsiadujących bakterii, jednak tę samą technikę można wykorzystać do wytwarzania molekuł w obecności np. zanieczyszczeń. W ten sposób można bakterie zamieniać w czujniki wykrywające dowolne substancje.
      Generowane przez bakterie molekuły można obserwować za pomocą kamer hiperspektralnych, które pokazują zawartość różnych kolorów w każdym z pikseli obrazu. Każdy z nich zawiera bowiem informację o setkach fal światła o różnej długości.
      Obecnie kamery hiperspektralne wykorzystywane są na przykład do wykrywania promieniowania. Wykorzystuje się je chociażby wokół Czarnobyla do rejestrowania niewielkich zmian koloru, powodowanych przez pierwiastki radioaktywne w chlorofilu roślin.
      Uczeni z MIT wykorzystali podczas testów bakterie Pseudomonas putida i Rubrivivax gelatinosus. Pierwszą z nich przygotowali tak, by wydzielała biliwerdynę, drugą wyposażono w możliwość wytwarzania pewnego typu bakteriochlorofilu. Testowe skrzynki zawierające bakterie umieszczono w różnych miejscach, a następnie były one obserwowane przez kamery hiperspektralne.
      Kamery w ciągu 20–30 sekund skanowały skrzynki, a algorytm komputerowy analizował sygnały i zgłaszał, czy doszło do emisji wspomnianych związków. Największa odległość, z której udało się wykryć emisję molekuł przez bakterie wynosiła 90 metrów.
      Autorzy badań pracują już nad zwiększeniem odległości, z jakiej można odczytywać sygnały. Mówią, że ich technologia przyda się zarówno do badania ilości składników odżywczych w glebie, jak i do wykrywania min.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W centrum naszej galaktyki naukowcy znaleźli nieznane wcześniej struktury. Nieco przypominają one gigantyczne jednowymiarowe włókna materii rozciągające się pionowo w pobliżu centralnej supermasywnej czarnej dziury Sagittarius A*, jakie przed 40 laty zaobserwował Farhad Yusef-Zadek z Northwester University. Jednak nowe struktury, odkryte właśnie przez Yusefa-Zadeha i jego zespół, są znacznie mniejsze i ułożone horyzontalnie od Sgr A*, tworzą coś na podobieństwo szprych koła.
      Populacje obu włókien są podobne w niektórych aspektach, jednak zdaniem odkrywców, mają różne pochodzenie. Giganty mają wyraźny kształt włókien o wysokości dochodzącej do 150 lat świetlnych. Tymczasem włókna poziome są niewielkie, przypominają kropki i kreski z kodu Morse'a, a każde z nich znajduje się tylko po jednej stronie czarnej dziury.
      Byłem zaskoczony tym, co zauważyłem. Dużo czasu zajęła nam weryfikacja tego, co widzimy. I odkryliśmy, że te włókna nie są rozłożone przypadkowo, ale wydają się związane z tym, co wydobywa się z czarnej dziury. Badając je, możemy więcej dowiedzieć się o obrocie czarnej dziury i orientacji dysku akrecyjnego mówi Yusef-Zadeh.
      Profesor fizyki i astronomii, Yusef-Zadech, od ponad 40 lat bada centrum Drogi Mlecznej. W 1984 roku był współodkrywcą olbrzymich pionowych włókien w pobliżu czarnej dziury, a przed 4 laty odkrył w centrum Drogi Mlecznej dwa bąble o długości 700 lat świetlnych każdy. W ubiegłym zaś roku, we współpracy z innymi ekspertami, zarejestrował setki poziomych włókien, które ułożone są w pary lub grupy i bardzo często są równomiernie rozłożone, na podobieństwo strun instrumentu. Uczony, specjalista od radioastronomii, mówi, że coraz częstsze odkrycia tego typu to zasługa nowych technologii i dostępnych instrumentów, szczególnie zaś radioteleskopu MeerKAT z RPA. Ten instrument zmienia reguły gry. Rozwój technologiczny i dedykowany czas obserwacyjny dostarczyły nam nowych informacji. To naprawdę duży postęp techniczny w radioastronomii, wyjaśnia uczony.
      Yusef-Zadeh, który od dekad bada gigantyczne pionowe włókna był bardzo zaskoczony, gdy zauważył też mniejsze poziome struktury. Ich wiek ocenił na 6 milionów lat. Zawsze myślałem o włóknach pionowych i o ich pochodzeniu. Jestem przyzwyczajony do tego, że są pionowe. Nigdy nie przyszło mi na myśl, że mogą być też poziome, mówi. Oba rodzaje włókien są jednowymiarowe, można je obserwować za pomocą fal radiowych i wydają się powiązane z aktywnością czarnej dziury. Ale na tym się ich podobieństwa kończą.
      Włókna pionowe są prostopadłe do płaszczyzny galaktyki. Włókna poziome rozciągnięte są równolegle do płaszczyzny galaktyki, ale promieniście wskazują na jej centrum, gdzie znajduje się Sagittarius A*. Pionowe są magnetyczne i relatywistyczne, poziome wypromieniowują ciepło. Włókna pionowe składają się z cząstek poruszających się niemal z prędkością światła, włókna poziome wydają się przyspieszać gorący materiał znajdujący się w chmurze molekularnej. Dotychczas zaobserwowano setki włókien każdego z rodzajów. Ponadto włókna pionowe mają długość do 150 lat świetlnych, a poziome 5–10 lś. Włókna pionowe znajdują się wszędzie wokół środka galaktyki, natomiast poziomie tylko z jednej strony.
      Odkrycie rodzi więcej pytań niż odpowiedzi. Yusef-Zadeh przypuszcza, że włókna poziome powstały podczas jakiegoś emisji z czarnej dziury, która miała miejsce przed milionami lat. Wydają się wynikiem interakcji materiału, który wypływał, z jakimś pobliskim obiektem. Nasza praca nigdy się nie kończy. Zawsze musimy prowadzić nowe badania i weryfikować naszą wiedzę oraz hipotezy, dodaje uczony.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Równo 98 lat temu, 30 grudnia 1924 roku ludzkość dowiedziała się, że Droga Mleczna nie jest jedyną galaktyką we wszechświecie. Edwin Hubble ogłosił wówczas, że mgławica spiralna Andromeda jest w rzeczywistości galaktyką. Jeszcze 100 lat temu uważano, że Droga Mleczna liczy zaledwie kilka tysięcy lat świetlnych średnicy. Większość uważała, że stanowi ona cały wszechświat.
      Pierwsze galaktyki zidentyfikował w XVII wieku francuski astronom Charles Messier. Nie wiedział jednak, czym są te rozmyte obiekty. Messier zajmował się obserwacjami komet i wiedział, że nie są to komety. Stworzył katalog takich obiektów, by zapobiec ich błędnej identyfikacji jako komety. Listę tworzył według schematu, w którym zawarł pierwszą literę swojego nazwiska i kolejny numer obiektu. Zawierała ona informacje o 110 gromadach gwiazd i „mgławicach spiralnych”.
      Niektórzy twierdzili, że te mgławice to „wszechświaty wyspowe”, obiekty podobne do Drogi Mlecznej, ale położone poza nią. Inni uważali, że to chmury gazu w Drodze Mlecznej. Spór rozstrzygnął Edwin Hubble. W 1923 roku obserwował on „mgławicę spiralną” M31, gdy zdał sobie sprawę, że jeden z widocznych tam obiektów to cefeida. Te olbrzymie gwiazdy zmienne, tysiące razy jaśniejsze od Słońca ludzkość zna od XVIII wieku.
      Na początku XX wieku amerykańska astronom Henrietta Leavitt zauważyła, że bardzo dobrze spełniają one zależność pomiędzy okresem pulsacji a jasnością absolutną, co pozwala na określenie odległości do nich. Dlatego też cefeidy stały się pierwszymi świecami standardowymi, czyli obiektami służącymi do pomiarów odległości we wszechświecie. I nadal są wykorzystywane w tej roli obok, między innymi, supernowych typu Ia.
      Hubble wykorzystał cefeidę w M31, zmierzył odległość do niej i wykazał, że znajduje się ona daleko poza Drogą Mleczną. To zakończyło spór o to, czym są mgławice spiralne. Jednoznacznie okazało się, że to inne galaktyki.
      Hubble przez kolejne lata mierzył odległości do różnych galaktyk, wykorzystując w tym celu cefeidy. W końcu w 1929 roku na łamach PNAS (Proceedings of the National Academy of Sciences) ukazał się przełomowy artykuł A relation between distance and radial velocity among extra-galactic nebulae. Uczony udowodnił w nim, że większość galaktyk się od nas oddala, a ich prędkość jest zależna od odległości. To podstawowe prawo kosmologii obserwacyjnej, zwane prawem Hubble’a–Lemaître’a.
      Drugi człon nazwy prawa pochodzi od nazwiska katolickiego księdza i astrofizyka Georgesa-Henriego Lemaître'a, jednego z twórców kosmologii relatywistycznej i twórcy hipotezy Wielkiego Wybuchu, który w 1927 roku przewidział istnienie zależności pomiędzy odległością galaktyk, a prędkością ich ucieczki.

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...