Skocz do zawartości
Forum Kopalni Wiedzy
KopalniaWiedzy.pl

Udowodniono, że E=mc²

Rekomendowane odpowiedzi

Fizycy z Francji, Niemiec i Węgier, pracujący pod przewodnictwem Laurenta Lelloucha we francuskim Centrum Fizyki Teoretycznej, potwierdzili słynne równanie Einsteina E=mc2. Specjaliści wykorzystali potężne superkomputery, dzięki którym wyliczyli masę protonów i neutronów w jądrze atomu.

Najsłynniejsze równanie świata sprawdzało się już wielokrotnie. Przez lata służyło do zbadania, jak wiele energii uzyskamy, zmieniając w nią daną ilość masy. Najbardziej znanym przypadkiem jego wykorzystania było użycie go do stworzenia bomby atomowej.

Dotychczas jednak nikomu nie udało się przeprowadzić dowodu na prawdziwość E=mc2 w skali subatomowej. Tylko hipotetycznie przypuszczano, że równanie Einsteina sprawdzi się też na polu chromodynamiki kwantowej.

Zgodnie z obecnie obowiązującymi teoriami, protony i neutrony zbudowane są z kwarków "zlepionych" za pomocą gluonów. Masa gluonów wynosi 0, a kwarków to zaledwie 5% masy jądra. Tak więc brakuje 95% masy. Naukowcom udało się obecnie udowodnić to, co teoretycznie wiedzieliśmy z równania E=mc2 - reszta masy jest zamieniana w energię oddziaływań pomiędzy kwarkami a gluonami.

Dotąd była to jedynie hipoteza. Teraz, po raz pierwszy, została udowodniona - oświadczyło francuskie Narodowe Centrum Badań Naukowych.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Miejmy nadzieję że tak - bo to ważne równanie w fizyce. Aż dziw, że do dzisiaj nikt go nie udowodnił w tym wymiarze. Tylko ciekawe czy nie będzie ważniejszych odkryć w fizyce do czasu rozdania nobli.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

A co z poprawkami wprowadzanymi w mechanice kwantowej?? Tam to równanie miało nieco bardziej złożoną postać z tego co pamiętam - była jakaś składowa relatywistyczna i nierelatywistyczna itd..(nie pamiętam bo bardziej mój kolega się tym interesował i przedstawiał mi poprawioną postać) Bo równanie E=mc^2 nie stosuje się np do fotonu (kwantu światła) - posiada on masę równą zero, ale ma energię, gdyż porusza się! Czyli mamy do czynienia ze sprzecznością bo wychodzi że E(konkretna wartość) = 0

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Foton posiada masę spoczynkową, czyli hipotetycznie taką, jaką by miał, gdyby się nie poruszał. Nie mają masy, ale mają pęd (co ładnie pokazuje wiatraczek z czarnymi łopatkami). Trochę pokrętna logika, ale taka natura światła - jednocześnie falowa i korpuskularna.

Po drugie nie można porównywać teorii względności i teorii kwantowych, ponieważ dotyczą zjawisk na zupełnie innym "poziomie", oglądałem kiedyś film na You Tube o teorii strun i było to tam bardzo ładnie przedstawione. Suma sumarum, są częściowo sprzeczne.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Foton posiada masę spoczynkową

Tu się mylisz.

Foton posiada pęd związany z ruchem poprzez wzór E2-p2c2=m2c4. Dla fotonu następuje uproszczenie E=pc.

Natomiast masa spoczynkowa wynosi zero.

Wszystko wyjaśnia się jeśli się pamięta że w E=mc2:

m-masa całkowita (suma spoczynkowej i związanej z ruchem i związanej z oddziaływaniami)

E-energia całkowita(kinetyczna+potencjalna+spoczynkowa)

Można też założyć że w E=mc2

m-masa spoczynkowa

E-energia spoczynkowa

Wtedy też jest poprawnie.

Niepoprawnie będzie jednak jak po jednej stronie wzoru damy energię pochodzącą z różnych źródeł(masa, pole, ruch) a po drugiej masę pochodzącą z innej ich kombinacji.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Specjaliści wykorzystali potężne superkomputery, dzięki którym wyliczyli masę protonów i neutronów w jądrze atomu.

 

Jak można udowodnić coś materialnego za pomocą obliczeń?? można coś najwyżej wyliczyć albo potwierdzić teoretycznie ale nie udowodnić. Dowód w sprawie materialnej musi być wynikiem doświadczenia materialnego.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Natomiast masa spoczynkowa wynosi zero.

Fakt, to jest tak oczywiste, że aż boli :D Coś mi się pomieszało.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jak można udowodnić coś materialnego za pomocą obliczeń?? można coś najwyżej wyliczyć albo potwierdzić teoretycznie ale nie udowodnić. Dowód w sprawie materialnej musi być wynikiem doświadczenia materialnego.

Problemy z czytaniem ze zrozumieniem ? ;-)

Chyba, że chciałeś w przewrotny sposób zwrócić uwagę na fakt, że tytuł artykułu przeczy jego treści.

 

Miłego dnia

Krzysiek

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach
Chyba, że chciałeś w przewrotny sposób zwrócić uwagę na fakt, że tytuł artykułu przeczy jego treści

 

co teoretycznie wiedzieliśmy
jak można wiedzieć coś teoretycznie ?? można przewidywać teoretycznie.
potwierdzili słynne równanie Einsteina E=mc2. Specjaliści wykorzystali potężne superkomputery, dzięki którym wyliczyli masę protonów i neutronów w jądrze atomu

 

To wiadomo od 1928 roku, równania się potwierdzić nie da bo jest DUŻYM przybliżeniem jak model Bohra.

Wiadomo że wszystko jest falą, wiec jaką masę?? wszystko jest eV.

Udostępnij tę odpowiedź


Odnośnik do odpowiedzi
Udostępnij na innych stronach

Jeśli chcesz dodać odpowiedź, zaloguj się lub zarejestruj nowe konto

Jedynie zarejestrowani użytkownicy mogą komentować zawartość tej strony.

Zarejestruj nowe konto

Załóż nowe konto. To bardzo proste!

Zarejestruj się

Zaloguj się

Posiadasz już konto? Zaloguj się poniżej.

Zaloguj się

  • Podobna zawartość

    • przez KopalniaWiedzy.pl
      Czy neutrinowe oczy ludzkości, obserwatoria takie jak IceCube na Antarktydzie, naprawdę widzą neutrina napływające z głębi kosmosu? Odpowiedź zaczynają przynosić między innymi eksperymenty przy akceleratorze LHC, gdzie bada się wewnętrzną strukturę protonów. Zgodnie z najnowszym modelem, opracowanym przez fizyków z IFJ PAN, struktura ta wydaje się być bogatsza o cząstki powabne w stopniu, który ziemskim obserwatorom neutrin może utrudnić interpretację tego, co widzą.
      Wbrew popularnym wyobrażeniom, proton może się składać nie z trzech, ale nawet z pięciu kwarków. Dodatkową parę tworzą wtedy kwark i antykwark powstałe w interakcjach gluonów we wnętrzu protonu. Od dawna przypuszczano, że te „nadmiarowe” pary mogą niekiedy być zbudowane nawet z tak masywnych kwarków i antykwarków jak powabne. Teraz się okazuje, że uwzględnienie wewnętrznego powabu protonów pozwala dokładniej opisać przebieg zjawisk zarejestrowanych niedawno w jednym z niskoenergetycznych eksperymentów w detektorze LHCb przy Wielkim Zderzaczu Hadronów. Stosowny model teoretyczny zaprezentowali fizycy z Instytutu Fizyki Jądrowej Polskiej Akademii Nauk (IFJ PAN) w Krakowie na łamach czasopisma „Physical Review D”.
      Szkolne podręczniki malują obraz protonu jako cząstki będącej prostym zlepkiem trzech kwarków: dwóch górnych oraz jednego dolnego, sklejonych oddziaływaniami silnymi przenoszonymi przez gluony. W fizyce tak uproszczony model nie zrobił długiej kariery. Już w końcu lat 80. ubiegłego wieku okazało się, że aby wytłumaczyć obserwowane zjawiska trzeba uwzględnić lekkie kwarki pochodzące z chmury mezonowej w nukleonie (są to tzw. wyższe stany Flocka). Co zaskakujące, efekt wcale nie jest marginalny: może stanowić nawet poprawkę na poziomie 30% w stosunku do prostego modelu trzykwarkowego. Niestety, dotychczas nie potrafiono określić, jak duży jest analogiczny wkład kwarków powabnych.
      Nasze wcześniejsze modele powstawania powabu wielokrotnie wykazywały się zgodnością z eksperymentami. Przy dużych energiach zderzeń protonów, gdy w LHC wzajemnym oddziaływaniom poddawano ich dwie przeciwbieżne wiązki, potrafiliśmy całkiem dobrze opisać produkcję par z udziałem kwarków i antykwarków powabnych. Rzecz jednak w tym, że choć tworzyły się one w trakcie zderzeń protonów, nie pochodziły z ich wnętrz. Powstawały wskutek fuzji gluonów nieco wcześniej wyemitowanych przez protony, mówi prof. dr hab. Antoni Szczurek (IFJ PAN).
      Nadzieję na postęp w tropieniu powabu wewnątrz samych protonów przyniosły niedawne pomiary zrealizowane w detektorze LHCb z użyciem pojedynczej wiązki protonów, wycelowanej w nieruchomą, gazową tarczę z helu bądź argonu.
      Gdy w LHC dochodzi do zderzeń przy największych energiach, spora część cząstek będących produktami kolizji protonów porusza się w kierunku 'do przodu', wzdłuż wiązek protonów. W rezultacie trafiają w obszar, gdzie z przyczyn technicznych nie ma detektorów. Tymczasem zderzenia protonów z jądrami helu, które właśnie poddaliśmy analizie, zachodziły przy energiach nawet kilkadziesiąt razy mniejszych od maksymalnych osiąganych przez LHC. Produkty zderzeń rozbiegały się pod większymi kątami, bardziej na boki, w konsekwencji były rejestrowane w detektorach i mogliśmy się im przyjrzeć, wyjaśnia dr Rafał Maciuła (IFJ PAN).
      Do opisu danych z eksperymentu w detektorze LHCb krakowscy fizycy użyli modelu rozbudowanego o możliwość wybicia z wnętrza protonu kwarku lub antykwarku powabnego. Wyliczenie prawdopodobieństwa takiego procesu z zasad pierwszych nie było możliwe. Badacze postanowili więc sprawdzić, przy jakich wartościach prawdopodobieństwa zgodność przewidywań modelu z zarejestrowanymi danymi będzie największa. Otrzymany wynik sugerował, że wkład par powabnych we wnętrzu protonu nie jest większy niż około 1%.
      Po wybiciu z wnętrza protonu powabna para kwark-antykwark szybko się zmienia w krótkożyjące mezony i antymezony D0, te zaś produkują kolejne cząstki, w tym neutrina. Fakt ten zainspirował fizyków z IFJ PAN do skonfrontowania nowego modelu z danymi zarejestrowanymi przez obserwatorium neutrinowe IceCube na Antarktydzie.
      Obecnie dzięki stosowanym technikom naukowcy z IceCube mają pewność, że jeśli rejestrują neutrino o ogromnej energii (rzędu setek teraelektronowoltów), to oznacza, że cząstka pochodziła z głębi kosmosu. Przyjmuje się ponadto, że neutrina o nieco niższych, ale wciąż rzadko spotykanych dużych energiach, również mają naturę kosmogeniczną. Jeśli jednak z wnętrza protonu można wybić powabną parę kwark-antykwark, rozpadającą się w kaskadzie zawierającej wysokoenergetyczne neutrina, ta interpretacja może zostać podważona. Neutrina w pewnym zakresie energetycznym, rejestrowane obecnie, mogą bowiem pochodzić nie z kosmosu, ale właśnie z kaskad inicjowanych zderzeniami cząstek pierwotnego promieniowania kosmicznego z jądrami gazów atmosferycznych. Artykuł analizujący taką możliwość trafił do druku w czasopiśmie „European Physical Journal C”.
      Przy analizie danych z obserwatorium IceCube przyjęliśmy następującą taktykę. Przyjmijmy, że praktycznie wszystkie obecnie rejestrowane neutrina w badanym przez nas zakresie energetycznym pochodzą z atmosfery. Jaki musiałby być wkład powabnych par kwark-antykwark we wnętrzu protonu, abyśmy za pomocą naszego modelu uzyskali zgodność z dotychczasowymi pomiarami? Proszę sobie wyobrazić, że otrzymaliśmy wartość rzędu jednego procenta, praktycznie identyczną z wartością z modelu opisującego zderzenia proton-hel w detektorze LHCb!, mówi dr Maciuła.
      Zbieżność oszacowań dla obu omówionych przypadków nakazuje zachować dużą ostrożność w określaniu źródeł neutrin rejestrowanych przez współczesne obserwatoria. Krakowscy badacze podkreślają jednak, że ich wyniki nakładają tylko górne ograniczenie na wkład kwarków i antykwarków powabnych w strukturę protonu. Jeśli okaże się on mniejszy, przynajmniej część obecnie wykrywanych neutrin o wielkich energiach zachowa swoją kosmiczną naturę. Jeśli jednak górna granica będzie oszacowaniem poprawnym, nasza interpretacja źródeł ich pochodzenia będzie musiała ulec istotnej zmianie, a IceCube okaże się nie tylko obserwatorium astronomicznym, ale również... atmosferycznym.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      W Lawrence Berkeley National Laboratory (LBNL) udało się dokonać pierwszych pomiarów długości wiązania atomowego einsteinu. To jedna z podstawowych cech interakcji pierwiastka z innymi atomami i molekułami. Mimo, że einstein został odkryty przed 70 laty, to wciąż niewiele o nim wiadomo. Pierwiastek jest bowiem bardzo trudny do uzyskania i wysoce radioaktywny.
      Einstein został odkryty w 1952 roku przez Alberta Ghiorso w pozostałościach po wybuchu bomby termojądrowej. W czasie eksplozji jądro 238U wychwytuje 15 neutronów i powstaje 253U, który po emisji 7 elektronów zmienia się w 253Es.
      Zespół naukowy pracujący pod kierunkiem profesor Rebeki Abergel z LBNL i Stosha Kozimora z Los Alamos National Laboratory, miał do dyspozycji mniej niż 250 nanogramów pierwiastka. Niezbyt wiele wiadomo o einsteinie. To spore osiągnięcie, że udąło się nam przeprowadzić badania z zakresu chemii nieorganicznej. To ważne, gdyż teraz lepiej rozumiemy zachowanie tego pierwiastka, co pozwoli nam wykorzystać tę wiedzę do opracowania nowych materiałów i nowych technologii. Niekoniecznie zresztą z udziałem einsteinu, ale również z użyciem innych aktynowców. Lepiej poznamy też tablicę okresową pierwiastków, mówi Abergel.
      Badania prowadzono w nowoczesnych jednostkach naukowych: Molecular Foundry w Berkeley Lab i Stanford Synchrotron Radiation Lightsource w SLAC National Accelerator Laboratory. Wykorzystano przy tym spektroskopię luminescencyjną i absorpcję rentgenowską.
      Jednak zanim przeprowadzono badania trzeba było pozyskać sam einstein. To nie było łatwe. Pierwiastek został wytworzony w High Flux Isotope Reactor w Oak Ridge National Laboratory. To jedno z niewielu miejsc na świecie, gdzie można produkować einstein. Wytwarza się go bombardując kiur neutronami. Wywołuje to cały łańcuch reakcji chemicznych. I tutaj pojawił się pierwszy problem. Próbka była mocno zanieczyszona kalifornium. Uzyskanie odpowiedniej ilości czystego einsteinu jest bowiem niezwykle trudne.
      Zespół naukowy musiał więc zrezygnować z pierwotnego planu wykorzystania krystalografii rentgenowskiej, czyli techniki uznawanej za złoty standard przy badaniu struktury wysoce radioaktywnych próbek. Technika to wymaga bowiem otrzymania czystej metalicznej próbki. Konieczne stało się więc opracowanie nowej techniki badawczej, pozwalającej na określenie struktury einsteinu w zanieczyszczonej próbce. Z pomocą przyszli naukowcy z Los Alamos, który opracowali odpowiedni instrument utrzymujący próbkę.
      Później trzeba było poradzić sobie z rozpadem einsteinu. Uczeni wykorzystywali 254, jeden z bardziej stabilnych izotopów, o czasie półrozpadu wynoszącym 276 dni. Zdążyli wykonać tylko część zaplanowanych eksperymentów, gdy doszło do wybuchu pandemii i laboratorium zostało zamknięte. Gdy naukowcy mogli do niego wrócić, większość pierwiastka zdążyła już ulec rozpadowi.
      Mimo to udało się zmierzyć długość wiązań atomowych oraz określić pewne właściwości einsteinu, które okazały się odmienne od reszty aktynowców. Określenie długości wiązań może nie brzmi zbyt interesująco, ale to pierwsza rzecz, którą chcą wiedzieć naukowcy, badający jak metale łączą się z innymi molekułami. Jaki rodzaj interakcji chemicznych się pojawia, gdy badany atom wiąże się z innymi, mówi Abergel.
      Gdy już wiemy, jak będą układały się atomy w molekule zawierającej einstein, możemy poszukiwać interesujących nas właściwości chemicznych takich molekuł. Pozwala to też określać trendy w tablicy okresowej pierwiastków. Mając do dyspozycji takie dane lepiej rozumiemy jak zachowują się wszystkie aktynowce. A mamy wśród nich pierwiastki i ich izotopy, które są przydatne w medycynie jądrowej czy w produkcji energii, wyjaśnia profesor Abergel.
      Odkrycie pozwoli też zrozumieć to, co znajduje się poza obecną tablicą okresową i może ułatwić odkrycie nowych pierwiastków. Teraz naprawdę lepiej zaczynamy rozumieć, co dzieje się w miarę zbliżania się do końca tablicy okresowej. Możemy też zaplanować eksperymenty z użyciem einsteinu, które pozwolą nam na odkrycie kolejnych pierwiastków. Na przykład pierwiastki, które poznaliśmy w ciągu ostatnich 10 lat, jak np. tenes, były odkrywane dzięki użyciu berkelu. Jeśli będziemy w stanie uzyskać wystarczająco dużo czystego einsteinu, możemy wykorzystać ten pierwiastek jako cel w eksperymentach, w czasie których wytwarza się nowe pierwiastki. W ten sposób zbliżmy się do – teoretycznie wyliczonej – wyspy stabilności.
      Ta poszukiwana wyspa stabilności to teoretycznie wyliczony obszar tablicy okresowej, gdzie superciężkie pierwiastki mogą istnieć przez minuty, a może nawet dni, w przeciwieństwie do obecnie znanych superciężkich pierwiastków istniejących, których czas półrozpadu liczony jest w mikrosekundach.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Eksperci z Rocky Mountain Institute opublikowali raport, z którego dowiadujemy się, że koszty produkcji energii z węgla osiągnęły punkt zwrotny i obecnie energia ta na większości rynków przegrywa konkurencję cenową z energią ze źródeł odnawialnych. Z analiz wynika, że już w tej chwili koszty operacyjne około 39% wszystkich światowych elektrowni węglowych są wyższe niż koszty wybudowania od podstaw nowych źródeł energii odnawialnej.
      Sytuacja ekonomiczna węgla będzie błyskawicznie się pogarszała. Do roku 2025 już 73% elektrowni węglowych będzie droższych w utrzymaniu niż budowa zastępujących je odnawialnych źródeł energii. Autorzy raportu wyliczają, że gdyby nagle cały świat podjął decyzję o wyłączeniu wszystkich elektrowni węglowych i wybudowaniu w ich miejsce odnawialnych źródeł energii, to przeprowadzenie takiej operacji stanie się opłacalne już za dwa lata.
      Szybsze przejście od węgla do czystej energii jest w zasięgu ręki. W naszym raporcie pokazujemy, jak przeprowadzić taką zmianę, by z jednej strony odbiorcy energii zaoszczędzili pieniądze, a z drugiej strony, by pracownicy i społeczności żyjące obecnie z energii węglowej mogli czerpać korzyści z energetyki odnawialnej, mówi Paul Bodnar, dyrektor Rocky Mountain Institute.
      Autorzy raportu przeanalizowali sytuację ekonomiczną 2472 elektrowni węglowych na całym świecie. Wzięli też pod uwagę koszty wytwarzania energii ze źródeł odnawialnych oraz jej przechowywania. Na podstawie tych danych byli w stanie ocenić opłacalność energetyki węglowej w 37 krajach na świecie, w których zainstalowane jest 95% całej światowej produkcji energii z węgla. Oszacowali też koszty zastąpienia zarówno nieopłacalnej obecnie, jak o opłacalnej, energetyki węglowej przez źródła odnawialne.
      Z raportu dowiadujmy się, że gdyby na skalę światową zastąpić nieopłacalne źródła energii z węgla źródłami odnawialnymi, to w bieżącym roku klienci na całym świecie zaoszczędziliby 39 miliardów USD, w 2022 roczne oszczędności sięgnęłyby 86 miliardów, a w roku 2025 wzrosłyby do 141 miliardów. Gdyby jednak do szacunków włączyć również opłacalne obecnie elektrownie węglowe, innymi słowy, gdybyśmy chcieli już teraz całkowicie zrezygnować z węgla, to tegoroczny koszt netto takiej operacji wyniósłby 116 miliardów USD. Tyle musiałby obecnie świat zapłacić, by już teraz zrezygnować z generowania energii elektrycznej z węgla. Jednak koszt ten błyskawicznie by się obniżał. W roku 2022 zmiana taka nic by nie kosztowała (to znaczy koszty i oszczędności by się zrównoważyły), a w roku 2025 odnieślibyśmy korzyści finansowe przekraczające 100 miliardów dolarów w skali globu.
      W Unii Europejskiej już w tej chwili nieopłacalnych jest 81% elektrowni węglowych. Innymi słowy, elektrownie te przeżywałyby kłopoty finansowe, gdyby nie otrzymywały dotacji z budżetu. Do roku 2025 wszystkie europejskie elektrownie węglowe będą przynosiły straty. W Chinach nieopłacalnych jest 43% elektrowni węglowych, a w ciągu najbliższych 5 lat nieopłacalnych będzie 94% elektrowni węglowych. W Indiach zaś trzeba dopłacać obecnie do 17% elektrowni, a w roku 2025 nieopłacalnych będzie 85% elektrowni.
      Co ważne, w swoich wyliczeniach dotyczących opłacalności elektrowni węglowych analitycy nie brali pod uwagę zdrowotnych i środowiskowych kosztów spalania węgla.
      Energia węglowa szybko staje się nieopłacalna i to nie uwzględniając kosztów związanych z prawem do emisji i regulacjami odnośnie zanieczyszczeń powietrza. Zamknięcie elektrowni węglowych i zastąpienie ich tańszymi alternatywami nie tylko pozwoli zaoszczędzić pieniądze konsumentów i podatników, ale może też odegrać znaczną rolę w wychodzeniu gospodarki z kryzysu po pandemii, mówi Matt Gray stojący na czele Carbon Tracker Initiative.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Na Uniwersytecie w Glasgow po raz pierwszy eksperymentalnie potwierdzono teorię dotyczącą pozyskiwania energii z czarnych dziur. W 1969 roku wybitny fizyk Roger Penrose stwierdził, że można wygenerować energię opuszczając obiekt do ergosfery czarnej dziury. Ergosfera to zewnętrzna część horyzontu zdarzeń. Znajdujący się tam obiekt musiałby poruszać się szybciej od prędkości światła, by utrzymać się w miejscu.
      Penrose przewidywał, że w tym niezwykłym miejscu w przestrzeni obiekt nabyłby ujemną energię. Zrzucając tam obiekt i dzieląc go na dwie części tak, że jedna z nich wpadnie do czarnej dziury, a druga zostanie odzyskana, spowodujemy odrzut, który będzie mierzony wielkością utraconej energii negatywnej, a to oznacza, że odzyskana część przedmiotu zyska energię pobraną z obrotu czarnej dziury. Jak przewidywał Penrose, trudności inżynieryjne związane z przeprowadzeniem tego procesu są tak wielkie, że mogłaby tego dokonać jedynie bardzo zaawansowana obca cywilizacja.
      Dwa lata później znany radziecki fizyk Jakow Zeldowicz uznał, że teorię tę można przetestować w prostszy, dostępny na Ziemi sposób. Stwierdził, że „skręcone” fale światła uderzające o powierzchnię obracającego się z odpowiednią prędkością cylindra zostaną odbite i przejmą od cylindra dodatkową energię. Jednak przeprowadzenie takiego eksperymentu było, i ciągle jest, niemożliwe ze względów inżynieryjnych. Zeldowicz obliczał bowiem, że cylinder musiałby poruszać się z prędkością co najmniej miliarda obrotów na sekundę.
      Teraz naukowcy z Wydziału Fizyki i Astronomii University of Glasgow opracowali sposób na sprawdzenie teorii Penrose'a. Wykorzystali przy tym zmodyfikowany pomysł Zeldowicza i zamiast "skręconych" fal światła użyli dźwięku, źródła o znacznie niższej częstotliwości, i łatwiejszego do użycia w laboratorium.
      Na łamach Nature Physics Brytyjczycy opisali, jak wykorzystali zestaw głośników do uzyskania fal dźwiękowych, skręconych na podobieństwo fal świetlnych w pomyśle Zeldowicza. Dźwięk został skierowany w stronę obracającego się piankowego dysku, który go absorbował. Za dyskiem umieszczono zestaw mikrofonów, które rejestrowały dźwięk przechodzący przez dysk, którego prędkość obrotowa była stopniowo zwiększana.
      Naukowcy stwierdzili, że jeśli teoria Penrose'a jest prawdziwa, to powinni odnotować znaczącą zmianę w częstotliwości i amplitudzie dźwięku przechodzącego przez dysk. Zmiana taka powinna zajść w wyniku efektu Dopplera.
      Z liniową wersją efektu Dopplera wszyscy się zetknęli słysząc syrenę karetki pogotowia, której ton wydaje się rosnąć w miarę zbliżania się pojazdu i obniżać, gdy się on oddala. Jest to spowodowane faktem, że gdy pojazd się zbliża, fale dźwiękowe docierają do nas coraz częściej, a gdy się oddala, słyszymy je coraz rzadziej. Obrotowy efekt Dopplera działa podobnie, jednak jest on ograniczony do okrągłej przestrzeni. Skręcone fale dźwiękowe zmieniają ton gdy są mierzone z punktu widzenia obracającej się powierzchni. Gdy powierzchnia ta obraca się odpowiednio szybko z częstotliwością dźwięku dzieje się coś dziwnego – przechodzi z częstotliwości dodatniej do ujemnej, a czyniąc to pobiera nieco energii z obrotu powierzchni, wyjaśnia doktorantka Marion Cromb, główna autorka artykułu.
      W miarę jak rosła prędkość obrotowa obracającego się dysku, ton dźwięku stawał się coraz niższy, aż w końcu nie było go słychać. Później znowu zaczął rosnąć, aż do momentu, gdy miał tę samą wysokość co wcześniej, ale był głośniejszy. Jego amplituda była o nawet 30% większa niż amplituda dźwięku wydobywającego się z głośników.
      To co usłyszeliśmy podczas naszych eksperymentów było niesamowite. Najpierw, w wyniku działania efektu Dopplera częstotliwość fal dźwiękowych zmniejszała się w miarę zwiększania prędkości obrotowej dysku i spadła do zera. Później znowu pojawił się dźwięk. Stało się tak, gdyż doszło do zmiany częstotliwości fal z dodatniej na ujemną. Te fale o ujemnej częstotliwości były w stanie pozyskać część energii z obracającego się dysku i stały się głośniejsze. Zaszło zjawisko, które Zeldowicz przewidział w 1971 roku, dodaje Cromb.
      Współautor badań, profesor Daniele Faccio, stwierdza: jesteśmy niesamowicie podekscytowani faktem, że mogliśmy eksperymentalnie potwierdzić jedną z najdziwniejszych hipotez fizycznych pół wieku po jej ogłoszeniu. I że mogliśmy potwierdzić teorię dotyczącą kosmosu w naszym laboratorium w zachodniej Szkocji. Sądzimy, że otwiera to drogę do kolejnych badań. W przyszłości chcielibyśmy badać ten efekt za pomocą różnych źródeł fal elektromagnetycznych.

      « powrót do artykułu
    • przez KopalniaWiedzy.pl
      Często i mało, czy rzadko, ale do syta? Gdyby chodziło o dietę, większość specjalistów postawiłaby na odpowiedź 1, ale w przypadku magazynowania energii jest odwrotnie. Okazuje się, że więcej można jej zmieścić ładując rzadko, ale do pełna.Taki przynajmniej wniosek płynie z badań przeprowadzonych przez zespół naukowców IChF PAN.
      Doświadczenia dotyczyły co prawda wyidealizowanych, dwuwymiarowych układów sieciowych, ale w końcu zasada to zasada. Dr Anna Maciołek, jedna z autorów pracy opublikowanej w Physical Review opisuje ją tak: Chcieliśmy zbadać, jak zmienia się sposób magazynowania energii w układzie,  gdy  pompujemy  do  niego  energię  w  postaci  ciepła,  innymi  słowy – lokalnie  go podgrzewamy.
      Wiadomo,  że ciepło  w  układach  się  rozprzestrzenia, dyfunduje.  Ale czy na gromadzenie energii ma wpływ sposób jej dostarczania; fachowo mówiąc „geometria podawania”? Czy ma znaczenie, że podajemy dużo energii w krótkim czasie i potem długo nic, i znowu dużo energii, czy też gdy podajemy malutkie porcje  tej energii, ale za to jedna po drugiej, niemal bez przerw?
      Cykliczne podawanie energii jest bardzo powszechne w naturze. Sami dostarczamy jej sobie w ten sposób, jedząc. Tę samą liczbę kalorii można dostarczyć w jednej lub dwóch dużych porcjach zjadanych w ciągu doby, albo rozbić ją na 5-7 mniejszych posiłków, między którymi są krótsze przerwy. Naukowcy wciąż się spierają, który  sposób jest dla organizmu lepszy. Jeśli jednak  chodzi o dwuwymiarowe układy sieciowe, to już wiadomo, że pod względem efektywności magazynowania wygrywa metoda „rzadko a dużo”.
      Zauważyliśmy, że w zależności od tego, w jakich porcjach i jak często podajemy energię, ilość, jaką układ potrafi zmagazynować, zmienia się. Największa jest wtedy, gdy porcje energii są duże, ale odstępy czasowe między ich podaniem też są długie, wyjaśnia Yirui Zhang, doktorantka w IChF PAN. Co ciekawe, okazuje się, że gdy taki układ magazynujący podzielimy wewnętrznie na swego rodzaju przedziały, czy też komory, to ilość energii możliwej do zmagazynowania w takim podzielonym ‘akumulatorze’ – o ile bylibyśmy go w stanie skonstruować – wzrośnie. Innymi słowy, trzy małe baterie zmagazynują więcej energii niż jedna duża, precyzuje badaczka. Wszystko to przy założeniu, że całkowita ilość wkładanej do układu energii jest taka sama, zmienia się tylko sposób jej dostarczania.
      Choć badania prowadzone przez zespół IChF PAN należą do podstawowych i ukazują po prostu fundamentalną  zasadę  rządzącą magazynowaniem energii w magnetykach, ich potencjalne zastosowania  są  nie do  przecenienia.  Wyobraźmy  sobie  np.  możliwość  ładowania  baterii elektrycznego samochodu nie w kilka godzin, lecz w kilkanaście minut albo znaczące zwiększenie pojemności  takich  akumulatorów  bez  zmiany  ich  objętości,  czyli  wydłużenie  zasięgu  auta  na jednym ładowaniu.  Nowe  odkrycie  może  też  w  przyszłości  zmienić  sposoby  ładowania  baterii różnego typu poprzez ustalenie optymalnej periodyczności dostarczania do nich energii

      « powrót do artykułu
  • Ostatnio przeglądający   0 użytkowników

    Brak zarejestrowanych użytkowników przeglądających tę stronę.

×
×
  • Dodaj nową pozycję...