-
Similar Content
-
By KopalniaWiedzy.pl
Tachiony to hipotetyczne cząstki, poruszające się szybciej niż światło. Jeszcze do niedawna uważano, że ich istnienie nie mieści się w ramach szczególnej teorii względności. Jednak praca, opublikowana przez fizyków z Uniwersytetu Warszawskiego i University of Oxford dowodzi, że nie jest to opinia prawdziwa. Tachiony nie tylko nie są wykluczone przez szczególną teorię względności, ale pozwalają ją lepiej zrozumieć, dowodzą profesorowie Artur Ekert, Andrzej Dragan, doktorzy Szymon Charzyński i Krzysztof Turzyński oraz Jerzy Paczos, Kacper Dębski i Szymon Cedrowski.
Istniały trzy powody, dla których tachiony nie pasowały do teorii kwantowej. Po pierwsze, stan podstawowy pola tachionowego miał być niestabilny, a to oznaczało, że te poruszające się szybciej niż światło cząstki tworzyłyby się same z siebie. Po drugie, zmiana obserwatora miałaby prowadzić do zmiany liczby cząstek. Po trzecie, ich energia miałaby przyjmować wartości ujemne.
Z pracy opublikowanej na łamach Physical Review D dowiadujemy się, że problemy z tachionami miały wspólną przyczyną. Okazało się bowiem, że aby obliczyć prawdopodobieństwo procesu kwantowego, w którym udział biorą tachiony, trzeba znać zarówno jego przeszły stan początkowy, jak i końcowy. Gdy naukowcy uwzględnili to w teorii, znikają problemy związane z tachionami, a sama teoria okazała się matematycznie spójna.
Idea, że przyszłość może mieć wpływ na teraźniejszość zamiast teraźniejszości determinującej przyszłość nie jest w fizyce nowa. Jednak dotąd tego typu spojrzenie było co najwyżej nieortodoksyjną interpretacją niektórych zjawisk kwantowych, a tym razem do takiego wniosku zmusiła nas sama teoria. Żeby „zrobić miejsce” dla tachionów musieliśmy rozszerzyć przestrzeń stanów, mówi profesor Dragan.
Autorzy badań zauważają, że w wyniku rozszerzenia przez nich warunków brzegowych, pojawia się nowy rodzaj splątania kwantowego, w którym przeszłość miesza się z przeszłością. Ich zdaniem, tachiony to nie tylko możliwy, ale koniczny składnik procesu spontanicznego łamania symetrii odpowiedzialnego za powstanie materii. To zaś może oznaczać, że zanim symetria zostanie złamana, wzbudzenie pola Higgsa może przemieszczać się z prędkościami większymi od prędkości światła.
« powrót do artykułu -
By KopalniaWiedzy.pl
Tegoroczną Nagrodą Nobla z chemii podzielą się Benjamin List z Niemiec i David MacMillan z USA, zdecydowała Szwedzka Królewska Akademia Nauk. Nagrodę przyznano za rozwój asymetrycznej katalizy organicznej. Prace Lista i MacMillana mają olbrzymi wpływ na tworzenie nowych leków, a przy okazji czynią procesy chemiczne bardziej przyjazne środowisku naturalnemu.
Bardzo wiele dziedzin nauki i obszarów działalności przemysłowej jest zależnych od możliwości tworzenia molekuł o pożądanych właściwościach. Takich, dzięki którym powstaną wytrzymałe materiały, w których będzie można przechowywać energię czy molekuł służących do walki z chorobami. Stworzenie takich cząsteczek wymaga użycia odpowiednich katalizatorów, substancji pozwalających kontrolować i przyspieszać reakcje chemiczne, ale które nie wchodzą w skład finalnego produktu tych reakcji. Katalizatory są wszechobecne. Mamy je też w naszych organizmach, gdzie katalizatorami są enzymy, biorące udział w wytwarzaniu związków chemicznych niezbędnych do życia.
Przez całe dziesięciolecia uważano, że katalizatorami mogą być jedynie metale lub enzymy. Jednak w 2000 roku dowiedzieliśmy się, że istnieje trzeci rodzaj katalizatorów, gdy Benjamin List i David MacMillan – niezależnie od siebie – odkryli proces asymetrycznej katalizy organicznej, który opiera się na niewielkich molekułach organicznych.
Ten pomysł na przeprowadzenie katalizy jest tak prosty i genialny, że aż rodzi się pytanie, dlaczego nikt nie wpadł na to wcześniej, powiedział Johan Åqvist, przewodniczący zespołu przyznającego Nagrodę Nobla z chemii.
Naukowcy przez dziesięciolecia mogli tylko z zazdrością patrzeć na możliwości enzymów, dzięki którym natura tworzy niezwykle złożone cząsteczki. Nauka jednak powoli szła do przodu i nasze możliwości również się zwiększały. Na przełomie wieków, dzięki Listowi i MacMillanowi nasze zdolności w tym zakresie znacząco się zwiększyły. Obaj uczeni przenieśli możliwości tworzenia molekuł na całkowicie nowy poziom. Opracowali proce, który nie tylko jest mniej szkodliwy dla środowiska, ale przede wszystkim znacząco zwiększa możliwości tworzenie molekuł asymetrycznych.
Chemicy przez długie lata mieli problem z tym, że wiele molekuł występuje w dwóch postaciach – odbić lustrzanych, które jednak nie są identyczne. Są obiektami chiralnymi, o różnych właściwościach. Za przykład może tutaj posłużyć limonen, cząsteczka odpowiadająca za zapach cytryny, której lustrzane odbicie daje zapach pomarańczy. Problem w tym, że zwykle potrzebujemy konkretnej wersji danej molekuły. Jest to wyjątkowo ważne przy produkcji leków. A gdy w procesie katalizy powstaną obie wersje, trzeba te wymieszane bliźniaczo podobne molekuły zidentyfikować i od siebie oddzielić, co nie jest łatwym zadaniem.
W XIX wieku chemicy zauważyli niezwykłe zjawisko. Na przykład gdy do nadtlenku wodoru (H202) dodali srebra, dochodziło do pojawienia się wody (H2O) i tlenu (O2), jednak wydawało się, że cała ta reakcja nie miała żadnego wpływu na srebro. W 1835 roku szwedzki chemik Jacob Berzelius opisał taki proces na kilkunastu różnych przykładach i nazwał to zjawisko katalizą.
Z czasem odkryto olbrzymią liczbę katalizatorów, dzięki którym można było łączyć lub rozdzielać molekuły. Proces katalizy zaczęto wykorzystywać tak powszechnie, że obecnie około 35% światowego PKB w jakiś sposób jest z nim związane. Jednak przed rokiem 2000 wszystkie znane katalizatory były albo metalami albo enzymami. Metale są świetnymi katalizatorami, ale mają poważną wadę – są bardzo wrażliwe na działanie tlenu i wody. Zatem do pracy często potrzebują beztlenowego suchego środowiska, a jego uzyskanie w wielkoskalowych procesach przemysłowych jest bardzo trudne. Ponadto wiele świetnych katalizatorów to szkodliwe dla środowiska i człowieka metale ciężkie.
Drugim z rodzajów katalizatorów są enzymy. Jako, że są niezwykle wydajne, w latach 90. ubiegłego wieku prowadzono intensywne prace nad stworzeniem nowych enzymów do katalizy. Prace takie trwały też w Scripps Research Institute, w którym pracował Benjamin List.
Naukowiec obserwując sposób działania enzymów zwrócił uwagę na fakt, że mimo iż często zawierają one metale, to wiele enzymów katalizuje procesy chemiczne bez pomocy metali. Wykorzystują jedynie aminokwasy. List zaczął więc się zastanawiać, czy aminokwasy te muszą być częścią enzymów, by prowadzić katalizę czy też mogą działać samodzielnie lub będąc częścią jakiejś prostszej cząstki.
Naukowiec wiedział, że latach 70. prowadzono prace nad wykorzystaniem aminokwasu o nazwie prolina w procesie katalizy, ale je zarzucono. List przypuszczał, że stało się tak, gdyż pomysł nie wypalił. Mimo to, postanowił spróbować. Przeprowadził test, by sprawdzić, czy prolina może być katalizatorem reakcji aldolowej, w której atomy węgla z dwóch różnych molekuł łączą się ze sobą. Ku jego zdumieniu aminokwas świetnie się w tej roli sprawdził. W trakcie kolejnych eksperymentów List wykazał, że prolina nie tylko jest wydajnym katalizatorem, ale również może być wykorzystana w katalizie asymetrycznej, w trakcie której znacznie częściej powstaje tylko jedno z dwóch odbić lustrzanych molekuły. W porównaniu z metalami i enzymami prolina ma wiele zalet. Jest prostą, tanią i przyjazną środowisku molekułą. Naukowiec przygotował artykuł, który zaakceptowano do publikacji. Miał się on ukazać w lutym 2000 roku.
Jednak List nie był jedynym, który w tym czasie pracował nad takim rozwiązaniem.
David MacMillan pracował na Uniwersytecie Harvarda z metalami w roli katalizatorów. O ile w laboratorium łatwo jest o dobre warunki do pracy takich katalizatorów, to w przemyśle jest to bardzo trudne. Dlatego gdy przeniósł się z Harvarda na Uniwersytet Kalifornijski w Berkeley zarzucił prace nad metalami i zaczął projektować proste molekuły organiczne, które – podobnie jak metale – miały uwalniać lub więzić elektrony. Wybrał kilka molekuł i testował je w roli katalizatorów reakcji Dielsa-Aldera, której produktem jest węglowodór cykliczny.
Okazało się, że wykorzystane molekuły bardzo dobrze się sprawują, a niektóre z nich świetnie sobie radzą w reakcjach asymetrycznych. W wyniku ich pracy w ponad 90% przypadków powstawała tylko jedna z dwóch wersji poszukiwanej cząsteczki. W styczniu 2000 roku, na miesiąc przed ukazaniem się artykułu z wynikami pracy Lista, uczony przesłał do czasopisma naukowego swój własny artykuł. Nazwał w nim zaobserwowane przez siebie zjawisko katalizą organiczną.
Od 2000 roku prace nad katalizą organiczną ruszyły z kopyta. W procesie tym nie tylko wykorzystuje się proste łatwe do uzyskania molekuły, ale w niektórych przypadkach cząsteczki te, podobnie jak enzymy, potrafią działać w systemie „pracy ciągłej”. Wcześniej konieczne było po każdym etapie procesu chemicznego wyizolowanie i oczyszczenie produktu przejściowego, w przeciwnym razie na końcu całego procesu uzyskiwano zbyt dużo produktu ubocznego. Dzięki katalizie organicznej często można przeprowadzić wiele kroków procesu produkcyjnego jednym ciągiem. Dzięki takiej reakcji kaskadowej znacząco zmniejsza się liczba odpadów w przemyśle chemicznym.
Przykładem, jak bardzo wynalazek Lista i MacMillana zrewolucjonizował produkcję chemiczną niech będzie strychnina. Gdy w 1952 roku została po raz pierwszy zsyntetyzowana, konieczne było użycie 29 różnych reakcji chemicznych, jedynie 0,00009% oryginalnego materiału utworzyło strychninę. Reszta się zmarnowała. W 2011 roku dzięki katalizie organicznej produkcję strychniny uproszczono do 12 kroków, a sam proces był 7000 razy bardziej wydajny.
Benjamin List urodził się w 1968 roku we Frankfurcie nad Menem w Niemczech. prace doktorską obronił na Uniwersytecie Goethego. Obecnie jest profesorem na Uniwersytecie w Kolonii i dyrektorem Instytutu Badań nad Węglem im. Maxa Plancka. Jest też głównym badacze w Instytucie Projektowania Reakcji Chemicznych na Hokkaido University.
David MacMillan urodził się w 1968 roku w Bellshill w Szkocji. W wieku 22 lat wyjechał do USA by rozpocząć studia doktoranckie na Uniwersytecie Kalifornijskim w Irvine. Później pracował na Uniwersytecie Harvarda i Uniwersytecie Kalifornijskim w Berkeley. Obecnie jest pracownikiem Princeton University. Był też założycielem i pierwszym dyrektorem pisma Chemical Science, wydawanego przez brytyjskie Royal Society of Chemistry.
« powrót do artykułu -
By KopalniaWiedzy.pl
Od swych początków mechanika kwantowa nie przestaje zadziwiać trudną do zrozumienia niezwykłością. Czemu jedna cząstka wydaje się przechodzić przez dwie szczeliny jednocześnie? Dlaczego zamiast konkretnych przewidywań możemy mówić tylko o ewolucji prawdopodobieństw? Zdaniem teoretyków z uniwersytetów w Warszawie i Oksfordzie, najważniejsze cechy świata kwantów mogą wynikać ze szczególnej teorii względności, która do tej pory z mechaniką kwantową wydawała się nie mieć wiele wspólnego.
Od czasu pojawienia się mechaniki kwantowej i teorii względności fizykom spędza sen z powiek niekompatybilność tych trzech konstrukcji (trzech, bowiem teorie względności są dwie: szczególna i ogólna). Powszechnie przyjmowano, że opis mechaniki kwantowej jest bardziej fundamentalny i to teorię względności trzeba będzie do niego dopasować. Dr hab. Andrzej Dragan z Wydziału Fizyki Uniwersytetu Warszawskiego (FUW) oraz prof. Artur Ekert z Uniwersytetu w Oksfordzie (UO) właśnie zaprezentowali rozumowanie prowadzące do innego wniosku. W artykule "Kwantowa zasada względności", opublikowanym w czasopiśmie New Journal of Physics, dowodzą oni, że cechy mechaniki kwantowej decydujące o jej unikatowości i tak nieintuicyjnej egzotyce, na dodatek przyjmowane w niej "na wiarę" (jako aksjomaty), można wyjaśnić w ramach szczególnej teorii względności. Trzeba się tylko zdecydować na pewien dość nieortodoksyjny krok.
Albert Einstein zbudował szczególną teorię względności na dwóch postulatach. Pierwszy jest znany jako zasada względności Galileusza (która, notabene, jest szczególnym przypadkiem zasady kopernikańskiej). Mówi ona, że fizyka jest taka sama w każdym układzie inercjalnym (czyli albo pozostającym w spoczynku, albo poruszającym się ruchem jednostajnym prostoliniowym). Drugi postulat, zbudowany na wyniku słynnego eksperymentu Michelsona-Morleya, narzucał wymóg stałości prędkości światła w każdym układzie odniesienia.
Einstein uważał drugi postulat za kluczowy. W rzeczywistości kluczowa jest zasada względności. Już w 1910 roku Władimir Ignatowski pokazał, że bazując tylko na niej, można odtworzyć wszystkie zjawiska relatywistyczne szczególnej teorii względności. Efektownie proste rozumowanie, prowadzące bezpośrednio od zasady względności do relatywistyki, przedstawił też w 1992 roku profesor Andrzej Szymacha z naszego wydziału - mówi dr Dragan.
Szczególna teoria względności to spójna struktura, która dopuszcza trzy matematycznie poprawne rodzaje rozwiązań: świat cząstek poruszających się z prędkościami podświetlnymi, świat cząstek poruszających się z prędkością światła i świat cząstek poruszających się z prędkościami nadświetlnymi. Ten trzeci wariant zawsze odrzucano jako niemający nic wspólnego z rzeczywistością.
Postawiliśmy pytanie: co się stanie, gdy – na razie bez wnikania w fizyczność czy niefizyczność rozwiązań – potraktujemy serio nie część szczególnej teorii względności, lecz ją całą, razem z reżimem nadświetlnym? Spodziewaliśmy się paradoksów przyczynowo-skutkowych. Tymczasem zobaczyliśmy dokładnie te efekty, które tworzą najgłębszy rdzeń mechaniki kwantowej - mówią dr Dragan i prof. Ekert.
Początkowo obaj teoretycy rozważali przypadek uproszczony: czasoprzestrzeń ze wszystkimi trzema rodzinami rozwiązań, ale składającą się tylko z jednego wymiaru przestrzennego i jednego czasowego (1+1). Cząstka pozostająca tu w spoczynku w jednym reżimie rozwiązań, w drugim wydaje się poruszać nadświetlnie, co oznacza, że sama nadświetlność jest względna.
W tak skonstruowanej czasoprzestrzeni w naturalny sposób pojawiają się wydarzenia niedeterministyczne. Jeśli bowiem w jednym reżimie w punkcie A dochodzi do nawet całkowicie przewidywalnego wygenerowania cząstki nadświetlnej emitowanej ku punktowi B, gdzie informacji o powodach emisji po prostu nie ma, to z punktu widzenia obserwatora w drugim reżimie wydarzenia przebiegają od punktu B do punktu A, a więc zaczynają się od wydarzenia zupełnie nieprzewidywalnego. Okazuje się, że analogiczne efekty pojawiają się także w przypadku emisji cząstek podświetlnych.
Obaj teoretycy wykazali ponadto, że po uwzględnieniu rozwiązań nadświetlnych naturalnie pojawia się ruch cząstki po wielu torach jednocześnie, a opis przebiegu zdarzeń wymaga wprowadzenia sumy zespolonych amplitud prawdopodobieństwa świadczących o istnieniu superpozycji stanów, zjawiska dotychczas kojarzonego wyłącznie z mechaniką kwantową.
W przypadku czasoprzestrzeni z trzema wymiarami przestrzennymi i jednym czasowym (3+1), czyli odpowiadającej naszej fizycznej rzeczywistości, sytuacja jest bardziej skomplikowana. Zasada względności w swojej oryginalnej postaci nie jest zachowywana, reżimy podświetlny i nadświetlny są rozróżnialne. Jednak badacze zauważyli, że gdy zmodyfikuje się zasadę względności do postaci - "Możliwość opisu zdarzenia w sposób lokalny i deterministyczny nie powinna zależeć od wyboru inercjalnego układu odniesienia" - ograniczy ona rozwiązania do tych, w których wszystkie wnioski z rozważań w czasoprzestrzeni (1+1) pozostają ważne.
Zwróciliśmy przy okazji uwagę na możliwość ciekawej interpretacji roli poszczególnych wymiarów. W reżimie wyglądającym dla obserwatora na nadświetlny niektóre wymiary czasoprzestrzenne wydają się zmieniać swoje fizyczne role. Tylko jeden wymiar świata nadświetlnego ma charakter przestrzenny: ten, wzdłuż którego porusza się cząstka. Pozostałe trzy wymiary wydają się wymiarami czasowymi - mówi dr Dragan.
Charakterystyczną cechą wymiarów przestrzennych jest to, że cząstka może się w nich przemieszczać w każdą stronę lub pozostawać w spoczynku, podczas gdy w wymiarze czasowym zawsze propaguje się w jedną stronę (co w potocznym języku nazywamy starzeniem). Trzy wymiary czasowe reżimu nadświetlnego przy jednym przestrzennym (1+3) oznaczałyby więc, że cząstki w nieuchronny sposób starzeją się w trzech czasach jednocześnie. Proces starzenia się cząstki w reżimie nadświetlnym (1+3), obserwowany z reżimu podświetlnego (3+1), wyglądałby tak, jakby cząstka przemieszczała się jak fala kulista, prowadząc ku słynnej zasadzie Huygensa (każdy punkt ośrodka, do którego dotarło czoło fali, można traktować jako źródło nowej fali kulistej) oraz ku dualizmowi korpuskularno-falowemu.
Cała dziwność, która pojawia się przy rozważaniu rozwiązań odnoszących się do reżimu wyglądającego na nadświetlny, okazuje się nie być dziwniejsza od tego, co od dawna mówi powszechnie akceptowana i doświadczalnie zweryfikowana teoria kwantowa. Przeciwnie, uwzględniając reżim nadświetlny, można – przynajmniej teoretycznie – wyprowadzić ze szczególnej teorii względności część postulatów mechaniki kwantowej, które zazwyczaj przyjmowano jako niewynikające z innych, bardziej fundamentalnych przyczyn – podsumowuje dr Dragan.
Niemal od stu lat mechanika kwantowa czeka na głębszą teorię, która pozwoliłaby wyjaśnić naturę jej zagadkowych zjawisk. Gdyby rozumowanie zaprezentowane przez fizyków z FUW i UO oparło się próbie czasu, historia okrutnie zakpiłaby ze wszystkich fizyków. Poszukiwana od dekad "nieznana" teoria, wyjaśniająca niezwykłość mechaniki kwantowej, byłaby bowiem strukturą znaną już od pierwszych prac nad teorią kwantów.
« powrót do artykułu -
By KopalniaWiedzy.pl
Tegoroczne Nagrody Nobla z dziedziny fizyki zostały przyznane za wkład w zrozumienie ewolucji wszechświata i miejsca Ziemi w kosmosie. Otrzymali je James Peebles za teoretyczne odkrycia w dziedzinie kosmologii fizycznej oraz Michel Mayor i Didier Queloz za odkrycie egzoplanety krążącej wokół gwiazdy typu Słońca.
James Peebles to Kanadyjczyk pracujący obecnie na Princeton University. Michel Mayor jest Szwajcarem, pracuje na Uniwersytecie w Genewie. Podobnie zresztą jak Didier Queloz, który dodatkowo zatrudniony jest na Cambridge University.
Profesor Peebles, odpowiadając podczas konferencji prasowej na pytanie o możliwość istnienia życia na innych planetach, stwierdził: Ironią jest, że możemy być pewni, że istnieje wiele planet zdolnych do podtrzymania życia [...], ironią jest, że mamy wizję życia na innych planetach, ale możemy być pewni, że nigdy nie zobaczymy tych form życia, tych planet. To pokazuje, jak wielkie są możliwości i jak wielkie są ograniczenia nauki, powiedział noblista.
Niestety, wbrew naszym oczekiwaniom, tegorocznym laureatem nie został profesor Artur Ekert, o którego szansach na nagrodę informowaliśmy wczoraj.
« powrót do artykułu -
By KopalniaWiedzy.pl
Od czasu przyznania pierwszej Nagrody Nobla w 1901 roku najwięcej wyróżnień odebrali mieszkańcy USA. Do Stanów Zjednoczonych trafiło aż 371 nagród. Na drugiej pozycji znajdziemy Wielką Brytanię ze 129 laureatami, do Niemiec powędrowało 108 nagród, a do Francji trafiło 68.
Profesor Claudius Gros z Instytutu Fizyki Teoretycznej na Uniwersytecie Goethego we Frankfurcie wykazał, że produktywność naukowa wymienionych krajów, która skutkuje Nagrodą Nobla, jest zdeterminowana przez dwa czynniki. Pierwszy z nich to wysoki poziom naukowy tych krajów w długim terminie, drugi zaś to okres, w którym dany kraj zdobył szczególnie dużo wyróżnień.
Analizy przeprowadzone przez Grosa wykazały, że w przypadku Francji i Niemiec okres szczególnych sukcesów naukowych wyróżnionych Nagrodą Nobla przypadł na początek XX wieku. W przypadku zaś USA okres taki to druga połowa XX wieku. Epoka dominacji USA zbliża się do końca. Od czasu szczytu w latach 70. ubiegłego wieku „produktywność noblowska” w USA spadła o 2,4 raza", mówi uczony. Jeśli tren taki się utrzyma, to od roku 2025 amerykańska „produktywność noblowska” będzie mniejsza od niemieckiej, a od roku 2028 mniejsza od francuskiej.
Szczególne miejsce zajmuje tutaj Wielka Brytania, która może poszczycić się stałą i bardzo wysoką „produktywnością noblowską” na mieszkańca. Nie jest jednak pewne czy, szczególnie w obliczu faktu, że coraz więcej ważnych badań przeprowadzanych jest przez przemysł prywatny, Wielka Brytania utrzyma w przyszłości swoją pozycję. Gros zauważa, że nadal – niezależnie od przyznawanych Nagród Nobla – będziemy mieli do czynienia z postępem nauki finansowanej z podatków. Naukowiec podkreśla, że przewidywane przezeń zmiany w „produktywności noblowskiej”, mogą być nieco mylące. Dzieje się tak m.in. dlatego, że pojawiają się nowe istotne obszary badań, jak np. nauki komputerowe, w których dominują Stany Zjednoczone, a które nie są uwzględniane podczas przyznawania Nagród Nobla. Przewidywane przez Grosa zmiany w „produktywności noblowskiej” nie muszą zatem świadczyć o upadku nauki w jakimś kraju, a o jego przeorientowaniu się na bardziej obiecujące pola badawcze.
« powrót do artykułu
-
-
Recently Browsing 0 members
No registered users viewing this page.