Zaloguj się, aby obserwować tę zawartość
Obserwujący
0
Bliżej ekscytonowych chipów
dodany przez
KopalniaWiedzy.pl, w Technologia
-
Podobna zawartość
-
przez KopalniaWiedzy.pl
Nowa krzywa globalnych temperatur wskazuje, że w fanerozoiku średnie temperatury na Ziemi zmieniały się bardziej niż przypuszczano. Naukowcy z University of Arizona i Smithsonian Institution przeprowadzili badania, w ramach których zrekonstruowali temperatury w ciągu ostatnich 485 milionów lat. To okres, w którym życie na naszej planecie zróżnicowało się, podbiło lądy i przetrwało liczne okresy wymierania.
Fanerozoik rozpoczyna się eksplozją kambryjską sprzed około 540 milionów lat i trwa do dzisiaj. Naukowcy w swoich badaniach ograniczyli się do 485 milionów lat, ze względu na niedostateczną ilość starszych danych geologicznych. Trudno jest znaleźć tak stare skały, w których zachował się zapis o panujących temperaturach. Nie mamy ich zbyt wielu nawet dla 485 milionów lat temu. To ogranicza nasze cofanie się w czasie, mówi profesor Jessica Tierney z Arizony.
Uczeni wykorzystali asymilację danych, w trakcie której połączyli zapis geologiczny z modelami klimatycznymi. Badania pozwoliły im lepiej zrozumieć, czego możemy spodziewać się w przyszłości. Jeśli badasz ostatnich kilka milionów lat, to nie znajdziesz niczego, co może być analogią dla zjawisk, jakich spodziewamy się w roku 2100 czy 2500. Trzeba cofnąć się znacznie dalej, gdy Ziemia była naprawdę gorąca. Tylko tak możemy zrozumieć zmiany, jakie mogą zajść w przyszłości, wyjaśnia Scott Wing, kurator zbiorów paleobotaniki w Smithsonian National Museum of Natural History.
Nowa krzywa temperatury pokazuje, że w tym czasie średnie temperatury na Ziemi zmieniały się w zakresie od 11,1 do 36,1 stopnia Celsjusza, a okresy wzrostu temperatur były najczęściej skorelowane ze zwiększoną emisją dwutlenku węgla do atmosfery. To jasno pokazuje, że dwutlenek węgla jest głównym czynnikiem kontrolującym temperatury na Ziemi. Gdy jest go mało, temperatury są niskie, gdy jest go dużo, na Ziemi jest gorąco, dodaje Tierney.
Badania pokazały też, że obecnie średnia temperatura jest niższa niż średnia dla większości fanerozoiku. Jednocześnie jednak antropogeniczne emisje CO2 powodują znacznie szybszy wzrost temperatury niż w jakimkolwiek momencie z ostatnich 485 milionów lat. To stwarza duże zagrożenie dla wielu gatunków roślin i zwierząt. Niektóre okresy szybkich zmian klimatycznych wiązały się z masowym wymieraniem.
Badacze zauważają, że ocieplenie klimatu może być też niebezpieczne dla ludzi. Nasz gatunek doświadczył w swojej historii zmian średnich temperatur o około 5 stopni Celsjusza. To niewiele, jak na 25-stopniową zmianę w ciągu ostatnich 485 milionów lat. Wyewoluowaliśmy w chłodnym okresie, który nie jest typowy dla większości geologicznej historii. Zmieniamy klimat w sposób, który wykracza poza to, czego doświadczyliśmy. Planeta była i może być cieplejsza, ale ludzie i zwierzęta nie zaadaptują się do tak szybkich zmian, dodaje Tierney.
Projekt zbadania temperatur w fanerozoiku rozpoczął się w 2018 roku, gdy pracownicy Smithsonian National Museum postanowili zaprezentować zwiedzającym krzywą temperatur z całego eonu. Badacze wykorzystali pięć różnych chemicznych wskaźników temperatury zachowanych w skamieniałym materiale organicznym. Na ich podstawie oszacowali temperaturę w 150 000 krótkich okresach czasu. Jednocześnie współpracujący z nimi naukowcy z University of Bristol – na podstawie rozkładu kontynentów i składu atmosfery – stworzyli ponad 850 symulacji temperatur w badanym czasie. Następnie autorzy badań połączyli oba zestawy danych, tworząc najbardziej precyzyjną krzywą temperatur dla ostatnich 485 milionów lat.
Dodatkową korzyścią z badań jest stwierdzenie, że czułość klimatu – czyli przewidywana zmiana średniej temperatury na Ziemi przy dwukrotnej zmianie stężenia CO2 – jest stała. Dwutlenek węgla i temperatury są nie tylko blisko powiązane, ale są powiązane w ten sam sposób przez 485 milionów lat. Nie zauważyliśmy, by czułość klimatu zmieniała się w zależności od tego, czy jest zimno czy gorąco, dodaje Tierney.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Po raz czwarty z rzędu światowe oceany pobiły rekordy ciepła. Kilkunastu naukowców z Chin, USA, Nowej Zelandii, Włoch opublikowało raport, z którego dowiadujemy się, że w 2022 roku światowe oceany – pod względem zawartego w nich ciepła – były najcieplejsze w historii i przekroczyły rekordowe maksimum z roku 2021. Poprzednie rekordy ciepła padały w 2021, 2020 i 2019 roku. Oceany pochłaniają nawet do 90% nadmiarowego ciepła zawartego w atmosferze, a jako że atmosfera jest coraz bardziej rozgrzana, coraz więcej ciepła trafia do oceanów.
Lijing Cheng z Chińskiej Akademii Nauk, który stał na czele grupy badawczej, podkreślił, że od roku 1958, kiedy to zaczęto wykonywać wiarygodne pomiary temperatury oceanów, każda dekada była cieplejsza niż poprzednia, a ocieplenie przyspiesza. Od końca lat 80. tempo, w jakim do oceanów trafia dodatkowa energia, zwiększyło się nawet 4-krotnie.
Z raportu dowiadujemy się, że niektóre obszary ocieplają się szybciej, niż pozostałe. Swoje własne rekordy pobiły Północny Pacyfik, Północny Atlantyk, Morze Śródziemne i Ocean Południowy. Co gorsza, naukowcy obserwują coraz większą stratyfikację oceanów, co oznacza, że wody ciepłe i zimne nie mieszają się tak łatwo, jak w przeszłości. Przez większą stratyfikację może pojawić się problem z transportem ciepła, tlenu i składników odżywczych w kolumnie wody, co zagraża ekosystemom morskim. Ponadto zamknięcie większej ilości ciepła w górnej części oceanów może dodatkowo ogrzać atmosferę. Kolejnym problemem jest wzrost poziomu wód oceanicznych. Jest on powodowany nie tylko topnieniem lodu, ale również zwiększaniem objętości wody wraz ze wzrostem jej temperatury.
Ogrzewające się oceany przyczyniają się też do zmian wzorców pogodowych, napędzają cyklony i huragany. Musimy spodziewać się coraz bardziej gwałtownych zjawisk pogodowych i związanych z tym kosztów. Amerykańska Administracja Oceaniczna i Atmosferyczna prowadzi m.in. statystyki dotyczące gwałtownych zjawisk klimatycznych i pogodowych, z których każde przyniosło USA straty przekraczające miliard dolarów. Wyraźnie widać, że liczba takich zjawisk rośnie, a koszty są coraz większe. W latach 1980–1989 średnia liczba takich zjawisk to 3,1/rok, a straty to 20,5 miliarda USD/rok. Dla lat 1990–1999 było to już 5,5/rok, a straty wyniosły 31,4 miliarda USD rocznie. W ubiegłym roku zanotowano zaś 18 takich zjawisk, a straty sięgnęły 165 miliardów dolarów.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Naukowcy z Politechniki Wrocławskiej i Uniwersytetu w Würzburgu pochwalili się na łamach Nature Communications dokonaniem przełomu na polu badań kwantowych. Po raz pierwszy w historii udało się uzyskać ekscytony w izolatorze topologicznym. W skład zespołu naukowego weszli Marcin Syperek, Paweł Holewa, Paweł Wyborski i Łukasz Dusanowski z PWr., a obok naukowców z Würzburga wspomagali ich uczeni z Uniwersytetu w Bolonii i Oldenburgu.
Izolatory topologiczne to jednorodne materiały, które są izolatorami, ale mogą przewodzić ładunki elektryczne na swojej powierzchni, a wystąpienie przewodnictwa nie jest związane ze zmianą fazy materiału, np. z jego utlenianiem się. Pojawienie się przewodnictwa związane jest ze zjawiskami kwantowymi występującymi na powierzchni takich izolatorów. Istnienie izolatorów topologicznych zostało teoretycznie przewidziane w 1985 roku, a eksperymentalnie dowiedzione w 2007 roku właśnie na Uniwersytecie w Würzburgu.
Dotychczasowe prace nad wykorzystaniem izolatorów topologicznych koncentrowały się wokół prób kontroli przepływu ładunków elektrycznych za pomocą napięcia. Jeśli jednak izolator był wykonany z cząstek obojętnych elektrycznie, takie podejście nie działało. Naukowcy musieli więc wymyślić coś innego. W tym wypadku tym czymś okazało się światło.
Po raz pierwszy udało się wygenerować kwazicząstki – tak zwane ekscytony – w izolatorze topologicznym i eksperymentalnie udowodnić ich istnienie. W ten sposób uzyskaliśmy nowe narzędzie, za pomocą którego możemy – metodami optycznymi – kontrolować elektrony. Otworzyliśmy nowy kierunek badań nad izolatorami topologicznymi, mówi profesor Ralph Claessen.
Ekscyton to kwazicząstka, która stanowi parę elektron-dziura połączoną siłami elektrostatycznymi. Uzyskaliśmy ekscytony oddziałując krótkimi impulsami światła na jednoatomową warstwę materiału, mówi profesor Claessen. Przełomowy tutaj jest fakt, że materiałem tym był izolator topologiczny. Dotychczas nie udawało się w nim uzyskać ekscytonów. W tym przypadku izolator zbudowany był z bizmutu, którego atomy ułożono w strukturę plastra miodu.
Całość badań optycznych przeprowadzono w Laboratorium Optycznej Spektroskopii Nanostruktur Politechniki Wrocławskiej.
Osiągnięcie to jest o tyle istotne, że od około 10 lat specjaliści badają ekscytony w dwuwymiarowych półprzewodnikach, chcąc wykorzystać je w roli nośników informacji kontrolowanych światłem. Teraz za pomocą światła uzyskaliśmy ekscytony w izolatorze topologicznym. Reakcje zachodzące pomiędzy światłem a ekscytonami mogą prowadzić do pojawienia się nowych zjawisk w takich materiałach. To zaś można będzie wykorzystać, na przykład, do uzyskiwania kubitów, wyjaśnia Claessen. Kubity, czyli kwantowe bity, to podstawowe jednostki informacji w komputerach kwantowych. Badania polsko-niemieckiego zespołu mogą więc doprowadzić do powstania nowych kontrolowanych światłem podzespołów dla komputerów kwantowych.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Po raz pierwszy udało się zrekonstruować w laboratorium falową naturę elektronu, jego funkcję falową Blocha. Dokonali tego naukowcy z Uniwersytetu Kalifornijskiego w Santa Barbara (UCSB), a ich praca może znaleźć zastosowanie w projektowaniu kolejnych generacji urządzeń elektronicznych i optoelektronicznych.
Elektrony zachowują się jednocześnie jak cząstki oraz jak fala. Ich falowa natura opisywane jest przez naukowców za pomocą obiektów matematycznych zwanych funkcjami falowymi. Funkcje te zawierają zarówno składowe rzeczywiste, jak i urojone. Z tego też powodu funkcji falowej Blocha elektronu nie można bezpośrednio zmierzyć. Można jednak obserwować powiązane z nią właściwości. Fizycy od dawna próbują zrozumieć, w jaki sposób falowa natura elektronów poruszających się przez sieć krystaliczną atomów, nadaje tej sieci właściwości elektroniczne i optyczne. Zrozumienie tego zjawiska pozwoli nam projektowanie urządzeń lepiej wykorzystujących falową naturę elektronu.
Naukowcy z Santa Barbara wykorzystali silny laser na swobodnych elektronach, który posłuży im do uzyskanie oscylującego pola elektrycznego w półprzewodniku, arsenu galu. Jednocześnie za pomocą lasera podczerwonego o niskiej częstotliwości wzbudzali jego elektrony. Wzbudzone elektrony pozostawiały po sobie „dziury” o ładunku dodatnim. Jak wyjaśnia Mark Sherwin, w arsenku galu dziury te występują w dwóch odmianach – lekkiej i ciężkiej – i zachowują się jak cząstki o różnych masach.
Para elektron-dziura tworzy kwazicząstkę zwaną ekscytonem. Fizycy z UCSB odkryli, że jeśli utworzy się elektrony i dziury w odpowiednim momencie oscylacji pola elektrycznego, to oba elementy składowe ekscytonów najpierw oddalają się od siebie, następnie zwalniają, zatrzymują się, zaczynają przyspieszać w swoim kierunku, dochodzi do ich zderzenia i rekombinacji. W czasie rekombinacji emitują impuls światła – zwany wstęgą boczną – o charakterystycznej energii. Emisja ta zawiera informacje o funkcji falowej elektronów, w tym o ich fazach.
Jako, że światło i ciężkie dziury przyspieszają w różnym tempie w polu elektrycznym ich funkcje falowe Blocha mają różne fazy przed rekombinacją z elektronami. Dzięki tej różnicy fazy dochodzi do interferencji ich funkcji falowych i emisji, którą można mierzyć. Interferencja ta determinuje też polaryzację wstęgi bocznej. Może ona być kołowa lub eliptyczna.
Autorzy eksperymentu zapewniają, że sam prosty stosunek pomiędzy interferencją a polaryzacją, który można zmierzyć, jest wystarczającym warunkiem łączącym teorię mechaniki kwantowej ze zjawiskami zachodzącymi w rzeczywistości. Ten jeden parametr w pełni opisuje funkcję falową Blocha dziury uzyskanej w arsenku galu. Uzyskujemy tę wartość mierząc polaryzację wstęgi bocznej, a następnie rekonstruując funkcję falową, która może się różnić w zależności od kąta propagacji dziury w krysztale, dodaje Seamus O'Hara.
Do czego takie badania mogą się przydać? Dotychczas naukowcy musieli polegać na teoriach zawierających wiele słabo poznanych elementów. Skoro teraz możemy dokładnie zrekonstruować funkcję falową Blocha dla różnych materiałów, możemy to wykorzystać przy projektowaniu i budowie laserów, czujników i niektórych elementów komputerów kwantowych, wyjaśniają naukowcy.
« powrót do artykułu -
przez KopalniaWiedzy.pl
Rozwiązaniem problemu pomiędzy szybkością działania komputerów kwantowych a koherencją kubitów może być zastosowanie dziur, twierdzą australijscy naukowcy. To zaś może prowadzić do powstania kubitów nadających się do zastosowania w minikomputerach kwantowych.
Jedną z metod stworzenia kubitu – kwantowego bitu – jest wykorzystanie spinu elektronu. Aby uczynić komputer kwantowy tak szybkim, jak to tylko możliwe, chcielibyśmy mieć możliwość manipulowania spinami wyłącznie za pomocą pola elektrycznego, dostarczanego za pomocą standardowych elektrod.
Zwykle spiny nie reagują na pole elektryczne, jednak z niektórych materiałach spiny wchodzi w niebezpośrednie interakcje z polem elektrycznym. Mamy tutaj do czynienia z tzw. sprzężeniem spinowo-orbitalnym. Eksperci zajmujący się tym tematem obawiają się jednak, że gdy taka interakcja jest zbyt silna, wszelkie korzyści z tego zjawiska zostaną utracone, gdyż dojdzie do dekoherencji i utraty kwantowej informacji.
Jeśli elektrony zaczynają wchodzić w interakcje z polami kwantowymi, które im aplikujemy w laboratorium, są też wystawione na niepożądane zmienne pola elektryczne, które istnieją w każdym materiale. Potocznie nazywamy to „szumem”. Ten szum może zniszczyć delikatną informację kwantową, mówi główny autor badań, profesor Dimi Culcer z Uniwersytetu Nowej Południowej Walii.
Nasze badania pokazują jednak, że takie obawy są nieuzasadnione. Nasze teoretyczne badania wykazały, że problem można rozwiązać wykorzystując dziury – które można opisać jako brak elektronu – zachowujące się jak elektrony z ładunkiem dodatnim, wyjaśnia uczony.
Dzięki wykorzystaniu dziur kwantowy bit może być odporny na fluktuacje pochodzące z tła. Co więcej, okazało się, że punkt, w którym kubit jest najmniej wrażliwy na taki szum, jest jednocześnie punktem, w którym działa on najszybciej. Z naszych badań wynika, że w każdym kwantowym bicie utworzonym z dziur istnieje taki punkt. Stanowi to podstawę do przeprowadzenia odpowiednich eksperymentów laboratoryjnych, dodaje profesor Culcer.
Jeśli w laboratorium uda się osiągnąć te punkty, będzie można rozpocząć eksperymenty z utrzymywaniem kubitów najdłużej jak to możliwe. Będzie to też stanowiło punkt wyjścia do skalowania kubitów tak, by można było je stosować w minikomputerach.
Wiele wskazuje na to, że takie eksperymenty mogą zakończyć się powodzeniem. Profesor Joe Salfi z University of British Columbia przypomina bowiem: Nasze niedawne eksperymenty z kubitami utworzonymi z dziur wykazały, że w ich wypadku czas koherencji jest dłuższy, niż się spodziewaliśmy. Teraz widzimy, że nasze obserwacje mają solidne podstawy teoretyczne. To bardzo dobry prognostyk na przyszłość.
Praca Australijczyków została opublikowana na łamach npj Quantum Information.
« powrót do artykułu
-
-
Ostatnio przeglądający 0 użytkowników
Brak zarejestrowanych użytkowników przeglądających tę stronę.