Jump to content
Forum Kopalni Wiedzy

Recommended Posts

Jak uniknąć konsekwencji wyczerpania się złóż rzadkich pierwiastków? Najbardziej oczywistym rozwiązaniem wydaje się poszukiwanie substancji o podobnych właściwościach. Jak wynika z badań przeprowadzonych przez prof. A. Welforda Castlemana z Penn State University, zadanie to może być znacznie prostsze, niż się wydaje.

Ponieważ wiele właściwości chemicznych pierwiastków zależy od konfiguracji tzw. powłoki walencyjnej, czyli zgrupowania elektronów najbardziej oddalonych od jądra atomu, badacz z amerykańskiej uczelni chciał sprawdzić, czy proste związki mogą posłużyć jako "elektronowe imitacje" metali. Powodzenie takiego eksperymentu oznaczałoby, że w niektórych zastosowaniach substancje te mogłyby z powodzeniem zastępować czyste metale, przynosząc w ten sposób niemałe oszczędności.

W swoich badaniach prof. Castleman poszukiwał odpowiedników niklu, palladu (6. najdroższego pierwiastka świata w przeliczeniu na masę) oraz platyny (2. miejsce na tej samej liście). 

Właściwości analizowanych metali oraz kandydatów do ich zastąpienia porównywano dzięki spektroskopii fotoelektronowej. Metoda ta polega na ocenie ilości energii potrzebnej do oderwania elektronów z powłok walencyjnych atomów znajdujących się w różnych stanach energetycznych. Porównywalne wyniki analiz dwóch pierwiastków bądź związków mogą być w związku z tym zapowiedzią ich podobnych właściwości chemicznych.

Jak wykazano na podstawie przeprowadzonych analiz, atomy niklu wykazują w spektroskopii fotoelektronowej niemal identyczny obraz jak tlenek tytanu (II). Pallad przypomina z kolei cząsteczki tlenku cyrkonu (II), zaś platyna - molekuły węgliku wolframu. Związki "naśladujące" badane metale można więc zaliczyć do tzw. superatomów, czyli cząsteczek o właściwościach podobnych do znanych pierwiastków.

Prawdopodobnie najważniejszym aspektem dokonanego odkrycia jest fakt, iż dane zebrane na podstawie badań zespołu prof. Castlemana układają się w logiczne i dające się przewidzieć serie. Oznacza to, że dla wielu drogich lub trudno dostępnych metali stosowanych np. jako elementy konstrukcyjne bądź katalizatory można znaleźć tanie i równie efektywne superatomowe zamienniki.

Niewykluczone, że wdrożenie tej wiedzy do zastosowania w przemyśle może więc wywołać niemałe zamieszanie zarówno na giełdach surowcowych, jak i na rynkach produktów wytworzonych przy pomocy superatomów.

Share this post


Link to post
Share on other sites

Przecież potrafią - udało się już zamienić ołów w złoto. Gorzej, że wymaga to akceleratora :D

Share this post


Link to post
Share on other sites

Otóż to. Otrzymać można w zasadzie dowolny pierwiastek z innych. Problem w tym że koszt takiej transformacji znacznie przewyższa wartość otrzymanego produktu..

Share this post


Link to post
Share on other sites

Przecież potrafią - udało się już zamienić ołów w złoto. Gorzej, że wymaga to akceleratora :D

Uwaga, poniżej została zamieszczona teoria spiskowa i nie, nie wyraża ona mojego poglądu na świat:

 

No to właśnie wyjaśnił się główny cel zbudowania LHC - niby drogi i w ogóle, ale koszt szybko się zwróci ;)

Share this post


Link to post
Share on other sites

Mogę się mylić, ale LHC nie był chyba projektowany do zderzania ze sobą całych atomów ani tym bardziej do prowadzenia syntez. Ale masz rację, teoria spiskowa mogłaby bardzo szybko się przyjąć :D

Share this post


Link to post
Share on other sites

Równie łatwo można stwierdzić, że przemysł zadba o to, by zmniejszyć koszty produkcji. Gdyby tak nie było, do dziś wszystko byłoby robione ręcznie.

Share this post


Link to post
Share on other sites
spektroskopii fotoelektronowej. Metoda ta polega na ocenie ilości energii potrzebnej do oderwania elektronów z powłok walencyjnych atomów znajdujących się w różnych stanach energetycznych

 

spektroskopia fotoelektronowa to wybijanie elektronow nie tylko z powlok walencyjnych. w ogolnosci z roznych, rowniez np. z glebokich stanow rdzeniowych.

 

vide http://en.wikipedia.org/wiki/Photoelectron_spectroscopy

_____

 

proby zastapienia atomow takimi 'super-atomami' sa raczej trudne do wyobrazenia. oprocz podobienstwa widma reszta nie powinna przypominac klasycznych atomow. istotna jest np. budowa przestrzenna takich 'super-powlok', a co za tym idzie mozliwosc faktycznego budowania z nich wiekszych elementow. oczywiscie nie nalezy pomijac innych aspektow jak wlasnosci fizykochemiczne samych zawiazkow.

 

ciekawostka, ale stosowalnosc.. raczej futurystyczna.

Share this post


Link to post
Share on other sites

Create an account or sign in to comment

You need to be a member in order to leave a comment

Create an account

Sign up for a new account in our community. It's easy!

Register a new account

Sign in

Already have an account? Sign in here.

Sign In Now

  • Similar Content

    • By KopalniaWiedzy.pl
      Po raz pierwszy udało się zrekonstruować w laboratorium falową naturę elektronu, jego funkcję falową Blocha. Dokonali tego naukowcy z Uniwersytetu Kalifornijskiego w Santa Barbara (UCSB), a ich praca może znaleźć zastosowanie w projektowaniu kolejnych generacji urządzeń elektronicznych i optoelektronicznych.
      Elektrony zachowują się jednocześnie jak cząstki oraz jak fala. Ich falowa natura opisywane jest przez naukowców za pomocą obiektów matematycznych zwanych funkcjami falowymi. Funkcje te zawierają zarówno składowe rzeczywiste, jak i urojone. Z tego też powodu funkcji falowej Blocha elektronu nie można bezpośrednio zmierzyć. Można jednak obserwować powiązane z nią właściwości. Fizycy od dawna próbują zrozumieć, w jaki sposób falowa natura elektronów poruszających się przez sieć krystaliczną atomów, nadaje tej sieci właściwości elektroniczne i optyczne. Zrozumienie tego zjawiska pozwoli nam projektowanie urządzeń lepiej wykorzystujących falową naturę elektronu.
      Naukowcy z Santa Barbara wykorzystali silny laser na swobodnych elektronach, który posłuży im do uzyskanie oscylującego pola elektrycznego w półprzewodniku, arsenu galu. Jednocześnie za pomocą lasera podczerwonego o niskiej częstotliwości wzbudzali jego elektrony. Wzbudzone elektrony pozostawiały po sobie „dziury” o ładunku dodatnim. Jak wyjaśnia Mark Sherwin, w arsenku galu dziury te występują w dwóch odmianach – lekkiej i ciężkiej – i zachowują się jak cząstki o różnych masach.
      Para elektron-dziura tworzy kwazicząstkę zwaną ekscytonem. Fizycy z UCSB odkryli, że jeśli utworzy się elektrony i dziury w odpowiednim momencie oscylacji pola elektrycznego, to oba elementy składowe ekscytonów najpierw oddalają się od siebie, następnie zwalniają, zatrzymują się, zaczynają przyspieszać w swoim kierunku, dochodzi do ich zderzenia i rekombinacji. W czasie rekombinacji emitują impuls światła – zwany wstęgą boczną – o charakterystycznej energii. Emisja ta zawiera informacje o funkcji falowej elektronów, w tym o ich fazach.
      Jako, że światło i ciężkie dziury przyspieszają w różnym tempie w polu elektrycznym ich funkcje falowe Blocha mają różne fazy przed rekombinacją z elektronami. Dzięki tej różnicy fazy dochodzi do interferencji ich funkcji falowych i emisji, którą można mierzyć. Interferencja ta determinuje też polaryzację wstęgi bocznej. Może ona być kołowa lub eliptyczna.
      Autorzy eksperymentu zapewniają, że sam prosty stosunek pomiędzy interferencją a polaryzacją, który można zmierzyć, jest wystarczającym warunkiem łączącym teorię mechaniki kwantowej ze zjawiskami zachodzącymi w rzeczywistości. Ten jeden parametr w pełni opisuje funkcję falową Blocha dziury uzyskanej w arsenku galu. Uzyskujemy tę wartość mierząc polaryzację wstęgi bocznej, a następnie rekonstruując funkcję falową, która może się różnić w zależności od kąta propagacji dziury w krysztale, dodaje Seamus O'Hara.
      Do czego takie badania mogą się przydać? Dotychczas naukowcy musieli polegać na teoriach zawierających wiele słabo poznanych elementów. Skoro teraz możemy dokładnie zrekonstruować funkcję falową Blocha dla różnych materiałów, możemy to wykorzystać przy projektowaniu i budowie laserów, czujników i niektórych elementów komputerów kwantowych, wyjaśniają naukowcy.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Rozwiązaniem problemu pomiędzy szybkością działania komputerów kwantowych a koherencją kubitów może być zastosowanie dziur, twierdzą australijscy naukowcy. To zaś może prowadzić do powstania kubitów nadających się do zastosowania w minikomputerach kwantowych.
      Jedną z metod stworzenia kubitu – kwantowego bitu – jest wykorzystanie spinu elektronu. Aby uczynić komputer kwantowy tak szybkim, jak to tylko możliwe, chcielibyśmy mieć możliwość manipulowania spinami wyłącznie za pomocą pola elektrycznego, dostarczanego za pomocą standardowych elektrod.
      Zwykle spiny nie reagują na pole elektryczne, jednak z niektórych materiałach spiny wchodzi w niebezpośrednie interakcje z polem elektrycznym. Mamy tutaj do czynienia z tzw. sprzężeniem spinowo-orbitalnym. Eksperci zajmujący się tym tematem obawiają się jednak, że gdy taka interakcja jest zbyt silna, wszelkie korzyści z tego zjawiska zostaną utracone, gdyż dojdzie do dekoherencji i utraty kwantowej informacji.
      Jeśli elektrony zaczynają wchodzić w interakcje z polami kwantowymi, które im aplikujemy w laboratorium, są też wystawione na niepożądane zmienne pola elektryczne, które istnieją w każdym materiale. Potocznie nazywamy to „szumem”. Ten szum może zniszczyć delikatną informację kwantową, mówi główny autor badań, profesor Dimi Culcer z Uniwersytetu Nowej Południowej Walii.
      Nasze badania pokazują jednak, że takie obawy są nieuzasadnione. Nasze teoretyczne badania wykazały, że problem można rozwiązać wykorzystując dziury – które można opisać jako brak elektronu – zachowujące się jak elektrony z ładunkiem dodatnim, wyjaśnia uczony.
      Dzięki wykorzystaniu dziur kwantowy bit może być odporny na fluktuacje pochodzące z tła. Co więcej, okazało się, że punkt, w którym kubit jest najmniej wrażliwy na taki szum, jest jednocześnie punktem, w którym działa on najszybciej. Z naszych badań wynika, że w każdym kwantowym bicie utworzonym z dziur istnieje taki punkt. Stanowi to podstawę do przeprowadzenia odpowiednich eksperymentów laboratoryjnych, dodaje profesor Culcer.
      Jeśli w laboratorium uda się osiągnąć te punkty, będzie można rozpocząć eksperymenty z utrzymywaniem kubitów najdłużej jak to możliwe. Będzie to też stanowiło punkt wyjścia do skalowania kubitów tak, by można było je stosować w minikomputerach.
      Wiele wskazuje na to, że takie eksperymenty mogą zakończyć się powodzeniem. Profesor Joe Salfi z University of British Columbia przypomina bowiem: Nasze niedawne eksperymenty z kubitami utworzonymi z dziur wykazały, że w ich wypadku czas koherencji jest dłuższy, niż się spodziewaliśmy. Teraz widzimy, że nasze obserwacje mają solidne podstawy teoretyczne. To bardzo dobry prognostyk na przyszłość.
      Praca Australijczyków została opublikowana na łamach npj Quantum Information.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Znajdujący się na Biegunie Południowym wielki detektor neutrin IceCube zarejestrował wysokoenergetyczne wydarzenie, które potwierdziło istnienie zjawiska przewidzianego przed 60 laty i wzmocniło Model Standardowy. Wydarzenie to zostało wywołane przez cząstkę antymaterii o energii 1000-krotnie większej niż cząstki wytwarzane w Wielkim Zderzaczu Hadronów (LHC).
      Ponad 4 lata temu, 8 grudnia 2016 roku wysokoenergetyczne antyneutrino elektronowe wpadło z olbrzymią prędkością w pokrywę lodową Antarktydy. Jego energia wynosiła gigantyczne 6,3 petaelektronowoltów (PeV). Głęboko w lodzie zderzyło się ono z elektronem, doprowadzając do pojawienia się cząstki, która szybko rozpadła się na cały deszcz cząstek. Ten zaś został zarejestrowany przez czujniki IceCube Neutrino Observatory.
      IcCube wykrył rezonans Glashowa, zjawisko, które w 1960 roku przewidział późniejszy laureat Nagrody Nobla, Sheldon Glashow. Pracujący wówczas w Instytucie Nielsa Bohra w Kopenhadze naukowiec opublikował pracę, w której stwierdził, że antyneutrino o odpowiedniej energii może wejść w interakcje z elektronem, w wyniku czego dojdzie do pojawienia się nieznanej jeszcze wówczas cząstki. Cząstką tą był odkryty w 1983 roku bozon W.
      Po odkryciu okazało się, że ma on znacznie większą masę, niż przewidywał Glashow. Wyliczono też, że do zaistnienia rezonansu Glashowa konieczne jest antyneutrino o energii 6,3 PeV. To niemal 1000-krotnie większa energia niż nadawana cząstkom w Wielkim Zderzaczu Hadronów. Żaden obecnie działający ani obecnie planowany akcelerator nie byłby zdolny do wytworzenia tak wysokoenergetycznej cząstki.
      IceCube pracuje od 2011 roku. Dotychczas obserwatorium wykryło wiele wysokoenergetycznych zdarzeń, pozwoliło na przeprowadzenie niepowtarzalnych badań. Jednak zaobserwowanie rezonansu Glashowa to coś zupełnie wyjątkowego. Musimy bowiem wiedzieć, że to dopiero trzecie wykryte przez IceCube wydarzenie o energii większej niż 5 PeV.
      Odkrycie jest bardzo istotne dla specjalistów zajmujących się badaniem neutrin. Wcześniejsze pomiary nie dawały wystarczająco dokładnych wyników, by można było odróżnić neutrino od antyneutrina. To pierwszy bezpośredni pomiar antyneutrina w przepływających neutrinach pochodzenia astronomicznego, mówi profesor Lu Lu, jeden z autorów analizy i artykułu, który ukazał się na łamach Nature.
      Obecnie nie jesteśmy w stanie określić wielu właściwości astrofizycznych źródeł neutrin. Nie możemy np. zmierzyć rozmiarów akceleratora czy mocy pól magnetycznych w rejonie akceleratora. Jeśli jednak będziemy w stanie określić stosunek neutrin do antyneutrin w całym strumieniu, bo będziemy mogli badać te właściwości, dodaje analityk Tianlu Yaun z Wisconsin IceCube Particle Astrophysics Center.
      Sheldon Glashow, który obecnie jest emerytowanym profesorem fizyki na Boston University mówi, że aby być absolutnie pewnymi wyników, musimy zarejestrować kolejne takie wydarzenie o identycznej energii. Na razie mamy jedno, w przyszłości będzie ich więcej.
      Niedawno ogłoszono, że przez najbliższych kilka lat IceCube będzie udoskonalany, a jego kolejna wersja – IceCube-Gen2 – będzie w stanie dokonać większej liczby tego typu pomiarów.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Nikiel jest jednym z najbardziej rozpowszechnionych pierwiastków na Ziemi. Co ważne, jest wysoce odporny na korozję, dzięki czemu znajduje zastosowanie na wielu polach.
      Jednak zaskakujące odkrycie dokonane przez naukowców z Texas A&M University wskazuje, że nikiel nie tylko ulega korozji, ale proces ten przebiega w sposób, którego naukowcy się nie spodziewali. O badaniach prowadzonych przez zespół profesora Michaela Demkowicza poinformowano na łamach Physical Reveiew Materials.
      Korozja zwykle atakuje połączenia czy też granice pomiędzy ziarnami materiału. To tzw. korozja międzykrystaliczna, która osłabia metal od wewnątrz.
      Istnieje jednak pewien szczególny typ granicy między ziarnami metalu, zwany koherentną granicą bliźniaczą, o którym sądzono, że jest on odporny na korozję. Tymczasem, ku zdumieniu naukowców z Teksasu, okazało się, że niemal cała korozja występująca w prowadzonych przez nich eksperymentach pojawiła się właśnie na koherentnych granicach bliźniaczych. To odkrycie odwraca do góry nogami dekady założeń dotyczących przebiegu korozji metali, mówi Demkowicz.
      Koherentne granice bliźniacze to obszary, na których wewnętrzna struktura wzorców materiału jest swoim lustrzanym odbiciem wzdłuż całej takiej granicy. Tego typu granice powstają naturalnie wskutek krystalizacji, mogą być też wynikiem oddziaływań mechanicznych bądź termicznych.
      Czysty nikiel jest niemal całkowicie odporny na korozję. Gdy jednak podaliśmy napięci od stron katody, która jest jeszcze mniej podatna na korozję, odkryliśmy ku swojemu zdumieniu widoczne znaki korozji na koherentny;ch granicach bliźniaczych, mówi Mengying Liu, jeden z członków zespołu badawczego. To odkrycie pozwoli przewidzieć, gdzie może pojawić się korozja. Być może dzięki temu zostaną zaprojektowane metale bardziej odporne na korozję, dodaje.
      Przez dziesięciolecia specjaliści zakładali, że koherentne granice bliźniacze są odporne na korozję. Dlatego też pracowali nad metalami zawierającymi jak najwięcej takich granic. Próbując zapobiegać korozji tworzono metale zawierające tak dużo koherentnych granic bliźniaczych jak to tylko było możliwe. Teraz musimy przemyśleć tę strategię, stwierdza Demkowicz.

      « powrót do artykułu
    • By KopalniaWiedzy.pl
      Wiele przedmiotów, które mają być jednocześnie lekkie i wytrzymałe, jest wykonanych z tytanu. Jednak materiał ten nie jest tak wytrzymały, jak teoretycznie mógłby być. Dzieje się tak, gdyż wytrzymałość materiału zależy od tego, w jaki sposób układają się budujące go atomy. A przypadkowe błędy, które narastają w procesie produkcyjnym powodują, że materiał staje się coraz słabszy. To jednak oznacza, że jeśli bylibyśmy w stanie budować materiał atom po atomie, możemy uzyskać niezwykle wytrzymałe materiały.
      To właśnie zrobili naukowcy z University of Pennsylvania, University of Illinosi at Urbana-champaign oraz University of Cambridge. Jak dowiadujemy się z Nature Scientific Reports, zbudowali oni, atom po atomie, kawałek niklu, który jest równie wytrzymały co tytan, ale 4-5 razy lżejszy. W procesie budowy powstały równomiernie rozłożone puste przestrzenie, pory, które nadały niklowi strukturę podobną do drewna. Uczeni postanowili wykorzystać te puste miejsca.
      Tak jak w drewnie porowatość służy biologicznej funkcji – transportowi energii – tak i tutaj można wykorzystać ją do tego samego celu. Pory we wspomnianej płachcie można wypełnić materiałami działającymi jak anoda i katoda. Dzięki temu temu metal może służyć jednocześnie do budowania np. protez czy skrzydeł samolotu oraz do przechowywania energii.
      Materiały występujące w naturze są pełne defektów na poziomie atomowym. Gdybyśmy potrafili uzyskać tytan pozbawiony tych wad, byłby on 10-krotnie bardziej wytrzymały niż tytan produkowany obecnie. Eksperci od dawna próbują zaradzić temu problemowi i starają się zyskać kontrolę nad układem atomów tak, by w jak największym stopniu kontrolować właściwości mechaniczne materiałów.
      Profesor James Pikul, który stał na czele grupy badawczej, i jego koledzy osiągnęli sukces naśladując strukturę drewna.
      Przyczyną, dla której mówimy tutaj o metalicznym drewnie nie jest gęstość naszego materiału, która jest podobna do gęstości drewna, ale jego struktura komórkowa. Materiały komórkowe są porowate. Jeśli popatrzymy na ziarno drewna, to zobaczymy fragmenty gęste i grube, które utrzymują całą strukturę, oraz fragmenty porowate, których celem jest wykonywanie funkcji biologicznych, takich jak transport różnych składników pomiędzy komórkami, mówi Pikul.
      Nasza struktura jest podobna. Są tutaj grube i gęste fragmenty z metalowymi wspornikami oraz fragmenty porowate, z pustymi przestrzeniami. Pracujemy tutaj na takich wymiarach, przy których długość wsporników jest bliska teoretycznemu maksimum, dodaje uczony.
      Wsporniki, o których mówi, mają szerokość około 10 nanometrów i są długie na około 100 atomów niklu. Ważnym osiągnięciem jest fakt, że udało się uzyskać wyjątkowo duży kawałek metalu o tak dobrze kontrolowanej strukturze. Większość przykładów takich wytrzymałych materiałów to kawałki o rozmiarach małej pchły. Nasza technika pozwala uzyskać fragmenty metalicznego drewna, które są 400-krotnie większe, stwierdza Pikul.
      Opracowana właśnie metoda wykorzystuje niewielkie plastikowe sfery o średnicy kilkuset nanometrów. Sfery znajdują się w wodzie. Woda jest powoli odparowywana, dzięki czemu sfery układają się w uporządkowaną strukturę. Za pomocą galwanostegii na wierzch nakłada się cienką warstwę chromu, a następnie między plastikowe sfery wprowadzany jest nikiel. Później sfery są rozpuszczane. Uzyskujemy w ten sposób kawałek niklu o boku 1 centymetra. W tak małym fragmencie znajduje się około miliarda niklowych wsporników, wyjaśnia Pikul.
      Jako, że niemal 70% uzyskanego materiału stanowią puste przestrzenie, jest on niezwykle lekki w porównaniu z wytrzymałością. Mógłby unosić się na wodzie.
      Kolejnym celem zespołu Pikula jest opracowanie takiej metody produkcji, by można było wykorzystać ją w celach komercyjnych. Użyte materiały nie są szczególnie kosztowne, jednak problemem jest infrastruktura potrzebna do produkcji. W tej chwili jej rozmiary są znacząco ograniczone. Gdy zaś powstaną próbki większych rozmiarów, naukowcy będą mogli przeprowadzić dodatkowe testy w makroskali. Nie wiemy, na przykład, czy nasze metaliczne drewno pod wpływem przyłożonej siły będzie się gięło jak metal, czy rozpryśnie się jak szkło. Musimy rozumieć, jak defekty w strukturze wsporników wpływają na właściwości naszego metalicznego drewna, dodaje uczony.
      Zanim jednak powstaną metody produkcji większych kawałków materiału, Pikul i jego zespół będą próbowali wykorzystać puste przestrzenie do wprowadzenia tam innych materiałów. Pewnego dnia może uda się te przestrzenie wypełnić żywymi organizmami lub materiałami przechowującymi energię, prognozuje naukowiec.

      « powrót do artykułu
  • Recently Browsing   0 members

    No registered users viewing this page.

×
×
  • Create New...