Skocz do zawartości
Forum Kopalni Wiedzy

Znajdź zawartość

Wyświetlanie wyników dla tagów 'NIST' .



Więcej opcji wyszukiwania

  • Wyszukaj za pomocą tagów

    Wpisz tagi, oddzielając je przecinkami.
  • Wyszukaj przy użyciu nazwy użytkownika

Typ zawartości


Forum

  • Nasza społeczność
    • Sprawy administracyjne i inne
    • Luźne gatki
  • Komentarze do wiadomości
    • Medycyna
    • Technologia
    • Psychologia
    • Zdrowie i uroda
    • Bezpieczeństwo IT
    • Nauki przyrodnicze
    • Astronomia i fizyka
    • Humanistyka
    • Ciekawostki
  • Artykuły
    • Artykuły
  • Inne
    • Wywiady
    • Książki

Szukaj wyników w...

Znajdź wyniki, które zawierają...


Data utworzenia

  • Od tej daty

    Do tej daty


Ostatnia aktualizacja

  • Od tej daty

    Do tej daty


Filtruj po ilości...

Dołączył

  • Od tej daty

    Do tej daty


Grupa podstawowa


Adres URL


Skype


ICQ


Jabber


MSN


AIM


Yahoo


Lokalizacja


Zainteresowania

Znaleziono 12 wyników

  1. Uczeni z amerykańskiego Narodowego Instytutu Standardów i Technologii (NIST) znaleźli sposób na znaczące udoskonalenie transmisyjnych elektroskopów elektronowych. Tego typu mikroskop rejestruje elektrony przechodzące przez próbkę. Ta z kolei musi mieć grubość mniejszą niż 0,1 mikrometra, co bardzo ogranicza zastosowanie mikroskopu. Eksperci z NIST przepuścili elektrony przez nanometrowej wielkości kratownicę. To spowodowało, że fale elektronowe przybrały kształt korkociągów i utrzymywały go w wolnej przestrzeni. Zjawisko takie pozwala mieć nadzieję na zbudowanie w niedalekiej przyszłości transmisyjnego mikroskopu elektronowego o rozdzielczości lepszej od mikroskopów optycznych, który ponadto będzie pracował z większą liczbą materiałów niż dotychczas. Spiralny kształt i moment kątowy elektronów pozwoli nam na pracę z różnymi materiałami, które dotychczas były niedostępne dla użytkowników transmisyjnych mikroskopów elektronowych. Wyposażenie mikroskopu w nanokratownicę podobną do tej, jakiej użyliśmy w naszym eksperymencie, pozwala na dramatyczne zwiększenie możliwości urządzenia tanim kosztem - mówi Ben McMorran, jeden z autorów badań. Eksperyment NIST nie jest pierwszym doświadczeniem tego typu, ale dał on najlepsze rezultaty. Kratownica jest znacznie mniejsza niż inne używane urządzenia, znacznie lepiej rozdziela fale elektronowe i nadaje elektronom 100-krotnie większy moment.
  2. Od dekad to krzem pozostaje głównym materiałem konstrukcyjnym elektroniki, mimo że jest to coraz trudniejsze, producenci coraz bardziej zwiększają gęstość upakowania krzemowych elementów, zachowując prawo Moore'a. Ale już niedługo zdolność krzemowej technologii do rozwoju skończy się nieodwracalnie: negatywne zjawiska towarzyszące miniaturyzacji zastopują ją najdalej za dziesięć lat, być może nawet wcześniej - z powodu wykładniczo rosnących kosztów wdrażania coraz precyzyjniejszych technologii. Materiałem, w którym od lat upatruje się kandydata na następcę krzemu jest grafen. Niestety, ze względu na całkowicie odmienne właściwości (nie do końca przy tym poznane) nie da się go tak po prostu użyć w miejsce krzemu, konieczne jest opracowanie technologii dosłownie od zera. Chociaż więc po grafenie oczekuje się, że pozwoli na tworzenie układów scalonych mniejszych i szybszych, na razie gra toczy się nie o to, żeby zrobić lepiej, ale żeby w ogóle zrobić cokolwiek. Od laboratorium do fabryki - daleka droga Przez długie lata większość badań koncentrowała się na tzw. grafenie eksfoliowanym. Pierwsze płatki grafenu uzyskano odrywając z grafitu pojedynczą warstwę atomów przy pomocy taśmy klejącej. To co wystarcza naukowcom dla producentów jest jednak niczym - im potrzeba materiału łatwego w wytwarzaniu i obróbce, pewnego, zachowującego się przewidywalnie i skalowalnego. Materiałem, w którym również upatrywano kandydata były węglowe nanorurki - rurki złożone z pojedynczej warstwy atomów węgla. Mimo zadziwiających właściwości ich praktyczne zastosowanie pozostaje żadne: trudno je wytwarzać w pożądany i przewidywalny sposób. Zajmujący się nanorurkami naukowiec Georgia Tech, Walt de Heer, uznał, że nigdy nie nadadzą się one do zastosowań przemysłowych, przynajmniej w dziedzinie elektroniki. Zauważył jednak, że skoro ich właściwości elektryczne wynikają głównie z istnienia pojedynczej warstwy atomów, praktyczniej będzie taką rurkę rozwinąć i rozpłaszczyć, czyli wyhodować na płaskiej powierzchni. Stąd wziął się pomysł, a potem technologia produkcji grafenu epitaksjalnego, czyli hodowanego na odpowiednio przygotowanej powierzchni. Technika ta pozwala na przeniesienie charakterystyki warstwy bazowej na strukturę atomową tworzonej warstwy epitaksjalnej. Materiałem bazowym jest powszechnie stosowany węglik krzemu, do którego można stosować znane już technologie wytwarzania elektroniki. Przez umiejętne podgrzewanie powoduje się migrację atomów krzemu, pozostawiając sam węgiel - czyli uzyskuje się precyzyjnie kontrolowaną warstwę grafenu. Tą metodą udało się wyprodukować siatkę składającą się z 10 tysięcy grafenowych tranzystorów na powierzchni 0,24 cm2 - to rekord, którym szczyci się Georgia Tech. Warstwy grafenu, jakie wytwarzane są w laboratoriach, poddawane są skrupulatnym badaniom. Epitaksjalny grafen dra de Heera zachowuje się niemal doskonale tak, jak wynika z teoretycznych symulacji, pozwalając zaobserwować oczekiwane właściwości, na przykład występowanie kwantowego efektu Halla. Obok prac nad skalowalnością procesu, równie ważne są prace nad tworzeniem struktur wielowarstwowych. Niedawno udało się wykazać, że dodawanie nowych warstw nie zakłóca właściwości warstw już istniejących. Ciekawostką jest to, że taki wielowarstwowy grafen jest czymś innym od grafitu: w graficie kolejne warstwy atomów obrócone są o 60º. W wielowarstwowym grafenie zaś o 30º - czyli jest to całkowicie nowy materiał. Epitaksjalne wytwarzanie grafenowych warstw pozwoliło ominąć jeszcze jedną technologiczną trudność. Podczas wykorzystywania innych technologii problemem były nierówne krawędzie nanoelementów. Ponieważ właściwości grafenu mocno zależą od jego kształtu (potrafi on nawet być raz przewodnikiem a raz półprzewodnikiem), jeśli krawędzie grafenowych elementów nie były idealnie gładkie, pojawiały się niepożądane opory w przepływie prądu, upływy itp. Technologia epitaksji pozwala zachować idealne krawędzie. Do ciekawostek należą odnalezione we współpracy z NIST (National Institute of Standards and Technology) właściwości grafenu pozwalające wpływać na jego właściwości przy pomocy precyzyjnie aplikowanych pól magnetycznych. Grafen - Concorde elektroniki Czy zatem grafen zastąpi krzem? Według zajmujących się nim naukowców po pierwsze nie tak szybko, po drugie nie do końca. Niekompatybilność właściwości starego i nowego materiału nie pozwoli tak po prostu przesiąść się na nowe technologie, które początkowo będą drogie. De Heer uważa, że przez długi czas krzem i grafen będą koegzystować - krzem w roli elektroniki popularnej i niedrogiej, grafen - do bezkompromisowych zastosowań, jak choćby bardzo zminiaturyzowane i szybkie układy, nie do osiągnięcia na bazie krzemu. Posługując się analogią sądzi on, że wchodzenie nowej technologii podobne będzie do rywalizacji lotnictwa z transportem morskim i kolejowym. Rozwijające się lotnictwo pasażerskie, pomimo wysokich cen, miało chętnych, dla których była ważniejsza szybkość. Do dziś jednak, mimo spadku cen i coraz większej masowości, stare metody transportu nie zanikły i wciąż się rozwijają.
  3. Świat zwierzęcy bardzo różni się sposobem odżywiania. Ssaki, do których należymy, bywają mięsożerne, roślinożerne lub wszystkożerne. Nawet u naszych najbliższych krewnych - naczelnych - sprawy mają się różnie. Tym trudniej orzec o sposobie odżywania ssaków już wymarłych. In dalej w przeszłość, tym trudniej, a z oczywistych powodów uczonych to bardzo interesuje. Naukowcy z Tel Avivu pracowali metodę pozwalającą na bardzo łatwą, szybką i pewną ocenę diety wymarłych ssaków na podstawie ich skamieniałości. Wystarcza im do tego... ząb. Autorem metody jest prof. Herzl Chai, wykładowca inżynierii mechanicznej na Tel Aviv University, współpracowali z nim amerykańscy naukowcy z George Washington University oraz U.S. National Institute of Standards and Technology (NIST). Metoda opiera się na analizie odprysków na szkliwie zęba, które zależą od struktury (rodzaju) i wielkości pokarmu oraz siły, z jaką zwierzę potrafi zacisnąć szczęki. To ostatnie również wyliczają z analizy śladów na szkliwie, co jest dużym osiągnięciem, ponieważ do tej pory do oceny siły zgryzu uczeni potrzebowali zachowanej całej czaszki. Od teraz wystarczy nawet jeden ząb, a ponieważ zęby są jedną z najlepiej zachowujących się pozostałości po wymarłych zwierzętach, trudno wręcz o metodę bardziej pożądaną. Opracowane równanie bierze pod uwagę wielkość zęba, grubość szkliwa, wielkość i głębokość rys, itd. - wiążąc wszystko w jedną całość. Metodę sprawdzono, oceniając zęby wielu obecnie żyjących gatunków zwierząt, wliczając to małpy człekokształtne. Naukowcy najbardziej cieszą się na możliwość określenia diety najwcześniejszych przodków człowieka, czyli pierwszych ssaków.
  4. Uczonym z Narodowego Instytutu Standardów i Technologii (NIST) udało się, jako pierwszym w historii, zaprezentować metodę konwersji pojedynczego fotonu wyemitowanego z kwantowej kropki w paśmie 1300 nm (bliska podczerwień) w foton charakterystyczny dla emisji fali o długości 710 nm (światło bliskie widzialnemu). Możliwość zmiany koloru pojedynczego fotonu może być ważnym krokiem na drodze do stworzenia hybrydowych kwantowych systemów obliczeniowych i komunikacyjnych. W przetwarzaniu kwantowej informacji bardzo ważna jest możliwość jej transportu w formie zakodowanej w fotonie oraz przechowywania. Specjaliści dążą do tego, by pojedyncze urządzenie było w stanie przechowywać i kodować kwantową informację. Problem jednak w tym, że dostępne obecnie systemy pamięci kwantowych są w stanie przechowywać fotony ze światła bliskiego światłu widzialnemu, a tymczasem najlepsze wyniki daje transport fotonów z podczerwieni, gdyż takie fale doświadczają najmniejszych strat w światłowodach. To pokazuje, jak ważny jest wynalazek NIST. Pozwala on bowiem na skonstruowanie pojedynczego urządzenia, które będzie pracowało z różnymi fotonami. Specjaliści z NIST dokonali tego łącząc źródło fotonu z wykrywaczem zdolnym do zmiany częstotliwości z niższej (długa fala) na wyższą (krótka fala). Ważnym osiągnięciem jest wykorzystanie tutaj kropki kwantowej, gdyż pozwala ona na emisję pojedynczego fotonu o określonej długości fali (kolorze). Wcześniej naukowcy nie potrafili uzyskać aż tak dużej kontroli nad fotonami. Dodatkową zaletą tej technologii jest konwersja fotonu z podczerwieni do światła niemal widzialnego. Pozwala to bowiem aż 25-krotnie zwiększyć wykrywalność fotonów, gdyż obecnie dostępne detektory dla światła bliskiego widzialnemu są znacznie doskonalsze niż te dla podczerwieni.
  5. Naukowcy z amerykańskiego National Institute of Standards and Technology (NIST) i niemieckiego Physikalisch Technische Bundesanstalt (PTB) ocenili w warunkach bardzo zbliżonych do wymaganych podczas testów klinicznych przydatność atomowego czujnika magnetycznego do śledzenia pracy ludzkiego serca (Applied Physics Letters). Dotąd czujnik badano głównie w laboratoriach. Najnowszy eksperyment miał miejsce w berlińskiej siedzibie PTB, w budynku z najlepszym na świecie ekranowaniem magnetycznym. Umożliwia ono zablokowanie pola magnetycznego Ziemi oraz innych zewnętrznych źródeł. Gwarantuje to uzyskanie wiarygodnych i precyzyjnych pomiarów. Czujnik stworzony przez specjalistów z NIST to de facto niewielkie pudełko, w którym znajduje się ok. 100 mld atomów rubidu w stanie gazowym (laser podczerwieni małej mocy) oraz elementy optyczne. Urządzenie zmierzyło unikatową sygnaturę magnetyczną serca w pikoteslach. Podczas przełomowego badania naukowcy umieszczali czujnik 5 mm nad lewą częścią klatki piersiowej leżącej na plecach osoby. Sensor wychwycił słaby, ale regularny wzorzec cyklu pracy serca. Utrwalono go także dzięki nadprzewodnikowemu interferometrowi kwantowemu SQUID (ang. superconducting quantum interference device) i następnie porównano oba zapisy. Okazało się, że miniczujnik NIST poprawnie zmierzył cykl i zidentyfikował wiele typowych cech. Choć wygenerował więcej zakłóceń interferencyjnych, zdobywa przewagę dzięki temu, że może pracować w temperaturze pokojowej. SQUID potrzebuje zaś temperatury -296 °C i drogiej aparatury wspierającej. Czujnik magnetyczny skonstruowano w 2004 r., jednak dopiero 3 lata temu dodano do niego światłowód, który wykrywa sygnały świetlne pozwalające wnioskować o natężeniu pola magnetycznego. W okresie tym udało się również zminiaturyzować układ kontrolny. Najnowsze badania wskazują, że minisensory znajdą zastosowanie w magnetokardiografii, stanowiącej uzupełnienie bądź alternatywę dla tradycyjnego ekg. Zapewniają one stabilność pomiaru na czas dziesiątych części sekundy, co bez wątpienia przyda się w rozwijanej dopiero magnetorelaksometrii (ang. magnetorelaxometry, MRX), mierzącej odmagnesowanie magnetycznych nanocząstek. MRX jest wykorzystywana do lokalizowania, zliczania i obrazowania tego typu nanocząstek, które wprowadzono do tkanek w celach medycznych.
  6. Grafen - strukturalną odmianę węgla tworzącą warstwy o grubości zaledwie jednego atomu, odkryto zaledwie sześć lat temu. Od tego czasu zrewolucjonizował on wiele kierunków nauki i techniki i wydaje się być najbardziej obiecującym i uniwersalnym materiałem przyszłości. To z niego tworzą się słynne fulereny, czy węglowe nanorurki. Jak się okazuje, do badań nad jego właściwościami można będzie wykorzystać efekt mory. Prążki mory (moiré) to efekt powstający w wyniku nałożenia na siebie dwóch regularnych wzorów, które są względem siebie przesunięte lub obrócone o niewielki kąt. W naturze możemy go obejrzeć na przykład nakładając na siebie dwa sitka, albo dwie firanki i poruszając nimi - powstaje wtedy trzeci, regularny wzór. Widać ją też na ekranie telewizora, gdy ktoś ma na sobie ubranie w drobną kratkę, albo jodełkę. Mora często jest utrapieniem dla grafików, pojawiając się przy skanowaniu, drukowaniu materiałów, fotografii cyfrowej, czy komputerowej obróbce grafiki. Efekt mory, który jest w zasadzie po prostu zakłóceniem - interferencją, można jednak wykorzystać, przykładowo znając wzór jednej warstwy i analizując wzór tworzony przez morę można wydedukować wzór drugiej warstwy. Tę sztuczkę postanowili wykorzystać w praktyce naukowcy z amerykańskiego Instytutu Technologii stanu Georgia i Narodowego Instytutu Standardów i Technologii. Grafen, który jest płaską, bo o grubości jednego atomu, warstwą węgla, doskonale się do tego nadaje, ponieważ tworzy regularny, sześciokątny wzór. Jeśli nałożymy go na drugą warstwę grafenu, albo innego materiału o regularnej budowie, to każde odkształcenie powierzchni, przesunięcie, przekręcenie czy wygięcie - poskutkuje powstaniem w tym miejscu interferencyjnych prążków mory. Badacze stworzyli w tym celu warstwy grafenu na powierzchni węglika krzemu (inaczej zwanego karborundem). Uzyskano ją przez jednostronne podgrzewanie karborundu: usunęło to krzem i pozostawiło same atomy węgla. Przy wykorzystaniu tunelowego mikroskopu skaningowego można było obserwować nałożone na siebie warstwy grafenu i rejestrować prążki mory powstające przy najmniejszych zmianach zachodzących w obserwowanej strukturze (zobacz ilustrację). Nazwano ten sposób „atomową interferometrią mory". Wykorzystana w badaniu technika pomiarowa jest tak dokładna, że pozwala wykryć odkształcenia rzędu 0,1% w odległościach pomiędzy atomami węgla. Projekt był częścią badań mających na celu dokładne poznanie właściwości grafenu, który w przeciwieństwie do innych materiałów nie rozciąga się, lecz raczej marszczy podczas zmian temperatury. Opracowana „atomowa interferometria mory" pozwoli np. na dokładne analizowanie i śledzenie przebiegu ładunków elektrycznych, czy rozchodzenia się ciepła i stanowić będzie wyśmienite narzędzie podczas prac nad stworzeniem grafenowych układów elektronicznych. Przydatna może być również do wykrywania i badania mikroskopowych naprężeń w innych materiałach. Autorami pracy na ten temat są D. Miller, K. Kubista, G. Rutter, M. Ruan, W. de Heer, P. First oraz J. Stroscio, pracownicy National Institute of Standards and Technology oraz Georgia Institute of Technology.
  7. W amerykańskim Narodowym Instytucie Standardów i Technologii powstał najdokładniejszy zegar atomowy na świecie. Bazuje on na pojedynczym atomie glinu i jest dwukrotnie bardziej dokładny niż jego wcześniejsza wersja korzystająca z atomu rtęci. Dokładność nowego zegara wynosi jedną sekundę na około 3,7 miliarda lat. Urządzenie to druga wersja "zegara z kwantową logiką". Został on tak nazwany, gdyż korzysta technologii obliczeniowych powstających na potrzeby przyszłych komputerów kwantowych. Zegary atomowe powstające na potrzeby nauki są daleko bardziej dokładne niż standardy czasu wyznaczane dla zastosowań "cywilnych". W USA taki standard wyznacza cezowy zegar NIST-F1, którego dokładność wynosi "zaledwie" 1 sekundę na 100 milionów lat. Paradoksalnie jest on, oficjalnie, najdokładniejszym zegarem na świecie. Międzynarodowa definicja (SI) określająca czym jest sekunda, korzysta właśnie z jednostki opisanej za pomocą zachowania atomu cezu, a więc, formalnie, zegar atomowy oparty na cezie jest najdokładniejszym urządzeniem do odmierzania czasu. Jak już wspomniano, nowy zegar korzysta z pojedynczego jonu glinu, umieszczonego w pułapce z pola elektrycznego. Jon wibruje z częstotliwością równą częstotliwości fali światła ultrafioletowego, a ta jest 100 000 razy wyższa, niż częstotliwość wykorzystana w NIST-F1 i innych podobnych zegarach na świecie. Niewykluczone, że w przyszłości cez straci swoją pozycję na rzecz glinu i to właśnie ten pierwiastek posłuży do opracowania nowego międzynarodowego standardu czasu. Tymczasem badacze z NIST pracują nad pięcioma różnymi zegarami atomowymi, korzystającymi z różnych pierwiastków i charakteryzującymi się różnymi właściwościami.
  8. Przeprowadzono testy pierwszego uniwersalnego, programowalnego komputera kwantowego. Odbyły się one w warunkach laboratoryjnych i ujawniły sporo problemów, które muszą zostać rozwiązane, zanim tego typu komputer pojawi się poza laboratorium. Podczas testów prowadzonych przez zespół Davida Hanneke użyto urządzenia skonstruowanego przez amerykański Narodowy Instytut Standardów i Technologii (NIST). Maszyna wykonuje obliczenia na dwóch kubitach (kwantowych bitach). Obliczenia kwantowe były wykonywane już wcześniej, jednak dotychczas udawało się je przeprowadzać tylko dla pewnych specyficznych algorytmów. Teraz amerykańscy naukowcy pokazali, w jaki sposób wykonywać każdy rodzaj kwantowych obliczeń za pomocą tego samego urządzenia. Jego sercem jest pokryta złotem płytka aluminium. Umieszczono na niej elektromagnetyczną pułapkę o średnicy 200 nanometrów, w której uwięziono dwa jony magnezu i dwa berylu. Magnez działa jak rodzaj "zamrażarki", eliminując niepożądane wibracje i utrzymując stabilność systemu jonów. Całość uzupełniały lasery, w których świetle zakodowano kwantowe bramki logiczne. Seria impulsów z zakodowanymi bramkami trafia w jony, a wyniki są odczytywane przez inny laser. Spośród nieskończonej liczby operacji, które można przeprowadzić na dwóch kubitach, wybrano 160 przypadkowych, by sprawdzić uniwersalny charakter komputera. Podczas każdej z operacji oba jony berylu były ostrzeliwane impulsami lasera, w których zakodowano 31 różnych bramek logicznych. Każdy ze 160 programów został uruchomiony 900 razy. Uzyskane wyniki porównano z teoretycznymi wyliczeniami i okazało się, że maszyna pracuje tak, jak to przewidziano. Stwierdzono, że każda bramka logiczna pracuje z ponad 90-procentową dokładnością, jednak po ich połączeniu system osiągnął dokładność około 79%. Działo się tak dlatego, że istnieją niewielkie różnice w intensywności impulsów z różnymi zakodowanymi bramkami. Ponadto impulsy muszą być rozdzielane, odbijane i przechodzą wiele innych operacji, przez co wprowadzane są kolejne błędy. Mimo osiągnięcia dobrych rezultatów, system musi być znacznie poprawiony. Naukowcy z NIST mówią, że musi on osiągnąć dokładność rzędu 99,99% zanim trafi do komputerów. By tego dokonać należy poprawić stabilność laserów i zmniejszyć liczbę błędów wynikających z interakcji światła z komponentami optycznymi.
  9. Naukowcy z amerykańskiego Narodowego Instytutu Standardów i Technologii (NIST) opracowali metodę, która upraszcza i czyni tańszą dystrybucję kluczy szyfrujących w kryptografii kwantowej. Dzięki ich pracom kwantowe metody kryptograficzne mogą szybciej się upowszechnić. Amerykańskim uczonym udało się zmniejszyć liczbę detektorów - najbardziej kosztownych elementów systemu kryptograficznego - z czterech do dwóch. W kryptografii kwantowej odbiorca wiadomości musi odebrać sekwencję fotonów i zmierzyć ich polaryzację by uwiarygodnić wiadomość. Najpowszechniej używany obecnie protokół, BB84, wymaga wykorzystania czterech detektorów, z których każdy kosztuje od 5000 do 20 000 dolarów. Jedna para detektorów mierzy polaryzację pionową i poziomą, a druga polaryzację +/- 45 stopni. Naukowcy pod przewodnictwem Xiao Tanga opracowali optyczny komponent, który powoduje rotację fotonów o 45 stopni i pozwala na ich zmierzenie za pomocą tego samego czujnika. Wystarczy więc użyć jednej pary detektorów - tej mierzącej polaryzację pionową i poziomą, a następnie wysłać do nich fotony ponownie i je obrócić. Zaleta jest oczywista - polaryzację można zmierzyć za pomocą dwóch czujników. Jednak nie ma róży bez kolców. Druga para fotonów przybywa później, niż w przypadku wykorzystywania czterech detektorów. Naukowcy mówią, że ich system spowalnia transmisję danych o połowę. Jednak, jak zapewniają, nadal pracuje ona z na tyle dużą prędkością, że można przesyłać w czasie rzeczywistym zaszyfrowany obraz wideo tworzony za pomocą kamery internetowej.
  10. Amerykański NIST (National Institute of Standards and Technology – Narodowy Instytut Standardów i Technologii) we współpracy z Narodowym Instytutem Raka opracował pierwszą w historii propozycję standardu dotyczącego nanocząsteczek. Nowemu standardowi mają podlegać nanocząsteczki złota. Perspektywy wykorzystania miniaturowych cząsteczek są niezwykle kuszące. Przeprowadzono już badania, które dają nadzieję, że w przyszłości nanocząsteczki będą w stanie niszczyć guzy nowotworowe bez szkody dla pacjenta. Naukowcy ostrzegają jednak, że brak standardów, dotyczących chociażby metod pomiaru toksyczności, może spowodować, iż nanocząsteczki przyniosą więcej szkody niż pożytku. Stąd konieczność wypracowania standardów, które np. upewnią nas, że badania prowadzone w różnych laboratoriach można ze sobą porównywać chociażby dlatego, iż używają one podobnych narzędzi i procedur. Opracowanie standardów jest też o tyle pilną sprawą, że badania nad nanocząsteczkami jest coraz łatwiej prowadzić. Laboratoria, które chcą się tym zajmować, nie muszą samodzielnie ich pozyskiwać. Ampułkę o pojemności 5 mililitrów zawierającą nanocząsteczki w roztworze koloidalnym można kupić już za 225 dolarów. Zgodnie ze standardem NIST do badań używane byłyby nanocząsteczki złota wielkości 10, 30 i 60 nanometrów. Ich wielkość miałaby być mierzona za pomocą jednej z sześciu metod, wśród których znajdziemy m.in. mikroskopię sił atomowych, transmisyjną mikroskopię elektronową czy skaningową mikroskopię elektronową. Zostaną też opracowane standardy dla metod pomiaru toksyczności. Badacze nanocząsteczek będą musieli zwracać uwagę m.in. na koncentrację złota, jonów chlorku, sodu i cytrynianów oraz na pH, przewodnictwo elektryczne i stabilność roztworu koloidalnego. Każda z próbek musi być też testowana pod kątem sterylności i występowania ednotoksyn. Do handlu będą mogły trafić tylko te nanocząsteczki, którym towarzyszy dokument zawierający opis wszystkich wymienionych elementów.
  11. Uczonym z amerykańskiego Narodowego Instytutu Standardów i Technologii (NIST), japońskiego NNT oraz Uniwersytetu Stanforda udało się przesłać kwantowy klucz na rekordową odległość 200 kilometrów. Podczas eksperymentu wykorzystano przede wszystkim obecnie używane technologie i urządzenia. Przeprowadzono go w laboratorium Uniwersytetu Stanforda, a sam klucz przesłano 200-kilometrowym światłowodem nawiniętym na szpulę. Przy okazji ustanowiono rekord prędkości przesyłania kwantowych kluczy szyfrujących. Dane generowano z prędkością 1 gigabita na sekundę, co oznacza, że w ciągu sekundy przesłano 10 miliardów impulsów świetlnych. Należy jednak zwrócić uwagę na fakt, że sama transmisja odbywała się znacznie wolniej. Przesyłany sygnał był bowiem po drodze korygowany i zabezpieczany. Ponadto nie szyfrowano nim żadnej wiadomości, więc nie można mówić tutaj o testowaniu kompletnego systemu QKD (quantum key dystribution – dystrybucja kwantowego klucza). Uczeni chcieli przede wszystkim sprawdzić teoretyczną wydajność systemu oraz przetestować nowe rozwiązania technologiczne. Głównym celem eksperymentu było sprawdzenie w praktyce działania superszybkich rosyjskich detektorów pojedynczych fotonów. Rosyjskie detektory charakteryzują się niskim współczynnikiem błędów oraz wyjątkowo szybkim czasem przejścia elektronu ze stanu wzbudzenia do stanu spoczynku. Zmiana stanów odbywa się w ciągu bilionowych części sekundy. Eksperyment dowiódł, że możliwe jest szybkie generowanie kluczy kwantowych i przesyłanie ich na duże odległości. Testowany system sprawdziłby się w dużych miastach, więc firmy mogłyby korzystać z kryptografii kwantowej, która jest znacznie bezpieczniejsza od obecnie wykorzystywanych technik kryptograficznych, podczas przesyłania poufnych dokumentów pomiędzy sobą.
  12. Wprowadzaniu nowych materiałów często towarzyszą obawy o ich wpływ na środowisko naturalne i zdrowie człowieka. Ma to zastosowanie również w dziedzinie elektroniki, w której coraz częściej pojawiają się np. nanorurki i rozwija się nanotechnologia. Naukowcy z University of California w San Diego (UCSD) oraz pobliskiego Veterans Affairs Medical Healthcare System w La Jolla zakończyli właśnie badania, które wykazały, że magnetyczne nanocząsteczki mogą być szkodliwe dla człowieka. Okazuje się, że tego typu cząstki o średnicy mniejszej niż 10 nanometrów hamują wzrost komórek nerwowych. Poprzednio eksperymenty in vitro przeprowadzone w Narodowym Instytucie Standardów i Technologii (NIST) dowiodły, iż nanorurki krótsze niż 200 nanometrów mają szkodliwy wpływ na komórki płuc człowieka. Obecnie szacuje się, że Narodowa Fundacja Nauki (NSF) spędza 10-krotnie więcej czasu na badaniach nad nowymi nanomateriałami, niż na badaniach nad wyeliminowaniem ich toksycznego oddziaływania. Chcielibyśmy, by przeznaczała ona więcej pieniędzy na finansowanie badań podobnych do naszych. Tak, by można było określić, które nanomateriały są najbardziej toksyczne i jak wyeliminować to zagrożenie – mówi profesor Shunho Jin z UCSD. Tysiące firm pracuje obecnie nad rozwojem magnetycznych nanocząsteczek i zastosowaniem ich w bio- i nanotechnologii. Bardzo popularnym materiałem są nanocząstki tlenku żelaza, o których dotychczas sądzono, że są obojętne dla organizmów żywych. Najnowsze badania wykazały, że mogą być niebezpieczne. Zespół Jina odkrył, że w obecności tego typu nanocząstek, jeśli są one mniejsze niż 10 nanometrów, komórki nerwowe nie reagują na sygnały chemiczne i zamiast ułatwiać przekazywanie sygnałów, przechodzą w stan uśpienia. Wcześniej NIST stwierdził, że nanorurki węglowe o długości mniejszej niż 200 nanometrów, z łatwością przenikają do komórek płuc. W zależności od stopnia ich koncentracji, komórki umierają lub wykazują inne objawy zatrucia.
×
×
  • Dodaj nową pozycję...